• ↓
  • ↑
  • ⇑
 
Записи пользователя: IWannaBeTheVeryBest (список заголовков)
20:57 

Многочлены Лежандра

IWannaBeTheVeryBest
В теме "Ортогональные системы функций" (Фихтенгольц Т3, Гл. 19, параграф 1, п. 679, пример 5) указаны многочлены Лежандра в качестве ортогональной системы функций.
Приведен интеграл
`int_{-1}^{1} P^2(x) dx = 2/(2n + 1)`
`P_0(x) = 1`
`P_n(x) = 1/((2n)!!) * (d^n(x^2 - 1)^n)/(dx^n)`
Решил я разобраться с этим интегралом. Фихтенгольц меня отправляет -> Т2, гл. 9, параграф 4, п. 320, стр. 150.
Исключаем временно константу `1/(((2n)!!)^2)`
Рассмотрим интеграл
`int_{-1}^{1} (d^n(x^2 - 1)^n)/(dx^n) * (d^n(x^2 - 1)^n)/(dx^n) dx`
Интегрируем по частям
Берем первую дробь за `u` другую за `dv`. Части `uv` при подстановке пределов интегрирования будут обнуляться. При `int_{-1}^{1} vdu` будет вылезать минус.
Проделав эту операцию `n` раз, мы получаем интеграл
`(-1)^n * int_{-1}^{1} (d^(2n)(x^2 - 1)^n)/(dx^(2n)) * (x^2 - 1)^n dx = 2 * (2n)! * int_{0}^{1} (1 - x^2)^n dx`
Здесь мне понятно все, кроме одного. Как доказать такое равенство
`(d^(2n)(x^2 - 1)^n)/(dx^(2n)) = (2n)!`
Дальнейшие выкладки мне понятны. Даже дословно разобрал `int_{0}^{1} (1 - x^2)^n dx` при `x = sint`. Тут все ясно. Вот помогите только доказать это равенство. На него ссылок вроде Фихтенгольц не оставил(( Проще конечно на веру принять. Но если разбираться, то уж до конца. А то так просто не интересно))

@темы: Математический анализ

16:53 

Интегралы с параметром

IWannaBeTheVeryBest
Всем привет. Не могу понять, как идет доказательство одной из теорем. Конкретно - т.2, гл. 14 "Интегралы, зависящие от параметра", параграф 1, пункт 508 "Интегрирование под знаком интеграла", теорема 4.
"Если функция `f(x, y)` непрерывна (по обеим переменным) в прямоугольнике `[a, b; c, d]`, то имеет место формула
`int_{c}^{d} dy int_{a}^{b} f(x, y) dx = int_{a}^{b} dx int_{c}^{d} f(x, y) dy`"
Доказательство:
"Докажем более общее равенство
`int_{c}^{\eta} dy int_{a}^{b} f(x, y) dx = int_{a}^{b} dx int_{c}^{\eta} f(x, y) dy`, `c <= \eta <= d`
Вычислим производные по `\eta`. Внешний интеграл имеет подинтегральную функцию `f(x, y)` непрерывную по `y`. Поэтому его производная, по переменному верхнему пределу, будет равна подинтегральной функции, вычисленной при `y = \eta`:
`int_{a}^{b} f(x, \eta) dx`... "
Вот тут я не понял, почему так? Если расписывать, то тогда получается
`D_{\eta} int_{c}^{\eta} dy int_{a}^{b} f(x, y) dx = int_{a}^{b} f(x, \eta) dx`
Каким образом этот переход был осуществлен? Ну если чисто интуитивно рассуждать, что я не люблю, если мы находим производную, то один из внешних интегралов, в повторном интеграле, должен исчезать. Кроме того, если этот внешний интеграл был по `y`, то и `\eta` становится параметром вместо `y`. Но это все просто, как говорится, "разговоры на лавочке".

@темы: Математический анализ

18:27 

Лемма Римана. Равномерная сходимость рядов Фурье

IWannaBeTheVeryBest
Всем привет. Я почему-то вообще не могу понять доказательство из Фихтенгольца.
"Пусть f(x) определена и абсолютно интегрируема на `[A, B]`. Тогда пределы `lim_{p->\infty} int_{a}^{b} g(t) sin(pt) dt` и `lim_{p->\infty} int_{a}^{b} g(t) cos(pt) dt`
равномерно стремятся к нулю относительно переменных `a` и `b`, которые принимают произвольные значения в промежутке `[A, B]`"
"Доказательство. Достаточно рассмотреть первый из интегралов. Ввиду равномерной непрерывности функций
`int_{A}^{t} |g(t)| dt`
(тут не понял что это за вид интеграла такой. куда-то делся синус, и верхний предел теперь переменный...)
можно разбить по заданному `\epsilon > 0` промежуток `[A, B]` точками
`A = \tau_{0} < \tau_{1} < \dots < \tau_i < \tau_{i + 1} < \dots < \tau_n = B` (...и как это приводит сюда)
на столь мелки части, чтобы было
`int_{\tau_i}^{\tau_{i + 1}}|g(t)| dt < \epsilon`
Для интегралов вида
`int_{\tau_i}^{\tau_j}g(t)*sin(pt) dt` (1)
так как их конечное число можно установить общее `\Delta > 0`, такое, что для `p > \Delta` все они по абсолютной величине уже будут `< \epsilon`.
Но, как легко видеть (но я не вижу), интеграл
`int_a^b g(t) sin(pt) dt`,
каковы бы ни были `a` и `b`, разнится (при любом `p`) меньше, чем на `2\epsilon`, от одного из интегралов вида (1) (объясните, как это видно). Следовательно, при `p > \Delta` он независимо от `a` и `b` по абсолютной величине будет `< 3\epsilon`, что и требовалось доказать."
То есть в общем-то я не понял, зачем изначально такой интеграл рассматривается, без синуса. И все эти манипуляции с 2 и 3 эпсилон. Просто охота не тупо вызубрить и рассказать преподавателю. Охота понять действительно ли это так.
Пока что предположения такие. Рассматривается этот интеграл выше, так как просто тупо фиксируется нижняя граница, а верхняя, как и описано в теореме, может изменяться на `(A, B]`.

@темы: Математический анализ

17:11 

Правила записи тензоров

IWannaBeTheVeryBest
Довольно часто натыкался на то, что при переходе от матричной записи к суммам, меняются местами множители. Вот один пример из тензоров
"Линейное преобразование пространства $L$ является тензором типа (1, 1). В самом деле, если задано линейное преобразование, то каждому базису соответствует матрица, и матрицы, соответствующие двум базисам, связаны формулой $A' = S^{-1}AS$ :
`(\alpha_{j}^{i})' = \tau_{k}^{i}\sigma_{j}^{l}\alpha_{l}^{k}`"
(тау - компоненты матрицы `S^{-1}`, сигма - компоненты матрицы `S`)
Это схожий с суммами пример, так как, если не ошибаюсь, по одинаковым индексам ведется суммирование. То есть в данном случае по `k` и `l`. Ну `i` и `j` просто тут будут константами.
Меня интересует, почему не
`\tau_{k}^{i}\alpha_{l}^{k}\sigma_{j}^{l}`
? Ведь по-сути порядок матриц именно таков.
Есть какая-то принципиальная разница? Или просто в первом случае что-то вроде "правила хорошего тона". Просто наткнулся где-то в другом учебнике, что, вообще говоря, произведение тензоров не является коммутативным. В таком случае должна быть разница не только в записи.
Если брать другой пример, то, вроде как в скалярном произведении через матрицу Грама тоже такое есть. В матричной записи матрица Грама стоит между вектором-строчкой и вектором столбцом, а в "покомпонентной" записи, через сумму, компоненты матрицы Грама стоят в конце, а компоненты векторов - вначале.
Каким образом можно так свободно переходить от одной записи к другой? Надеюсь вы меня поняли))

@темы: Линейная алгебра

12:24 

Сопряженное линейное пространство.

IWannaBeTheVeryBest
Всем привет. Сейчас читаю раздел Линейной алгебры. Про сопряженное пространство. Определение такое
"Линейное пространство $L^*$ всех линейных функций на линейном пространстве `L` называется сопряженным для `L`."
Если я правильно понимаю, линейная функция ставит в соответствие вектору `x` пространства `L` некоторое число `f(x)` из поля `k`. Это получается отображение `f : L -> k`.
Но ведь множество "всех линейных функций" - это же просто множество чисел получается? То есть $L^*$ - просто поле `k`? Ну или скорее так - $L^*$ является подмножеством поля `k`.

@темы: Линейная алгебра

19:50 

Исследовать на равномерную сходимость интеграл

IWannaBeTheVeryBest
`int_{0}^{\infty} (sin(ax)dx)/sqrt(x^2 + a^2)`
`a \in (0; +\infty)`
Можно ли оценить его таким образом
`|int_{A}^{\infty} (sin(ax)dx)/sqrt(x^2 + a^2)| <= int_{A}^{\infty} |(sin(ax))/sqrt(x^2 + a^2)| dx <= int_{A}^{\infty} |(sin(ax))/x| dx <= pi/2`
?
Во-первых меня смущает то, что параметр можно к 0 устремить. И как в таком случае будет вести себя интеграл на бесконечности?
И еще, надеюсь не опоздал. Можно ли доказать `lim_{x->0} sinx/x = 1` по определению предела? А то на википедии какой-то геометрический метод. Ну это так, чисто интересно.

@темы: Математический анализ

11:38 

Вторая основная лемма (Дирихле)

IWannaBeTheVeryBest
Здравствуйте. В Фихтенгольце, в параграфе "Разложение функций в ряд Фурье", есть пункт "Вторая основная лемма", которая гласит
"Если функция `g(t)` монотонно возрастает, оставаясь ограниченной в промежутке `[0, h]`, где `h>0`, то
`lim_{p->\infty} int_{0}^{h} g(t)*(sin(pt)dt)/t = (pi/2) * g(+0)`"
Что означает запись `g(+0)`? Просто там еще есть обозначения вроде `(g(t + 0) + g(t - 0))/2`.
По моему предположению, первое означает `lim_{t->+0} g(t)`. А во втором речь про бесконечно малую окрестность точки (так как функция в самой точке имеет разрыв или скачок). Правильно?

@темы: Математический анализ

19:03 

Ассимптотическая устойчивость системы ДУ

IWannaBeTheVeryBest
При каких альфа нулевое решение данной системы
`{(x' = -3x + \alpha y),(y' = -\alpha x + y):}`
ассимтотически устойчиво?
Вообще, насколько я понимаю, надо составить матрицу из производных по икс и по игрек обоих уравнений (Якобиан вроде называется), и составить характеристическое уравнение `det(J - \lambda E) = 0`. Дальше наша задача определить, при каких альфа действительная часть корней этого уравнения будет отрицательной.
Поехали.
`J = ` $\left(\begin{array}{c c}-3 & \alpha \\ -\alpha & 1\end{array}\right)$
`J - \lambda E = ` $\left(\begin{array}{c c}-(3 + \lambda) & \alpha \\ -\alpha & 1 - \lambda \end{array}\right)$
`det(J - \lambda E) = (\lambda - 1)(\lambda + 3) + \alpha^2 = \lambda^2 + 2\lambda - 3 + \alpha^2`
`\lambda^2 + 2\lambda - 3 + \alpha^2 = 0`
Ну, я для комплексных чисел не стал проверять, но для действительных проверил. Где-то видел правило, что если все коэффициенты уравнения >0, то условие на отрицательные действительные части будет выполнено.
`- 3 + \alpha^2 > 0`
`\alpha^2 > 3`
`\alpha \in (-\infty; -sqrt(3))\cup(sqrt(3); +\infty)`
Верно? Просто я не понял, зачем здесь тогда указывать про нулевое решение, когда тут для любого решения получается это выполняется. Производные уравнения не содержат в себе функции, зависящие от икс или игрек. А соответственно любое решение такой системы должно быть ассимптотически устойчивым.

@темы: Дифференциальные уравнения

15:33 

Привести к интегралу Эйлера

IWannaBeTheVeryBest
`int_{0}^{\infty} ((sqrt(x)*lnx)dx)/(1 + x)`
Функция B нам тут не подойдет, так как присутствует логарифм в интеграле. Хотя в функции Г тоже не видно логарифма. Поэтому я думал как-то избавиться от него. Но простая казалось бы замена `x = e^t` нам дает пределы интегрирования очень плохие. Если брать по частям интеграл, то логарифм не уйдет. Как минимум, если `u = lnx`, то в другой части он вылезет обязательно. Получается от него не избавиться. Значит надо как-то преобразовать, скажем, функцию Г так, чтобы в ней появился этот логарифм. Но тут проблема в том, что самая похожая на мой интеграл функция, а именно `\Gamma' (a) = int_{0}^{\infty} x^(a - 1)*lnx*e^{-x} dx` содержит экспоненту. Ее просто так, с голого места не получить. Ее надо как то вводить. Может быть путем замены какой-нибудь. Хотя опять же в функциях В и Г нижние пределы интегрирования нули. Из-за них, после замены, будет вылезать предел `-\infty`.
Можно попробовать например продифференцировать функцию B по любому параметру. Там будет вылезать логарифм. Функция Г опять же не вариант, так как от экспоненты никуда не денешься.
Если что ниже укажу
`\B (a, b) = int_{0}^{1} x^(a - 1) * (1 - x)^(b - 1) dx = |x = t/(1 + t)| = int_{0}^{\infty} (t^(a - 1)dt)/((1 + t)^(a + b))`
`\Gamma (a) = int_{0}^{\infty} x^(a - 1)*e^{-x} dx`

@темы: Математический анализ

14:37 

Вычислить интегралы. 2

IWannaBeTheVeryBest
Всем привет. Хотел, чтобы проверили. И у меня еще есть вопрос.
`I(y) = int_{0}^{\infty} (cos(yx)dx)/(1 + x^2)^2`
Воспользоватся тем, что `int_{0}^{\infty} (cos(yx)dx)/(1 + x^2) = (pi*e^(-|y|))/2` (интеграл Лапласа)
Решение.
`(dI)/(dy) = -int_{0}^{\infty} (xsin(yx)dx)/(1 + x^2)^2 = |u = sin(xy); dv = -xdx/(1 + x^2)^2| = sin(xy)/(2(1 + x^2))|_{0}^{\infty} - y/2 * int_{0}^{\infty} (cos(xy) dx)/(1 + x^2) = `
`= -y/2 * pi/2 * e^{-|y|} = pi/4 * (-ye^{-|y|})`
Тогда
`I = pi/4 int -ye^{-|y|} dy = pi/4 * e^{-|y|} + C`
Константу можно определить как
`I(0) = int_{0}^{\infty} dx/(1 + x^2)^2 = pi/4`
`I = pi/4 * (e^{-|y|} + 1)`
Я только вот здесь не понимаю, каким образом определяется константа. Мы можем любое значение под интеграл подставлять? Лишь бы могли его вычислить? Не обязательно же константу определять, как `I(0)`? Или нужно, чтобы интеграл превращался в 0? Ну просто в моем случае, я думаю это верно, так как 0 будет гарантировать, что в числителе у меня будет точно 1. А вообще есть какое-то правило, по которому надо определять эту константу? Или без разницы?
`I(y) = int_{0}^{\infty} (cos(yx)dx)/(1 + x^2)^3`
Здесь было написано тоже решить. Но мне кажется, что он просто сводится к предыдущему дифференцированием по параметру. Верно?

@темы: Математический анализ

22:02 

Вычислить интегралы.

IWannaBeTheVeryBest
`int_{0}^{\infty} ((x - sinx)dx)/x^3`
Вычитал про них из Фихтенгольца. Хотя может дальше про них что-то еще сказано... Но пока вот что я сделал
1) Разбиваем интеграл на 2 части
`int_{0}^{1} + int_{1}^{\infty}`
2) Подбираем ряд для подынтегральной функции
`sinx = sum_{n = 1}^{\infty} ((-1)^(n - 1) x^(2n - 1))/((2n - 1)!)`
`x - sinx = sum_{n = 1}^{\infty} ((-1)^(n - 1) x^(2n + 1))/((2n + 1)!)`
`(x - sinx)/x^3 = sum_{n = 1}^{\infty} ((-1)^(n - 1) x^(2n - 2))/((2n + 1)!)`
Этот ряд сходится равномерно только при `|x| < 1`. То есть в нашем случае мы имеем право таким образом, применяя ряд, интегрировать только первый интеграл.
Первый интеграл будет равен `sum_{n = 1}^{\infty} ((-1)^(n - 1) x^(2n - 2))/((2n + 1)!*(2n - 1))` если не ошибаюсь.
Что делать со вторым? Там где-то вроде еще была замена `x = 1/z`. Может прокатит? Там как раз пределы интегрирования поменяются. Или так просто ничего не изменится?
И еще один
`int_{0}^{1} ((x^(n - 1) - 1)dx)/lnx`
Тут мне просто не понятно, что за n. Вроде не сказано, что это параметр из какой-то области. Может просто типа константа любая. Однако я что-то не могу здесь применить способ решения через ряды? Какой-то другой здесь используется? Хотя можно попробовать от логарифма в знаменателе избавиться с помощью замены вроде `x = e^t`.
Очень удобные тогда будут в этом случае пределы интегрирования. На них экспоненциальный ряд точно сходится равномерно.

@темы: Математический анализ

11:31 

Доказать устойчивость нулевого решения по определению

IWannaBeTheVeryBest
Не люблю, когда прилетают нестандартные задачи, о которых в интернете мало что сказано.
Доказать по определению, что нулевое решение ДУ `x' = -3x` ассимптотически устойчиво.
Все, что я находил про устойчивость касалось исключительно систем. Я так понимаю, что передо мною стоит задача опустить условия для систем на одиночное ДУ.
Не хочу доказывать асс. уст-ть, пока не докажу обычную. Хотя может этого и не требуется делать.
Определение должно быть таким
Решение `y = \varphi(x)` является устойчивым по Ляпунову, если для любого `\epsilon > 0` существует такая `\delta(\epsilon) > 0`, что как только `|y(x_0) - \varphi(x_0)| < \delta` сразу же выполняется `|y(x) - \varphi(x)| < \epsilon` (для `x > x_0`).
Предположим, что в нашем случае `x' = dx/dt`, хотя как мне кажется, без разницы по какой букве выбирать дифференцирование.
Для начала я найду общее решение.
`dx/x = -3dt`
`lnx = -3t + C`
`x = C*e^{-3t}`
Нулевое решение, как я понимаю, это `x(0) = 0`. Решением такой задачи Коши является просто 0. А решением задачи `x(0) = x_0`, является функция `x = x_0*e^{-3t}`
Неравенства должны принимать такой вид
`|x_0 - 0| = |x_0| < \delta`
`|x_0*e^{-3t}| < \epsilon` для `t > t_0`
Положим `\delta = \epsilon`. Дальше можно сделать преобразования
`|x_0*e^{-3t}| = |x_0|*e^{-3t} < |x_0| < \delta = \epsilon` для `t > 0`
Для ассимптотической устойчивости достаточно сказать, что `|x(t) - \varphi(t)| -> 0`, при `t -> \infty`
То есть `lim_{t -> \infty} x_0*e^{-3t} = 0`. Это очевидно для положительных t, что нам и надо.
Все верно? Просто само выражение "нулевое решение" меня как-то смущает.

@темы: Дифференциальные уравнения

22:57 

Дифференциальное уравнение с переменными коэффициентами

IWannaBeTheVeryBest
Еще один вопрос по диффурам сегодня.
`(2x + 3)^3 y''' + 3(2x + 3)y' - 6y = 0`
`2x + 3 = t`
`dx = 1/2dt`
`y' = dy/dx = 2dy/dt`
`y''' = 2(d^3y)/dt^3`
`2t^3 y''' + 6ty' - 6y = 0`
Это уравнение Эйлера. Сводится к уравнению с постоянными коэффициентами заменой
`t = e^z;dt = e^zdz`
`y' = dy/dt = e^{-z}dy/dz`
Ну и так далее. Чтобы не отнимать большое количество времени, хотел спросить. В конце у нас же получится функция `y(z)`, если не ошибаюсь. А изначально у нас игрек зависел от икса. Мне придется обратно как-то приходить к зависимости от икс?

@темы: Дифференциальные уравнения

19:15 

Последовательные приближения Пикара.

IWannaBeTheVeryBest
Система
`{(x' = y^2),(y' = x^2):}`
`{(x(0) = 1),(y(0) = 1):}`
Как строить приближения для системы уравнений? Условия написал примерно. Не помню точно какие были. Но думаю эти пойдут.
Для простого уравнения это будет так
`y_n = y_0 + int_{x_0}^{x} f(x,y_{n - 1}) dx`
В моем случае уже будет не `y_0`, а вектор `T_0 = ((1),(1))`
Дальше идет интеграл. Рассуждаю логически. В случае одного уравнения пределы интегрирования являются точка `x_0` и `x`. В нашем случае это точка `t_0` и `t`, так как в системах и икс и игрек зависят от t.
Потом составляется функция - правая часть `y' = f(x, y)`, но вместо игрек мы подставляем на первом приближении `y_0`, затем `y_1` и так далее. В нашем случае это будет вектор-функция. Но тут я никак не могу сообразить, что будет. Справа нет ничего связанного с t. Что будет с первым приближением? Если в случае одного уравнения аргумент икс оставался без изменения, то логично предположить, что все аргументы должны оставаться без изменений, кроме t. Тогда, под интегралом, должен быть вектор
`((y^2),(x^2))`
Все вместе должно выглядеть так
`T_{n} = T_0 + int_{t_0}^{t} F(t_{n - 1}, x, y) dt`
Первое приближение такое
`T_{1} = ((1),(1)) + int_{0}^{t} ((y^2),(x^2)) dt`
Пределы интегрирования наверное тоже надо было в векторном виде записать. Хотя я в векторной форме записи не очень силен. Подскажите, если что не так.

@темы: Дифференциальные уравнения

18:51 

Исследование на непрерывность интеграла, зависящего от параметра

IWannaBeTheVeryBest
Честно говоря, не нашел такой темы в Фихтенгольце. Там только про равномерную сходимость есть.
`int_{1}^{\infty} lnxdx/((x - y)^2 + 1)`
`Y \in R`
В википедии говорится, что если `f(x, y)` непрерывна в области `\overline{G} = {(x,y): a <= x <= b; c <= y <= d}`, тогда и функция `int_{a}^{b} f(x,y) dx` непрерывна на `[c; d]`
Это замечательно, но только верхний предел у меня бесконечен. Что тут делать вообще плохо понимаю.

@темы: Математический анализ

18:05 

Равномерная сходимость интегралов, зависящих от параметра.

IWannaBeTheVeryBest
`int_{0}^{1} dx/sqrt((1 - x)(1 - yx))`
`Y \in (0;1)`
По определению, этот интеграл является предельным для
`int_{0}^{1 - \nu} dx/sqrt((1 - x)(1 - yx))|_{\nu->0}`. Из равномерной сходимости этого интеграла следует равномерная сходимость исходного. А этот интеграл сходится равномерно, если для любого положительного эпсилон, найдется положительная дельта, независящая от игрек, что только лишь `\nu < \delta` сразу выполнено
`|int_{1 - \nu}^{1} dx/sqrt((1 - x)(1 - yx))| < \epsilon`
Вот есть идея тупо проинтегрировать, считая игрек константой. Ну перемножить скобки под корнем. Далее выделить полный квадрат. Но мне кажется ответ грязный будет выходить. Может есть какой-то более короткий путь?
Появилась еще идея попробовать игрек заменить на 1 или 0. Ну в общем на какую-нибудь предельную точку области, в которой определен игрек

@темы: Математический анализ

21:33 

Разложение функции в ряд Фурье

IWannaBeTheVeryBest
Такую вот задачу я получил на контрольной.
Разложить в ряд Фурье функцию `y = cos^7x` на промежутке `[-pi, pi]`
По логике, решение должно быть таким
`a_0 = 2/pi * int_{0}^{pi} cos^7x dx`
`a_n = 2/pi * int_{0}^{pi} cos^7x*cosnx dx`
`f(x) = a_0/2 + sum_{n = 1}^{\infty} a_n * cosnx`
Так, потому что функция четная. Но степень высоковатая и как такое интегрировать я что-то не в курсе. Понижать степень и перемножать с косинусом энного угла - не вариант.
Пробую ломать по-другому. Ну насколько я понимаю, надо представить косинус через формулу Эйлера. Выходит так
`cos^7x = ((e^{ix} + e^{-ix})/2)^7`
Ну предположим. То есть я как бы могу раскрыть такую скобку, используя или треугольник Паскаля или по хардовому - через Бином Ньютона, что честно говоря мне делать не очень охота. Поэтому использую треугольник Паскаля. 7 уровень треугольника Паскаля имеет коэффициенты `1,7,21,35,35,21,7,1`
Кроме того, мы знаем, что сможем в каждом множителе преобразовывать степени экспонент. Получается, что степени экспонент будут таковыми `7, 5, 3, 1, -1, -3, -5, -7`
По итогу имеем
`1/128 * (e^{7ix} + 7e^{5ix} + 21e^{3ix} + 35e^{ix} + 35e^{-ix} + 21e^{-3ix} + 7e^{-5ix} + e^{-7ix})`
Группируем и возвращаем к стандартной записи
`1/64 * (cos(7x) + 7cos(5x) + 21cos(3x) + 35cos(x))`
Это все очень замечательно, но перемножать 4 слагаемых с косинусом nx как-то все равно долго. Есть пути короче? Тем более, насколько я понимаю, при перемножении двух косинусов получается сумма косинусов. При интегрировании косинусов получаются синусы. А синусы по таким пределам будут просто обнуляться. Получается, что разложение будет состоять только из `a_0`, НО невооруженным глазом видно, что по таким пределам косинус в любой степени будет обнуляться. Что-то прямо страшное происходит. Пока что думаю, что надо пойти почитать про самое начало разложения в ряд Фурье. Где был рассказ про базис, по которому раскладывается функция. Ортогональные системы функций, что-ли... Подскажите, что делать

@темы: Математический анализ

13:10 

Решение дифференциального уравнения, с постоянными коэффициентами.

IWannaBeTheVeryBest
Всем привет. Такое дифференциальное уравнение мне было дано.
`y'' + y = 2x - pi`
`y(0) = 0, y(pi) = 0`
Решаю так
`y = y_0 + y_1`
Характеристическое уравнение, решение однородного уравнения
`\lambda^2 + 1 = 0`
`\lambda = +-i`
`y_0 = C_1cost + C_2sint`
Ну правая часть простого вида. Можно подбирать частное решение в виде `y_1 = Ax + B`. В корни хар. ур-я не входит нуль. Значит на икс домножать не надо.
Двойная производная равна 0. Поэтому `A = 2, B = -pi`
`y = C_1cost + C_2sint + 2x - pi`
Вроде все гладко, но вот с начальными условиями как-то странно.
`y(0) = C_1 - pi = 0`
`y(pi) = -C_1 + pi = 0`
`C_1 = pi`
Но `C_2` не входит в нашу систему. Как-то подозрительно. Получается, что `C_2 \in R`
Все верно? Или я где-то ошибся?

@темы: Дифференциальные уравнения

15:37 

Равномерная сходимость интегралов, зависящих от параметра.

IWannaBeTheVeryBest
`int_{0}^{\infty} sqrt(x + y)/e^{x} dx; y \in [0; \infty)`
Если действовать строго по определению, то интеграл сходится, если для любого наперед заданного положительного эпсилон, а также для любых игрек из области, найдется `A_0` такое, что выполняется неравенство
`|int_{A}^{\infty} sqrt(x + y)/e^{x} dx| < \epsilon`
при условии
`A > A_0 >= 0`
Написал определение сразу под свой случай.
В Фихтенгольце идет сразу пример, который спокойно интегрируется. Но тут, насколько я вижу, сразу ничего интегрироваться не будет. Если брать замену `x + y = t^2`, то, без учета констант, под интегралом будет что-то вроде `t^2/e^(t^2)`. Дальше можно пытаться по частям конечно, типа u = t и так далее, но в конце все равно вылезает `1/e^(t^2)`
Поэтому я прихожу к выводу, что наверняка надо пользоваться какими-то критериями сходимости интегралов.
По первому критерию достаточной сходимости, нужно найти некоторую функцию зависящую только от икс, которая будет, если я верно выражаюсь, "мажорировать" нашу функцию, для любого игрек. С ходу я не могу подобрать такую функцию. `1/e^x` скорее снизу ограничивает, нежели сверху. Если посмотреть на функцию `sqrt(x)` - аналогично. Можно подобрать y, скажем, 50000, при котором сначала эта функция будет больше, чем `sqrt(x)`.
По второму критерию и третьему критериям - дано `int_{A}^{\infty} f(x,y)*g(x,y)dx`. Но, если не ошибаюсь, моя функция бьется так - `f = sqrt(x + y)` и `g = 1/e^x`
В таком случае ни f, ни интеграл от f не будут вообще каким-то образом ограничены. Расходится сама функция при стремлении `x->\infty` и сам интеграл.
Неужели этот интеграл расходится? Это же все равно надо как-то доказать.

@темы: Математический анализ

14:58 

Исследовать функцию двух переменных на равномерную сходимость

IWannaBeTheVeryBest
`f(x,y) = (xy)/(x^{2} + y^{2}), X \in (1; \infty), y \to 0+`
Я так понимаю, что нужно исследовать функцию по определению. Но как же я это не люблю делать. А точнее сказать - не умею. Я реально хочу научиться пользоваться всеми этими эпсилон и дельта, но в том же Фихтенгольце дано просто определение равномерной сходимости и все. Нет примеров использования этого определения. Я просто не понимаю, как эти эпсилон и дельта использовать. Я даже слабо представляю что они вообще означают. Если я даже примерно, на интуитивном уровне, понимаю определение, то я не в курсе, как его применить на практике. А голая теория - это что-то из области ада.
По признаку Коши, функция двух переменных сходится к своей предельной функции, если
`\forall \epsilon > 0 \exists \delta > 0: \forall y',y'' \in {y}: 0<|y' - y_0|< \delta; 0<|y'' - y_0|< \delta => |f(x, y') - f(x, y'')| < \epsilon`
Единственное, что приходит в голову - подставить пока хотя бы во второе неравенство нашу функцию вместе с этими игреками.
`- \epsilon < (xy')/(x^{2} + y'^{2}) - (xy'')/(x^{2} + y''^{2}) < \epsilon`
Ну и что отсюда я должен получить? Наверняка какую-то оценку, при которой наша функция при любых Х будет ограничена какими-то произвольными положительными числами. Хотя может у меня уже каша в голове.
В первых двух неравенствах y' и y'' просто ограничены дельтой как я понимаю, раз `y_0 = 0`.
Я не пытаюсь сделать так, чтобы за меня решили. Я сам хочу дойти до ответа. Мне пофиг. Хоть весь день угроблю на одно задание.

@темы: Математический анализ

Не решается алгебра/высшая математика?.. ПОМОЖЕМ!

главная