Оценить сверху неравенство `P{|\eta_n/n - 3.5| > \epsilon}, \epsilon > 0`, если
`\eta_n` - случайная величина равная сумме очков при `n` подбрасываниях игральной кости.
Не могу понять, как так получается, что сверху это оценено как `8.75/(n\epsilon^2)`
То есть каким образом здесь вообще ищется дисперсия и как здесь определено матожидание, если подбрасываний n штук. Или мне нужно сначала определить это n? то есть сверху это оценивается как `(D[\eta_n/n])/(\epsilon^2)`
`\eta_n` - случайная величина равная сумме очков при `n` подбрасываниях игральной кости.
Не могу понять, как так получается, что сверху это оценено как `8.75/(n\epsilon^2)`
То есть каким образом здесь вообще ищется дисперсия и как здесь определено матожидание, если подбрасываний n штук. Или мне нужно сначала определить это n? то есть сверху это оценивается как `(D[\eta_n/n])/(\epsilon^2)`
`\eta_n = X_1 + X_2 + ... + X_n`, где `X_k` - число очков при разовом подбрасывании... вот и считайте дисперсию ...
`X_1, X_2, \dots , X_n` - это случайные величины, которые по-сути же ничем не отличаются друг от друга, верно? При каждом подбрасывании же у нас может быть только от 1 до 6 очков с одинаковой вероятностью. То есть `\eta_n = nX_1`
Матожидание `E[\eta_n/n] = E[X_1]`
То есть
`D[\eta_n/n] = D[X_1] = E[(X_1)^2] - (E[X_1])^2`
Так?
нет... так записать нельзя...
Надо правильно использовать свойства матожидания и дисперсии от суммы независимых СВ... это есть во всех учебниках по ТВ...
`E[\eta_n] = E[X_1 + X_2 + \dots + X_n] = E[X_1] + E[X_2] + \dots + E[X_n]`
Теперь получается, что
`D[\eta_n] = E[(X_1 + X_2 + \dots + X_n)^2] - (E[X_1] + E[X_2] + \dots + E[X_n])^2`
Тут надо как-то аккуратно расписать это все? Или тут как-то по-другому и короче можно сделать?
А готового свойства не знаете?...
Ещё надо не забыть про свойство `M(eta/n) = ...` и `D(eta/n) = ...`
А второй свойство - из матожидания `1/n` выносится как `1/n`
Из дисперсии `1/n` выносится как `1/n^2`
Ну то есть я могу найти матожидание просто от `\eta` а потом поделить обе части равенства на n
Или сразу найти дисперсию от `\eta` а потом уже сразу поделить обе части равенства на n^2
ну, в данном случае, как я понимаю, СВ независимы...
Или сразу
сразу...
`D[\eta] = D[X_1] + D[X_2] + \dots + D[X_n]`
`D[X_1] = E[X_1^2] - E^2[X_1]`
`E[X_1] = 1/6 + 2/6 + \dots + 6/6 = 3.5`
`E^2[X_1] = 12.25`
`E[X_1^2] = 1/6 + 4/6 + \dots + 36/6 = 91/6 = 15.1667`
`D[X_1] = 2.91667`
Остальные дисперсии же должны быть такими же или я где-то ошибся? Просто если бы я изначально так неправильно бы расписал через `\eta_n = nX_1` то получилось бы то же самое
Ну, `35/12` можно было и не округлять...
Просто если бы я изначально так неправильно бы расписал через `\eta_n = nX_1` то получилось бы то же самое
Так не должна получиться только дисперсия одной СВ... она ещё на `n` должна делится...
С этим?...
так тут есть деление на `n`, а в Вашем предпоследнем комментарии - нет...
`D[\eta] = n * 35/12 | :n^2`
`D[\eta/n] = 35/(12n)`
В итоге получается, что
`(D[\eta/n])/(\epsilon^2) = 35/(12n\epsilon^2) = 2.91/(n\epsilon^2)`
А там же должно быть 8.75
где там?...
Вы подставили в неравенство Чебышёва... получили некую оценку... что не нравится-то?...
всё может быть...
а что за учебник?...
вот тут
Если не откроется, то это "Сборник задач по теории вероятностей". Чистяков, Зубков, Севастьянов
85 страница задача 4.2)