Главная | Обратная связь | Поможем написать вашу работу!
МегаЛекции

Дисперсия случайной величины




Математическое ожидание показывает, вокруг какой точки группируются значения случайной величины. Необходимо также уметь измерить изменчивость случайной величины относительно математического ожидания. Выше показано, что M[(X-a)2] достигает минимума по а при а = М(Х). Поэтому за показатель изменчивости случайной величины естественно взять именно M[(X-М(Х))2].

Определение 5. Дисперсией случайной величины Х называется число

Установим ряд свойств дисперсии случайной величины, постоянно используемых в вероятностно-статистических методах принятия решений.

Утверждение 8. Пусть Х – случайная величина, а и b – некоторые числа, Y = aX + b. Тогда D(Y) = a2D(X).

Как следует из утверждений 3 и 5, M(Y) = aM(X) + b. Следовательно, D(Y) =M[(Y - M(Y))2] = M[(aX + b -aM(X) - b)2] = M[a2(X - M(X))2]. Поскольку постоянный множитель можно выносить за знак суммы, то M[a2(X- M(X))2] = a2 M[(X - M(X))2] = a2 D(Х).

Утверждение 8 показывает, в частности, как меняется дисперсия результата наблюдений при изменении начала отсчета и единицы измерения. Оно дает правило преобразования расчетных формул при переходе к другим значениям параметров сдвига и масштаба.

Утверждение 9. Если случайные величины Х и У независимы, то дисперсия их суммы Х+У равна сумме дисперсий: D(X+Y) = D(X) + D(Y).

Для доказательства воспользуемся тождеством

(Х + У – (М(Х)+М(У))2 = (Х–М(Х))2

+ 2(Х–М(Х))(У–М(У)) + (У–М(У))2,

которое вытекает из известной формулы элементарной алгебры (a+b)2 = a2 + 2ab + b2 при подстановке a = X-M(X) и b = Y-M(Y). Из утверждений 3 и 5 и определения дисперсии следует, что

D(X+Y) = D(X) + D(Y) + 2M{(Х–М(Х))(У–М(У))}.

Согласно утверждению 6 из независимости Х и У вытекает независимость Х - М (Х) и У - М (У). Из утверждения 7 следует, что

M{(Х–М(Х))(У–М(У))}= M(Х–М(Х))М(У–М(У)).

Поскольку M(Х–М(Х)) = 0 (см. утверждение 3), то правая часть последнего равенства равна 0, откуда с учетом двух предыдущих равенств и следует заключение утверждения 9.

Утверждение 10. Пусть X1, X2,…, Xk – попарно независимые случайные величины (т.е. Xi и Xj независимы, если ). Пусть Yk – их сумма, Yk = X1+ X2+…+ Xk. Тогда математическое ожидание суммы равно сумме математических ожиданий слагаемых, М(Yk) = М(X1)+ М(X2)+…+М(Xk), дисперсия суммы равна сумме дисперсий слагаемых, D(Yk) = D(X1)+D(X2)+…+D(Xk).

Соотношения, сформулированные в утверждении 10, являются основными при изучении выборочных характеристик, поскольку результаты наблюдений или измерений, включенные в выборку, обычно рассматриваются в математической статистике, теории принятия решений и эконометрике как реализации независимых случайных величин.

Для любого набора числовых случайных величин (не только независимых) математическое ожидание их суммы равно сумме их математических ожиданий. Это утверждение является обобщением утверждения 5. Строгое доказательство легко проводится методом математической индукции.

При выводе формулы для дисперсии D(Yk) воспользуемся следующим свойством символа суммирования:

Положим ai = Xi – M(Xi), получим

Воспользуемся теперь тем, что математическое ожидание суммы равно сумме математических ожиданий:

(8)

Как показано при доказательстве утверждения 9, из попарной независимости рассматриваемых случайных величин следует, что при . Следовательно, в сумме (8) остаются только члены с i=j, а они равны как раз D(Xi).

Полученные в утверждениях 8-10 фундаментальные свойства таких характеристик случайных величин, как математическое ожидание и дисперсия, постоянно используются практически во всех вероятностно-статистических моделях реальных явлений и процессов.

Пример 9. Рассмотрим событие А и случайную величину Х такую, что , если , и в противном случае, т.е. если . Покажем, что М(Х) = Р(А), D(X) = P(A)( 1 – P(A)).

Воспользуемся формулой (5) для математического ожидания. Случайная величина Х принимает два значения – 0 и 1, значение 1 с вероятностью Р(А) и значение 0 с вероятностью 1 – Р(А), а потому М(Х) = 1 х Р(А) + 0 х ( 1 - Р(А)) = Р(А). Аналогично (Х – М(Х))2 = (1 – Р(А)) 2 с вероятностью Р(А) и (Х – М(Х))2 = (0 – Р(А)) 2 с вероятностью 1 – Р(А), а потому D(A) = ( 1 – P(A))2 P(A) + (P(A))2( 1 – P(A)). Вынося общий множитель, получаем, что D(A) = P(A)( 1 – P(A)).

Пример 10. Рассмотрим k независимых испытаний, в каждом из которых некоторое событие А может наступить, а может и не наступить. Введем случайные величины X1, X2,…, Xk следующим образом: = 1, если в i -ом испытании событие А наступило, и = 0 в противном случае. Тогда случайные величины X1,X2,…, Xk попарно независимы (см. пример 7). Как показано в примере 9, M(Xi) = p, D(Xi) = p( 1 – p), где p =P(A). Иногда р называют «вероятностью успеха» - в случае, если наступление события А рассматривается как «успех».

Коэффициент вариации используют для сравнения рассеивания двух и более признаков, имеющих различные единицы измерения. Коэффициент вариации представляет собой относительную меру рассеивания, выраженную в процентах. Он вычисляется по формуле:

,

где - искомый показатель, - среднее квадратичное отклонение, - средняя величина.

Полигон частот (в математической статистике) — один из способов графического представления плотности вероятности случайной величины. Представляет собой ломаную, соединяющую точки, соответствующие срединным значениям интервалов группировки и частотам этих интервалов.

Характеристики выборки.

Медиана – это так называемое среднее значение упорядоченного ряда значений случайной величины:

Мода – это вариант, который имеет большую частоту, встречается чаще других.

Размах выборки – это разность между наибольшим и наименьшим значениями случайной величины выборки.

Среднее выборочное -

Дисперсия -

Среднее квадратичное отклонение -

Коэффициент вариации -

Подобно тому, как графики всех парабол можно получить с помощью геометрических преобразований одной параболы , так и все кривые нормальных распределений можно получить с помощью геометрических преобразований одной кривой. Эту кривую называют кривой нормального распределения, или гауссовой кривой: .

Поделиться:





Воспользуйтесь поиском по сайту:



©2015 - 2024 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...