Совместное распределение двух случайных величин
Пусть пространство элементарных исходов Ω случайного эксперимента таково, что каждому исходу ωij ставиться в соответствие значение случайной величины ξ, равное x i и значение случайной величины η, равное y j. Примеры: 1. Представим себе большую совокупность деталей, имеющих вид стержня. Случайный эксперимент заключается в случайном выборе одного стержня. Этот стержень имеет длину, которую будем обозначать ξ и толщину –η (можно указать другие параметры—объем, вес, чистота обработки, выраженная в стандартных единицах); 2. Если результат эксперимента—случайный выбор какого–либо предприятия в данной области, то за ξ можно принимать объем производства отнесенный к количеству сотрудников, а за η-объем продукции, идущей на экспорт, тоже отнесенной к числу сотруднико. В этом случае мы можем говорить о совместном распределении случайных величин ξ и η или о «двумерной» случайной величине. Если ξ и η дискретны и принимают конечное число значений (ξ – n значений, а η – k значений), то закон совместного распределения случайных величин ξ и η можно задать, если каждой паре чисел x i , y j (где x i принадлежит множеству значений ξ, а y j -множеству значений η) поставить в соответствие вероятность p ij , равную вероятности события, объединяющего все исходы ω ij (и состоящего лишь из этих исходов), которые приводят к значениям ξ = x i ; η = y j . Такой закон распределения можно задать в виде таблицы:
Таблица 19.1.
Очевидно Если просуммировать все р ij в i –й строке, то получим вероятность того, что случайная величина ξ примет значение xi. Аналогично, если просуммировать все р ij в j –м столбце, то получим вероятность того, что η принимает значение y j . Соответствие x i → P i (i = 1,2,…, n) определяет закон распределения ξ, также как соответствие y j → P j (j = 1,2,…, k) определяет закон распределения случайной величины η. Очевидно , . Раньше мы говорили, что случайные величины ξ и η независимы, если p ij=Pi ⋅ P j (i= 1,2,… ,n ; j= 1,2,…, k). Если это не выполняется, то ξ и η зависимы. В чем проявляется зависимость случайных величин ξ и η и как ее выявить из таблицы? Рассмотрим столбец y 1. Каждому числу x i поставим в соответствие число pi/ 1=(1) которое будем называть условной вероятностью ξ= x i при η= y 1. Обратите внимание на то, что это не вероятность P i события ξ= x i , и сравните формулу (1) с уже известной формулой условной вероятности . Соответствие x i → рi/ 1, (i =1,2,…, n) будем называть условным распределением случайной величины ξ при η= y 1. Очевидно . Аналогичные условные законы распределения случайной величины ξ можно построить при всех остальных значениях η, равных y 2; y 3,…, y n ,ставя в соответствие числу x i условную вероятность p i/j = (). В таблице приведен условный закон распределения случайной величины ξ при η= y j
Таблица 19.2.
Можно ввести понятие условного математического ожидания ξ при η = y j
Заметим, что ξ и η равноценны. Можно ввести условное распределение η при ξ= x i соответствием (j = 1,2,…, k) Также можно ввести понятие условного математического ожидания случайной величины η при ξ= x i : Из определения следует, что если ξ и η независимы, то все условные законы распределения одинаковы и совпадают с законом распределения ξ(напоминаем, что закон распределения ξ определяется в таблице (*) первым и последним столбцом). При этом очевидно, совпадают все условные математические ожидания М (ξ/η = y j ) при j = 1,2,…, k, которые равны Мξ.
Если условные законы распределения ξ при различных значениях η различны, то говорят, что между ξ и η имеет место статистическая зависимость. Пример I. Пусть закон совместного распределения двух случайных величин ξ и η задан следующей таблицей. Здесь, как говорилось ранее, первый и последний столбцы определяют закон распределения случайной величины ξ, а первая и последняя строки – закон распределения случайной величины η.
Таблица 19.3.
Полигоны условных распределений можно изобразить на трехмерном графике (рис. 19.1).
Рис. 19.1.
Здесь явно просматривается зависимость условного закона распределения ξ от величины η. Пример (Уже встречавшийся). Пусть даны две независимые случайные величины ξ и η с законами распределения
Таблица 19.4.
Найдем законы распределений случайных величин α=ξ+η и β=ξ∗η Таблица 19.5.
Построим таблицу закона совместного распределения α и β. Таблица 19.6.
Чтобы получить α=2 и β=0, нужно чтобы ξ приняла значение 0, а η приняла значение 2. Так как ξ и η независимы, то Р(α=2; β=0)= Р(ξ=0;η=2)=Р(ξ=0)∙Р(η=2)=1/12. Очевидно также Р(α=3; β=0)=0. Построим полигоны условных распределений. Здесь зависимость α от β довольно близка к функциональной: значению β=1 соответствует единственное α=2, значению β=2 соответствует единственное α=3, но при β=0 мы можем говорить лишь, что α с вероятностью принимает значение 1 и с вероятностью – значение 2.
Рис. 19.2.
Пример. Рассмотрим закон совместного распределения ξ и η, заданный таблицей
Таблица 19.7.
В этом случае выполняется условие P(ξ= x i ; η= y j )=P(ξ= x i )∗P(η= y j ), i =1,2,3…; j =1,2,3,… Построим законы условных распределений
Таблица 19.8.
Законы условных распределений не отличаются друг от друга при η=1,2,3 и совпадают с законом распределения случайной величины ξ. В данном случае ξ и η независимы. Характеристикой зависимости между случайными величинами ξ и η служит математическое ожидание произведения отклонений ξ и η от их центров распределений (так иногда называют математическое ожидание случайной величины), которое называется коэффициентом ковариации или просто ковариацией. cov(ξ; η) = M ((ξ– M ξ)(η– M η)). Пусть ξ = { x 1, x 2, x 3,…, x n }, η = { y 1, y 2, y 3,…, y n }. Тогда cov(ξ; η)= 2) Эту формулу можно интерпретировать так. Если при больших значениях ξ более вероятны большие значения η, а при малых значениях ξ более вероятны малые значения η, то в правой части формулы (2) положительные слагаемые доминируют, и ковариация принимает положительные значения. Если же более вероятны произведения (x i – M ξ)(y j – M η), состоящие из сомножителей разного знака, то есть исходы случайного эксперимента, приводящие к большим значениям ξ в основном приводят к малым значениям η и наоборот, то ковариация принимает большие по модулю отрицательные значения. В первом случае принято говорить о прямой связи: с ростом ξ случайная величина η имеет тенденцию к возрастанию. Во втором случае говорят об обратной связи: с ростом ξ случайная величина η имеет тенденцию к уменьшению или падению. Если примерно одинаковый вклад в сумму дают и положительные и отрицательные произведения (x i – M ξ)(y j – M η) p ij , то можно сказать, что в сумме они будут “гасить” друг друга и ковариация будет близка к нулю. В этом случае не просматривается зависимость одной случайной величины от другой. Легко показать, что если P ((ξ = x i )?(η = y j )) = P (ξ = x i ) P (η = y j ) (i = 1,2,…, n; j = 1,2,…, k),
Действительно из (2) следует:
Здесь использовано очень важное свойство математического ожидания: математическое ожидание отклонения случайной величины от ее математического ожидания равно нулю. Доказательство (для дискретных случайных величин с конечным числом значений).
Ковариацию удобно представлять в виде cov(ξ; η)= M (ξη–ξ M η–η M ξ+ M ξ M η)= M (ξη)– M (ξ M η)– M (η M ξ)+ M (M ξ M η)= M (ξη)– M η M ξ– M ξ M η+ M ξ M η= M (ξη)– M ξ M η Ковариация двух случайных величин равна математическому ожиданию их произведения минус произведение математических ожиданий. Легко доказывается следующее свойство математического ожидания: если ξ и η—независимые случайные величины, то М (ξη)= М ξ М η. (Доказать самим, используя формулу M (ξη) = ) Таким образом, для независимых случайных величин ξ и η cov(ξ;η)=0.
Воспользуйтесь поиском по сайту: ©2015 - 2024 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...
|