Главная | Обратная связь | Поможем написать вашу работу!
МегаЛекции

Вероятностное доказательство второй теоремы Шеннона.

Это необязательное дополнение к лекциям для тех, кто уже знаком с самыми азами теории вероятностей. Базируется на лекциях [8].

Факты из теории вероятности.

Пусть  - случайная величина.  - мат. ожидание.  - дисперсия.

Теорема 13.3. (Неравенство Чебышева) Справедливо неравенство: 

.

Ошибки в канале моделируются испытаниями Бернулли, вероятность успеха p (неудача 1- p). Есть n испытаний. (Удачное испытание – произошла ошибка, неудачное – не произошла. Так как передается  n  символов, то мы получаем n испытаний во время передачи кодового слова.)

В случае источника Бернулли справедливы равенства:  и D (ξ)= np (1- p).

Первое из них очевидно, а ниже приведено краткое доказательство второго.


Пусть  - вектор ошибок. Он подчиняется распределению Бернулли, поэтому матожидание и дисперсия такого вектора  и D(ξ)= np(1- p).

Рассмотрим некоторый код C = { x 1xM }, где { x 1xM }– кодовые слова (вектора Bn).

Применяем декодирование в ближайшее слово (по принципу наибольшего правдоподобия и согласно приведенной выше схеме декодирования, а,в случае нескольких вариантов, в кодовое слово с наименьшим номером). Обозначим через T(C) таблицу декодирования.

Пусть в канал передается вектор xi, а в декодер поступил вектор Y.

xiканал → Y

Считаем, что Y = x i + e, где e – вектор ошибок.

Пусть τ – случайная величина, равная | e | (количество ошибок).

Т.к. так как относительно этой величины мы имеем распределение Бернулли, то E (τ) = np, D (τ) = np (1 – p).

Вводится некоторый параметр b = , который носит чисто технический характер. Грубо говоря, если на одно слово приходится np ошибок, то мы будем окружать кодовые слова шарами радиуса ρ =[np+b], где b>0 – некоторая «маленькая» добавка

Лемма 13.2. Справедливо соотношение

P { τ > ρ } ≤ ε \2

для любого заранее заданного ε.

Доказательство. Применим неравенство Чебышева:

P {| τE (τ)| > ε } ≤ D (τ)/ ε 2.

Положим ρ = [ E (τ) + b], тогда

P {| τnp | > b} ≤ D (τ) / b 2.

Отсюда следует

P {| τnp | > b } ≤ ε/ 2.

Тогда P (τ > ρ) = P {| τnp | > b }. Это проиллюстрировано ниже:

 


     - τ np τ

τ > nP + b

τnP > b

Отсюда следует P { τ > ρ }≤ P {| τnp | > b}≤ D (τ) / b 2=ε/2.

Лемма доказана.

Лемма 13.3.  Пусть ρ = [ E (τ) + b ] и b = , тогда

1\ n log | Sρ (x)| ≤ H(P) + O(n -1\2) при n → ∞.

Доказательство. Из леммы 13.1 и леммы 13.2 получаем неравенство:

| Sρ (x)| ≤ 2 nH (ρ \ n ).

Прологарифмируем  и поделим на n, разложим логарифм в ряд (это корректно) и оставим главные члены:

1\ n log | Sρ (x)| ≤ H(ρ \ n) = - ρ \ n log ρ \ n – (1 – ρ \ n) log (1 – ρ \ n) = - [ nP + b ]\ n log [ nP + b ]\ n – (1 – [ nP + b ]\ n ] log (1 – [ nP + b ]\ n) ≈ - P log P – (1 – P) log (1 – P) + O(b \ n) = H(p)+ O(n -1\2).

Лемма доказана.

Введем некоторую функцию, определенную на парах векторов из Bn.

  (13.5)

Лемма 13.4. Справедливо соотношение:

 (13.6)

Доказательство. Здесь P (xi) – вероятность неправильного декодирования переданного слова   xi   Bn. P (y‌‌| xi) -  вероятность того, что при передаче слова xi на декодер попало слово y. Пусть Q(y‌‌| xi)-  вероятность того, слово y декодировано в слово xi. Тогда

Заметим, что слово y может быть декодировано в слово xj, только если оно попало в шар соответствующего радиуса с центром в xj. Из этого следует, что

Если   xi декодируется правильно, то y попало в шар нужного радиуса с центром в xi, и тогда =0. В этом случае в неравенстве (13.6) слева 0, а справа неотрицательная величина. Если   xi декодируется неправильно, то y попало в шар нужного радиуса с центром в xj, j≠i, и тогда, если =0, то

Если же =1 (а это может быть, если шары пересекаются), то

Лемма доказана.

Доказательство теоремы.

Теорема 13.4 (вторая теорема Шеннона). Для любого R: 0 < R < C (ρ), такого что M=2[nR], выполняется соотношение:

P *(M, n, P) → 0, n → ∞.

Доказательство. Пусть передаем x i, принято некое y, оцениваем ошибку декодирования.

Мы рассматриваем в качестве кодов все возможные подмножества Bn. Т.е. кодовые точки располагаются случайным образом. Точки упали как угодно, на них строим шары радиуса ρ.

Декодируем так: если точка у попала в шар радиуса t вокруг кодовой точки, то декодируем ее в данную кодовую точку, если в этом шаре нет других точек; если есть другие кодовые точки или у не попало ни в один из шаров вокруг кодовой точки, то у декодируем по эвристическим правилам. При этом возможна ошибка декодирования.

Вспомним введенную выше функцию f(x,y). Из леммы 13.4 следует, что вероятность того, что у находится от x i на расстоянии, большем ρ, задается формулой:

С другой стороны, из леммы 13.2 следует, что эта вероятность P { τ > ρ } ≤ ε \2.

Таким образом

Pc = 1\ MP (xi)=

Заметим теперь, что E(f(y|xi)- математическое ожидание того, что у попал в шар с центром в x i, равно:

E(f(y|xi)=| Sρ (x)| / 2 n.

 

Теперь вспомним неравенство:

P *(M, n, p) ≤

Заметим теперь, что минимальное значение случайной величины не превосходит ее математического ожидания:

Minξ≤ E(ξ).

 

Из этих соотношений следует цепочка неравенств.

 

P *(M, n, p) =

= = =

 

= =

Таким образом

P *(M, n, p) – ε \2≤

Вспомним, что 0 < R < C (ρ), M=2[nR].

Применяем лемму 13.3 и соотношения: [nR] = log M, M = 2 Rn :

1\ n log (P *(M, n, P) – ε \2) ≤ 1\ n log (| Sρ | M \2 n)= 1\ n log | Sρ |2 Rn - n RC (ρ) – 1+ O(n -1\2) + 1.

Пусть δ= C(P)-R. Тогда имеем при больших n неравенство

P *(M, n, P) < ε \2 + 2- δn.

Устремляем n→∞ и  δ→0. Получаем

P *(M, n, P) →0.

Теорема доказана.

 

Поделиться:





Воспользуйтесь поиском по сайту:



©2015 - 2024 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...