Количество информации, передаваемой по каналу связи. Взаимная информация и ее свойства
Количество информации, передаваемое по дискретному каналу связи, может быть определено через информационные характеристики ансамблей сообщений на входе и выходе канала, условные и совместные энтропии этих ансамблей. Свойства энтропии, условной энтропии кладутся в основу при введении важной теоретико-информационной характеристики канала — взаимной информации между сообщениями на его входе и выходе. Действительно, поскольку при наличии статистической связи между элементами a и b ансамбля {AB,p(a,b)} значение условной энтропии Н(А | В) в общем случае меньше безусловной и не превосходит ее, т.е. поскольку (8.2) можно полагать, что наличие сведений о значении b снижает в среднем первоначальную неопределенность относительно ансамбля А. Назовем величину (8.3) количеством информации в сообщении b Î В о сообщении а Î А. (Предполагается, что в ансамбле {АВ,р(а;b)} не существует элементов с нулевыми вероятностями.) Поскольку , то (8.4) т.е. количество информации в сообщении а о сообщении b равно количеству информации в сообщении b о сообщении а. Введенное этим определением количество информации является симметрической функцией пары сообщений. Поэтому величину i (а; b) называют количеством взаимной информации между сообщениями а и b или просто взаимной информацией между этими сообщениями. Формулам (8.3) и (8.4) можно придать симметрическую форму (8.5) Определенная таким образом взаимная информация между сообщениями a и b является случайной величиной на ансамбле АВ. Введем в рассмотрение ее математическое ожидание (см. § 5.7). Математическое ожидание случайной величины i(a, b) называется средним количеством взаимной информации или просто взаимной информацией между ансамблями А и В и обознчается через 1{А, В):
(8.6) Поскольку взаимная информация между сообщениями была определена как разность собственных информации (безусловной и условной), а математическое ожидание собственной информации является по определению энтропией ансамбля, то можно записать: (8.7) Основные свойства средней взаимной информации между дискретными ансамблями. Наряду с уже отмеченным свойством симметрии I (A; В) = I(В;А), сформулируем следующие свойства, вытекающие из определения (8.6) и свойств 2 и 3 условной энтропии (см.гл. 5): — средняя взаимная информация неотрицательна: 1(А; В) ≥ О, причем равенство имеет место тогда и только тогда, когда элементы ансамблей а Î А и b Î В статистически независимы. Доказательство этого утверждения можно провести, используя свойство () натурального логарифма. — средняя взаимная информация между ансамблями A и В не превосходит значений энтропии этих ансамблей: (8.8) причем равенства в (8.8) имеют место, когда каждому фиксированному значению а Î А с вероятностью 1 соответствует определенное значение b Î В и наоборот. Одно из важнейших свойств средней взаимной информации заключается в том, что в процессе преобразований сигналов в различных блоках канала она не может увеличиваться [1]. Это свойство может быть истолковано следующим образом. Пусть В — множество возможных сигналов на выходе некоторого блока канала, а А — множество различных передаваемых сообщений. Доказывается, что никакая обработка наблюдаемых сигналов, при которой производится детерминированное или случайное их преобразование, не может увеличить средней информации об интересующем нас объекте. Количество информации сохраняется, если преобразование обратимо.
Воспользуйтесь поиском по сайту: ©2015 - 2024 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...
|