Главная | Обратная связь | Поможем написать вашу работу!
МегаЛекции

Условная информация. Условная энтропия.




ЭНТРОПИЯ, КОЛИЧЕСТВО ИНФОРМАЦИИ

 

Введение

Понятие энтропии возникло в связи с необходимостью ввести численную характеристику неопределенности случайного объекта на некотором этапе его рассмотрения. Все, что мы можем сказать априори о поведении случайного объекта, это указать множество его состояний и указать распределение вероятностей по элементам этого множества. Обратим внимание на то, что различные распределения с различной неопределенностью характеризуют, какое из возможных состояний объекта должно реализоваться. Например, пусть некоторый объект имеет два возможных состояния, А 1 и А 2; пусть при одних условиях распределение вероятностей характеризуется числами р (А 1) = 0,99, р (А 2) = 0,01; а в другом случае – р (А 1) = р (А 2) = 0,5. Очевидно, что в первом случае результатом опыта «почти наверняка» будет реализация состояния А 1, во втором же случае неопределенность так велика, что естественно воздержаться от всяких прогнозов. Мы приходим к необходимости количественного описания неопределенности заданного распределения вероятностей. Понятие «неопределенность» естественно связывается с формой распределения, но не с множеством конкретных значений случайной величины. Поэтому первое требование к мере неопределенности состоит в том, что она должна быть функционалом, т.е. функцией от функции распределения., и не зависеть от конкретных значений случайной величины. Кроме того, к мере неопределенности должен быть предъявлен еще ряд требований, таких как непрерывность относительно аргументов, наличие максимума и дополнительные требования, которые более подробно будут рассмотрены ниже. Важно подчеркнуть, что такой комплекс разумно выдвинутых требований к мере неопределенности допускает единственную форму функционала, который по ряду причин, подлежащих отдельному обсуждению, и назван энтропией случайного объекта.

Термин «энтропия» был введен в 1865 году Р.Клаузиусом для характеристики процессов превращения энергии (дословно, с греческого, энтропия означает превращение, обращение). В 1877 году Л.Больцман дал этому понятию статистическое толкование и сформулировал с его помощью второй закон термодинамики. В последующем понятие энтропии стали широко применять в статистической физике и математике.

В 1948 году понятие энтропии использовал К.Шеннон в качестве основы информационной метрики для абстрактной модели системы связи в созданной им статистической теории информации. В абстрактной модели, являющейся объектом анализа в статистической теории информации, любое сообщение представляет собой результат выбора из некоторого ансамбля возможных сообщений, ансамбля, которому присуща некоторая степень неопределенности; если же состояние ансамбля известно, то нет необходимости в сообщении. Совершенно очевидно, что степень неопределенности ансамбля зависит от числа событий и их вероятностей, при этом под ансамблм понимается поле случайных несовместных событий из некоторого множества с известным распределением вероятностей, составляющих в сумме единицу. В качестве меры априорной неопределенности такого ансамбля событий (и, следовательно, его информативности) в статистической теории информации принята величина энтропии.

Энтропия и ее свойства

Изучение информационных характе­ристик сообщений, сигналов и их свойств целесообразно начать с опре­деления и анализа дискретных ансамблей и источников. Будем рассма­тривать множество сообщений А = { а1,..., аK }, состоящее из конечно­го числа К элементов аK. (Принято обозначать сами множества пропис­ными буквами, а строчными — элементы этих множеств.) Предположим, что на множестве А задано распределение р(а), где каждому элементу аK из А соответствует значение вероятности , . Множество А с заданным на нем распределением р(а) называют дискретным ансамблем сообщений, обозначая его { А, р(а) }.

Рассмотрим теперь два множества сообщений А и В, содержа­щих конечное число элементов К и N соответственно. Будем называть множество, элементы которого представляют все возможные упорядо­ченные пары , произведением А и В, обо­значая его как АВ. Из определения следует, что в общем случае АВ и ВА — различные множества. Если множества А и В совпадают, ис­пользуется обозначение А2.

Для множества АВ с заданным совместным распределением р(а,b) определен дискретный ансамбль { АВ, р(а,b) }. При определении АВ задаются еще два ансамбля А и В (на основании свойства согла­сованности распределений дискретной случайной величины , р(а)). А и В называют ансамблями статистически независимых сообщений, если .

При наличии статистической зависимости сообщений величина, определяемая соотношением (предполага­ется, что ), называется условной вероятностью сообщения bj при условии, что сообщение аi фиксировано (задано). Известно, что множество условных вероятностей относительно фиксированного сооб­щения аi, получаемое при переборе всех значений индекса j, удовле­творяет общему определению распределения вероятностей. Это есть условное распределение на множестве В относительно заданного со­общения аi. Аналогичным образом задается условное распределение на множестве А относительно сообщения bj. Отсюда следует, что за­дание ансамбля { АВ, р(а,b) } определяет еще два «условных» ансамбля сообщений и . При определении условных ансамблей предполагается, что в исходных ансамблях не существует сообщений с нулевой вероятностью.

Дальнейшее обобщение понятия ансамбля сообщений связывают с произведением , представляющим собой множество всех последовательностей длины п, таких, что первый эле­мент принадлежит множеству A1 и т.д. (надстрочный индекс обозна­чает номер элемента в последовательности). При этом образуется ан­самбль, обозначаемый .При совпадении всех элементов произведения используется обозначение Ап. Таким образом, представляется множество всех последователь­ностей длины п, образованных из элементов множества А. Очевид­но, что все закономерности, отмеченные при рассмотрении частного случая n = 2, при необходимости могут быть обобщены на произве­дение п ансамблей.

 

Энтропия ансамбля сообщений. Рассмотрим источник дискретных сообщений, характеризуемый ансамблем сообщений { A, p (a)}, у которого р (аk) ¹ 0.

Для неслучайной характеристики ансамбля сообщений вводят понятие эн­тропии. Математическое ожидание случайной величины i[a), определенной на ансамбле {А,р[а)}, называется энтропией (Н) этого ансамбля:

(5.1)

Величину i (ak), определяемую соотношением

k = 1,..., K (5.2)

называют количеством собственной информации (или собственно информацией) в сообщении ak Î A. Собственная информация, определенная (5.2) как функция случайного события, является случайной величиной.

Понятие энтропии в теории информации является основополагаю­щим. Количество информации, которое может быть получено от ис­точника, оказывается тем большим, чем большей энтропией обладает источник. Количество информации трактуется как мера неопределен­ности, связанная с ожидаемым от источника сообщением. Сообщение является тем более неопределенным (неожиданным), чем оно оказы­вается менее вероятным. В общем случае с увеличением числа воз­можных состояний и уменьшением их вероятности энтропия источника возрастает. Чем выше энтропия источника, тем сложнее передать со­общение от этого источника по каналу связи (хотя бы с точки зрения энергетических затрат).

Рассмотрим основные свойства энтропии.

1. Энтропия всякого дискретного ансамбля неотрицательна: Н(А) ^ 0. Равенство нулю имеет место в том и только в том слу­чае, когда в ансамбле существует сообщение, вероятность которого 1; при этом вероятности остальных сообщений равны 0. Неотрицатель­ность следует из того, что собственная информация каждого сообще­ния ансамбля неотрицательна.

2. Пусть К — число сообщений в ансамбле. Тогда

(5.3)

Равенство имеет место только в том случае, когда все сообщения ан­самбля независимы и равновероятны.

Простое доказательство сделанного утверждения основано на сле­дующем неравенстве для натурального логарифма:

ln x £ x – 1, (5.4)

где равенство имеет место только при х = 1.

Рассмотрим разность

 

Используя теперь неравенство (5.4), получим

Отсюда следует неравенство в (5.3). Равенство имеет место только тогда, когда р(а) = 1 для всех а Î А (равенство в (5.4) справед­ливо только при х = 1).

Пример. Пусть X = {x 1 ,x2} —двоич­ный ансамбль и p(x1) = р, р(x2) = 1- р — вероятности его сообщений. В этом случае энтропия является функцией одной перемен­ной р:

Н(Х) = -р log p - (1 - р) log(l - р).

 

Рис. 5.1. График зависимости Н (x) в функции р

 

График этой функции представлен на рис. 5.1. В точках р = 0 и р = 1 она не определена и в соответствии с предыдущим замечанием до­определяется до нуля. Поведение Н(Х) как функции от р облегчается вычислением про­изводных по параметру р.

3. Энтропия обладает свойством аддитивности.

Пусть А и В — статистически неза­висимые ансамбли, характеризуемые энтропиями Н(А) и Н(В). Учи­тывая, что M[i(a,b)] = Н(А,В) есть энтропия ансамбля {АВ,р(а,b)}, получим

 

 

Свойство аддитивности энтропии приводит к тому, что энтропия укруп­ненного ансамбля в определенной мере превосходит энтропию исход­ного источника.

Условная информация. Условная энтропия.

Совместная энтропия

 

Рассмотрим теперь {АВ,р(а,b)} —два совместно заданных ан­самбля { А,р(а)} и {В,р(b)}. На каждом из множеств А и В мо­гут быть определены условные распределения. Зафиксируем некото­рое сообщение b и рассмотрим условное распределение на множестве А. Условное распределение на А относительно фиксированного зна­чения b удовлетворяет всем свойствам безусловных распределений и, следовательно, при задании АВ задаются также условные ансамбли | b,р(а | b)} и | а,р(b \ а)}; предполагается, что р(а) и р{b) не равны 0. Для каждого сообщения а в ансамбле {А \ b,p(a \ b)} определена собственная информация

(5.6)

называемая условной собственной информацией сообщения а при фик­сированном сообщении b. Математическое ожидание условной ин­формации

 

называется условной энтропией ансамбля А относительно сообщения b.

Математическое ожидание Н(А\В) случайной величины Н(А\b), определенной на ансамбле {В,р(b)}, называется условной энтропией ансамбля А относительно ансамбля В:

(5.7)

Таким же образом убеждаемся в справедливости равенства

(5.7а)

Математическое ожидание собственной информации пары сооб­щений i{а,b) = — log p (a,6) представляет собой энтропию (совместную энтропию) ансамбля АВ:

(5.8)

Продолжим рассмотрение свойств энтропии, условной и совмест­ной энтропии.

1. Из определения условной вероятности p(a,b) = p{a)p(b \ а) следует, что

и аналогично Н(АВ) = Н(А | В) + Н(В). Эти свойства также назы­ваются свойствами аддитивности энтропии.

2. Условная энтропия не превосходит безусловной энтропии того же ансамбля: Н(А \ В) £ Н{А), причем равенство имеет место в том и только в том случае, когда ансамбли А и В статистически независимы. Доказательство проводится аналогично доказательству справедливости неравенства (5.3) с использованием неравенства (5.4) для логарифма:

 

Равенство выполняется в том и только в том случае, когда р(а, 6) = = р{а)р{b) для всех а и b, т.е. когда ансамбли А и В статистиче­ски независимы.

Рассмотрим частный случай, когда В = А, так что a = a(1), b = а(2). Тогда на основании свойств 1 и 2 можно сделать вывод, что совместная энтропия Н(А, А) = Н(А2) имеет наибольшее значение, равное 2Н(А), когда сообщения в ансамбле А не имеют статистической связи.

3. Из свойства 2 условной энтропии вытекает следующая законо­мерность. Зададим на ансамбле {А,р(а)} отображение φ(a) множества А в множество X, определяющее ансамбль {Х,р(х)} следующим обра­зом:

Тогда Н(Х) £ Н(А); знак равенства имеет место только в том случае, когда отображение φ(a) обратимо, т.е. когда каждому элементу х соответствует единственный элемент а. Для дока­зательства можно воспользоваться равенством р(а, х) = р{а)р{х \ а), где р(х | а) = 1, когда х = φ(a), и р(х \ а) = 0 для остальных х, т.е. ко­гда каждое сообщение ансамбля А однозначно определяет сообщение ансамбля X. Тогда Н(Х \ А) — 0, и из аддитивности и неотрица­тельности энтропии получим, что

Отсюда следует вывод, что при произвольных отображениях φ{а) энтропия не возрастает. Энтропия не изменяется только тогда, когда Н{А | X) = 0, т.е. когда ансамбль X взаимно однозначно отображает ансамбль А.

4. Для трех совместно заданных ансамблей {ABG,p{a,b,g)} спра­ведливо неравенство Н(А \ BG) £ Н{А \ В), которое доказывает­ся аналогично проведенному при рассмотрении свойства 2. Равенство здесь имеет место при статистической независимости ансамблей А и G. Это неравенство легко обобщается на случай п совместно задан­ных ансамблей. При этом оказывается справедливым утверждение [1], что H(Ai,...,An) £ ∑ Н(Аi). Знак равенства имеет место в случае статистической независимости сообщений в ансамблях Ai,...,An.

 

5.3. Энтропия непрерывного источника информации (дифференциальная энтропия)

На практике мы в основном встречаемся с источниками информации, множество возможных состояний которых составляет континуум. Такие источники называют непрерывными источниками информации.

Во многих случаях они преобразуются в дискретные посредством использования устройств дискретизации и квантования. Вместе с тем существует немало и таких систем, в которых информация передается и преобразуется непосредственно в форме непрерывных сигналов. Примерами могут служить системы телефонной связи и телевидения.

Оценка неопределенности выбора для непрерывного источника информации имеет определенную специфику. Во-первых, значения, реализуемые источником, математически отображаются непрерывной случайной величиной. Причем понятие «непрерывность» имеет смысл только для количеств, так что объект с континуумом возможных состояний – это по необходимости количественная случайная величина. Во-вторых, вероятности значений этой случайной величины не могут использоваться для оценки неопределенности, поскольку в данном случае вероятность любого конкретного значения равна нулю.

Естественно, однако, связать неопределенность выбора значения непрерывной случайной величины с плотностью распределения вероятностей (являющейся в общем случае размерной величиной) этих значений.

Понятие энтропии (5.1) обобщено Шенноном на случай непрерывных сообщений x (t). Чтобы не иметь дела с логарифмами размерных величин, введем в рассмотрение безразмерную случайную величину x = x*/x0, где x* - размерная случайная величина, x0 единица ее измерения. Тогда и плотность вероятности p(x) будет безразмерной функцией.

Пусть, например, x (t)приближенно представляется дискретной (с интервалом дискретизации D t)последовательностью квантованных отсчетов с шагом квантования D х. Тогда в пределах изменения непрерывного сообщения ± х maxбудем иметь квантованных уровней. Если, далее плотность вероятности функции x (t)известна (рис. 5.2), то можно определить вероятность появления i -го уровня квантованного значения , т.е. . Тогда в соответствии с (5.1) энтропия квантованного сигнала равна:

= –

так как

Рис. 6.2. Плотность вероятности функции x(t)

 

 

Переходя к пределу при , получаем, что энтропия на один отсчет непрерывного источника сообщений равна

 

.

 

Первое слагаемое правой части выражения называется дифференциальной энтропией непрерывного источника сообщений

. (5.9)

Отличия от энтропии дискретных величин подчеркиваются в названии: благодаря связи h(x) с дифференциальным законом распределения вероятностей, ее называют дифференциальной энтропией; иногда употребляемый термин относительная энтропия указывает на условность, относительность этой характеристики.

Величина (5.9) имеет конечное значение, не зависит от шага квантования, а зависит только от ФПВ w (x). В отличие от энтропии дискретных источников h (x)может принимать положительные, отрицательные и нулевые значения. Величина (5.9) изменяется при изменении масштаба измерения x (t). Что же касается второго слагаемого, то оно при D x ®0 стремится к бесконечности. Энтропия величины (за счет второго члена) стремится к бесконечности при уменьшении интервала квантования D x. Этого, вообще говоря, и следовало ожидать, так как даже в дискретном случае при бесконечном числе состояний энтропия не имеет верхней грани.

Однако в ряде важных задач интересующие нас зависимости, такие как скорость передачи и пропускная способность, определяются разностью энтропии. По этой причине второй член выражения (5.9) часто не учитывают при рассмотрении.

Величина h(x), несмотря на ее относительность, имеет очень важное значение в теории информации.

 

Поделиться:





Воспользуйтесь поиском по сайту:



©2015 - 2024 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...