Главная | Обратная связь | Поможем написать вашу работу!
МегаЛекции

Энтропия и информация для систем с непрерывным множеством состояний




До сих пор мы рассматривали физические системы, различные состояния которых можно было все перечислить; вероятности этих состояний были какие-то отличные от нуля величины . Такие системы аналогичны прерывным (дискретным) случайным величинам, принимающим значения с вероятностями . На практике часто встречаются физические системы другого типа, аналогичные непрерывным случайным величинам. Состояния таких систем нельзя перенумеровать: они непрерывно переходят одно в другое, причем каждое отдельное состояние имеет вероятность, равную нулю, а распределение вероятностейхарактеризуется некоторой плотностью. Такие системы, по аналогии с непрерывными случайными величинами, мы будем называть «непрерывными», в отличие от ранее рассмотренных, которые мы будем называть «дискретными». Наиболее простой пример непрерывной системы - это система, состояние которой описывается однойнепрерывной случайной величиной с плотностью распределения . В более сложных случаях состояние системы описывается несколькими случайными величинами с плотностью распределения . Тогда ее можно рассматривать как объединение простых систем .

Рассмотрим простую систему , определяемую одной непрерывной случайной величиной сплотностью распределения (рис. 18.7.1). Попытаемся распространить на эту систему введенное в 18.1 понятие энтропии.

Рис. 18.7.1.

Прежде всего отметим, что понятие «непрерывной системы», как и понятие «непрерывной случайной величины», является некоторой идеализацией. Например, когда мы считаем величину - рост наугад взятого человека -непрерывной случайной величиной, мы отвлекаемся от того, что фактически никто не измеряет рост точнее, чем до 1 см, и что различить между собой два значения роста, разнящиеся, скажем, на 1 мм, практически невозможно. Тем не менее, данную случайную величину естественно описывать как непрерывную, хотя можно было бы описать ее и как дискретную, считая совпадающими те значения роста, которые различаются менее чем на 1 см.

Точно таким образом, установив предел точности измерений, т. е. некоторый отрезок , в пределах которого состояния системы практически неразличимы, можно приближенно свести непрерывную систему к дискретной. Это равносильно замене плавной кривой ступенчатой, типа гистограммы (рис. 18.7.2); при этом каждый участок (разряд) длины заменяется одной точкой-представителем.

Рис. 18.7.2.

Площади прямоугольников изображают вероятности попадания в соответствующие разряды: . Если условиться считать неразличимыми состояния системы, относящиеся к одному разряду, и объединить их все в одно состояние, то можно приближенно определить энтропию системы , рассматриваемой с точностью до :

. (18.7.1)

При достаточно малом :

,

и формула (18.7.1) принимает вид:

. (18.7.2)

Заметим, что в выражении (18.7.2) первый член получился совсем не зависящим от - степени точности определения состояний системы. Зависит от только второй член , который стремится к бесконечности при . Это и естественно, так как чем точнее мы хотим задать состояние системы , тем большую степень неопределенности мы должны устранить, и при неограниченном уменьшении эта неопределенность растет тоже неограниченно.

Итак, задаваясь произвольно малым «участком нечувствительности» наших измерительных приборов, с помощью которых определяется состояние физической системы , можно найти энтропию по формуле (18.7.2), в которой второй член неограниченно растет с уменьшением . Сама энтропия отличается от этого неограниченно растущего члена на независимую от величину

. (18.7.3)

Эту величину можно назвать «приведенной энтропией» непрерывной системы . Энтропия выражается через приведенную энтропию формулой

. (18.7.4)

Соотношение (18.7.4) можно истолковать следующим образом: от точности измерения зависит только начало отсчета, при котором вычисляется энтропия.

В дальнейшем для упрощения записи мы будем опускать индекс в обозначении энтропии и писать просто ; наличие в правой части всегда укажет, о какой точности идет речь.

Формуле (18.7.2) для энтропии можно придать более компактный вид, если, как мы это делали для прерывных величин, записать ее в виде математического ожидания функции. Прежде всего перепишем (18.7.2) в виде

. (18.7.5)

Это есть не что иное, как математическое ожидание функции от случайной величины с плотностью :

. (18.7.6)

Аналогичную форму можно придать величине :

. (18.7.7)

Перейдем к определению условной энтропии. Пусть имеются две непрерывные системы: и . В общем случае эти системы зависимы. Обозначим плотность распределения для состояний объединенной системы ; - плотность распределения системы ; - плотность распределения системы ; - условные плотности распределения.

Прежде всего определим частную условную энтропию , т. е. энтропию системы при условии, что система приняла определенное состояние . Формула для нее будет аналогична (18.4.2), только вместоусловных вероятностей будут стоять условные законы распределения и появится слагаемое :

. (18.7.8)

Перейдем теперь к полной (средней) условной энтропии , для этого нужно осреднить частную условнуюэнтропию по всем состояниям с учетом их вероятностей, характеризуемых плотностью :

(18.7.9)

или, учитывая, что

,

. (18.7.10)

Иначе эта формула может быть записана в виде

(18.7.11)

или

. (18.7.12)

Определив таким образом условную энтропию, покажем, как она применяется при определении энтропииобъединенной системы.

Найдем сначала энтропию объединенной системы непосредственно. Если «участками нечувствительности» для систем и будут и , то для объединенной системы роль их будет играть элементарныйпрямоугольник . Энтропия системы будет

. (18.7.13)

Так как

,

то и

. (18.7.14)

Подставим (18.7.14) в (18.7.13):

,

или, по формулам (18.7.6) и (18.7.12)

, (18.7.15)

т. е. теорема об энтропии сложной системы остается в силе и для непрерывных систем.

Если и независимы, то энтропия объединенной системы равна сумме энтропий составных частей:

. (18.7.16)

Пример 1. Найти энтропию непрерывной системы , все состояния которой на каком-то участке одинаково вероятны:

Решение.

;

или

. (18.7.17)

Пример 2. Найти энтропию системы , состояния которой распределены по нормальному закону:

.

Решение.

.

Но

,

и

. (18.7.18)

Пример 3. Состояние самолета характеризуется тремя случайными величинами: высотой , модулем скорости и углом , определяющим направление полета. Высота самолета распределена с равномерной плотностью на участке ; скорость - по нормальному закону с м.о. и с.к.о. ; угол - с равномерной плотностью на участке . Величины независимы. Найти энтропию объединенной системы.

Решение.

Из примера 1 (формула (18.7.17)) имеем

,

где - «участок нечувствительности» при определении высоты.

Так как энтропия случайной величины не зависит от ее математического ожидания, то для определения энтропиивеличины воспользуемся формулой (18.7.18):

.

Энтропия величины :

.

Окончательно имеем:

или

. (18.7.19)

Заметим, что каждый из сомножителей под знаком фигурной скобки имеет один и тот же смысл: он показывает, сколько «участков нечувствительности» укладывается в некотором характерном для данной случайной величиныотрезке. В случае распределения с равномерной плотностью этот участок представляет собой просто участок возможных значений случайной величины; в случае нормального распределения этот участок равен , где - среднее квадратическое отклонение.

Таким образом, мы распространили понятие энтропии на случай непрерывных систем. Аналогично может быть распространено и понятие информации. При этом неопределенность, связанная с наличием в выражении энтропии неограниченно возрастающего слагаемого, отпадает: при вычислении информации, как разности двух энтропий, эти члены взаимно уничтожаются. Поэтому все виды информации, связанные с непрерывными величинами, оказываются не зависящими от «участка нечувствительности» .

Выражение для полной взаимной информации, содержащейся в двух непрерывных системах и , будет аналогично выражению (18.5.4), но с заменой вероятностей законами распределения, а сумм - интегралами:

(18.7.20)

или, применяя знак математического ожидания,

. (18.7.21)

Полная взаимная информация как и в случае дискретных систем, есть неотрицательная величина, обращающаяся в нуль только тогда, когда системы и независимы.

Пример 4. На отрезке выбираются случайным образом, независимо друг от друга, две точки и , каждая из них распределена на этом отрезке с равномерной плотностью. В результате опыта одна из точек легла правее, другая - левее. Сколько информации о положении правой точки дает значение положения левой?

Решение. Рассмотрим две случайные точки и на оси абсцисс (рис. 18.7.3).

Рис. 18.7.3.

Обозначим абсциссу той из них, которая оказалась слева, а - абсциссу той, которая оказалась справа (на рис. 18.7.3 слева оказалась точка , но могло быть и наоборот). Величины и определяются через и следующим образом

; .

Найдем закон распределения системы . Так как , то он будет существовать только в области , заштрихованной на рис. 18.7.4.

Рис. 18.7.4.

Обозначим плотность распределения системы и найдем элемент вероятности , т. е.вероятность того, что случайная точка попадет в элементарный прямоугольник . Это событие может произойти двумя способами: либо слева окажется точка , а справа , либо наоборот. Следовательно,

,

где обозначена плотность распределения системы величин .

В данном случае

,

следовательно,

;

и

Найдем теперь законы распределения отдельных величин, входящих в систему:

при ;

аналогично

при .

Графики плотностей и изображены на рис. 18.7.5.

Рис 18.7.5.

Подставляя , и в формулу (18.7.20), получим

.

В силу симметрии задачи последние два интеграла равны, и

(дв. ед.).

Пример 5. Имеется случайная величина , распределенная по нормальному закону с параметрами , . Величина измеряется с ошибкой , тоже распределенной по нормальному закону с параметрами , . Ошибка не зависит от . В нашем распоряжении - результат измерения, т. е. случайная величина

Определить, сколько информации о величине содержит величина .

Решение. Воспользуемся для вычисления информации формулой (18.7.21), т. е. найдем ее какматематическое ожидание случайной величины

. (18.7.22)

Для этого сначала преобразуем выражение

.

В нашем случае

,

(см. главу 9).

Выражение (18.7.22) равно:

.

Отсюда

. (18.7.23)

Ho , следовательно,

(18.7.24)

Подставляя (18.7.24) в (18.7.23), получим

(дв. ед.).

Например, при

(дв. ед.).

Если ; , то (дв. ед.).


 

Поделиться:





Воспользуйтесь поиском по сайту:



©2015 - 2024 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...