Энтропия и информация для систем с непрерывным множеством состояний
До сих пор мы рассматривали физические системы, различные состояния которых можно было все перечислить; вероятности этих состояний были какие-то отличные от нуля величины . Такие системы аналогичны прерывным (дискретным) случайным величинам, принимающим значения с вероятностями . На практике часто встречаются физические системы другого типа, аналогичные непрерывным случайным величинам. Состояния таких систем нельзя перенумеровать: они непрерывно переходят одно в другое, причем каждое отдельное состояние имеет вероятность, равную нулю, а распределение вероятностейхарактеризуется некоторой плотностью. Такие системы, по аналогии с непрерывными случайными величинами, мы будем называть «непрерывными», в отличие от ранее рассмотренных, которые мы будем называть «дискретными». Наиболее простой пример непрерывной системы - это система, состояние которой описывается однойнепрерывной случайной величиной с плотностью распределения . В более сложных случаях состояние системы описывается несколькими случайными величинами с плотностью распределения . Тогда ее можно рассматривать как объединение простых систем . Рассмотрим простую систему , определяемую одной непрерывной случайной величиной сплотностью распределения (рис. 18.7.1). Попытаемся распространить на эту систему введенное в 18.1 понятие энтропии. Рис. 18.7.1. Прежде всего отметим, что понятие «непрерывной системы», как и понятие «непрерывной случайной величины», является некоторой идеализацией. Например, когда мы считаем величину - рост наугад взятого человека -непрерывной случайной величиной, мы отвлекаемся от того, что фактически никто не измеряет рост точнее, чем до 1 см, и что различить между собой два значения роста, разнящиеся, скажем, на 1 мм, практически невозможно. Тем не менее, данную случайную величину естественно описывать как непрерывную, хотя можно было бы описать ее и как дискретную, считая совпадающими те значения роста, которые различаются менее чем на 1 см.
Точно таким образом, установив предел точности измерений, т. е. некоторый отрезок , в пределах которого состояния системы практически неразличимы, можно приближенно свести непрерывную систему к дискретной. Это равносильно замене плавной кривой ступенчатой, типа гистограммы (рис. 18.7.2); при этом каждый участок (разряд) длины заменяется одной точкой-представителем. Рис. 18.7.2. Площади прямоугольников изображают вероятности попадания в соответствующие разряды: . Если условиться считать неразличимыми состояния системы, относящиеся к одному разряду, и объединить их все в одно состояние, то можно приближенно определить энтропию системы , рассматриваемой с точностью до : . (18.7.1) При достаточно малом : , и формула (18.7.1) принимает вид: . (18.7.2) Заметим, что в выражении (18.7.2) первый член получился совсем не зависящим от - степени точности определения состояний системы. Зависит от только второй член , который стремится к бесконечности при . Это и естественно, так как чем точнее мы хотим задать состояние системы , тем большую степень неопределенности мы должны устранить, и при неограниченном уменьшении эта неопределенность растет тоже неограниченно. Итак, задаваясь произвольно малым «участком нечувствительности» наших измерительных приборов, с помощью которых определяется состояние физической системы , можно найти энтропию по формуле (18.7.2), в которой второй член неограниченно растет с уменьшением . Сама энтропия отличается от этого неограниченно растущего члена на независимую от величину
. (18.7.3) Эту величину можно назвать «приведенной энтропией» непрерывной системы . Энтропия выражается через приведенную энтропию формулой . (18.7.4) Соотношение (18.7.4) можно истолковать следующим образом: от точности измерения зависит только начало отсчета, при котором вычисляется энтропия. В дальнейшем для упрощения записи мы будем опускать индекс в обозначении энтропии и писать просто ; наличие в правой части всегда укажет, о какой точности идет речь. Формуле (18.7.2) для энтропии можно придать более компактный вид, если, как мы это делали для прерывных величин, записать ее в виде математического ожидания функции. Прежде всего перепишем (18.7.2) в виде . (18.7.5) Это есть не что иное, как математическое ожидание функции от случайной величины с плотностью : . (18.7.6) Аналогичную форму можно придать величине : . (18.7.7) Перейдем к определению условной энтропии. Пусть имеются две непрерывные системы: и . В общем случае эти системы зависимы. Обозначим плотность распределения для состояний объединенной системы ; - плотность распределения системы ; - плотность распределения системы ; - условные плотности распределения. Прежде всего определим частную условную энтропию , т. е. энтропию системы при условии, что система приняла определенное состояние . Формула для нее будет аналогична (18.4.2), только вместоусловных вероятностей будут стоять условные законы распределения и появится слагаемое : . (18.7.8) Перейдем теперь к полной (средней) условной энтропии , для этого нужно осреднить частную условнуюэнтропию по всем состояниям с учетом их вероятностей, характеризуемых плотностью : (18.7.9) или, учитывая, что , . (18.7.10) Иначе эта формула может быть записана в виде (18.7.11) или . (18.7.12) Определив таким образом условную энтропию, покажем, как она применяется при определении энтропииобъединенной системы. Найдем сначала энтропию объединенной системы непосредственно. Если «участками нечувствительности» для систем и будут и , то для объединенной системы роль их будет играть элементарныйпрямоугольник . Энтропия системы будет . (18.7.13) Так как , то и . (18.7.14) Подставим (18.7.14) в (18.7.13): , или, по формулам (18.7.6) и (18.7.12) , (18.7.15) т. е. теорема об энтропии сложной системы остается в силе и для непрерывных систем.
Если и независимы, то энтропия объединенной системы равна сумме энтропий составных частей: . (18.7.16) Пример 1. Найти энтропию непрерывной системы , все состояния которой на каком-то участке одинаково вероятны: Решение. ; или . (18.7.17) Пример 2. Найти энтропию системы , состояния которой распределены по нормальному закону: . Решение. . Но , и . (18.7.18) Пример 3. Состояние самолета характеризуется тремя случайными величинами: высотой , модулем скорости и углом , определяющим направление полета. Высота самолета распределена с равномерной плотностью на участке ; скорость - по нормальному закону с м.о. и с.к.о. ; угол - с равномерной плотностью на участке . Величины независимы. Найти энтропию объединенной системы. Решение. Из примера 1 (формула (18.7.17)) имеем , где - «участок нечувствительности» при определении высоты. Так как энтропия случайной величины не зависит от ее математического ожидания, то для определения энтропиивеличины воспользуемся формулой (18.7.18): . Энтропия величины : . Окончательно имеем: или . (18.7.19) Заметим, что каждый из сомножителей под знаком фигурной скобки имеет один и тот же смысл: он показывает, сколько «участков нечувствительности» укладывается в некотором характерном для данной случайной величиныотрезке. В случае распределения с равномерной плотностью этот участок представляет собой просто участок возможных значений случайной величины; в случае нормального распределения этот участок равен , где - среднее квадратическое отклонение. Таким образом, мы распространили понятие энтропии на случай непрерывных систем. Аналогично может быть распространено и понятие информации. При этом неопределенность, связанная с наличием в выражении энтропии неограниченно возрастающего слагаемого, отпадает: при вычислении информации, как разности двух энтропий, эти члены взаимно уничтожаются. Поэтому все виды информации, связанные с непрерывными величинами, оказываются не зависящими от «участка нечувствительности» .
Выражение для полной взаимной информации, содержащейся в двух непрерывных системах и , будет аналогично выражению (18.5.4), но с заменой вероятностей законами распределения, а сумм - интегралами: (18.7.20) или, применяя знак математического ожидания, . (18.7.21) Полная взаимная информация как и в случае дискретных систем, есть неотрицательная величина, обращающаяся в нуль только тогда, когда системы и независимы. Пример 4. На отрезке выбираются случайным образом, независимо друг от друга, две точки и , каждая из них распределена на этом отрезке с равномерной плотностью. В результате опыта одна из точек легла правее, другая - левее. Сколько информации о положении правой точки дает значение положения левой? Решение. Рассмотрим две случайные точки и на оси абсцисс (рис. 18.7.3). Рис. 18.7.3. Обозначим абсциссу той из них, которая оказалась слева, а - абсциссу той, которая оказалась справа (на рис. 18.7.3 слева оказалась точка , но могло быть и наоборот). Величины и определяются через и следующим образом ; . Найдем закон распределения системы . Так как , то он будет существовать только в области , заштрихованной на рис. 18.7.4. Рис. 18.7.4. Обозначим плотность распределения системы и найдем элемент вероятности , т. е.вероятность того, что случайная точка попадет в элементарный прямоугольник . Это событие может произойти двумя способами: либо слева окажется точка , а справа , либо наоборот. Следовательно, , где обозначена плотность распределения системы величин . В данном случае , следовательно, ; и Найдем теперь законы распределения отдельных величин, входящих в систему: при ; аналогично при . Графики плотностей и изображены на рис. 18.7.5.
Рис 18.7.5. Подставляя , и в формулу (18.7.20), получим . В силу симметрии задачи последние два интеграла равны, и (дв. ед.). Пример 5. Имеется случайная величина , распределенная по нормальному закону с параметрами , . Величина измеряется с ошибкой , тоже распределенной по нормальному закону с параметрами , . Ошибка не зависит от . В нашем распоряжении - результат измерения, т. е. случайная величина Определить, сколько информации о величине содержит величина . Решение. Воспользуемся для вычисления информации формулой (18.7.21), т. е. найдем ее какматематическое ожидание случайной величины . (18.7.22) Для этого сначала преобразуем выражение . В нашем случае , (см. главу 9). Выражение (18.7.22) равно: . Отсюда . (18.7.23) Ho , следовательно, (18.7.24) Подставляя (18.7.24) в (18.7.23), получим (дв. ед.). Например, при (дв. ед.). Если ; , то (дв. ед.).
Воспользуйтесь поиском по сайту: ©2015 - 2024 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...
|