Мера количества информации в дискретном сигнале (по Р. Хартли)
В теории информации в ее современном виде не требуется определения понятия информации как таковой; необходимым и достаточным для построения теории является понятие количества информации. В соответствии с определением предмета теории информации в ее современном состоянии вводимая мера информации должна быть полезной для анализа и синтеза систем передачи и хранения информации. Поэтому искомая мера, очевидно, должна быть «нечувствительной» к смыслу, ценности, степени правдивости информации. Например, задачей системы связи является точная и своевременная передача сообщений независимо от того, содержат ли последние для получателя ценность, смысл и правдивость или же нет. Введение количественной меры информации является весьма трудной задачей. Действительно, информация может быть чрезвычайно разнообразной: мы можем получить извещение о приезде знакомых или родственников, можем услышать по радио или прочесть в газетах о тех или иных событиях; узнать о новом открытии или изобретении и т.п. Различная информация будет вызывать у нас различные эмоции и будет представлять различную ценность. Иногда краткое, содержащее лишь несколько слов, извещение может иметь для нас неизмеримо большее значение, чем текст, состоящий из многих слов и страниц. Из двух книг равного объема мы можем извлечь совершенно различную информацию. Очевидно, что количественная мера информации не должна противоречить нашим интуитивным представлениям, должна охватывать то общее, что присуще всему многообразию различной информации, и, главное, эта мера должна быть полезной для теории и практики построения различных систем передачи и преобразования информации.
Таким образом, сообщение о том, что произойдет событие, которое должно произойти почти наверняка, содержит в себе очень мало информации. Напротив, сообщение о том, что произойдет событие, которое почти наверняка произойти не должно, содержит много информации. Сообщение о некотором событии содержит тем больше информации, чем больше изменяется вероятность этого события после приема сообщения о нем, по сравнению с вероятностью того же события до того, как было принято соответствующее сообщение. В общем случае мерой количества информации в сообщениях должна служить величина, измеряющая изменение вероятности события под действием сообщения. Количество информации должно определяться через нечто общее, объективно присущее всему многообразию различной информации, оставаясь при этом созвучным нашим интуитивным представлениям, связанным с фактом получения информации. Этим общим, характеризующим факт получения произвольной информации, является, во-первых, наличие опыта. Всякая информация добывается нами в результате опыта и только опыта. Опытом может служить прослушивание радиопередачи, визуальное наблюдение события, измерение некоторого параметра процесса тем или иным прибором и т. п. Во-вторых, до опыта должна существовать некоторая неопределенность в том или ином исходе опыта. В самом деле, если бы получателю до опыта было известно, какое сообщение он получит, то, получив его, он не приобрёл бы никакого количества информации. До опыта всегда имеется большая или меньшая неопределенность в интересующей нас ситуации. После опыта (после получения информации) ситуация становится более определенной и на поставленный вопрос мы можем ответить либо однозначно, либо число возможных ответов уменьшится и, следовательно, уменьшится существовавшая ранее неопределенность. Количество уменьшенной неопределенности после опыта, очевидно, можно отождествить с количеством полученной информации в результате такого опыта.
Теперь ясно, что для установления формулы для вычисления количества информации необходимо уметь вычислять неопределенность некоторой ситуации до и после опыта. Разность между этими количествами неопределенности и даст нам искомое количество информации, полученное от такого опыта. Первая попытка определения количественной меры информации была предпринята американским инженером Р.В. Хартли в 1928 г., однако данное им определение оказалось недостаточно универсальным. Основные соотношения, определяющие количественную меру информации, и основные теоремы теории информации были сформулированы К. Шэнноном и опубликованы в 1949 г. Предположим сначала, что после опыта неопределенности нет. К примеру, при бросаниях монеты возможны два исхода опыта: выпадет орел или выпадет решка. После опыта неопределенности исхода нет—выпал, к примеру, орел. В данном случае, как ясно из сказанного выше, неопределенность до опыта будет численно равна количеству полученной информации. В этой ситуации к количеству информации (или, что то же самое, к количеству неопределенности до опыта) можно предъявить три интуитивных требования. 1. Количество получаемой информации больше, в том опыте, у которого большее число возможных исходов. Обозначая количество информации буквой I, а число возможных исходов п,первый постулат запишем в виде , если . 2. Опыт с единственным исходом необходимо несет количество информации, равное нулю. Символически это выглядит так: I(п = 1) = 0. 3. Количество информации от двух независимых опытов должно равняться сумме количеств информации от каждого из них. Это естественное требование аддитивности вводимой меры количества информации. Например, количество информации, содержащееся в двух различных по содержанию (независимых) книгах, равно сумме количеств информации, содержащихся в отдельных книгах. Однако если одна книга содержит часть другой, то количество информации от двух таких книг не будет равно сумме количеств информации от книг в отдельности, а будет несколько меньше.
В аналитической записи условие 3 примет вид , так как опыт, объединяющий два опыта с исходами соответственно и , имеет исходов. Итак, вводимая мера информации должна монотонно возрастать с увеличением длительности сигнала, которую естественно измерять числом символов в дискретном сигнале и временем передачи в непрерывном случае. Очевидно также, что количество информации зависит от числа употребляемых элементов сигнала. Например, при пятибалльной системе оценок полученная оценка более полно характеризует состояние знаний обучающегося, чем оценка по двухбалльной системе. Другими словами, количество информации на один элемент сигнала тем больше, чем больше число возможных элементов; этим свойством должна обладать и вводимая мера информации. Имеются и другие факторы, влияющие на содержание информации в сигнале. Поскольку всякий сигнал должен рассматриваться как случайный процесс (см. гл.3), статистические характеристики такого процесса тоже должны влиять на содержание информации в сигнале. Задача, как видим, сводится к отысканию некоторого числа, монотонно возрастающего с увеличением длительности и увеличением числа возможных элементов сигнала, и подходящим образом изменяющегося при изменении статистических характеристик сигнала. Можно высказать предположение, что таким числом, или основой для построения такого числа, может служить число N различимых реализаций, образующих процесс, или (как иногда принято говорить) число различных сигналов. Проверим это предположение обратившись к рассмотрению самого простого случая. Простейший случай определяется следующими условиями. 1. Сигнал однозначно определяется состоянием источника. Отсутствуют помехи, шумы и неоднозначные преобразования. 2. Сигнал дискретен как по времени, так и по информативным параметрам. Такой сигнал является последовательностью сменяющих друг друга различных состояний источника; в технике дискретной связи эти состояния рассматриваются как символы. 3. Множество различимых состояний (т.е. множество символов, или алфавит) не только дискретно, но и конечно. Смена состояний (появление новых символов) происходит таким образом, что
4. все состояния (символы) являются равновероятными, 5. вероятностные связи между различными символами отсутствуют, т.е. символы являются статистически независимыми. Этот простейший случай впервые рассмотрен Р. Хартли в 1928г. Пусть сигнал представлен в виде случайной функции времени X (t),имеющей длительность не более Т секи максимальное значение Хт. Если считать спектр сигнала ограниченным частотой F Гц,то можно определить число интервалов квантования сигнала по времени, которое будет равно (см. гл. 2) n =2 FT. Осуществляя квантование сигнала по уровню, можно указать число уровней квантования m. Таким образом, область возможных значений сигналов может быть представлена в виде прямоугольной сетки, стороны которой равны Т и Хт, причем сигнал определяется только в точках пересечения вертикальных и горизонтальных линий сетки. Предположим вначале, что число т уровней квантования равно трем (0; 1; 2). Если рассмотреть сигнал, имеющий только один момент отсчета (n =1), то возможные значения сигнала будут просто равны этим уровням. Следовательно, количество различных значений сигнала в этом случае равно трем. Если рассмотреть сигнал, имеющий два момента отсчета (n = 2), то возможные значения сигнала будут являться комбинациями этих уровней, а именно: 00 01 02 10 11 12 20 21 22, где первая цифра характеризует значение уровня в первый момент отсчета, а вторая цифра — во второй момент отсчета. Следовательно, всего будет девять различных значений сигнала. Продолжая рассмотрение подобным образом, легко установить общую зависимость для числа N возможных значений сигнала, которая будет иметь вид Таким образом, квантованная по времени и по уровню и ограниченная значениями Т и Хт случайная функция времени будет иметь N реализаций. Какое-либо устройство, вырабатывающее рассмотренную случайную функцию, может при этом выдать любую из реализаций. Очевидно, естественно считать, что чем больше N, тем более разнообразную информацию может выдать подобное устройство. Однако какой будет эта информация? Предположим, известно, что источник информации имеет один уровень квантования (m =1). Тогда любой сигнал в интервале от 0 до Г будет состоять из последовательности символов только одного вида, например h 1и мы будем заранее знать, что передается по каналу связи, когда он включен. Иными словами, прием сигнала не доставляет никакой дополнительной информации о том, что передается. Пусть теперь имеется два уровня квантования (m = 2). Так как эти уровни могут передаваться в любой очередности, то мы не знаем заранее, какая их комбинация передается в данный момент, и лишь после приема получаем ответ на этот вопрос, т. е. получаем дополнительную информацию о сигнале. Чем меньше данных о передаваемом сигнале нам известно заранее (априори), тем больше дополнительной информации мы получим о нем после приема. Так как число уровней квантования m и длительность сигнала Т (выраженная в количестве интервалов п) нам известны, то априорное знание сигнала будет тем меньше, чем больше возможных комбинаций он имеет. Так, например, если длительность Т фиксирована и определяется n = 2, то при n = 2 будут следующие возможные комбинации сигнала:
00 01 10 11, и рамки наших предположений о сигнале ограничиваются четырьмя возможными случаями. Если при п=2 число уровней квантования равно трем, то будут уже следующие возможные комбинации сигнала: 00 01 02 10 11 12 20 21 22, и наши предположения о том, какой сигнал будет передан, станут менее достоверными. Как видно, число возможных комбинаций сигнала также увеличивается, если число уровней квантования т фиксировано, но увеличивается длительность сигнала (т. е. число п). Таким образом, количество информации, которое можно перенести сигналом, будет тем больше, чем больше N — число возможных комбинаций сигнала. Отсюда следует, что количество информации, содержащейся в сигнале, можно определить количеством возможных сформированных сообщений по отношению к данному, принятому за единицу измерения. Из приведенных выше рассуждений также следует, что количество информации будет неизменным, если N фиксировано. Наши рассуждения первоначально наводят на мысль о том, что в качестве меры количества информации можно было бы использовать число возможных комбинаций сигнала N. Вот что по этому поводу сказано у Р. Хартли [35], впервые предложившего количественную меру информации: «Посмотрим, насколько хорошо оно (т. е. число N) удовлетворяет требованиям, предъявляемым к подобной мере. При выбранной нами мере количество переданной информации экспоненциально растет с числом выборов (п) и вклад каждого выбора в общий итог переданной информации прогрессивно возрастает. Несомненно, что такое возрастание зачастую имеет место в связи, рассматриваемой с психологической точки зрения. Так, например, слово «да» или «нет», приходя в конце затянувшейся дискуссии, может иметь исключительно большое значение. Однако такие случаи являются скорее исключением, чем правилом. Но мы должны установить меру, не зависящую от психологических факторов. Рассматривая физическую систему, мы не обнаруживаем такого экспоненциального нарастания качеств, необходимых для передачи результатов последовательных выборов. Телеграф передает десятое слово известия не с большим трудом, чем предшествующее. Телефон, успешно передающий речь, продолжает и впредь это делать до тех пор, пока свойства системы остаются неизменными. Для того чтобы мера информации имела практическую инженерную ценность, она должна быть такой, чтобы информация была пропорциональна числу выборов». Итак, число возможных комбинаций сигнала N непригодно для измерения количества информации. Так как необходимо, чтобы количество информации было пропорционально длительности сигнала (числу n), то запишем следующую зависимость: I = Kn (5.19)(5.15) где I — количество информации, K — постоянная, зависящая от числа значений сигнала m. Чтобы найти зависимость K (m), рассмотрим передачу одного и того же количества информации I с помощью двух различных алфавитов, содержащих соответственно т 1 и т 2 символов. Поскольку при фиксированном N количество информации I остается неизменным, справедливы соотношения откуда получаем Из этого соотношения следует, что коэффициент K пропорционален логарифму m: K = loga m. Следовательно, мера количества информации, определится формулой I = n loga m, или (5.20) где а — основание логарифма. Естественно принять за единицу измерения количество информации, содержащееся в наиболее простом, элементарном сообщении, которое может выдать источник. Легко заметить, что таким элементарным сообщением будут два возможных значения уровней при одном отсчете сигнала, что соответствует случаю m = 2, п= 1. При приеме одного из этих двух уровней доставляется информация в один двоичный знак, или одну двоичную единицу. Основание логарифма в формуле (5.20) легко определяется из этого частного случая 1 = loga 2 и будет а = 2. Таким образом, количество информации в двоичных единицах определяется формулой I = log2 N двоичных единиц, (5.21) или I = n log2m двоичных единиц. (5.21')
Сформулируем, следуя Хартли, окончательное определение: в качестве меры количества информации принимается логарифм числа возможных последовательностей символов. Проведенное рассмотрение является упрощенным и опирается в значительно большей степени на физические представления, чем на строгие формулировки и выводы. Полученный результат не учитывает ряда важных аспектов передачи информации, и в первую очередь статистических свойств сигналов. Однако даже такой простейший случай хорошо иллюстрирует методическую сторону оценки количества информации, и в этом его ценность. Более детальное изучение вопроса является предметом последующего рассмотрения.
Воспользуйтесь поиском по сайту: ©2015 - 2024 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...
|