Главная | Обратная связь | Поможем написать вашу работу!
МегаЛекции

Целенаправленное действие и его компоненты 2 глава

Как нам кажется, в мире неживой Природы нет примеров информационных систем, в которых носители информации от­личались бы качественно от остальных элементов системы.

Основа жизни

Мы привыкли к словосочетанию «генетическая информация», забыли даже, что ввел его в научный обиход Э. Шредингер в середине 40-х годов [18]. В своей книге «Что такое жизнь с точки зрения физика?» он опирался на работу Н. В. Тимофеева-Ресовского, К. Г. Циммера и М. Дельбрюка «О природе генных мутаций и структуре гена», увидевшую свет в Германии в 1935 г. [19]. Это произошло вскоре после того, как Г. Меллер, ученик Т. Моргана, впервые показал, что гены не только воспроизводят себя и изменяются (мутируют), но что можно повлиять на час­тоту их мутирования, например, повышением температуры или действием ионизирующих излучений [20].

В 1928 г. Меллер [21] в статье «Ген как основа жизни» по­казал, что именно гены (образования неизвестной тогда приро­ды), способные к ауто- и гетерокатализу, положили начало фе­номену жизни на нашей планете. «Ясно, что, став на эту точку зрения, мы избегаем логических трудностей, связанных с проис­хождением современной протоплазмы, с ее взаимодействием час­тей, действующих совместно в направлении продолжения роста и точного воспроизведения целого. Система эта образовалась, так же как и сложная макроскопическая форма высших расте­ний и животных,... постепенно, шаг за шагом, каждый из ко­торых проверялся по мере того, как в первичных аутокаталитических генах мутация следовала за мутацией. В этом процессе преимущественно выживали, размножались и вновь мутировали лишь те гены, побочные продукты которых оказывались наибо­лее полезными для дальнейшего воспроизведения... Согласно этому взгляду, который, по-видимому, наилучшим образом выдерживает проверку исчерпывающим анализом, по крайней мере значительная часть протоплазмы явилась вначале лишь побоч­ным продуктом активности генного вещества; ее функция... за­ключается лишь в питании генов; первичные же, свойственные всякой жизни, тайны скрыты глубже, в самом генном вещест­ве... Мутабильного типа структуры в генном веществе несо­мненно претерпели в процессе эволюции глубокие изменения и подверглись усложнениям, а под их влиянием, конечно, эволю­ционировала и протоплазма, но другие структуры – те черты строения гена, которые ответственны за его первичное свойство аутокатализа – должны быть еще и сейчас такими же, какими они были в незапамятные времена, когда зеленая тина еще не окаймляла берегов морей».

Всего через 20 с небольшим лет после этой публикации было установлено, что гены представляют собой отдельные участки молекулы ДНК, размножающиеся путем комплементарного при­страивания друг к другу четырех видов нуклеотидов; гены му­тируют, когда происходят ошибки в этом процессе; они управ­ляют синтезом разного рода белков, составляющих протоплазму, переключаясь время от времени с аутокатализа (построения соб­ственных копий) на гетерокатализ (построение инородных моле­кул) путем синтеза РНК и, с ее помощью, молекул белка.

Сейчас все это хорошо известные процессы. Можно ли про­водить аналогии между свойствами живых клеток и, например, кристаллов? Рост и размножение кристаллов основаны на при­соединении к исходной «затравке» все новых, точно таких же молекул из раствора. Вероятность этого равновесного процесса зависит от температуры и концентрации раствора. Размножение вирусной частицы также зависит от условий окружающей сре­ды. Но вирусы, как и все живые организмы, – открытые систе­мы и с большей эффективностью используют окружающую сре­ду для выживания и размножения. Это касается, например, по­иска клетки-хозяина и размножения в ней. Прикрепившись к поверхности живой клетки, вирус с помощью специального бел­кового устройства впрыскивает в нее свою молекулу ДНК или РНК, содержащую его гены. Гены вируса не только воспроиз­водят себя, используя синтезируемые зараженной клеткой «кир­пичики», но также заставляют эту клетку создавать новые, не свойственные ей белковые молекулы, которые, окружая готовые генетические структуры новых вирусных частиц, создают белко­вую оболочку вируса, приспособленную для осуществления сле­дующего цикла – заражения других клеток и размножения в них.

Все теории происхождения жизни вращаются вокруг попыток ответить на вопрос: как возникла ДНК и та информация, кото­рая записана в ней [17]?

Поведенческая информация

Генетическая информация и ее изменчивость полностью опреде­лила эволюцию всех организмов, ведущих преимущественно при­крепленный образ жизни, т.е. растений и грибов. Однако, с разви­тием подвижности животных, активации поисков пищевых ресурсов и половых партнеров, все большую роль в их жизнедеятельности начинают играть новые, случайно возникающие ситуации, которые невозможно заранее предвидеть и «запастись» генетически детерми­нированными ответами на них. Это, видимо, и послужило основой для возникновения поведенческой информации. Поведенческой бу­дем называть информацию, лежащую в основе поступков, контро­лируемых особенностями нервной системы, которые формируются временно, под влиянием жизненного опыта или процессов научения, например путем подражания родителям или другим сородичам.

С возникновением поведенческой информации роль генетиче­ской информации в жизни высших животных начинает изменяться. Теперь все большая роль в их выживании принадлежит не только генетически детерминированным ответным реакциям на те или иные ситуации, но и таким особенностям нервной системы, которые обес­печивают эффективное использование обучения и научения, в том числе решение без предварительного опыта внезапно возникающих задач [22]. Поведенческая информация постепенно играет все боль­шую роль в выживании высших животных, примеры чему можно найти как у классиков [22, 23], так и у наших современников [24-27]. Максимальное развитие поведенческая информация получила у млекопитающих. Мы еще не знаем материальной (точнее, молеку­лярной) природы носителей этого вида информации и не умеем определять ее количество. Но нет поведения, которое не обеспечивало бы целесообразность поступков высших животных в разных ситуа­циях. Здесь тоже «работает» дарвиновский отбор: неадаптивные реакции приводят, как правило, к гибели животных, а вместе с ними погибает и «неправильная» информация.

Мы убеждены в том, что именно те генетически детермини­рованные структуры клеток и особенности организации нервной системы, которые делают ее способной накапливать и использовать поведенческую информацию, являются основой для форми­рования третьего вида информации – логической, с которой связаны возникновение и эволюция человека.

Логическая информация

Вряд ли можно сомневаться, что человек стал тем, что он есть, только обретя дар речи. «В начале было Слово...» (Иоанн, 1, 1). Первоначально логическая информация, носителем кото­рой является речь, играла роль, скорее всего, лишь для ускоре­ния и упрощения обмена между людьми поведенческой инфор­мацией. Но затем эта ее функция отошла на второй план. Ос­новная роль и главная функция логической информации связа­ны, видимо, с особенностями ее носителя – человеческой речью. Речь, язык присущи только человеку. У других живых организ­мов (в том числе у обезьян и дельфинов) языка нет – есть лишь сигнальное общение, ничего общего, кроме внешнего сходства, с человеческой речью не имеющее [26]. Уникальная особенность языка, как носителя информации, состоит в том, что он позволяет информации существовать вне зависимости от индивидуумов, ее создающих или использующих. Именно язык создал единый информационный пул планеты, открытый для всех населяющих Землю людей.

Логическая информация не имеет четких границ с другими, неинформационными, языковыми феноменами, относящимися, например, к областям искусства, религии и т.п. Но все эти фе­номены, при тщательном рассмотрении, выполняют общую функцию содействия распространению и сохранению разных ви­дов логической информации. Такую же роль играют и этика, и мораль, и другие стороны социальной жизни людей [28]. Все это, вместе взятое, оказывает на человека давление, направлен­ное на все большее сплочение, объединение всех представителей человечества в единую общность и развитие единого информа­ционного пула.

Подстать развитию информационного пула идет и реализа­ция логической информации. Операторами, способствующими осуществлению целенаправленных действий и кодируемыми ге­нетической информацией, служат все негенетические компоненты живых организмов. В случае поведенческой информации таким оператором является поведение животных в разных ситуациях. Дли логической информации в роли операторов выступают тех­нологии – вся совокупность технологических приемов и процессов, известных человеку. Эти операторы существуют вне зави­симости от желания и воли отдельных людей, как и кодирую­щая их логическая информация.

Мы сейчас находимся в фазе становления «информационного общества». Все новые достижения логической информации и ос­нованных на ней технологий уже практически полностью объе­динены в единый информационный пул и единую технологичес­кую систему планеты. Этому соответствует такое же (правда, идущее с некоторым запаздыванием) объединение человечества в разных регионах земного шара. Ведущая роль информации в этом процессе очевидна и не требует доказательств. От предсказаний: «Что нас ожидает завтра?» – мы воздержимся по той простой причине, что наше будущее принципиально непредска­зуемо: даже небольшие изменения в информационном пуле, не­предвидимые заранее, могут существенным образом видоизме­нить связанные с ними технологии, а следовательно, и наше с вами существование.

Автогенез информации

Первичные живые организмы возникли на нашей планете более 4 млрд. лет назад. Тем самым предшествовавшая неор­ганическая эволюция дополнилась эволюцией живых организ­мов [17], в форме которой выступила новая, ранее не сущест­вовавшая на Земле сущность – генетическая информация. За­кономерности развития информации позволяют понять, как появились новые виды живых организмов, а по существу -новые варианты генетической информации [28]. Попадая во все более сложные условия, в создании которых информация принимала все большее участие через «наработку» побочных продуктов своей деятельности, живые организмы, подчиняясь естественному отбору, увеличивали количество содержащейся в них информации, повышали ее ценность, оптимизировали эф­фективность.

Различные варианты генетической информации менялись как количественно, так и качественно. В результате живой мир постепенно распространялся по всей планете. Вслед за прокариотами (бактериями) появились эукариоты – растения, грибы и животные. Количество генетической информации, со­держащейся в клетках этих организмов, стремилось к возмож­ному для них максимуму [29]. Для координации действий у одной из групп гетеротрофных организмов – многоклеточных животных – образовалась нервная система. У высших живот­ных поведенческие реакции, играющие все большую роль в их жизнедеятельности, не ограничивались уже теми, которые пе­редаются по наследству, а создавались и самостоятельно, на основании «жизненного опыта», и передавались потомкам че­рез обучение. Так возникла поведенческая информация, по ла­бильности и скорости передачи существенно превосходящая генетическую.

Поведенческая информация образовалась на основе врожден­ных поведенческих реакций, генетически запрограммированных в нервной системе. Это – ярчайший пример перехода информации из одной формы в другую, с носителей одной природы (молеку­лы ДНК) на носители другой природы (нервные клетки). Для высших животных, обитающих в сложной природной среде, умение «вести себя» в тех или иных ситуациях играет такую же роль для выживания, как для простых живых существ «умение» потреблять нужную пищу, строить из нее свое тело и выраба­тывать нуклеотиды, необходимые для размножения молекул ДНК. Поведенческая информация позволяла высшим животным не только ориентироваться в окружающей среде, но и взаимо­действовать друг с другом в поисках пищи и половых партне­ров, в воспитании и обучении потомства, в защите от врагов. Вырабатывались различные сигналы, которыми обменивались друг с другом высшие животные: химические метки, знаки на земле или коре деревьев и, конечно, звуки, имеющие разное значение в разных ситуациях. Так постепенно готовилась почва для формирования речи – способа обмена информацией путем различной последовательности звуков и их комбинаций. Скла­дывалась человеческая речь.

Появление владеющего речью «человека говорящего» означа­ло возникновение нового вида информации – информации ло­гической. Б. Ф. Поршнев [30] связывал появление речи с форми­рованием самого человека. Не труд, а речь сделала человека тем, что он есть. Трудиться может и «бессловесная тварь», не жалея сил и преодолевая разные препятствия для достижения своей цели – построения гнезда или плотины, при охоте за дичью. Но организовать труд, передавать друг другу уже приобретенные трудовые навыки, обобщать опыт и в сжатом виде трансфор­мировать его в понятия – для всего этого необходима речь.

Если генетическая информация породила жизнь, поведенчес­кая – обеспечила разнообразие поведения высших животных, то логическая информация, передаваемая с помощью речи, вначале устной, а затем и письменной, ознаменовала начало эры ноогенеза, эры рождения сферы разума, охватывающего, вслед за биосферой, весь земной шар. На основе логической информа­ции, или, другими словами, на основе накапливаемого человече­ством знания, начали развиваться технологии. Этим термином называют искусственно создаваемые человеком структуры и процессы, обеспечивающие его существование, а тем самым и размножение тех фрагментов логической информации, которые вызвали их к жизни. Если технология себя не оправдывает, че­ловек ее отбрасывает, и лежащая в ее основе логическая ин­формация утрачивается (забывается).

Так же, как биологическая эволюция представляет собой лишь «отражение в мире вещей» развивающейся генетической и поведенческой информации, так и техногенез – лишь отражение развития логической информации, существующей вне отдельных человеческих существ.

Предвидимо ли будущее?

Мы живем в мире неравновесных процессов. Математические задачи при решении нелинейных дифференциальных уравнений, о которых шла речь выше, приводят к области, называемой теорией бифуркаций. Это говорит о том, что если близко от точки равновесия система имеет единственное решение, то вдали от равновесия при некотором значении критических параметров в области неустойчивости она достигает точки бифуркации, на­чиная от которой для системы открываются новые возможно­сти, приводящие к одному или нескольким решениям. Теория бифуркаций находит бесчисленные приложения начиная от фи­зики, кончая экономикой и социологией. Попробуем построить приблизительные решения для судьбы логической информации.

Судя по аналогии с предыдущими видами информации, мож­но предположить автотрофное существование логической ин­формации, подобно автотрофному типу питания, избранному растениями. Но у растений переход этот был связан с совер­шенствованием отдельных индивидуумов, представляющих собой искусные «живые фабрики» по производству глюкозы из воды и углекислого газа (с помощью квантов солнечного света) и ис­пользующих этот продукт для энергообеспечения синтеза моле­кул, слагающих их тела. В случае же логической информации иной путь к автотрофности – возникновение технологий, использующих тот же солнечный свет (а может быть, и термо­ядерный синтез) как источник энергии и «подручное» неоргани­ческое сырье для создания сначала – систем жизнеобеспечения человека, а затем, возможно, и для строительства самовоспроиз­водящихся автоматов. Следует, однако, подчеркнуть, что автотрофность человечества – это такая же вольная фантазия, как и все другие футурологические рассуждения. Единственное, чему нас учит история, – это непредсказуемость будущего.

Пусть читатель не судит очень строго нашу попытку, в меру понимания, представить эволюцию информации, в особенности последний, биологический, этап ее развития. Нашей задачей мы считали не столько ответить, сколько поставить вопросы эво­люции, используя идеи из разных областей знания.

Литература

1. Шеннон К. Математическая теория связи // «К. Шеннон. Работы по теории информации и кибернетике». М.: И ИЛ, 1963. С. 243-332.

2. Бриллюэн Л. Научная неопределенность и информация. М.: «Мир», 1966.

3. Кадомцев Б. Б.Динамика и информация. Редакция журнала «Успехи физических наук», 1997.

4. Kolmogorov А. N. Infomation transmission. V.I, 1965. № 3.

5. Zurek W. H.Complexity, Entropy and Phisics of Information (Ed. W. H. Zurek). Addison-Wesley. 1990.

6. Дастр Н. Жизнь материи. Краткий систематический словарь биоло­гических наук. Ч. 3. СПб.: 1904. С. 5-31.

7. Лункевич В. В. Основыжизни. Ч. 1., М.-Л.: 1928

8. Дриш Г. Витализм. Его история и система. М.: 1915.

9. Харкевич А. А. О ценности информации. Проблемы кибернетики. Вып. 4, М.: Физматгиз, 1960. С. 53-72.

10. Корогодин В. И. Определение понятия «информация» и возможности его использования в биологии. Биофизика, 1983, Т. 28., вып. 1, С. 171-177.

11. Prigogine I. Introduction to Nonequilibrium Thermodynamics. Wiley-Interscience. NY. 1962.

12. Баблоянц А. Молекулы, динамика и жизнь. М.: «Мир», 1970.

13. Моисеев Н. Расставание с простотой. М.: Аграф. 1998.

14. фон Нейман Дж. Общая и логическая теория автоматов. В кн.: Тьюринг А. Может ли машина мыслить? М.: Гос. изд. физ.-мат. лит., I960, С. 59-101.

15. Винер Н. Кибернетика, или управление и связь в животном и ма­шине. М.: «Советское радио», 1968.

16. Серавин Л. Н. Теория информации с точки зрения биолога. Л.: Изд. Лен. унив., 1973.

17. Эйген М., Шустер П. Гиперцикл. М.: «Наука», 1980.

18. Шредингер Э. Что такое жизнь? М.: Изд. Ин. Лит.. 1947.

19. Тимофеев-Ресовский Н. В.,Циммер К. Г., Дельбрюк М.О природе генных мутаций и структуре гена. В кн: Н. В. Тимофеев-Ресовский. Избранные труды. М.: «Медицина», 1996. С. 105-153.

20. Меллер Г. Д. Проблема изменчивости гена. В кн.: Г.Д.Меллер. Избранные работы по генетике. М.-Л.: Огизсельхозгиз, 1937, С. 178-205.

21. Меллер Г. Д. Ген как основа жизни. // Г. Д. Меллер. Избранные ра­боты по генетике. М.-Л.: Огизсельхозгиз, 1937, С. 148-177.

22. Северцов А. Н. Эволюция и психика. М.: Изд. Собакиных. 1922.

23. Северцов А. Н. Морфологические закономерности эволюции. В кн.: А.Н. Северцов, Собр. сочинений, Т. 5, М.-Л.: Изд. АН СССР. С. 210-216.

24. Tinbergen N. The Study of Instinct. Oxf.: 1969.

25. Лоренц К. 3. Кольцо царя Соломона. М.: «Знание», 1978.

26. Панов Е. Н. Этология – ее истоки, становление и место в исследовании поведения. М.: «Знание», 1975.

27. Крушинский Л. В. Биологические основы рассудочной деятельности. М.: Изд-во МГУ, 1977.

28. Корогодин В. И. Информация и феномен жизни. Пущшо: 1991.

29. Korogodin V. I., Fajszi Cs. Int. J. System set, 1986, v.17, №12. P. 1661-1667.

30. Поршнев Б. Ю. О начале человеческой истории (Проблемы палеопсихологии). М.: «Наука», 1976.

 

Глава первая

ИСТОРИЧЕСКАЯ СПРАВКА

Термин «информация»

Термин «информация» пришел к нам из латинского языка (informatio), и обычно переводится как «представление», «поня­тие» (о чем-либо), «изложение», «сведения», «осведомление», «сообщение» и т.п. Термин этот интуитивно ясный, обладает широчайшим смысловым полем и поэтому столь же трудно поддается определению, как и его русские синонимы. В. В. На­лимов [1] приводит несколько попыток определить понятие «информация», предпринятых разными авторами, ни одну из кото­рых нельзя признать удавшейся. «Даже эта совсем небольшая подборка определений понятия «информация», – пишет он, показывает, сколь полиморфно по своему смысловому значению это слово. Здесь развитие полиморфизма связано прежде всего с тем, что ни одно из определений не отвечает нашим интуитив­ным представлениям о смысле этого слова. И всякая попытка определения приписывает этому слову совершенно новые черты, отнюдь не раскрывающие, а суживающие и тем самым затем­няющие его смысл и уже безусловно увеличивающие семантиче­ский полиморфизм этого слова» (стр. 127). Это отражает саму специфику феномена, обозначаемого этим термином.

Определить понятие можно двумя способами – либо сведя его к более элементарным (фундаментальным), либо перечислив круг явлений, к нему относящихся. В основе обоих видов опре­деления лежит возможность расчленить, подразделить смежные понятия или феномены, т.е. дискретность. Дискретность, как из­вестно, фундаментальное свойство материального мира, т.е. ми­ра вещей и энергии. Именно дискретность природных явлений составляет базу всех естественных наук. В случае информации дело обстоит иначе. Слагается ли информация из отдельных дискретных составляющих, или это непрерывный, точнее, – не­разрывный поток, лишь искусственно расчлененный на отдельные сообщения или сведения? Ответить на этот вопрос мы не можем. Но, может быть, именно эта особенность информации отражает тот факт, как пишет Н. Винер [2], что «Информация есть информация, а не материя и не энергия» (стр. 201), т.е. не принадлежит миру вещей. Ниже мы еще не раз к этому будем возвращаться. Сейчас же важно понять, почему никто из упо­мянутых выше ученых, стоявших у истоков теории информации, не попытался дать строгого определения этого термина.

Так складывалась теория, объект которой не был определен. В науке впервые возникла ситуация, подобная той, которая ха­рактерна для древнееврейской религии: Бог имеет множество имен, но ни одно из них нельзя произносить вслух. В области религии это вполне допустимо. В науке же все идеи и направ­ления постоянно дискутируются. Мы дадим главные идеи из разных областей, где может быть использован этот термин.

Формула Шеннона

Возникновение классической теории информации было инду­цировано развитием технических систем связи, призванных слу­жить обмену информацией между людьми. Подчеркнем – технических систем, работа которых определяется законами физики, т.е. законами материального мира. Задача оптимизации работы таких систем требовала, прежде всего, решить вопрос о количестве информации, передаваемой по каналам связи. Поэтому вполне естественно, что первые шаги в этом направлении сде­лали сотрудники Bell Telephon Companie – X. Найквист, Р. Харт­ли и К. Шеннон [3].

В 1924 г. X. Найквист предложил измерять количество ин­формации, приходящееся на одну букву текста, передаваемого по каналу связи, величиной Н-1/п, где п –число букв в используемом языке. Спустя четыре года Р. Хартли, исходя из требования аддитивности, в качестве такой меры начал приме­нять логарифм этой величины, т.е. log(1/n). Двадцать лет спустя, в 1948 г., К. Шеннон для этой же цели ввел величину

(6)

где Hi – количество информации, связанное с i-ой буквой алфа­вита, p i – частота встречаемости этой буквы в данном языке, q - основание логарифмов, а k– коэффициент пропорционально­сти, величина которого зависит от q и от избранных единиц измерения количества информации; знак «минус» перед kпо­ставлен для того, чтобы величина Hiвсегда была положитель­ной. Тогда суммарное количество информации для сообщения, состоящего из М букв, будет

(7)

где mi – число i-х букв в сообщении

К. Шеннон показал, что с увеличением длины сообщения М почти всегда будет иметь «типичный состав»: (тi/М → рi). Сле­довательно,

(8)

В случае бинарного кода, когда n = 2, а р1 = р2 = 0,5, q=2 и k=1, количество информации Нм становится равным М и вы­ражается в так называемых бинарных единицах – битах.

Приведенные формулы послужили К. Шеннону основанием для исчисления пропускной способности каналов связи и энтро­пии источников сообщений, для улучшения методов кодирова­ния и декодирования сообщений, для выбора помехоустойчивых кодов, а также для решения ряда других задач, связанных с оп­тимизацией работы технических систем связи. Совокупность этих представлений, названная К. Шенноном «математической теорией связи», и явилась основой классической теории инфор­мации.

Теперь обратим внимание на три характерные черты этой работы К. Шеннона. Во-первых, в ней отсутствует определение понятия «информация». Во-вторых, термин «количество инфор­мации» здесь используется как синоним статистических характе­ристик букв, составляющих сообщение. В-третьих, по отноше­нию к источнику сообщений здесь применяется слово «энтро­пия». Черты эти, несущественные в контексте математической теории связи, оказали значительное влияние на судьбу теории информации.

Отсутствие определения понятия «информация» в работах К. Шеннона и его предшественников, по-видимому, довольно ес­тественно – они в нем просто не нуждались. Ведь работы эти были посвящены не теории информации, а теории связи. То, что по каналам связи передают осмысленные сообщения, т.е. информацию, было очевидно, – ведь для этого их и создавали. Замечательной особенностью каналов связи является то, что по ним можно передавать любую информацию, пользуясь ограни­ченным числом сигналов или букв. При этом передают по ка­налам связи именно буквы, сигналы, а не информацию как та­ковую. Объекты передачи, следовательно, имеют материальную, физическую природу – обычно это модуляции напряженности электрического тока. Ответа требовал не вопрос «Что такое информация?», а вопрос «Какое количество информации можно передать в единицу времени, пользуясь данным набором сигна­лов?». Предложенное К. Шенноном определение «количества информации» (6) хорошо согласовывалось с дискретной[1] природой сигналов, обычно передаваемых по каналам связи. И в то же время, такая мера «количества информации» создавала ощуще­ние, не встречающее сопротивления на психологическом уровне, что чем реже происходит данное событие – появление данного сигнала на выходе канала связи, тем больше это событие «несет с собой» информации.

Со всем этим можно было бы вполне согласиться, если бы не одно обстоятельство: отдельные сигналы или буквы, переда­ваемые по каналам связи, сами по себе не несут той информа­ции, для обмена которой существуют системы связи. Информа­цию содержат лишь сочетания сигналов или букв, причем от­нюдь не любые, а лишь осмысленные, наполненные определен­ным содержанием. Введение единой меры количества информа­ции, содержащейся в сообщениях, меры, не зависящей от их се­мантики, как будто бы блестяще решало задачу соизмеримости бесконечного количества возможных различающихся по смыслу сообщений. И в то же время введение такой меры создавало видимость дробления, квантируемости информации, видимость возможности оценивать ее количество как сумму элементарных количеств информации, связанных с каждой отдельной буквой содержащего ее сообщения.

Напомним, что ко времени выхода в свет работы К. Шенно­на [3] научная общественность была уже подготовлена к ее вос­приятию. Зарождавшаяся тогда же кибернетика, или «наука об управлении и связи в животном и машине» [2], уже использовала термин «информация» для обозначения тех сигналов, которыми могут обмениваться между собой люди или животные, человек и машина, или сигналов, воспринимаемых животными или ма­шиной с помощью специальных рецепторов из окружающей среды с целью оптимизировать свое «поведение». Уже был пу­щен в оборот термин «генетическая информация» [4]. Бурное развитие самых разных технических систем связи (телеграфа, телефона, радио, телевидения) остро нуждалось в ограничении присущего понятию «информация» полиморфизма в целях раз­работки все более совершенных методов ее передачи, приема и хранения. Всем этим запросам, казалось, прекрасно соответство­вала шенноновская концепция количества информации.

Однако надо ясно представить себе, что, не давая определе­ния понятию «информация» и в то же время называя «количеством информации» частотную характеристику букв кода, К. Шеннон как бы создавал возможность для отождествления двух совер­шенно разных по своей природе феноменов информации как семантики сообщения и «информации» как частоты осуществле­ния какого-либо события. Это делало возможной подмену тер­минов, что и было быстро реализовано. Уже через несколько лет французский физик Л. Бриллюэн [5,6] в качестве основного достоинства новой теории называл отождествление информации с величиной, обратной частоте осуществления какого-либо со­бытия. Термин «информация» в указанном выше смысле окон­чательно слился с термином «количество информации».

Формула К. Шеннона (6) по структуре своей подобна форму­ле, предложенной Л. Больцманом для выражения количества эн­тропии. Это формальное сходство послужило К. Шеннону пово­дом называть «энтропией», по аналогии с физической энтропи­ей, свойство источника сообщений порождать в единицу време­ни то или иное число сигналов на выходе, а «энтропией сооб­щения» – частотную характеристику самих сообщений, выражаемую формулами (6) и (7).

Кажущаяся простота предложенного К. Шенноном решения проблемы измерения количества информации создавала види­мость столь же легкого решения и других связанных с исполь­зованием термина «информации» проблем. Это и породило ту эйфорию, ту шумиху вокруг зарождающейся теории информа­ции, характерную для пятидесятых годов, которую одним из первых заметил сам К. Шеннон и против которой было направлено его провидческое эссе «Бандвагон» [7].

Поделиться:





Воспользуйтесь поиском по сайту:



©2015 - 2024 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...