Целенаправленное действие и его компоненты 2 глава
Как нам кажется, в мире неживой Природы нет примеров информационных систем, в которых носители информации отличались бы качественно от остальных элементов системы. Основа жизни Мы привыкли к словосочетанию «генетическая информация», забыли даже, что ввел его в научный обиход Э. Шредингер в середине 40-х годов [18]. В своей книге «Что такое жизнь с точки зрения физика?» он опирался на работу Н. В. Тимофеева-Ресовского, К. Г. Циммера и М. Дельбрюка «О природе генных мутаций и структуре гена», увидевшую свет в Германии в 1935 г. [19]. Это произошло вскоре после того, как Г. Меллер, ученик Т. Моргана, впервые показал, что гены не только воспроизводят себя и изменяются (мутируют), но что можно повлиять на частоту их мутирования, например, повышением температуры или действием ионизирующих излучений [20]. В 1928 г. Меллер [21] в статье «Ген как основа жизни» показал, что именно гены (образования неизвестной тогда природы), способные к ауто- и гетерокатализу, положили начало феномену жизни на нашей планете. «Ясно, что, став на эту точку зрения, мы избегаем логических трудностей, связанных с происхождением современной протоплазмы, с ее взаимодействием частей, действующих совместно в направлении продолжения роста и точного воспроизведения целого. Система эта образовалась, так же как и сложная макроскопическая форма высших растений и животных,... постепенно, шаг за шагом, каждый из которых проверялся по мере того, как в первичных аутокаталитических генах мутация следовала за мутацией. В этом процессе преимущественно выживали, размножались и вновь мутировали лишь те гены, побочные продукты которых оказывались наиболее полезными для дальнейшего воспроизведения... Согласно этому взгляду, который, по-видимому, наилучшим образом выдерживает проверку исчерпывающим анализом, по крайней мере значительная часть протоплазмы явилась вначале лишь побочным продуктом активности генного вещества; ее функция... заключается лишь в питании генов; первичные же, свойственные всякой жизни, тайны скрыты глубже, в самом генном веществе... Мутабильного типа структуры в генном веществе несомненно претерпели в процессе эволюции глубокие изменения и подверглись усложнениям, а под их влиянием, конечно, эволюционировала и протоплазма, но другие структуры – те черты строения гена, которые ответственны за его первичное свойство аутокатализа – должны быть еще и сейчас такими же, какими они были в незапамятные времена, когда зеленая тина еще не окаймляла берегов морей».
Всего через 20 с небольшим лет после этой публикации было установлено, что гены представляют собой отдельные участки молекулы ДНК, размножающиеся путем комплементарного пристраивания друг к другу четырех видов нуклеотидов; гены мутируют, когда происходят ошибки в этом процессе; они управляют синтезом разного рода белков, составляющих протоплазму, переключаясь время от времени с аутокатализа (построения собственных копий) на гетерокатализ (построение инородных молекул) путем синтеза РНК и, с ее помощью, молекул белка. Сейчас все это хорошо известные процессы. Можно ли проводить аналогии между свойствами живых клеток и, например, кристаллов? Рост и размножение кристаллов основаны на присоединении к исходной «затравке» все новых, точно таких же молекул из раствора. Вероятность этого равновесного процесса зависит от температуры и концентрации раствора. Размножение вирусной частицы также зависит от условий окружающей среды. Но вирусы, как и все живые организмы, – открытые системы и с большей эффективностью используют окружающую среду для выживания и размножения. Это касается, например, поиска клетки-хозяина и размножения в ней. Прикрепившись к поверхности живой клетки, вирус с помощью специального белкового устройства впрыскивает в нее свою молекулу ДНК или РНК, содержащую его гены. Гены вируса не только воспроизводят себя, используя синтезируемые зараженной клеткой «кирпичики», но также заставляют эту клетку создавать новые, не свойственные ей белковые молекулы, которые, окружая готовые генетические структуры новых вирусных частиц, создают белковую оболочку вируса, приспособленную для осуществления следующего цикла – заражения других клеток и размножения в них.
Все теории происхождения жизни вращаются вокруг попыток ответить на вопрос: как возникла ДНК и та информация, которая записана в ней [17]? Поведенческая информация Генетическая информация и ее изменчивость полностью определила эволюцию всех организмов, ведущих преимущественно прикрепленный образ жизни, т.е. растений и грибов. Однако, с развитием подвижности животных, активации поисков пищевых ресурсов и половых партнеров, все большую роль в их жизнедеятельности начинают играть новые, случайно возникающие ситуации, которые невозможно заранее предвидеть и «запастись» генетически детерминированными ответами на них. Это, видимо, и послужило основой для возникновения поведенческой информации. Поведенческой будем называть информацию, лежащую в основе поступков, контролируемых особенностями нервной системы, которые формируются временно, под влиянием жизненного опыта или процессов научения, например путем подражания родителям или другим сородичам. С возникновением поведенческой информации роль генетической информации в жизни высших животных начинает изменяться. Теперь все большая роль в их выживании принадлежит не только генетически детерминированным ответным реакциям на те или иные ситуации, но и таким особенностям нервной системы, которые обеспечивают эффективное использование обучения и научения, в том числе решение без предварительного опыта внезапно возникающих задач [22]. Поведенческая информация постепенно играет все большую роль в выживании высших животных, примеры чему можно найти как у классиков [22, 23], так и у наших современников [24-27]. Максимальное развитие поведенческая информация получила у млекопитающих. Мы еще не знаем материальной (точнее, молекулярной) природы носителей этого вида информации и не умеем определять ее количество. Но нет поведения, которое не обеспечивало бы целесообразность поступков высших животных в разных ситуациях. Здесь тоже «работает» дарвиновский отбор: неадаптивные реакции приводят, как правило, к гибели животных, а вместе с ними погибает и «неправильная» информация.
Мы убеждены в том, что именно те генетически детерминированные структуры клеток и особенности организации нервной системы, которые делают ее способной накапливать и использовать поведенческую информацию, являются основой для формирования третьего вида информации – логической, с которой связаны возникновение и эволюция человека. Логическая информация Вряд ли можно сомневаться, что человек стал тем, что он есть, только обретя дар речи. «В начале было Слово...» (Иоанн, 1, 1). Первоначально логическая информация, носителем которой является речь, играла роль, скорее всего, лишь для ускорения и упрощения обмена между людьми поведенческой информацией. Но затем эта ее функция отошла на второй план. Основная роль и главная функция логической информации связаны, видимо, с особенностями ее носителя – человеческой речью. Речь, язык присущи только человеку. У других живых организмов (в том числе у обезьян и дельфинов) языка нет – есть лишь сигнальное общение, ничего общего, кроме внешнего сходства, с человеческой речью не имеющее [26]. Уникальная особенность языка, как носителя информации, состоит в том, что он позволяет информации существовать вне зависимости от индивидуумов, ее создающих или использующих. Именно язык создал единый информационный пул планеты, открытый для всех населяющих Землю людей. Логическая информация не имеет четких границ с другими, неинформационными, языковыми феноменами, относящимися, например, к областям искусства, религии и т.п. Но все эти феномены, при тщательном рассмотрении, выполняют общую функцию содействия распространению и сохранению разных видов логической информации. Такую же роль играют и этика, и мораль, и другие стороны социальной жизни людей [28]. Все это, вместе взятое, оказывает на человека давление, направленное на все большее сплочение, объединение всех представителей человечества в единую общность и развитие единого информационного пула.
Подстать развитию информационного пула идет и реализация логической информации. Операторами, способствующими осуществлению целенаправленных действий и кодируемыми генетической информацией, служат все негенетические компоненты живых организмов. В случае поведенческой информации таким оператором является поведение животных в разных ситуациях. Дли логической информации в роли операторов выступают технологии – вся совокупность технологических приемов и процессов, известных человеку. Эти операторы существуют вне зависимости от желания и воли отдельных людей, как и кодирующая их логическая информация. Мы сейчас находимся в фазе становления «информационного общества». Все новые достижения логической информации и основанных на ней технологий уже практически полностью объединены в единый информационный пул и единую технологическую систему планеты. Этому соответствует такое же (правда, идущее с некоторым запаздыванием) объединение человечества в разных регионах земного шара. Ведущая роль информации в этом процессе очевидна и не требует доказательств. От предсказаний: «Что нас ожидает завтра?» – мы воздержимся по той простой причине, что наше будущее принципиально непредсказуемо: даже небольшие изменения в информационном пуле, непредвидимые заранее, могут существенным образом видоизменить связанные с ними технологии, а следовательно, и наше с вами существование. Автогенез информации Первичные живые организмы возникли на нашей планете более 4 млрд. лет назад. Тем самым предшествовавшая неорганическая эволюция дополнилась эволюцией живых организмов [17], в форме которой выступила новая, ранее не существовавшая на Земле сущность – генетическая информация. Закономерности развития информации позволяют понять, как появились новые виды живых организмов, а по существу -новые варианты генетической информации [28]. Попадая во все более сложные условия, в создании которых информация принимала все большее участие через «наработку» побочных продуктов своей деятельности, живые организмы, подчиняясь естественному отбору, увеличивали количество содержащейся в них информации, повышали ее ценность, оптимизировали эффективность.
Различные варианты генетической информации менялись как количественно, так и качественно. В результате живой мир постепенно распространялся по всей планете. Вслед за прокариотами (бактериями) появились эукариоты – растения, грибы и животные. Количество генетической информации, содержащейся в клетках этих организмов, стремилось к возможному для них максимуму [29]. Для координации действий у одной из групп гетеротрофных организмов – многоклеточных животных – образовалась нервная система. У высших животных поведенческие реакции, играющие все большую роль в их жизнедеятельности, не ограничивались уже теми, которые передаются по наследству, а создавались и самостоятельно, на основании «жизненного опыта», и передавались потомкам через обучение. Так возникла поведенческая информация, по лабильности и скорости передачи существенно превосходящая генетическую. Поведенческая информация образовалась на основе врожденных поведенческих реакций, генетически запрограммированных в нервной системе. Это – ярчайший пример перехода информации из одной формы в другую, с носителей одной природы (молекулы ДНК) на носители другой природы (нервные клетки). Для высших животных, обитающих в сложной природной среде, умение «вести себя» в тех или иных ситуациях играет такую же роль для выживания, как для простых живых существ «умение» потреблять нужную пищу, строить из нее свое тело и вырабатывать нуклеотиды, необходимые для размножения молекул ДНК. Поведенческая информация позволяла высшим животным не только ориентироваться в окружающей среде, но и взаимодействовать друг с другом в поисках пищи и половых партнеров, в воспитании и обучении потомства, в защите от врагов. Вырабатывались различные сигналы, которыми обменивались друг с другом высшие животные: химические метки, знаки на земле или коре деревьев и, конечно, звуки, имеющие разное значение в разных ситуациях. Так постепенно готовилась почва для формирования речи – способа обмена информацией путем различной последовательности звуков и их комбинаций. Складывалась человеческая речь. Появление владеющего речью «человека говорящего» означало возникновение нового вида информации – информации логической. Б. Ф. Поршнев [30] связывал появление речи с формированием самого человека. Не труд, а речь сделала человека тем, что он есть. Трудиться может и «бессловесная тварь», не жалея сил и преодолевая разные препятствия для достижения своей цели – построения гнезда или плотины, при охоте за дичью. Но организовать труд, передавать друг другу уже приобретенные трудовые навыки, обобщать опыт и в сжатом виде трансформировать его в понятия – для всего этого необходима речь. Если генетическая информация породила жизнь, поведенческая – обеспечила разнообразие поведения высших животных, то логическая информация, передаваемая с помощью речи, вначале устной, а затем и письменной, ознаменовала начало эры ноогенеза, эры рождения сферы разума, охватывающего, вслед за биосферой, весь земной шар. На основе логической информации, или, другими словами, на основе накапливаемого человечеством знания, начали развиваться технологии. Этим термином называют искусственно создаваемые человеком структуры и процессы, обеспечивающие его существование, а тем самым и размножение тех фрагментов логической информации, которые вызвали их к жизни. Если технология себя не оправдывает, человек ее отбрасывает, и лежащая в ее основе логическая информация утрачивается (забывается). Так же, как биологическая эволюция представляет собой лишь «отражение в мире вещей» развивающейся генетической и поведенческой информации, так и техногенез – лишь отражение развития логической информации, существующей вне отдельных человеческих существ. Предвидимо ли будущее? Мы живем в мире неравновесных процессов. Математические задачи при решении нелинейных дифференциальных уравнений, о которых шла речь выше, приводят к области, называемой теорией бифуркаций. Это говорит о том, что если близко от точки равновесия система имеет единственное решение, то вдали от равновесия при некотором значении критических параметров в области неустойчивости она достигает точки бифуркации, начиная от которой для системы открываются новые возможности, приводящие к одному или нескольким решениям. Теория бифуркаций находит бесчисленные приложения начиная от физики, кончая экономикой и социологией. Попробуем построить приблизительные решения для судьбы логической информации. Судя по аналогии с предыдущими видами информации, можно предположить автотрофное существование логической информации, подобно автотрофному типу питания, избранному растениями. Но у растений переход этот был связан с совершенствованием отдельных индивидуумов, представляющих собой искусные «живые фабрики» по производству глюкозы из воды и углекислого газа (с помощью квантов солнечного света) и использующих этот продукт для энергообеспечения синтеза молекул, слагающих их тела. В случае же логической информации иной путь к автотрофности – возникновение технологий, использующих тот же солнечный свет (а может быть, и термоядерный синтез) как источник энергии и «подручное» неорганическое сырье для создания сначала – систем жизнеобеспечения человека, а затем, возможно, и для строительства самовоспроизводящихся автоматов. Следует, однако, подчеркнуть, что автотрофность человечества – это такая же вольная фантазия, как и все другие футурологические рассуждения. Единственное, чему нас учит история, – это непредсказуемость будущего. Пусть читатель не судит очень строго нашу попытку, в меру понимания, представить эволюцию информации, в особенности последний, биологический, этап ее развития. Нашей задачей мы считали не столько ответить, сколько поставить вопросы эволюции, используя идеи из разных областей знания. Литература 1. Шеннон К. Математическая теория связи // «К. Шеннон. Работы по теории информации и кибернетике». М.: И ИЛ, 1963. С. 243-332. 2. Бриллюэн Л. Научная неопределенность и информация. М.: «Мир», 1966. 3. Кадомцев Б. Б.Динамика и информация. Редакция журнала «Успехи физических наук», 1997. 4. Kolmogorov А. N. Infomation transmission. V.I, 1965. № 3. 5. Zurek W. H.Complexity, Entropy and Phisics of Information (Ed. W. H. Zurek). Addison-Wesley. 1990. 6. Дастр Н. Жизнь материи. Краткий систематический словарь биологических наук. Ч. 3. СПб.: 1904. С. 5-31. 7. Лункевич В. В. Основыжизни. Ч. 1., М.-Л.: 1928 8. Дриш Г. Витализм. Его история и система. М.: 1915. 9. Харкевич А. А. О ценности информации. Проблемы кибернетики. Вып. 4, М.: Физматгиз, 1960. С. 53-72. 10. Корогодин В. И. Определение понятия «информация» и возможности его использования в биологии. Биофизика, 1983, Т. 28., вып. 1, С. 171-177. 11. Prigogine I. Introduction to Nonequilibrium Thermodynamics. Wiley-Interscience. NY. 1962. 12. Баблоянц А. Молекулы, динамика и жизнь. М.: «Мир», 1970. 13. Моисеев Н. Расставание с простотой. М.: Аграф. 1998. 14. фон Нейман Дж. Общая и логическая теория автоматов. В кн.: Тьюринг А. Может ли машина мыслить? М.: Гос. изд. физ.-мат. лит., I960, С. 59-101. 15. Винер Н. Кибернетика, или управление и связь в животном и машине. М.: «Советское радио», 1968. 16. Серавин Л. Н. Теория информации с точки зрения биолога. Л.: Изд. Лен. унив., 1973. 17. Эйген М., Шустер П. Гиперцикл. М.: «Наука», 1980. 18. Шредингер Э. Что такое жизнь? М.: Изд. Ин. Лит.. 1947. 19. Тимофеев-Ресовский Н. В.,Циммер К. Г., Дельбрюк М.О природе генных мутаций и структуре гена. В кн: Н. В. Тимофеев-Ресовский. Избранные труды. М.: «Медицина», 1996. С. 105-153. 20. Меллер Г. Д. Проблема изменчивости гена. В кн.: Г.Д.Меллер. Избранные работы по генетике. М.-Л.: Огизсельхозгиз, 1937, С. 178-205. 21. Меллер Г. Д. Ген как основа жизни. // Г. Д. Меллер. Избранные работы по генетике. М.-Л.: Огизсельхозгиз, 1937, С. 148-177. 22. Северцов А. Н. Эволюция и психика. М.: Изд. Собакиных. 1922. 23. Северцов А. Н. Морфологические закономерности эволюции. В кн.: А.Н. Северцов, Собр. сочинений, Т. 5, М.-Л.: Изд. АН СССР. С. 210-216. 24. Tinbergen N. The Study of Instinct. Oxf.: 1969. 25. Лоренц К. 3. Кольцо царя Соломона. М.: «Знание», 1978. 26. Панов Е. Н. Этология – ее истоки, становление и место в исследовании поведения. М.: «Знание», 1975. 27. Крушинский Л. В. Биологические основы рассудочной деятельности. М.: Изд-во МГУ, 1977. 28. Корогодин В. И. Информация и феномен жизни. Пущшо: 1991. 29. Korogodin V. I., Fajszi Cs. Int. J. System set, 1986, v.17, №12. P. 1661-1667. 30. Поршнев Б. Ю. О начале человеческой истории (Проблемы палеопсихологии). М.: «Наука», 1976.
Глава первая ИСТОРИЧЕСКАЯ СПРАВКА Термин «информация» Термин «информация» пришел к нам из латинского языка (informatio), и обычно переводится как «представление», «понятие» (о чем-либо), «изложение», «сведения», «осведомление», «сообщение» и т.п. Термин этот интуитивно ясный, обладает широчайшим смысловым полем и поэтому столь же трудно поддается определению, как и его русские синонимы. В. В. Налимов [1] приводит несколько попыток определить понятие «информация», предпринятых разными авторами, ни одну из которых нельзя признать удавшейся. «Даже эта совсем небольшая подборка определений понятия «информация», – пишет он, показывает, сколь полиморфно по своему смысловому значению это слово. Здесь развитие полиморфизма связано прежде всего с тем, что ни одно из определений не отвечает нашим интуитивным представлениям о смысле этого слова. И всякая попытка определения приписывает этому слову совершенно новые черты, отнюдь не раскрывающие, а суживающие и тем самым затемняющие его смысл и уже безусловно увеличивающие семантический полиморфизм этого слова» (стр. 127). Это отражает саму специфику феномена, обозначаемого этим термином. Определить понятие можно двумя способами – либо сведя его к более элементарным (фундаментальным), либо перечислив круг явлений, к нему относящихся. В основе обоих видов определения лежит возможность расчленить, подразделить смежные понятия или феномены, т.е. дискретность. Дискретность, как известно, фундаментальное свойство материального мира, т.е. мира вещей и энергии. Именно дискретность природных явлений составляет базу всех естественных наук. В случае информации дело обстоит иначе. Слагается ли информация из отдельных дискретных составляющих, или это непрерывный, точнее, – неразрывный поток, лишь искусственно расчлененный на отдельные сообщения или сведения? Ответить на этот вопрос мы не можем. Но, может быть, именно эта особенность информации отражает тот факт, как пишет Н. Винер [2], что «Информация есть информация, а не материя и не энергия» (стр. 201), т.е. не принадлежит миру вещей. Ниже мы еще не раз к этому будем возвращаться. Сейчас же важно понять, почему никто из упомянутых выше ученых, стоявших у истоков теории информации, не попытался дать строгого определения этого термина. Так складывалась теория, объект которой не был определен. В науке впервые возникла ситуация, подобная той, которая характерна для древнееврейской религии: Бог имеет множество имен, но ни одно из них нельзя произносить вслух. В области религии это вполне допустимо. В науке же все идеи и направления постоянно дискутируются. Мы дадим главные идеи из разных областей, где может быть использован этот термин. Формула Шеннона Возникновение классической теории информации было индуцировано развитием технических систем связи, призванных служить обмену информацией между людьми. Подчеркнем – технических систем, работа которых определяется законами физики, т.е. законами материального мира. Задача оптимизации работы таких систем требовала, прежде всего, решить вопрос о количестве информации, передаваемой по каналам связи. Поэтому вполне естественно, что первые шаги в этом направлении сделали сотрудники Bell Telephon Companie – X. Найквист, Р. Хартли и К. Шеннон [3]. В 1924 г. X. Найквист предложил измерять количество информации, приходящееся на одну букву текста, передаваемого по каналу связи, величиной Н-1/п, где п –число букв в используемом языке. Спустя четыре года Р. Хартли, исходя из требования аддитивности, в качестве такой меры начал применять логарифм этой величины, т.е. log(1/n). Двадцать лет спустя, в 1948 г., К. Шеннон для этой же цели ввел величину (6) где Hi – количество информации, связанное с i-ой буквой алфавита, p i – частота встречаемости этой буквы в данном языке, q - основание логарифмов, а k– коэффициент пропорциональности, величина которого зависит от q и от избранных единиц измерения количества информации; знак «минус» перед kпоставлен для того, чтобы величина Hiвсегда была положительной. Тогда суммарное количество информации для сообщения, состоящего из М букв, будет (7) где mi – число i-х букв в сообщении К. Шеннон показал, что с увеличением длины сообщения М почти всегда будет иметь «типичный состав»: (тi/М → рi). Следовательно, (8) В случае бинарного кода, когда n = 2, а р1 = р2 = 0,5, q=2 и k=1, количество информации Нм становится равным М и выражается в так называемых бинарных единицах – битах. Приведенные формулы послужили К. Шеннону основанием для исчисления пропускной способности каналов связи и энтропии источников сообщений, для улучшения методов кодирования и декодирования сообщений, для выбора помехоустойчивых кодов, а также для решения ряда других задач, связанных с оптимизацией работы технических систем связи. Совокупность этих представлений, названная К. Шенноном «математической теорией связи», и явилась основой классической теории информации. Теперь обратим внимание на три характерные черты этой работы К. Шеннона. Во-первых, в ней отсутствует определение понятия «информация». Во-вторых, термин «количество информации» здесь используется как синоним статистических характеристик букв, составляющих сообщение. В-третьих, по отношению к источнику сообщений здесь применяется слово «энтропия». Черты эти, несущественные в контексте математической теории связи, оказали значительное влияние на судьбу теории информации. Отсутствие определения понятия «информация» в работах К. Шеннона и его предшественников, по-видимому, довольно естественно – они в нем просто не нуждались. Ведь работы эти были посвящены не теории информации, а теории связи. То, что по каналам связи передают осмысленные сообщения, т.е. информацию, было очевидно, – ведь для этого их и создавали. Замечательной особенностью каналов связи является то, что по ним можно передавать любую информацию, пользуясь ограниченным числом сигналов или букв. При этом передают по каналам связи именно буквы, сигналы, а не информацию как таковую. Объекты передачи, следовательно, имеют материальную, физическую природу – обычно это модуляции напряженности электрического тока. Ответа требовал не вопрос «Что такое информация?», а вопрос «Какое количество информации можно передать в единицу времени, пользуясь данным набором сигналов?». Предложенное К. Шенноном определение «количества информации» (6) хорошо согласовывалось с дискретной[1] природой сигналов, обычно передаваемых по каналам связи. И в то же время, такая мера «количества информации» создавала ощущение, не встречающее сопротивления на психологическом уровне, что чем реже происходит данное событие – появление данного сигнала на выходе канала связи, тем больше это событие «несет с собой» информации. Со всем этим можно было бы вполне согласиться, если бы не одно обстоятельство: отдельные сигналы или буквы, передаваемые по каналам связи, сами по себе не несут той информации, для обмена которой существуют системы связи. Информацию содержат лишь сочетания сигналов или букв, причем отнюдь не любые, а лишь осмысленные, наполненные определенным содержанием. Введение единой меры количества информации, содержащейся в сообщениях, меры, не зависящей от их семантики, как будто бы блестяще решало задачу соизмеримости бесконечного количества возможных различающихся по смыслу сообщений. И в то же время введение такой меры создавало видимость дробления, квантируемости информации, видимость возможности оценивать ее количество как сумму элементарных количеств информации, связанных с каждой отдельной буквой содержащего ее сообщения. Напомним, что ко времени выхода в свет работы К. Шеннона [3] научная общественность была уже подготовлена к ее восприятию. Зарождавшаяся тогда же кибернетика, или «наука об управлении и связи в животном и машине» [2], уже использовала термин «информация» для обозначения тех сигналов, которыми могут обмениваться между собой люди или животные, человек и машина, или сигналов, воспринимаемых животными или машиной с помощью специальных рецепторов из окружающей среды с целью оптимизировать свое «поведение». Уже был пущен в оборот термин «генетическая информация» [4]. Бурное развитие самых разных технических систем связи (телеграфа, телефона, радио, телевидения) остро нуждалось в ограничении присущего понятию «информация» полиморфизма в целях разработки все более совершенных методов ее передачи, приема и хранения. Всем этим запросам, казалось, прекрасно соответствовала шенноновская концепция количества информации. Однако надо ясно представить себе, что, не давая определения понятию «информация» и в то же время называя «количеством информации» частотную характеристику букв кода, К. Шеннон как бы создавал возможность для отождествления двух совершенно разных по своей природе феноменов информации как семантики сообщения и «информации» как частоты осуществления какого-либо события. Это делало возможной подмену терминов, что и было быстро реализовано. Уже через несколько лет французский физик Л. Бриллюэн [5,6] в качестве основного достоинства новой теории называл отождествление информации с величиной, обратной частоте осуществления какого-либо события. Термин «информация» в указанном выше смысле окончательно слился с термином «количество информации». Формула К. Шеннона (6) по структуре своей подобна формуле, предложенной Л. Больцманом для выражения количества энтропии. Это формальное сходство послужило К. Шеннону поводом называть «энтропией», по аналогии с физической энтропией, свойство источника сообщений порождать в единицу времени то или иное число сигналов на выходе, а «энтропией сообщения» – частотную характеристику самих сообщений, выражаемую формулами (6) и (7). Кажущаяся простота предложенного К. Шенноном решения проблемы измерения количества информации создавала видимость столь же легкого решения и других связанных с использованием термина «информации» проблем. Это и породило ту эйфорию, ту шумиху вокруг зарождающейся теории информации, характерную для пятидесятых годов, которую одним из первых заметил сам К. Шеннон и против которой было направлено его провидческое эссе «Бандвагон» [7].
Воспользуйтесь поиском по сайту: ©2015 - 2025 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...
|