Главная | Обратная связь | Поможем написать вашу работу!
МегаЛекции

Целенаправленное действие и его компоненты 3 глава

Информация и энтропия

Своей зрелости классическая теория информации достигла к середине пятидесятых годов. Главная причина столь быстрого «созревания» – простота и элегантность ее математического ап­парата, опирающегося на теорию вероятности.

Отсутствие строгого определения понятия «информация» соз­давало впечатление, что объектом теории информации является нечто, имеющее мало общего с тем, что называют информацией в обыденной жизни. Действительно, если «в быту» доминирует содержательная, смысловая сторона информации, то здесь се­мантика информации вообще не рассматривалась. Представление об энтропии сообщений, развитое К. Шенноном и вскоре до­полненное другими авторами (см. напр. [8-10]), как бы открыва­ло возможность для отождествления понятия «информация» с понятиями «разнообразие» и «термодинамическая энтропия». Это порождало соблазн распространения классической теории информации далеко за пределы теории связи, в том числе на явления неживой и живой природы и даже на различные облас­ти искусства [11-13].

Два утверждения характерны для классической теории ин­формации периода зрелости. Первое это постулирование «всюдности» информации. Второе утверждение – это то, что мерой количества информации, связанной с тем или иным объ­ектом или явлением, может служить редкость его встречаемости или сложность его структуры. Эти утверждения можно назвать постулатами классической теории.

Указанные постулаты, а также следствия из них, наиболее полно были изложены Л. Бриллюэном в его книгах [5, 6]. Прежде всего, за универсальную меру количества информации Л. Бриллюэн принял величину I = klnP, где Р - вероятность осущест­вления некоторого события или «сложность устройства» какого-либо объекта, k - постоянная, величина которой зависит от вы­бора системы единиц измерения, a ln - натуральный логарифм. Далее Л. Бриллюэн обратил особое внимание на сходство ука­занной формулы с формулой Л. Больцмана для исчисления ко­личества энтропии S = klnW, где W - число микросостояний не­которой системы, соответствующей ее макросостоянию, а k - «по­стоянная Больцмана», равная 1,4·10-16 эрг-град-1 или 3,3·10-24 эн­тропийных единиц (1 э.е. = 1 кал'град-1). Отсюда Л. Бриллюэн сде­лал вывод, что, приняв k = 3,3·10-24 э.е., мы получим возможность выражать количество информации в энтропийных единицах (1 бит = 2,3·10-24 э.е.), а величину энтропии, напротив, в единицах информационных (1 э.е. = 4,3·1023 бит). Затем он сделал послед­ний шаг в построении «негэнтропииного принципа»: сформули­ровал утверждение, согласно которому информация – это не что иное, как энтропия с обратным знаком, или негэнтропия.

Используя вероятностный подход, мы проведем следующие рассуждения. Пусть физическая система имеет W возможных со­стояний. Увеличение информации о ней, что было бы эквива­лентно фиксации в определенном состоянии, приведет к умень­шению энтропии системы. Другими словами,

I + S = const. (9)

Чем больше известно о системе, тем меньше ее энтропия. Важ­но еще одно обстоятельство. Утрачивая информацию, мы уве­личиваем энтропию системы. Увеличивать информацию о систе­ме мы можем, лишь увеличивая количество энтропии вне этой системы, во внешней среде, причем всегда

Формула Шеннона для определения количества информации (2) и формула Больцмана S = lnW для случая, когда вероятно­сти отдельных состояний системы различаются (3), формально совпадают. Мы замечали, что они имеют совершенно различ­ный смысл: информация (2) соответствует одному единственному состоянию системы из всех возможных W, мера этой информа­ции I = lnW. Энтропия (3) соответствует возможности нахожде­ния системы с некоторой вероятностью I/W в каждом из дос­тупных состояний. Информация (2) и энтропия (3) оказались равны между собой, потому, что I соответствует максимальной информации одного единственного состояния, а 5 определена по множеству всех состояний.

В замкнутой системе (возьмем, например, текст) увеличение энтропии приводит к «забыванию» информации, и мы прихо­дим к соотношению I + S = const. В соответствии со вторым за­коном термодинамики энтропия замкнутой системы не может убывать со временем. Поэтому в замкнутых системах соотноше­ние (9) может сдвигаться только к забыванию информации. Это означает, что рождение новой информации требует выхода за пределы изолированной системы.

Мы рассмотрели соотношение I + S = const с точки зрения второго закона термодинамики. Формулу Шеннона можно было бы назвать «физической информацией». Колмогоров [15] ввел понятие «алгоритмической информации». Алгоритмическую информацию можно рассматривать как меру алгоритмической хао­тичности. Алгоритмическая информация практически совпадает с информацией по Шеннону.

Поясним эти понятия и их соотношение на двух примерах из живого мира. Предположим, что мы хотим определить радио­чувствительность клеток популяции дрожжей. Мы ставим экспе­римент: делаем суспензию клеток, облучаем ее, высеваем клетки на чашки Петри с питательной средой, затем определяем ра­диочувствительность клеток по числу выросших колоний. В хо­де этого эксперимента мы заставляем геном клеток дрожжей работать по определенной схеме, одной единственной для каж­дой клетки. Тем самым мы выбираем и фиксируем одно един­ственное состояние из всех возможных. Этот эксперимент, кото­рый выявляет реакцию данных клеток на облучение, сводит все возможные состояния макромолекул, характеризующиеся некой максимальной энтропией, к одному единственному. Он может быть проведен за счет внешних ресурсов (питательной среды, источника облучения, работы лаборанта и т.д.). Второй пример – завоевание электората перед выборами. Хаотичные настроения толпы, характеризующиеся максимальной энтропией в обычное время, после агитации средствами массовой информации (нака­чивание внешней 7) перед выборами сменяются крайней полити­зацией. После выборов определяется количество проголосовав­ших за того или иного кандидата – поведение электората соответствует максимуму «информированности» о том или ином кандидате, какое-то количество неголосовавших составляет инертную константу.

Кратко резюмируя изложенное, можно заключить, что рожде­ние новой информации всегда происходит в открытых системах, где параметры порядка становятся динамическими переменными.

В следующем параграфе мы рассмотрим системы с диссипа­цией избыточной внутренней энтропии.

Диссипативные структуры

Пусть будет некоторая открытая система, из которой посто­янно удаляется шлак избыточной энтропии за счет роста энтро­пии внешней среды. Эта система является «диссипативной структурой». Пригожий с сотрудниками [16, 17] показали, что диссипативными структурами будут являться все разнообразные колебательные, пространственно организованные и пространст­венно-временные упорядоченные системы.

Для возникновения диссипативных структур необходимы сле­дующие условия:

1. система должна быть открытой и находиться вдали от тер­модинамического равновесия;

2. в системе должны протекать различные каталитические и кросс-каталитические процессы, а также наблюдаться регуля­ция по типу обратной связи;

3. после некоторого критического значения параметров системы или какого-либо внешнего воздействия состояние системы становится неустойчивым и система может перейти в новое стационарное состояние, режим которого соответствует упорядоченному состоянию.

Под влиянием флуктуации отдельные элементы системы, взаимодействуя, обнаруживают свойства, характеризующие сис­тему в целом, которые невозможно предсказать на основании свойств ее отдельных элементов. Такие структуры хорошо опи­сываются нелинейными дифференциальными уравнениями. При­меры диссипативных структур можно взять из разных областей – физики, химии, биологии.

Одной из давно известных таких самоорганизующихся струк­тур является реакция Белоусова-Жаботинского [18, 19]. Бросается в глаза большое число промежуточных соединений системы, ко­торые соответствуют такому же числу дифференциальных уравнений. Для каждого из этих уравнений константа скорости должна быть получена из эксперимента. Один из этапов реак­ции является автокаталитическим.

Молекулярная эволюция. Гиперциклы Эйгена

В 1971 г. М. Эйген [20] сформулировал последовательную концеп­цию предбиологической молекулярной эволюции. Эйген распро­странил идеи дарвиновского отбора на популяции макромолекул в первичном бульоне. Далее он показал, что кооперирование мо­лекул в «гиперциклы» приводит к компартментализации в виде отдельных клеточных единиц. Гиперцикл – это средство объеди­нения самовоспроизводящихся единиц в новую устойчивую систе­му, способную к эволюции. Он построен из автокатализаторов, которые сочленены посредством циклического катализа, т.е. посред­ством еще одного автокатализа, наложенного на систему.

Дарвиновский отбор, являющийся предпосылкой для возник­новения гиперциклов, на молекулярном уровне может иметь ме­сто в системах, обладающих следующими свойствами:

1. метаболизмом – система должна быть далеко от равновесия. Образование и разложение молекулярных видов должны быть независимы. Отбор должен действовать только на промежуточные состояния, которые образуются из высокоэнергетических предшественников и разрушаются в низкоэнергетические отходы. Система должна использовать освободившуюся энергию и вещества;

2. самовоспроизведением – способностью инструктировать свой соб­ственный синтез;

3. мутабилъностью, которая всегда сопутствует самовоспроизведению. Ошибки копирования – основной источник новой информации. Образование и отшлифовка эйгеновских гиперциклов привели к созданию аппарата трансляции. Образование вслед за этим клеточ­ной мембраны завершило предбиологический период эволюции.

Семантика

Вернемся снова к формуле Шеннона (6) и проанализируем текст «Завтра будет буря». Действительно, осмысленность или информация текста «Завтра будет буря» очевидна. Достаточно, однако, сохранив все элементы (буквы) этого сообщения, пере­ставить их случайным образом, например, «рдеа Звубуб траяи», как оно утратит всякий смысл. Но бессмысленной информации не бывает. Согласно же формуле (7) оба предложения содержат одинаковое «количество информации». О какой же информации здесь идет речь? Или, вообще, можно ли говорить об информа­ции по отношению к разрозненным элементам сообщения?..

Очевидно, отдельные элементы сообщения можно назвать «информацией» лишь при условии, если перестать связывать информацию с осмысленностью, т.е. с содержательностью. Но тогда это бессодержательное нечто вряд ли стоит называть «информацией», вкладывая в первичный термин несвойственный ему смысл. Учитывая, однако, что элементы сообщения реально используются для составления осмысленных текстов, содержащих информацию, эти элементы (буквы, сигналы, звуки) удобнее трактовать как информационную тару, которая может содер­жать информацию, а может быть и бессодержательной, пустой [21]. Очевидно, что емкость тары не зависит от того, заполнена ли она и чем она заполнена. Поэтому частотную характеристи­ку элементов сообщения

лучше называть не «коли­чеством информации», а «емкостью информационной тары». Это, кстати, хорошо согласуется с формулой К. Шеннона (7), по которой «количество информации» в данном сообщении не за­висит от порядка следования составляющих его букв, а только от их числа и частотных характеристик.

Однако здесь резонно возникает вопрос, насколько обосно­ванно считать

емкостью i-го элемента информаци­онной тары? Судя по работе [3], такой способ измерения коли­чества информации введен скорее из соображений удобств. Ко­эффициент k здесь играет подсобную роль – его величина зави­сит от выбора единицы измерения количества информации (или емкости тары) и основания логарифма. Как мы уже отмечали, если за такую единицу принять бит, т.е. информационную ем­кость одного элемента стандартного бинарного кода, когда р12 = 0,5, а за основание логарифмов «2», то k =1, и тогда формула (7) приобретет вид Нм = М. В общем же случае эту формулу можно записать как (1), что по смыслу своему пред­ставляет собой не что иное, как расчет числа букв бинарного кода, требующегося для записи данного сообщения. При такой интерпретации выбор единицы измерения емкости тары и способа определения этой емкости приобретает обычное звучание, – но, конечно, лишь при условии максимальной компактности кода (когда реже встречающиеся в языке символы заменяются боль­шим числом букв бинарного кода, чем чаще встречающиеся) и только в пределах данного разговорного языка. Сохранится ли это правило перехода от одного кода к другому для разных разговорных языков? А также от одного языка к другому?

Заметим, однако, два обстоятельства в данном примере текста «Завтра будет буря». Первое – текст понятен русскому, но является «китайской грамотой» для китайца. Это говорит о том, что каж­дый раз, когда мы говорим о семантике, необходимо иметь в ви­ду семантическое родство сообщения и воспринимающей системы.

Второе обстоятельство касается того, что текст – замкнутая система.

Перейдем к открытым динамическим системам. Как мы уже отмечали, в таких системах будут возникать параметры порядка, именно они станут «семантикой информации», адекватной внешней среде. На основании этой новой информации будет идти естественный отбор на выживание этих организованных систем. Дарвиновский отбор накладывает ограничения на объ­екты всех уровней – физические, химические, биологические и другие [22]. В биологических системах первым уровнем дарви­новского отбора является генетический отбор. В этой моногра­фии мы будем рассматривать биологические системы, начиная с генетической – живой клетки.

Литература

1. Налимов В. В. Вероятностная модель языка. М., «Наука». 1979.

2. Винер Н. Кибернетика, или управление и связь в животном и маши­не. М., Советское радио, 1968.

3. Шеннон К. Математическая теория связи. В кн.: Работы по теории информации и кибернетике. М., Изд. ин. лит., 1963. С. 243-496.

4. Шредингер Э. Что такое жизнь с точки зрения физика? М., Гос. изд. ин. лит. 1947.

5. Бриллюэн Л. Наука и теория информации. М., Гос. изд. физ.-мат. лит., 1960.

6. Бриллюэн Л. Научная неопределенность и информация. М., «Мир», 1966.

7. Шеннон К. Бандвагон. В кн.: Работы по теории информации и кибернетике. М., Изд. ин. лит., 1963, С. 667-668.

8. Голдман С. Теория информации. М., Изд. ин. лит., 1957.

9. Стратанович Р. Л. Теория информации. М., «Советское радио», 1975.

10. Яглом А. М., Яглом И. М. Вероятность и информация. М., «Наука», 1973

11. Коган И. М. Прикладная теория информации. М., «Радио и связь», 1981.

12. Поплавский Р. П. Термодинамика информационных процессов. М, «Наука», 1981.

13. Седов Е. А. Эволюция и информация. М., «Наука», 1976.

14. Кадомцев Б. Б. Динамика и информация. М.: Ред. ж. УФН, 1997.

15. Колмогоров А. Н. Теория информации и теория алгоритмов. М., «Наука», 1987.

16. Гленсдорф П., Пригожий И. Термодинамическая теория структуры, устойчивости и флуктуации. М.: «Мир», 1973.

17. Баблоянц А. Молекулы, динамика и жизнь. М., «Мир», 1990.

18. Белоусов Б. П. Периодически действующая реакция и ее механизмы. В Сб. рефер. по радиац. мед. за 1958 г. М.: Медгиз, 1959.

19. Жаботинский А. М. Концентрационные автоколебания. М.:«Наука», 1974

20. Эйген М. Самоорганизация материи и эволюция биологических макромолекул. М.:«Мир», 1976.

21. Корогодин В. И. Определение понятия «информация» и возможное его использования в биологии. Биофизика, 1983, т. 28, с. 171-178.

22. Моисеев Н. Н. Алгоритмы развития. М., «Наука», 1987.

 

Глава вторая

ИНФОРМАЦИЯ И ЕЕ СВОЙСТВА

Дуальность окружающего мира

События, происходящие вокруг нас, можно разделить на два класса: изменения и целенаправленные действия. В соот­ветствии с этим и объекты, окружающие нас, можно подразделить на те, которые могут только изменяться, и те, которые могут действовать целенаправленно. Ко второму классу отно­сятся события из мира живой природы [1-3].

Изменениями обычно называют все, что происходит с ок­ружающими нас объектами и с нами самими с течением вре­мени, независимо от особенностей и скорости отклонения от того состояния, которое мы можем зафиксировать в некото­рый данный момент. Изменяется все: «Ничто не вечно под лу­ной». Происходят изменения в соответствии с законами физики и химии, которые, таким образом, и управляют изменениями окружающего нас мира. Физическая и химическая природа объектов и условий, в которых они находятся, с неизбежно­стью определяют направления, характер и скорость их изме­нений, будь то атом, человек или Вселенная. Конечным ито­гом таких изменений всегда и неизбежно является гибель, рас­пад или иная форма превращения материального объекта. Но некоторые объекты способны так изменяться во внешней сре­де, что одни процессы в них идут чаще, другие реже, адек­ватно условиям среды.

Рассмотрим по одному примеру из первого и второго клас­сов объектов: рост кристаллов и размножение бактерий. Кри­сталлы могут расти и размножаться, присоединяя к «матрице» –кристаллу все новые молекулы из исходного раствора. Этот процесс является равновесным. Кристаллы не могут раз­лагать окружающие их вещества на составные части, а уж из этих частей строить дальше самих себя или свое подобие. Но именно так поступают живые организмы, – в данном примере бактерии, – они разлагают окружающие их вещества и уже из полученных «элементарных кирпичиков» строят заново те мо­лекулы, которые используют для своего роста и размножения.

Кристаллы для своего роста используют то, что уже есть, жи­вые организмы создают то, что им нужно, используя окру­жающие их вещества для получения строительного материала и свободной энергии.

Различные живые организмы, попав в ту или иную среду, всегда вызывают в ней изменения, так или иначе различаю­щиеся между собой – различия эти не случайны, а определя­ются природой организма, и всегда подчинены достижению некоторой цели. Здесь будущее как бы доминирует над про­шлым. При этом последовательность таких целенаправленных действий, как бы ни казалась она простой или сложной, все­гда имеет в виду конечную цель – размножение данного ор­ганизма. Когда эта цель достигнута, все начинается сначала и завершается тем же, т.е. новым циклом размножения. Таким образом, конечная цель деятельности любого живого организ­ма – его самовоспроизведение.

Чтобы понять природу того или иного изменения, доста­точно ответить на вопрос: «Почему?». Вопросы типа «Почему светит Солнце?», «Почему ржавеет железо?», «Почему орел может летать?» полностью исчерпываются, если рассмотреть химическую и физическую природу соответствующих явлений. Но вопросы типа «Для чего светит Солнце?» или «Для чего идет дождь?» лишены смысла и ответов не имеют, тогда как вопросы типа «Для чего летает орел?» вполне осмысленны и предполагают тот или иной ответ.

Дело в том, что полет орла, как и другие действия живых объек­тов, относятся к типу целенаправленных. Когда же речь идет о це­ленаправленных действиях, доминирующее значение приобретает вопрос «Для чего?». Ответ на вопрос «Почему?» здесь не может объяснить природу события, он может позволить понять лишь механизм его осуществления. «Для чего цветут розы?», «Для че­го поют соловьи?» – вопросы всем понятные и, кстати сказать, давно получившие ответы. Осуществляют же растения и живот­ные те или иные действия потому, что они устроены так, а не иначе, для того, чтобы их осуществлять...

Казуальность и телелогичность – вот те два принципа, ко­торые управляют окружающей нас действительностью. Царство казуальности, или причинно-следственных связей, где настоя­щее определяется прошедшим, охватывает всю Вселенную, но полностью подвластны ему лишь объекты неживой природы. В должном месте и в должное время в этом царстве возника­ют и развиваются островки иного мира, где настоящее подчи­няется будущему, где те или иные события происходят не только «потому, что...», но также «для того, чтобы...». Этот вторичный по отношению к миру косной материи мир жизни становится все могущественнее, он постепенно как бы вбирает, трансфор­мирует в себя окружающую среду, все в большей степени кон­тролируя происходящие в ней изменения, направляя их в нуж­ное ему русло.

Чтобы избежать возможных недоразумений, заметим, что ан­тропоморфизм таких терминов, как «контролирует», «стремится» и т.п., отнюдь не означает, что весь органический мир наделен свободой воли или способностью осознавать свои действия. Просто нет других терминов, более адекватно отражающих те свойства, которые являются общими для всех живых существ, от вирусов до человека, независимо от того, осознаются они соответствующими объектами или нет.

Целенаправленность и целесообразность

Таким образом, мы наметили свойство, необходимо прису­щее всем живым организмам. Свойство это – осуществлять целенаправленные действия. Обеспечивается это тем, что жи­вые организмы устроены так, а не иначе, для того, чтобы иметь возможность это делать, т.е. организованы соответст­вующим образом, или целесообразно.

Сопоставим теперь два термина – «целенаправленность» и «целесообразность». Термин «целенаправленность» характеризу­ет действие в предположении, что цель его известна или может быть установлена. Термин же «целесообразность» допуска­ет двоякую интерпретацию: такую организацию, которая дела­ет возможным достижение данной цели, и такую организацию, которая соответствует заранее намеченной цели. Эти две ин­терпретации термина «целесообразность» не противоречат одна другой, а друг друга дополняют: целесообразность есть такая организация какого-либо объекта, которая предусматривает возможность осуществления им целенаправленного действия.

Очевидно, что обеспечить такую организацию какого-либо объекта можно только одним способом – построить его в со­ответствии с заранее намеченным планом. Это очень важное утверждение. Смысл его состоит в том, что целесообразно устроенные или организованные объекты не могут возникать случайно, в силу удачного стечения обстоятельств. Интуитивно человек пришел к такому заключению давно, что и получило свое отражение в этимологии терминов, используемых для описания специфики устройства и функционирования живых систем. Интуитивность этого заключения и породила сущест­вовавшую вплоть до середины XIX века веру в присущую живым организмам «жизненную силу», или «энтелехию», вызывающую их из небытия и управляющую их жизнедеятельно­стью и размножением.

Целенаправленное действие. Его компоненты и характеристики

Специфичность целенаправленного действия для живых орга­низмов, причем для всех без исключения, заставляет обратить на это понятие особое внимание. Определение понятия «целенаправленное действие» попытаемся дать, вычленив то, что есть у него общего с изменениями, происходящими при спонтанном течении событий, а что – специфического.

Пусть s – «исходная ситуация» или пространство режимов, в котором могут происходить различные события. Пусть Z - од­но из таких событий, вероятность осуществления которого 0≤ р ≤1. Тогда спонтанное осуществление Z можно описать преобразованием

(10)

где w - другие изменения исходной ситуации, неизбежно сопут­ствующие осуществлению Z.

Назовем событие Z «целью». Будем так воздействовать на процессы, протекающие в s, чтобы вероятность осуществления Z увеличилась до значения Р. Это и будет «целенаправленное дей­ствие». Описать его можно как

(11)

где R - ресурсы, содержащиеся в s и идущие на осуществление действия; Q – «механизм», или оператор, применение которого в условиях s приводит к желаемому результату; I – информация, на основании которой этот оператор построен; и w – со­бытия, неизбежно сопутствующие осуществлению Z, или «побоч­ные продукты» достижения цели.

Назовем R, s, Q, I, Z и w компонентами целенаправленного действия, а р и Р – его характеристиками. Можно утверждать, что преобразование (11) есть полное определение целенаправ­ленного действия: любое действие, сколь бы ни было оно про­стым или сложным, можно полностью описать, задав его ком­поненты и характеристики.

Сопоставляя выражения (10) и (11), мы видим, что целена­правленные действия отличаются от спонтанных изменений лишь в одном отношении – наличием компонента Q, или оператора. Собственно, целенаправленность воздействия Q на s, приводящая к увеличению вероятности достижения цели Z, обу­словливается только тем, что оператор Q организован так, что­бы его «вмешательство» в спонтанный ход событий приводило к такому результату. Именно поэтому структуру или устройство оператора можно назвать целесообразным.

Информация

Итак, основное наше утверждение, относящееся к оператору как единственному компоненту целенаправленного действия, от­личающему его от спонтанного течения событий, можно сформулировать следующим образом: оператор не может возникнуть случайно, сам по себе, а должен быть построен в соответствии с I, т.е. заранее имеющейся программой или планом. Совокуп­ность приемов, правил или сведений, необходимых для построения оператора, будем называть информацией. Обозначать информа­цию будем символом I. Запись Q(I) будет означать, что данный оператор Q построен в соответствии с данной информаци­ей I. Информацию можно также определить как совокупность закодированных сведений, необходимых для принятия решений и их реализации.

Таким образом, мы определили информацию как «руководст­во к действию», как то, что необходимо для построения любого оператора [4]. Естественно возникают вопросы о правомочности и адекватности такого определения.

Мы используем операционное определение понятия «инфор­мация», а по ходу изложения дополним его перечислением свойств того, что это понятие отображает. Выбор такого спо­соба не произволен: опыт показывает, что понятие «информа­ция» невозможно вывести из представлений, относящихся к ми­ру вещей, – ведь, как отмечал Н. Винер [5], «информация есть информация, а не материя и не энергия». Определение инфор­мации через описание форм ее проявления и ее свойств пред­ставляется вполне правомочным. Формой проявления информа­ции, как мы видели, и является оператор – необходимый ком­понент целенаправленного действия.

Посмотрим теперь, насколько наше определение информации адекватно тем представлениям, которые обычно связывают с этим термином.

Обыденное понимание слова «информация» наиболее близко к его исходному значению: это либо «сведения, содержащиеся в сообщении» (имя существительное), либо «процесс передачи сведений» (глагол). В обоих случаях слово «информация» отражает тесную связь между «сведениями» (собственно «информация») и содержащими их сообщениями. Этот термин отражает также то, что сообщения служат для передачи сведений от «отправителя» (источника информации) к «адресату» (ее приемнику), которому, следовательно, они для чего-то нужны. Нужность информации предполагает возможность ее использования, а специфика ис­пользования информации определяется ее семантикой. Предпо­лагается при этом, что одни и те же сведения – т.е. информа­ция, обладающая одной и той же семантикой, – могут быть пе­реданы от источника к адресату только в виде сообщений, представляющих собой некий физический феномен, т.е. матери­альный объект. Само собой разумеется, что природа этого фе­номена может быть самая разнообразная, вне зависимости от семантики информации, или, что то же самое, что с помощью сообщений одной и той же физической природы можно переда­вать самую разную информацию.

Таким образом, информацию можно создавать, принимать, использовать и передавать. Информацию можно также сохра­нять. Хранение информации, как необходимый промежуточный этап между ее приемом и использованием или приемом и пере­дачей, позволяет также «запасать информацию впрок», про за­пас, на всякий случай. Физическая природа сообщений или за­писей, содержащих информацию, в случаях ее приема, хранения, передачи и использования может быть – и, по существу, всегда бывает – разная.

Прием или создание информации, ее хранение, передачу и использование будем называть элементарными информационны­ми актами, а осуществление всей совокупности таких актов – информационным процессом. Из повседневного опыта мы знаем, что ни один из информационных актов не может осуществлять­ся сам по себе, спонтанно, – для этого требуются специальные механизмы или устройства. Совокупность механизмов, обеспечивающих полное осуществление информационного процесса, бу­дем называть информационной системой. Элементарной инфор­мационной системой будем называть такую, дальнейшее подраз­деление которой приведет к расчленению механизмов, обеспечи­вающих осуществление отдельных элементарных информацион­ных актов. Вне информационной системы информация может лишь сохраняться в виде записей на тех или иных физических носителях, но не может быть ни принятой, ни переданной, ни использованной.

Поделиться:





Воспользуйтесь поиском по сайту:



©2015 - 2024 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...