Целенаправленное действие и его компоненты 3 глава
Информация и энтропия Своей зрелости классическая теория информации достигла к середине пятидесятых годов. Главная причина столь быстрого «созревания» – простота и элегантность ее математического аппарата, опирающегося на теорию вероятности. Отсутствие строгого определения понятия «информация» создавало впечатление, что объектом теории информации является нечто, имеющее мало общего с тем, что называют информацией в обыденной жизни. Действительно, если «в быту» доминирует содержательная, смысловая сторона информации, то здесь семантика информации вообще не рассматривалась. Представление об энтропии сообщений, развитое К. Шенноном и вскоре дополненное другими авторами (см. напр. [8-10]), как бы открывало возможность для отождествления понятия «информация» с понятиями «разнообразие» и «термодинамическая энтропия». Это порождало соблазн распространения классической теории информации далеко за пределы теории связи, в том числе на явления неживой и живой природы и даже на различные области искусства [11-13]. Два утверждения характерны для классической теории информации периода зрелости. Первое это постулирование «всюдности» информации. Второе утверждение – это то, что мерой количества информации, связанной с тем или иным объектом или явлением, может служить редкость его встречаемости или сложность его структуры. Эти утверждения можно назвать постулатами классической теории. Указанные постулаты, а также следствия из них, наиболее полно были изложены Л. Бриллюэном в его книгах [5, 6]. Прежде всего, за универсальную меру количества информации Л. Бриллюэн принял величину I = klnP, где Р - вероятность осуществления некоторого события или «сложность устройства» какого-либо объекта, k - постоянная, величина которой зависит от выбора системы единиц измерения, a ln - натуральный логарифм. Далее Л. Бриллюэн обратил особое внимание на сходство указанной формулы с формулой Л. Больцмана для исчисления количества энтропии S = klnW, где W - число микросостояний некоторой системы, соответствующей ее макросостоянию, а k - «постоянная Больцмана», равная 1,4·10-16 эрг-град-1 или 3,3·10-24 энтропийных единиц (1 э.е. = 1 кал'град-1). Отсюда Л. Бриллюэн сделал вывод, что, приняв k = 3,3·10-24 э.е., мы получим возможность выражать количество информации в энтропийных единицах (1 бит = 2,3·10-24 э.е.), а величину энтропии, напротив, в единицах информационных (1 э.е. = 4,3·1023 бит). Затем он сделал последний шаг в построении «негэнтропииного принципа»: сформулировал утверждение, согласно которому информация – это не что иное, как энтропия с обратным знаком, или негэнтропия.
Используя вероятностный подход, мы проведем следующие рассуждения. Пусть физическая система имеет W возможных состояний. Увеличение информации о ней, что было бы эквивалентно фиксации в определенном состоянии, приведет к уменьшению энтропии системы. Другими словами, I + S = const. (9) Чем больше известно о системе, тем меньше ее энтропия. Важно еще одно обстоятельство. Утрачивая информацию, мы увеличиваем энтропию системы. Увеличивать информацию о системе мы можем, лишь увеличивая количество энтропии вне этой системы, во внешней среде, причем всегда Формула Шеннона для определения количества информации (2) и формула Больцмана S = lnW для случая, когда вероятности отдельных состояний системы различаются (3), формально совпадают. Мы замечали, что они имеют совершенно различный смысл: информация (2) соответствует одному единственному состоянию системы из всех возможных W, мера этой информации I = lnW. Энтропия (3) соответствует возможности нахождения системы с некоторой вероятностью I/W в каждом из доступных состояний. Информация (2) и энтропия (3) оказались равны между собой, потому, что I соответствует максимальной информации одного единственного состояния, а 5 определена по множеству всех состояний.
В замкнутой системе (возьмем, например, текст) увеличение энтропии приводит к «забыванию» информации, и мы приходим к соотношению I + S = const. В соответствии со вторым законом термодинамики энтропия замкнутой системы не может убывать со временем. Поэтому в замкнутых системах соотношение (9) может сдвигаться только к забыванию информации. Это означает, что рождение новой информации требует выхода за пределы изолированной системы. Мы рассмотрели соотношение I + S = const с точки зрения второго закона термодинамики. Формулу Шеннона можно было бы назвать «физической информацией». Колмогоров [15] ввел понятие «алгоритмической информации». Алгоритмическую информацию можно рассматривать как меру алгоритмической хаотичности. Алгоритмическая информация практически совпадает с информацией по Шеннону. Поясним эти понятия и их соотношение на двух примерах из живого мира. Предположим, что мы хотим определить радиочувствительность клеток популяции дрожжей. Мы ставим эксперимент: делаем суспензию клеток, облучаем ее, высеваем клетки на чашки Петри с питательной средой, затем определяем радиочувствительность клеток по числу выросших колоний. В ходе этого эксперимента мы заставляем геном клеток дрожжей работать по определенной схеме, одной единственной для каждой клетки. Тем самым мы выбираем и фиксируем одно единственное состояние из всех возможных. Этот эксперимент, который выявляет реакцию данных клеток на облучение, сводит все возможные состояния макромолекул, характеризующиеся некой максимальной энтропией, к одному единственному. Он может быть проведен за счет внешних ресурсов (питательной среды, источника облучения, работы лаборанта и т.д.). Второй пример – завоевание электората перед выборами. Хаотичные настроения толпы, характеризующиеся максимальной энтропией в обычное время, после агитации средствами массовой информации (накачивание внешней 7) перед выборами сменяются крайней политизацией. После выборов определяется количество проголосовавших за того или иного кандидата – поведение электората соответствует максимуму «информированности» о том или ином кандидате, какое-то количество неголосовавших составляет инертную константу.
Кратко резюмируя изложенное, можно заключить, что рождение новой информации всегда происходит в открытых системах, где параметры порядка становятся динамическими переменными. В следующем параграфе мы рассмотрим системы с диссипацией избыточной внутренней энтропии. Диссипативные структуры Пусть будет некоторая открытая система, из которой постоянно удаляется шлак избыточной энтропии за счет роста энтропии внешней среды. Эта система является «диссипативной структурой». Пригожий с сотрудниками [16, 17] показали, что диссипативными структурами будут являться все разнообразные колебательные, пространственно организованные и пространственно-временные упорядоченные системы. Для возникновения диссипативных структур необходимы следующие условия: 1. система должна быть открытой и находиться вдали от термодинамического равновесия; 2. в системе должны протекать различные каталитические и кросс-каталитические процессы, а также наблюдаться регуляция по типу обратной связи; 3. после некоторого критического значения параметров системы или какого-либо внешнего воздействия состояние системы становится неустойчивым и система может перейти в новое стационарное состояние, режим которого соответствует упорядоченному состоянию. Под влиянием флуктуации отдельные элементы системы, взаимодействуя, обнаруживают свойства, характеризующие систему в целом, которые невозможно предсказать на основании свойств ее отдельных элементов. Такие структуры хорошо описываются нелинейными дифференциальными уравнениями. Примеры диссипативных структур можно взять из разных областей – физики, химии, биологии. Одной из давно известных таких самоорганизующихся структур является реакция Белоусова-Жаботинского [18, 19]. Бросается в глаза большое число промежуточных соединений системы, которые соответствуют такому же числу дифференциальных уравнений. Для каждого из этих уравнений константа скорости должна быть получена из эксперимента. Один из этапов реакции является автокаталитическим.
Молекулярная эволюция. Гиперциклы Эйгена В 1971 г. М. Эйген [20] сформулировал последовательную концепцию предбиологической молекулярной эволюции. Эйген распространил идеи дарвиновского отбора на популяции макромолекул в первичном бульоне. Далее он показал, что кооперирование молекул в «гиперциклы» приводит к компартментализации в виде отдельных клеточных единиц. Гиперцикл – это средство объединения самовоспроизводящихся единиц в новую устойчивую систему, способную к эволюции. Он построен из автокатализаторов, которые сочленены посредством циклического катализа, т.е. посредством еще одного автокатализа, наложенного на систему. Дарвиновский отбор, являющийся предпосылкой для возникновения гиперциклов, на молекулярном уровне может иметь место в системах, обладающих следующими свойствами: 1. метаболизмом – система должна быть далеко от равновесия. Образование и разложение молекулярных видов должны быть независимы. Отбор должен действовать только на промежуточные состояния, которые образуются из высокоэнергетических предшественников и разрушаются в низкоэнергетические отходы. Система должна использовать освободившуюся энергию и вещества; 2. самовоспроизведением – способностью инструктировать свой собственный синтез; 3. мутабилъностью, которая всегда сопутствует самовоспроизведению. Ошибки копирования – основной источник новой информации. Образование и отшлифовка эйгеновских гиперциклов привели к созданию аппарата трансляции. Образование вслед за этим клеточной мембраны завершило предбиологический период эволюции. Семантика Вернемся снова к формуле Шеннона (6) и проанализируем текст «Завтра будет буря». Действительно, осмысленность или информация текста «Завтра будет буря» очевидна. Достаточно, однако, сохранив все элементы (буквы) этого сообщения, переставить их случайным образом, например, «рдеа Звубуб траяи», как оно утратит всякий смысл. Но бессмысленной информации не бывает. Согласно же формуле (7) оба предложения содержат одинаковое «количество информации». О какой же информации здесь идет речь? Или, вообще, можно ли говорить об информации по отношению к разрозненным элементам сообщения?.. Очевидно, отдельные элементы сообщения можно назвать «информацией» лишь при условии, если перестать связывать информацию с осмысленностью, т.е. с содержательностью. Но тогда это бессодержательное нечто вряд ли стоит называть «информацией», вкладывая в первичный термин несвойственный ему смысл. Учитывая, однако, что элементы сообщения реально используются для составления осмысленных текстов, содержащих информацию, эти элементы (буквы, сигналы, звуки) удобнее трактовать как информационную тару, которая может содержать информацию, а может быть и бессодержательной, пустой [21]. Очевидно, что емкость тары не зависит от того, заполнена ли она и чем она заполнена. Поэтому частотную характеристику элементов сообщения
лучше называть не «количеством информации», а «емкостью информационной тары». Это, кстати, хорошо согласуется с формулой К. Шеннона (7), по которой «количество информации» в данном сообщении не зависит от порядка следования составляющих его букв, а только от их числа и частотных характеристик. Однако здесь резонно возникает вопрос, насколько обоснованно считать емкостью i-го элемента информационной тары? Судя по работе [3], такой способ измерения количества информации введен скорее из соображений удобств. Коэффициент k здесь играет подсобную роль – его величина зависит от выбора единицы измерения количества информации (или емкости тары) и основания логарифма. Как мы уже отмечали, если за такую единицу принять бит, т.е. информационную емкость одного элемента стандартного бинарного кода, когда р1 =р2 = 0,5, а за основание логарифмов «2», то k =1, и тогда формула (7) приобретет вид Нм = М. В общем же случае эту формулу можно записать как (1), что по смыслу своему представляет собой не что иное, как расчет числа букв бинарного кода, требующегося для записи данного сообщения. При такой интерпретации выбор единицы измерения емкости тары и способа определения этой емкости приобретает обычное звучание, – но, конечно, лишь при условии максимальной компактности кода (когда реже встречающиеся в языке символы заменяются большим числом букв бинарного кода, чем чаще встречающиеся) и только в пределах данного разговорного языка. Сохранится ли это правило перехода от одного кода к другому для разных разговорных языков? А также от одного языка к другому? Заметим, однако, два обстоятельства в данном примере текста «Завтра будет буря». Первое – текст понятен русскому, но является «китайской грамотой» для китайца. Это говорит о том, что каждый раз, когда мы говорим о семантике, необходимо иметь в виду семантическое родство сообщения и воспринимающей системы. Второе обстоятельство касается того, что текст – замкнутая система. Перейдем к открытым динамическим системам. Как мы уже отмечали, в таких системах будут возникать параметры порядка, именно они станут «семантикой информации», адекватной внешней среде. На основании этой новой информации будет идти естественный отбор на выживание этих организованных систем. Дарвиновский отбор накладывает ограничения на объекты всех уровней – физические, химические, биологические и другие [22]. В биологических системах первым уровнем дарвиновского отбора является генетический отбор. В этой монографии мы будем рассматривать биологические системы, начиная с генетической – живой клетки. Литература 1. Налимов В. В. Вероятностная модель языка. М., «Наука». 1979. 2. Винер Н. Кибернетика, или управление и связь в животном и машине. М., Советское радио, 1968. 3. Шеннон К. Математическая теория связи. В кн.: Работы по теории информации и кибернетике. М., Изд. ин. лит., 1963. С. 243-496. 4. Шредингер Э. Что такое жизнь с точки зрения физика? М., Гос. изд. ин. лит. 1947. 5. Бриллюэн Л. Наука и теория информации. М., Гос. изд. физ.-мат. лит., 1960. 6. Бриллюэн Л. Научная неопределенность и информация. М., «Мир», 1966. 7. Шеннон К. Бандвагон. В кн.: Работы по теории информации и кибернетике. М., Изд. ин. лит., 1963, С. 667-668. 8. Голдман С. Теория информации. М., Изд. ин. лит., 1957. 9. Стратанович Р. Л. Теория информации. М., «Советское радио», 1975. 10. Яглом А. М., Яглом И. М. Вероятность и информация. М., «Наука», 1973 11. Коган И. М. Прикладная теория информации. М., «Радио и связь», 1981. 12. Поплавский Р. П. Термодинамика информационных процессов. М, «Наука», 1981. 13. Седов Е. А. Эволюция и информация. М., «Наука», 1976. 14. Кадомцев Б. Б. Динамика и информация. М.: Ред. ж. УФН, 1997. 15. Колмогоров А. Н. Теория информации и теория алгоритмов. М., «Наука», 1987. 16. Гленсдорф П., Пригожий И. Термодинамическая теория структуры, устойчивости и флуктуации. М.: «Мир», 1973. 17. Баблоянц А. Молекулы, динамика и жизнь. М., «Мир», 1990. 18. Белоусов Б. П. Периодически действующая реакция и ее механизмы. В Сб. рефер. по радиац. мед. за 1958 г. М.: Медгиз, 1959. 19. Жаботинский А. М. Концентрационные автоколебания. М.:«Наука», 1974 20. Эйген М. Самоорганизация материи и эволюция биологических макромолекул. М.:«Мир», 1976. 21. Корогодин В. И. Определение понятия «информация» и возможное его использования в биологии. Биофизика, 1983, т. 28, с. 171-178. 22. Моисеев Н. Н. Алгоритмы развития. М., «Наука», 1987.
Глава вторая ИНФОРМАЦИЯ И ЕЕ СВОЙСТВА Дуальность окружающего мира События, происходящие вокруг нас, можно разделить на два класса: изменения и целенаправленные действия. В соответствии с этим и объекты, окружающие нас, можно подразделить на те, которые могут только изменяться, и те, которые могут действовать целенаправленно. Ко второму классу относятся события из мира живой природы [1-3]. Изменениями обычно называют все, что происходит с окружающими нас объектами и с нами самими с течением времени, независимо от особенностей и скорости отклонения от того состояния, которое мы можем зафиксировать в некоторый данный момент. Изменяется все: «Ничто не вечно под луной». Происходят изменения в соответствии с законами физики и химии, которые, таким образом, и управляют изменениями окружающего нас мира. Физическая и химическая природа объектов и условий, в которых они находятся, с неизбежностью определяют направления, характер и скорость их изменений, будь то атом, человек или Вселенная. Конечным итогом таких изменений всегда и неизбежно является гибель, распад или иная форма превращения материального объекта. Но некоторые объекты способны так изменяться во внешней среде, что одни процессы в них идут чаще, другие реже, адекватно условиям среды. Рассмотрим по одному примеру из первого и второго классов объектов: рост кристаллов и размножение бактерий. Кристаллы могут расти и размножаться, присоединяя к «матрице» –кристаллу все новые молекулы из исходного раствора. Этот процесс является равновесным. Кристаллы не могут разлагать окружающие их вещества на составные части, а уж из этих частей строить дальше самих себя или свое подобие. Но именно так поступают живые организмы, – в данном примере бактерии, – они разлагают окружающие их вещества и уже из полученных «элементарных кирпичиков» строят заново те молекулы, которые используют для своего роста и размножения. Кристаллы для своего роста используют то, что уже есть, живые организмы создают то, что им нужно, используя окружающие их вещества для получения строительного материала и свободной энергии. Различные живые организмы, попав в ту или иную среду, всегда вызывают в ней изменения, так или иначе различающиеся между собой – различия эти не случайны, а определяются природой организма, и всегда подчинены достижению некоторой цели. Здесь будущее как бы доминирует над прошлым. При этом последовательность таких целенаправленных действий, как бы ни казалась она простой или сложной, всегда имеет в виду конечную цель – размножение данного организма. Когда эта цель достигнута, все начинается сначала и завершается тем же, т.е. новым циклом размножения. Таким образом, конечная цель деятельности любого живого организма – его самовоспроизведение. Чтобы понять природу того или иного изменения, достаточно ответить на вопрос: «Почему?». Вопросы типа «Почему светит Солнце?», «Почему ржавеет железо?», «Почему орел может летать?» полностью исчерпываются, если рассмотреть химическую и физическую природу соответствующих явлений. Но вопросы типа «Для чего светит Солнце?» или «Для чего идет дождь?» лишены смысла и ответов не имеют, тогда как вопросы типа «Для чего летает орел?» вполне осмысленны и предполагают тот или иной ответ. Дело в том, что полет орла, как и другие действия живых объектов, относятся к типу целенаправленных. Когда же речь идет о целенаправленных действиях, доминирующее значение приобретает вопрос «Для чего?». Ответ на вопрос «Почему?» здесь не может объяснить природу события, он может позволить понять лишь механизм его осуществления. «Для чего цветут розы?», «Для чего поют соловьи?» – вопросы всем понятные и, кстати сказать, давно получившие ответы. Осуществляют же растения и животные те или иные действия потому, что они устроены так, а не иначе, для того, чтобы их осуществлять... Казуальность и телелогичность – вот те два принципа, которые управляют окружающей нас действительностью. Царство казуальности, или причинно-следственных связей, где настоящее определяется прошедшим, охватывает всю Вселенную, но полностью подвластны ему лишь объекты неживой природы. В должном месте и в должное время в этом царстве возникают и развиваются островки иного мира, где настоящее подчиняется будущему, где те или иные события происходят не только «потому, что...», но также «для того, чтобы...». Этот вторичный по отношению к миру косной материи мир жизни становится все могущественнее, он постепенно как бы вбирает, трансформирует в себя окружающую среду, все в большей степени контролируя происходящие в ней изменения, направляя их в нужное ему русло. Чтобы избежать возможных недоразумений, заметим, что антропоморфизм таких терминов, как «контролирует», «стремится» и т.п., отнюдь не означает, что весь органический мир наделен свободой воли или способностью осознавать свои действия. Просто нет других терминов, более адекватно отражающих те свойства, которые являются общими для всех живых существ, от вирусов до человека, независимо от того, осознаются они соответствующими объектами или нет. Целенаправленность и целесообразность Таким образом, мы наметили свойство, необходимо присущее всем живым организмам. Свойство это – осуществлять целенаправленные действия. Обеспечивается это тем, что живые организмы устроены так, а не иначе, для того, чтобы иметь возможность это делать, т.е. организованы соответствующим образом, или целесообразно. Сопоставим теперь два термина – «целенаправленность» и «целесообразность». Термин «целенаправленность» характеризует действие в предположении, что цель его известна или может быть установлена. Термин же «целесообразность» допускает двоякую интерпретацию: такую организацию, которая делает возможным достижение данной цели, и такую организацию, которая соответствует заранее намеченной цели. Эти две интерпретации термина «целесообразность» не противоречат одна другой, а друг друга дополняют: целесообразность есть такая организация какого-либо объекта, которая предусматривает возможность осуществления им целенаправленного действия. Очевидно, что обеспечить такую организацию какого-либо объекта можно только одним способом – построить его в соответствии с заранее намеченным планом. Это очень важное утверждение. Смысл его состоит в том, что целесообразно устроенные или организованные объекты не могут возникать случайно, в силу удачного стечения обстоятельств. Интуитивно человек пришел к такому заключению давно, что и получило свое отражение в этимологии терминов, используемых для описания специфики устройства и функционирования живых систем. Интуитивность этого заключения и породила существовавшую вплоть до середины XIX века веру в присущую живым организмам «жизненную силу», или «энтелехию», вызывающую их из небытия и управляющую их жизнедеятельностью и размножением. Целенаправленное действие. Его компоненты и характеристики Специфичность целенаправленного действия для живых организмов, причем для всех без исключения, заставляет обратить на это понятие особое внимание. Определение понятия «целенаправленное действие» попытаемся дать, вычленив то, что есть у него общего с изменениями, происходящими при спонтанном течении событий, а что – специфического. Пусть s – «исходная ситуация» или пространство режимов, в котором могут происходить различные события. Пусть Z - одно из таких событий, вероятность осуществления которого 0≤ р ≤1. Тогда спонтанное осуществление Z можно описать преобразованием (10) где w - другие изменения исходной ситуации, неизбежно сопутствующие осуществлению Z. Назовем событие Z «целью». Будем так воздействовать на процессы, протекающие в s, чтобы вероятность осуществления Z увеличилась до значения Р. Это и будет «целенаправленное действие». Описать его можно как (11) где R - ресурсы, содержащиеся в s и идущие на осуществление действия; Q – «механизм», или оператор, применение которого в условиях s приводит к желаемому результату; I – информация, на основании которой этот оператор построен; и w – события, неизбежно сопутствующие осуществлению Z, или «побочные продукты» достижения цели. Назовем R, s, Q, I, Z и w компонентами целенаправленного действия, а р и Р – его характеристиками. Можно утверждать, что преобразование (11) есть полное определение целенаправленного действия: любое действие, сколь бы ни было оно простым или сложным, можно полностью описать, задав его компоненты и характеристики. Сопоставляя выражения (10) и (11), мы видим, что целенаправленные действия отличаются от спонтанных изменений лишь в одном отношении – наличием компонента Q, или оператора. Собственно, целенаправленность воздействия Q на s, приводящая к увеличению вероятности достижения цели Z, обусловливается только тем, что оператор Q организован так, чтобы его «вмешательство» в спонтанный ход событий приводило к такому результату. Именно поэтому структуру или устройство оператора можно назвать целесообразным. Информация Итак, основное наше утверждение, относящееся к оператору как единственному компоненту целенаправленного действия, отличающему его от спонтанного течения событий, можно сформулировать следующим образом: оператор не может возникнуть случайно, сам по себе, а должен быть построен в соответствии с I, т.е. заранее имеющейся программой или планом. Совокупность приемов, правил или сведений, необходимых для построения оператора, будем называть информацией. Обозначать информацию будем символом I. Запись Q(I) будет означать, что данный оператор Q построен в соответствии с данной информацией I. Информацию можно также определить как совокупность закодированных сведений, необходимых для принятия решений и их реализации. Таким образом, мы определили информацию как «руководство к действию», как то, что необходимо для построения любого оператора [4]. Естественно возникают вопросы о правомочности и адекватности такого определения. Мы используем операционное определение понятия «информация», а по ходу изложения дополним его перечислением свойств того, что это понятие отображает. Выбор такого способа не произволен: опыт показывает, что понятие «информация» невозможно вывести из представлений, относящихся к миру вещей, – ведь, как отмечал Н. Винер [5], «информация есть информация, а не материя и не энергия». Определение информации через описание форм ее проявления и ее свойств представляется вполне правомочным. Формой проявления информации, как мы видели, и является оператор – необходимый компонент целенаправленного действия. Посмотрим теперь, насколько наше определение информации адекватно тем представлениям, которые обычно связывают с этим термином. Обыденное понимание слова «информация» наиболее близко к его исходному значению: это либо «сведения, содержащиеся в сообщении» (имя существительное), либо «процесс передачи сведений» (глагол). В обоих случаях слово «информация» отражает тесную связь между «сведениями» (собственно «информация») и содержащими их сообщениями. Этот термин отражает также то, что сообщения служат для передачи сведений от «отправителя» (источника информации) к «адресату» (ее приемнику), которому, следовательно, они для чего-то нужны. Нужность информации предполагает возможность ее использования, а специфика использования информации определяется ее семантикой. Предполагается при этом, что одни и те же сведения – т.е. информация, обладающая одной и той же семантикой, – могут быть переданы от источника к адресату только в виде сообщений, представляющих собой некий физический феномен, т.е. материальный объект. Само собой разумеется, что природа этого феномена может быть самая разнообразная, вне зависимости от семантики информации, или, что то же самое, что с помощью сообщений одной и той же физической природы можно передавать самую разную информацию. Таким образом, информацию можно создавать, принимать, использовать и передавать. Информацию можно также сохранять. Хранение информации, как необходимый промежуточный этап между ее приемом и использованием или приемом и передачей, позволяет также «запасать информацию впрок», про запас, на всякий случай. Физическая природа сообщений или записей, содержащих информацию, в случаях ее приема, хранения, передачи и использования может быть – и, по существу, всегда бывает – разная. Прием или создание информации, ее хранение, передачу и использование будем называть элементарными информационными актами, а осуществление всей совокупности таких актов – информационным процессом. Из повседневного опыта мы знаем, что ни один из информационных актов не может осуществляться сам по себе, спонтанно, – для этого требуются специальные механизмы или устройства. Совокупность механизмов, обеспечивающих полное осуществление информационного процесса, будем называть информационной системой. Элементарной информационной системой будем называть такую, дальнейшее подразделение которой приведет к расчленению механизмов, обеспечивающих осуществление отдельных элементарных информационных актов. Вне информационной системы информация может лишь сохраняться в виде записей на тех или иных физических носителях, но не может быть ни принятой, ни переданной, ни использованной.
Воспользуйтесь поиском по сайту: ©2015 - 2024 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...
|