Главная | Обратная связь | Поможем написать вашу работу!
МегаЛекции

Целенаправленное действие и его компоненты 4 глава

Ниже мы увидим, что все эти особенности информации, хо­рошо знакомые нам из повседневного опыта, являются следст­виями из ее свойств, общих для всех известных нам видов ин­формации.

Посмотрим теперь, какие реальные объекты окружающей нас действительности могут быть названы информационными систе­мами. При этом мы все время должны иметь ввиду, что ин­формация может существовать только в какой-либо информаци­онной системе, в виде «записи» на том или ином «носителе»; что семантика информации не связана со способом ее записи и физической природой носителя.

Так как слово «информация» первоначально использовалось только для обозначения содержательной стороны сообщений, которыми обмениваются между собой люди, то естественно, что первой ставшей нам известной информационной системой был также человек. Сообщества людей представляют собой инфор­мационные системы высокого ранга, сложнейшим образом пере­плетающиеся между собой и входящие в единую общечеловеческую информационную суперсистему. Специфическую для чело­века информацию, которой обмениваются люди при помощи устной и письменной речи, обычно называют знанием.

Информацией называют также те сведения, которыми обме­ниваются между собой животные и которые, будучи восприня­ты, существенно влияют на их поведение. Такая информация передается от индивида к индивиду посредством различных сиг­налов, в ходе обучения (например, родителями детенышей), пу­тем подражания другим особям или создается в мозгу животно­го заново, на основе собственного жизненного опыта. Это –поведенческая информация. Информационными системами, опе­рирующими с такой информацией, являются все многоклеточные животные, включая человека, а возможно, и некоторые одно­клеточные.

Третий известный нам вид биологической информации – ге­нетическая. Генетическая информация записана в нуклеиновых кислотах (обычно ДНК) клеток последовательностью оснований и определяет фенотипические особенности всех без исключения живых существ - животных, растений, грибов, бактерий и виру­сов. Специфическими для этой информации системами являются все генетические компоненты живых организмов.

Утверждение о том, что информация обязательно присуща всем живым объектам, можно дополнить утверждением, что вне живых систем нет и не может быть биологической информации, которая не была бы создана каким-либо живым объектом.

На последнем утверждении стоит дополнительно остановить­ся. У любого живого объекта может измениться количество и семантика содержащейся в нем информации. Есть только три пути таких изменений: получение новой информации, создание ее и утеря тех или иных фрагментов. Для биологических систем очень характерны передача и утеря информации. Получение информации неразрывно связано с получением сообщения, эту информацию содержащего, с последующим ее хранением или перекодировкой и использованием. Использование информации, очевидно, может быть в том случае, если она попадает в ие­рархически подобную или более высокую информационную сис­тему. Включение ее в систему будет облегчено в семантически родственных системах. Получение информации бывает связано со случайным или неслучайным изменением носителей информа­ции. Это относится к генетической, поведенческой и особенно к логической информации. Утеря фрагментов информации, напри­мер генетической, может иметь разные последствия для орга­низмов, в том числе и положительные, но в определенных си­туациях она может попадать во внешнюю среду вне своей ин­формационной системы и будет там находиться до полного разрушения своих носителей. Она может быть также случайно подобрана из внешней среды и включиться в другую информа­ционную систему (горизонтальный перенос генетической инфор­мации, см., например [6, 7]), но роль такого рода процессов в эволюции информации никто специально не рассматривал. Из­менение окружающей среды является поводом для создания, но никак не источником новой информации. В любом случае, од­нако, совершенно ясно, что возникать самостоятельно, вне жи­вых организмов, биологическая информация не способна [8].

Однако как в обыденной жизни, так и в научной литературе «информацией» нередко называют все, что может воздейство­вать на живой организм извне, независимо от его физической и химической природы и независимо от того, являются ли источ­никами таких воздействий живые или неживые объекты [9]. В подобном контексте к информации можно свести все виды взаимодействия живых и неживых объектов. Здесь опять исче­зают различия между совокупностью сигналов, обладающей се­мантикой, родственных источнику и приемнику, и «слепым» воздействием одного объекта на другой.

Чтобы отличать сигналы или воздействия, содержащие ин­формацию, от сигналов, таковыми не являющихся, нужно всегда помнить об условности фиксации информации на ее носителях. Это отражается в строении записывающего и считывающего устройств соответствующих информационных систем, в особен­ностях материала носителя, способа фиксации, выбора языка и кода и т.д. Имея это в виду, можно отделять носителей реальной информации от информационно пустых, независимо от то­го, известен их источник или нет. Действительно, какая инфор­мация может содержаться в грохоте грома, вспышке молнии или горном обвале? Кем вписана она в эти физические феномены, кому предназначена и о чем повествует? Другое дело, что, будучи восприняты живыми организмами, подобные «сигналы» могут быть использованы для создания информации о той или иной стороне действительности. Лишь в таком переносном смысле их можно именовать «источниками» информации, – и подобными источниками, действительно, могут служить любые объекты и явления. Это же относится к результатам наблюде­ний, измерений и т.п. процедур, производимых человеком: об­работку их нередко называют «обработкой информации», хотя на самом деле это есть один из этапов создания новой инфор­мации в человеческом мозге, а не «извлечение» ее из наблюде­ний и измерений.

Таким образом, внешние воздействия, воспринимаемые жи­выми организмами, можно подразделить на два класса: сообще­ния, или «носители информации», источниками которых могут служить только другие живые организмы, и просто воздействия, информации не содержащие, источниками которых могут быть любые объекты или явления. Можно думать, что различные рецепторы живых организмов формировались первоначально для восприятия и дифференцировки именно таких воздействий и лишь позже, в ходе эволюции, некоторые из них были дополнительно адаптированы для приема или передачи информации. Такое различение информационных и неинформационных воз­действий, которым подвергаются живые организмы, весьма су­щественно для ясного понимания того, что именно представляет собой информацию.

Выше мы видели три вида биологической информации, и четвертого нам не известно. Это – генетическая информация, поведенческая и логическая, или человеческое знание. Для каж­дого из этих видов информации характерны свои носители, свои записывающие и считывающие устройства, свои информа­ционные системы. Однако, как бы ни различались эти виды информации, всем им присущи общие свойства, характерные именно для информации как таковой, независимо от ее вида или особенностей ее носителей.

Фиксируемость информации. Ее носители

Свойства, присущие всем видам информации, можно разде­лить на две группы, внутри каждой из которых они тесно свя­заны между собой. Ключевым свойством для одной из этих групп является фиксируемость информации, а для другой – ее действенность. Иные свойства, входящие в эти группы, являются как бы раскрытием, проявлением ключевых особенностей в доступных для регистрации формах.

Фиксируемостью мы будем называть ту особенность любой информации, что, не будучи «ни материей, ни энергией», она может существовать только в зафиксированном состоянии. Ни­кто никогда нигде не встречался с информацией, которая была бы в «свободном виде», а не в виде «записи» на том или ином физическом носителе. При этом способы записи или фиксации информации на том или ином носителе всегда условны, т.е. не имеют никакого отношения к ее семантике.

Условность способов фиксации информации означает, что любой из таких способов, никак не связанных с семантикой, тем не менее однозначно обусловливается двумя факторами, также не имеющими к семантике информации никакого отно­шения, – это физическая природа носителя и специфика «считы­вающего устройства» той информационной системы, к которой данная информация относится. Фиксация информации всегда представляет собой ту или иную деформацию носителя, среднее время релаксации которого должно превышать среднее время считывания, что и ограничивает способы записи информации на том или ином носителе.

Адекватность способа фиксации информации способу ее счи­тывания означает, что способ записи, носитель и считающее уст­ройство взаимно обусловлены друг другом и могут возникать только совместно. Все эти способы, однако, должны подчиняться одному требованию: запись информации должна иметь апериоди­ческую форму[2]. Это требование может быть реализовано, если носитель информации способен принимать не менее двух различ­ных состояний. Другими словами, для фиксации информации можно использовать не менее двух различных знаков или букв.

Важнейшей особенностью фиксации любой информации яв­ляется возможность последовательной нумерации использованного для этого множества знаков или символов. Эта особенность отражает тот факт, что любая информация осмысленна, что бессмысленной информации не бывает. Простейшей реализацией этой особенности является линейная последовательность симво­лов или сигналов, используемых для фиксации и передачи ин­формации, или возможность считывания их в линейной последовательности.

Все это позволяет сформулировать требования к физическим носителям информации, или, точнее, к тем объектам, которые могут служить таковыми. Потенциальным носителем информа­ции может служить любой физический объект, который может существовать не менее чем в двух последовательно различимых состояниях, выступающих в роли знаков или символов, пригод­ных для фиксации информации. А так как простейшим вариан­том различимых состояний физического объекта может быть его наличие или отсутствие, то из этого следует, что потенциаль­ным носителем информации может быть любой феномен окру­жающего нас мира, наличие или отсутствие которого можно регулировать произвольным образом.

Следует, однако, проводить строгое различие между потен­циальными носителями информации и ее реальными носителями. Первые могут содержать информацию, а могут и не содержать, а вторые всегда ее содержат. Это подводит нас к вопросу о том, как можно различать, содержит ли данный объект инфор­мацию или нет.

Однако, прежде чем рассмотреть возможности распознавания информации, остановимся коротко на двух вопросах, тесно с этим связанных: каковы могут быть виды носителей информа­ции и могут ли они существовать вне своих информационных систем?

Пользуясь уже устоявшейся терминологией, можно сказать, что формой фиксации информации являются предложения, со­ставленные на том или ином языке в виде последовательности букв того или иного алфавита, нанесенных тем или иным спо­собом на тот или иной физический объект. Таким образом, собственно носителем информации является предложение, со­ставленное на том или ином языке. В соответствии с этим можно различать четыре вида физических носителей: язык, ал­фавит, способ «печати» и природу «подложки». Каждый из этих видов носителей может варьировать, разрушаться и исчезать не­зависимо один от другого. Очевидно, однако, носители инфор­мации должны быть адекватны системам записи. Поэтому в любой полной информационной системе следует различать: сис­тему записи, систему считывания, систему перекодирования информации и носители, которые могут ее содержать.

Физические объекты, содержащие информацию, могут нахо­диться как «внутри» своих информационных систем, так и вне их, выпадая оттуда в процессе передачи информации или в ре­зультате разрушения содержавших их информационных систем. Таким путем информация может получать независимое от ин­формационной системы, ее породившей, существование, правда, существование весьма убогое. Действительно, вне информацион­ной системы любая информация обречена лишь на более или менее быстрое разрушение, деградацию. Деградация – удел лю­бой информации, «вырвавшейся» из своей информационной сис­темы. Поэтому, если мы и обнаруживаем информацию вне информационной системы, все равно должны быть твердо убежде­ны, во-первых, в том, что возникла-то она обязательно в ка­кой-либо из информационных систем, а во-вторых, в том, что сама по себе она лишь «деградирует», но не «существует».

Теперь мы вплотную подошли к проблеме распознавания. Ес­ли имеется некий физический объект и мы хотим выяснить, со­держит ли он информацию, то ответ на этот вопрос предполагает хотя бы потенциальную возможность ответить на три следующих вопроса: к какой информационной системе он относится или мо­жет относиться? какие способы фиксации информации здесь ис­пользованы? и какова семантика этой информации? Естественно, что здесь предполагается искусственное фиксирование информа­ции на данной подложке, а не спонтанное ее возникновение, про­истекающее из самой природы объекта. Ведь сведения, которые мы «получаем», анализируя какой-либо объект, могут быть использованы для создания информации об этом объекте, а это не следует смешивать со считыванием информации, в данном объек­те содержащейся, – если, конечно, она там имеется.

Инвариантность информации по отношению к носителям

С фиксируемостью информации теснейшим образом связано такое ее свойство, как инвариантность по отношению к физиче­ской природе носителей [10]. Это важнейшее свойство информа­ции, и представлять его себе следует очень ясно.

Свойство, или, точнее, принцип, инвариантности информации означает, что одна и та же информация, независимо от ее се­мантики, может быть «записана» на любом языке, любым ал­фавитом, т.е. системой знаков, наносимых любыми способами на любые носители. Другими словами, ни количество, ни се­мантика никакой информации не зависят от того, какая система записи избрана для ее фиксации и какой для этого использован носитель. Инвариантность информации как бы подчеркивает ее внутреннюю независимость от ее материальных оков, ее авто­номность и суверенность, которые сохраняются как бы напере­кор судьбе, обрекающей информацию быть вечным узником мира вещей – ее физических носителей.

Инвариантность информации обусловливает возможность ис­пользовать разные способы ее фиксации на разных носителях при осуществлении разных элементарных информационных ак­тов – создания, передачи, приема, хранения и использования информации. Для «перевода» информации с одной системы за­писи на другую или для перекодировки во многих информационных системах существуют специальные устройства. Перевод информации с одного языка на другой или с одной системы записи на другую возможен только благодаря свойству инвари­антности. Таким образом, именно инвариантность лежит в ос­нове возможности понимания информации – перевода ее с чуж­дого языка (или способа записи) на язык (или способ записи), свойственный данной информационной системе. Свойство инва­риантности информации по отношению к системе записи и природе носителя также означает, что результаты ее реализации (или использования) не зависят ни от того, ни от другого, а определяются лишь ее семантикой.

Ярчайшим примером инвариантности информации может служить наше понимание генетической информации и создание искусственных генов в соответствии с заранее составленным планом.

Количество информации и емкость информационной тары

Инвариантность информации по отношению к носителям соз­дает принципиальную возможность записи любой информации на одном и том же языке с помощью одного и того же алфавита, т.е. как бы «сведения ее к единому знаменателю». Это, хотя и не явно, было использовано К.Шенноном при решении вопроса о способе определения количества информации. Для этого можно воспользоваться формулой

(12)

где М - число букв в тексте, a i - порядковый номер одной буквы в алфавите, использованном для записи информации. Здесь k - коэффициент, величина которого зависит от выбора единиц измерения количества информации и основания логарифмов. Если Н выражать в битах, то при q = 2 величина k = 2. При использовании для записи информации бинарного кода (п = 2, р1 = ро = 0,5) величина Нм = М. Другими словами, количе­ство информации, выраженное в битах, равно числу знаков би­нарного алфавита, необходимому для ее записи.

Последнее утверждение далеко не тривиально. В основе его лежит, во-первых, свойство инвариантности информации по от­ношению к носителям; во-вторых, представление о емкости информационной тары; в-третьих, способ количественного измере­ния этой емкости, которым, по существу, и является формула Шеннона. Рассмотрим эти вопросы более внимательно.

Свойство инвариантности, как мы уже видели, позволяет ут­верждать, что одну и ту же информацию можно фиксировать любыми носителями. Носители информации – языки, алфавиты, способы фиксации и подложки – выступают как бы в роли «информационной тары», которая может содержать информа­цию, причем любую. Если представление о количестве инфор­мации не лишено смысла, то отсюда следует, что для фиксации одного и того же количества информации с помощью разных носителей емкость используемой для этого информационной та­ры должна быть одной и той же. Полагая элементарные носи­тели информации – отдельные буквы алфавита – дискретными, можно утверждать, что одну и ту же информацию, по меньшей мере в пределах одного и того же языка, можно записывать самыми разными алфавитами, содержащими разное число букв, в том числе и бинарным. Формула (1), показывающая, сколько битов информации содержится в некотором сообщении, по су­ществу означает, что для записи этого сообщения бинарным кодом требуется М букв.

Формулу (1) можно записать несколько иначе, а именно:

(13)

Очевидно, что данная формула показывает, сколько знаков М алфавита, состоящего из п букв, требуется для записи данно­го количества Н информации. Очевидно, что в основе формулы (13) лежит формула (6), означающая, следовательно, сколько информации может «вместиться» в один из символов данного алфавита. Приняв в качестве единицы количества информации один бит и используя разные значения п и pi, легко убедиться, что информационная емкость отдельных символов может быть выражена любым числом, как целым, так и дробным, в том числе апериодическим. Это лучше согласуется с представлением о континуальности, нежели о дискретности самой информации, в отличие от единиц информационной тары.

Итак, мы пришли к выводу, что информационная емкость i- го символа любого алфавита, выраженная в битах, равна –log2pi, где piесть частота встречаемости этого символа в данном язы­ке. Это утверждение, выведенное из формулы (6) К. Шеннона, можно назвать правилом Шеннона.

Заметим, однако, что в работах самого К. Шеннона речь идет не об информационной емкости, а о количестве информации. Справедливо полагая, что количество информации, связанной с каким-либо сообщением, не должно зависеть от его семантики, К. Шеннон формулировал вопрос так: сколько информации по­лучает адресат, воспринимая каждую из букв сообщения? Коли­чество такой информации он и предложил выражать через ве­личину Н и постулировал аддитивность этой величины по от­ношению к любому числу символов, составляющих сообщение. При этом непроизвольно произошла подмена терминов: понятие об информации, как о содержательной стороне сообщения, было подменено понятием о количестве информации, представляющем собой функцию статистических характеристик составляющих со­общение символов. Эта подмена терминов не имела никаких последствий для развития математической теории связи и даже оказалась для нее благотворной: ведь по каналам связи передают не информацию, а ее носителей, и для оптимизации работы систем связи безразлично, какую именно информацию эти носители со­держат и содержат ли они ее вообще. Однако для теории ин­формации эти различия весьма существенны, и вот почему.

Рассмотрим два сообщения: «Каин убил Авеля» и «инилА ваКу лебя». Оба они состоят из одинаковых 15 знаков, но пер­вое – вполне осмысленно, т.е. содержит информацию, а второе представляет собой случайную последовательность букв и ника­кой информации не содержит. Согласно формуле (8), однако, с ними обоими связано одно и то же количество информации –около 45 битов. Если принять это утверждение за истинное, то отсюда следует, что информация может быть лишена семантики, что на самом деле нонсенс, ибо бессмысленной информации не бывает. Но возможен другой выход из этого противоречия: считать, что формула (8) является мерой не количества инфор­мации, а емкости информационной тары. Первая фраза – это тара, «полностью загруженная информацией», а вторая фраза это совершенно пустая тара. Очевидно, что емкость тары не за­висит от того, загружена она или нет, полностью загружена или частично, а также от того, чем именно она загружена. Ес­ли тара заполнена, то ее емкость может служить мерой количе­ства содержащегося в ней груза. Эти простые соображения по­зволяют сделать три вывода. Во-первых, если H-функцию счи­тать емкостью информационной тары, то ее в равной мере можно прилагать и к осмысленным, и к бессмысленным набо­рам символов, которые могут служить носителями информации. Во-вторых, одни и те же единицы измерения, биты, можно применять для оценки и емкости тары, и количества информа­ции, которая в ней может содержаться. В-третьих, при измере­нии в битах количество информации В, содержащейся в сооб­щении, заключено в интервал 0≤В≤Н, где Н – емкость со­ставляющих сообщение носителей информации. Н сообщения, таким образом, – это верхняя граница того количества инфор­мации, которое может в нем содержаться, причем В = Н только при абсолютно компактном тексте.

К этим же выводам можно прийти и другим путем, рассмат­ривая смысловое содержание понятия «избыточности», или ус­ловную вероятность встречаемости i-ro символа после 1-го, 2-го и т.д., а также после разных сочетаний двух, трех и т.д. симво­лов [11]. При таком подходе легко показать, что величина Н имеет максимальное значение только при совершенно случайном расположении символов в сообщении, а при возрастании его осмысленности величины piнезависимо от i, стремятся к еди­нице, а Я стремится к нулю. В нашей интерпретации это выглядит вполне естественным: по мере заполнения тары инфор­мацией свободного места в ней остается все меньше. Если перед правыми частями формул (6)-(8) не ставить знак минус, как это делал Н. Винер [5], то величина Н будет меньше или равной нулю и будет обозначать количество недостающей в таре ин­формации до ее полного заполнения. Естественно, что эта величина имеет минимальное значение лишь при совершенно слу­чайном расположении составляющих сообщение букв.

Теперь вернемся опять к вопросу о дискретности и непре­рывности информации. То обстоятельство, что элементарные единицы носителей информации – буквы – дискретны, ничего не говорит ни в пользу дискретности, ни в пользу континуаль­ности самой информации. Дискретность носителей информации и различия в информационной емкости элементарных носителей в разных системах записи таковы, что в общем случае емкость разных носителей не является кратной какому-либо определен­ному числу, которое можно было бы принять за элементарную единицу количества самой информации. Это же относится и к сообщениям, состоящим из произвольного числа букв. Лишь в тех случаях, когда сообщения записаны бинарным кодом, их информационная емкость выражается целым числом битов, в подавляющем же большинстве других случаев она может быть выражена любым дробным числом. Это приводит к интересно­му следствию: переводя информацию с одной системы записи на другую, мы, как правило, вынуждены использовать тару разного объема. Действительно, если для некоторого сообщения, за­писанного 24-х буквенным алфавитом, H = 78,37 бит, то при за­писи его 2-х буквенным алфавитом, мы в лучшем случае можем использовать 78 или 79, но никак не 78,37 букв. Означает ли это, что при переводе с одной системы записи на другую изме­няется и количество самой информации? Скорее всего, нет: мы уже видели, что в общем случае В < Н, и это неравенство хо­рошо соответствует описанной ситуации.

И вообще, имеем ли мы основания говорить о дискретности или непрерывности самой информации? Приложимы ли к ней эти понятия? Не лучше ли говорить о «полной» или «непол­ной» информации, имея в виду достаточность или недостаточ­ность данной информации для построения какого-либо операто­ра. Однако, как это будет специально рассмотрено ниже, ни об одном операторе не может существовать полностью исчерпы­вающей информации. Это обстоятельство (или, точнее, принцип) делает весьма шатким и такие категории, как «полнота» и «не­полнота». Поэтому о количественных аспектах информации (как, впрочем, и о других) можно судить лишь по тем или иным формам ее проявления (например, по степени заполненно­сти ею носителей), но не по самой информации, как таковой. Ведь «информация есть информация, а не материя и не энер­гия», и этого не следует забывать.

Теперь, учитывая сделанные выше замечания, еще раз вернемся к правилу Шеннона, выраженному формулой (10). Очевидно, что формула эта выражает идеальный вариант, который в действи­тельности проявляется лишь как тенденция, а не как абсолютное равенство. Тенденция эта будет тем ярче выражена, чем больше величина Н, т.е. с увеличением Н разность между М теоретиче­ским и М действительным должна стремиться к нулю. Это, по-видимому, справедливо и для записи информации разными алфа­витами на одном и том же языке и на разных языках, хотя во втором случае различия между теоретическим и действительным значениями М при относительно малых значениях Н должны быть, видимо, выражены значительно ярче, чем в первом. Жаль, что подобного рода данные в литературе отсутствуют.

Таким образом, располагая каким-либо сообщением и зная статистические веса слагающих язык букв в соответствующем языке, можно весьма точно рассчитать, какова емкость Н этой информационной тары, и на этом основании утверждать, что в данном сообщении содержится или может содержаться не более Н битов информации. Заметим, что определяемое таким путем количество информации полностью обусловливается двумя ипо­стасями ее носителей − языковой и алфавитной. Способ фикса­ции информации и природа ее носителя, столь важные для сохранения информации и ее репликации, здесь никакой роли не играют. Никак не связано количество информации и с ее се­мантикой, – т.е. семантика информации в пределах любого за­данного ее количества может быть любой.

Бренность информации

Итак, каждая данная информация, – точнее, каждый ее экзем­пляр - всегда зафиксирована на каком-либо физическом носителе. Поэтому сохранность и само существование информации целиком и полностью определяется судьбой ее носителя. Это обусловлива­ет, прежде всего, такое свойство информации, как ее бренность, т.е. возможность (или, скорее, неизбежность) ее разрушения и исчезновения в результате изменения или разрушения ее носителей. Бренность позволяет говорить о сроке жизни информации, точнее – о средней продолжительности ее жизни, что определяется особенностями не самой информации, а того носителя, который ис­пользован для ее фиксации. Пока носитель остается в недеформированном состоянии, сохраняется и сама информация, независимо от того, используется она для каких-то целей или нет; с дефор­мацией же носителя зафиксированная на нем информация изменя­ется или разрушается, т.е. исчезает. Таким образом, информация погибает только со своими носителями...

Транслируемость, размножаемость и мультипликативность информации

Бренности информации противостоит такое ее свойство, как транслируемость, т.е. возможность быть переданной с одного носителя на другой, такой же или иной физической природы, в той же или иной системе записи.

Пусть Vp - средняя скорость размножения информации в резуль­тате трансляции, a Vr – средняя скорость ее гибели. Тогда отношение

(14)

будет характеризовать «жизнеспособность» информации. Действи­тельно, при L < 1 данная информация обречена на вымирание, не­зависимо от абсолютного значения Vp; L = 1 – нестабильное состоя­ние, соответствующее «прозябанию» информации [12]; a L>1оз­начает, что число копий данной информации будет неуклонно возрастать, также независимо от скорости единичного акта уд­воения.

Таким образом, когда скорость транслируемости превосходит скорость разрушения и гибели информации, это приводит к ее размножаемости. Следствием размножения информации является ее мультипликативность, т.е. возможность одновременного суще­ствования одной и той же информации в виде некоторого чис­ла идентичных копий на одинаковых или разных носителях. Следует отметить, что число таких копий, в принципе, не огра­ничено, т.е. может быть сколь угодно большим.

Изменчивость информации

Деформируемость физических носителей, а также ошибки при трансляции могут приводить не только к гибели информации, но и к ее изменениям.

Если под гибелью информации понимать как ее исчезновение или разрушение, так и «обессмысливание», то под изменчиво­стью будем понимать такие ее изменения, которые затрагивают количество и/или семантику информации, но не лишают ее смысла. Как к первому, так и ко второму результату могут при­водить сходные события: выпадение отдельных символов, использованных для записи информации, добавление новых сим­волов или замена одних символов на другие. Масштабы таких событий (т.е. число выпавших, встроенных или замененных сим­волов), а также причины, к ним приводящие, могут быть са­мыми разными. Однако других путей изменчивости информации нам не известно. Информация, следовательно, может изменяться только вследствие изменений, совершающихся с ее носителями.

Поделиться:





Воспользуйтесь поиском по сайту:



©2015 - 2024 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...