Целенаправленное действие и его компоненты 4 глава
Ниже мы увидим, что все эти особенности информации, хорошо знакомые нам из повседневного опыта, являются следствиями из ее свойств, общих для всех известных нам видов информации. Посмотрим теперь, какие реальные объекты окружающей нас действительности могут быть названы информационными системами. При этом мы все время должны иметь ввиду, что информация может существовать только в какой-либо информационной системе, в виде «записи» на том или ином «носителе»; что семантика информации не связана со способом ее записи и физической природой носителя. Так как слово «информация» первоначально использовалось только для обозначения содержательной стороны сообщений, которыми обмениваются между собой люди, то естественно, что первой ставшей нам известной информационной системой был также человек. Сообщества людей представляют собой информационные системы высокого ранга, сложнейшим образом переплетающиеся между собой и входящие в единую общечеловеческую информационную суперсистему. Специфическую для человека информацию, которой обмениваются люди при помощи устной и письменной речи, обычно называют знанием. Информацией называют также те сведения, которыми обмениваются между собой животные и которые, будучи восприняты, существенно влияют на их поведение. Такая информация передается от индивида к индивиду посредством различных сигналов, в ходе обучения (например, родителями детенышей), путем подражания другим особям или создается в мозгу животного заново, на основе собственного жизненного опыта. Это –поведенческая информация. Информационными системами, оперирующими с такой информацией, являются все многоклеточные животные, включая человека, а возможно, и некоторые одноклеточные.
Третий известный нам вид биологической информации – генетическая. Генетическая информация записана в нуклеиновых кислотах (обычно ДНК) клеток последовательностью оснований и определяет фенотипические особенности всех без исключения живых существ - животных, растений, грибов, бактерий и вирусов. Специфическими для этой информации системами являются все генетические компоненты живых организмов. Утверждение о том, что информация обязательно присуща всем живым объектам, можно дополнить утверждением, что вне живых систем нет и не может быть биологической информации, которая не была бы создана каким-либо живым объектом. На последнем утверждении стоит дополнительно остановиться. У любого живого объекта может измениться количество и семантика содержащейся в нем информации. Есть только три пути таких изменений: получение новой информации, создание ее и утеря тех или иных фрагментов. Для биологических систем очень характерны передача и утеря информации. Получение информации неразрывно связано с получением сообщения, эту информацию содержащего, с последующим ее хранением или перекодировкой и использованием. Использование информации, очевидно, может быть в том случае, если она попадает в иерархически подобную или более высокую информационную систему. Включение ее в систему будет облегчено в семантически родственных системах. Получение информации бывает связано со случайным или неслучайным изменением носителей информации. Это относится к генетической, поведенческой и особенно к логической информации. Утеря фрагментов информации, например генетической, может иметь разные последствия для организмов, в том числе и положительные, но в определенных ситуациях она может попадать во внешнюю среду вне своей информационной системы и будет там находиться до полного разрушения своих носителей. Она может быть также случайно подобрана из внешней среды и включиться в другую информационную систему (горизонтальный перенос генетической информации, см., например [6, 7]), но роль такого рода процессов в эволюции информации никто специально не рассматривал. Изменение окружающей среды является поводом для создания, но никак не источником новой информации. В любом случае, однако, совершенно ясно, что возникать самостоятельно, вне живых организмов, биологическая информация не способна [8].
Однако как в обыденной жизни, так и в научной литературе «информацией» нередко называют все, что может воздействовать на живой организм извне, независимо от его физической и химической природы и независимо от того, являются ли источниками таких воздействий живые или неживые объекты [9]. В подобном контексте к информации можно свести все виды взаимодействия живых и неживых объектов. Здесь опять исчезают различия между совокупностью сигналов, обладающей семантикой, родственных источнику и приемнику, и «слепым» воздействием одного объекта на другой. Чтобы отличать сигналы или воздействия, содержащие информацию, от сигналов, таковыми не являющихся, нужно всегда помнить об условности фиксации информации на ее носителях. Это отражается в строении записывающего и считывающего устройств соответствующих информационных систем, в особенностях материала носителя, способа фиксации, выбора языка и кода и т.д. Имея это в виду, можно отделять носителей реальной информации от информационно пустых, независимо от того, известен их источник или нет. Действительно, какая информация может содержаться в грохоте грома, вспышке молнии или горном обвале? Кем вписана она в эти физические феномены, кому предназначена и о чем повествует? Другое дело, что, будучи восприняты живыми организмами, подобные «сигналы» могут быть использованы для создания информации о той или иной стороне действительности. Лишь в таком переносном смысле их можно именовать «источниками» информации, – и подобными источниками, действительно, могут служить любые объекты и явления. Это же относится к результатам наблюдений, измерений и т.п. процедур, производимых человеком: обработку их нередко называют «обработкой информации», хотя на самом деле это есть один из этапов создания новой информации в человеческом мозге, а не «извлечение» ее из наблюдений и измерений.
Таким образом, внешние воздействия, воспринимаемые живыми организмами, можно подразделить на два класса: сообщения, или «носители информации», источниками которых могут служить только другие живые организмы, и просто воздействия, информации не содержащие, источниками которых могут быть любые объекты или явления. Можно думать, что различные рецепторы живых организмов формировались первоначально для восприятия и дифференцировки именно таких воздействий и лишь позже, в ходе эволюции, некоторые из них были дополнительно адаптированы для приема или передачи информации. Такое различение информационных и неинформационных воздействий, которым подвергаются живые организмы, весьма существенно для ясного понимания того, что именно представляет собой информацию. Выше мы видели три вида биологической информации, и четвертого нам не известно. Это – генетическая информация, поведенческая и логическая, или человеческое знание. Для каждого из этих видов информации характерны свои носители, свои записывающие и считывающие устройства, свои информационные системы. Однако, как бы ни различались эти виды информации, всем им присущи общие свойства, характерные именно для информации как таковой, независимо от ее вида или особенностей ее носителей. Фиксируемость информации. Ее носители Свойства, присущие всем видам информации, можно разделить на две группы, внутри каждой из которых они тесно связаны между собой. Ключевым свойством для одной из этих групп является фиксируемость информации, а для другой – ее действенность. Иные свойства, входящие в эти группы, являются как бы раскрытием, проявлением ключевых особенностей в доступных для регистрации формах. Фиксируемостью мы будем называть ту особенность любой информации, что, не будучи «ни материей, ни энергией», она может существовать только в зафиксированном состоянии. Никто никогда нигде не встречался с информацией, которая была бы в «свободном виде», а не в виде «записи» на том или ином физическом носителе. При этом способы записи или фиксации информации на том или ином носителе всегда условны, т.е. не имеют никакого отношения к ее семантике.
Условность способов фиксации информации означает, что любой из таких способов, никак не связанных с семантикой, тем не менее однозначно обусловливается двумя факторами, также не имеющими к семантике информации никакого отношения, – это физическая природа носителя и специфика «считывающего устройства» той информационной системы, к которой данная информация относится. Фиксация информации всегда представляет собой ту или иную деформацию носителя, среднее время релаксации которого должно превышать среднее время считывания, что и ограничивает способы записи информации на том или ином носителе. Адекватность способа фиксации информации способу ее считывания означает, что способ записи, носитель и считающее устройство взаимно обусловлены друг другом и могут возникать только совместно. Все эти способы, однако, должны подчиняться одному требованию: запись информации должна иметь апериодическую форму[2]. Это требование может быть реализовано, если носитель информации способен принимать не менее двух различных состояний. Другими словами, для фиксации информации можно использовать не менее двух различных знаков или букв. Важнейшей особенностью фиксации любой информации является возможность последовательной нумерации использованного для этого множества знаков или символов. Эта особенность отражает тот факт, что любая информация осмысленна, что бессмысленной информации не бывает. Простейшей реализацией этой особенности является линейная последовательность символов или сигналов, используемых для фиксации и передачи информации, или возможность считывания их в линейной последовательности. Все это позволяет сформулировать требования к физическим носителям информации, или, точнее, к тем объектам, которые могут служить таковыми. Потенциальным носителем информации может служить любой физический объект, который может существовать не менее чем в двух последовательно различимых состояниях, выступающих в роли знаков или символов, пригодных для фиксации информации. А так как простейшим вариантом различимых состояний физического объекта может быть его наличие или отсутствие, то из этого следует, что потенциальным носителем информации может быть любой феномен окружающего нас мира, наличие или отсутствие которого можно регулировать произвольным образом.
Следует, однако, проводить строгое различие между потенциальными носителями информации и ее реальными носителями. Первые могут содержать информацию, а могут и не содержать, а вторые всегда ее содержат. Это подводит нас к вопросу о том, как можно различать, содержит ли данный объект информацию или нет. Однако, прежде чем рассмотреть возможности распознавания информации, остановимся коротко на двух вопросах, тесно с этим связанных: каковы могут быть виды носителей информации и могут ли они существовать вне своих информационных систем? Пользуясь уже устоявшейся терминологией, можно сказать, что формой фиксации информации являются предложения, составленные на том или ином языке в виде последовательности букв того или иного алфавита, нанесенных тем или иным способом на тот или иной физический объект. Таким образом, собственно носителем информации является предложение, составленное на том или ином языке. В соответствии с этим можно различать четыре вида физических носителей: язык, алфавит, способ «печати» и природу «подложки». Каждый из этих видов носителей может варьировать, разрушаться и исчезать независимо один от другого. Очевидно, однако, носители информации должны быть адекватны системам записи. Поэтому в любой полной информационной системе следует различать: систему записи, систему считывания, систему перекодирования информации и носители, которые могут ее содержать. Физические объекты, содержащие информацию, могут находиться как «внутри» своих информационных систем, так и вне их, выпадая оттуда в процессе передачи информации или в результате разрушения содержавших их информационных систем. Таким путем информация может получать независимое от информационной системы, ее породившей, существование, правда, существование весьма убогое. Действительно, вне информационной системы любая информация обречена лишь на более или менее быстрое разрушение, деградацию. Деградация – удел любой информации, «вырвавшейся» из своей информационной системы. Поэтому, если мы и обнаруживаем информацию вне информационной системы, все равно должны быть твердо убеждены, во-первых, в том, что возникла-то она обязательно в какой-либо из информационных систем, а во-вторых, в том, что сама по себе она лишь «деградирует», но не «существует». Теперь мы вплотную подошли к проблеме распознавания. Если имеется некий физический объект и мы хотим выяснить, содержит ли он информацию, то ответ на этот вопрос предполагает хотя бы потенциальную возможность ответить на три следующих вопроса: к какой информационной системе он относится или может относиться? какие способы фиксации информации здесь использованы? и какова семантика этой информации? Естественно, что здесь предполагается искусственное фиксирование информации на данной подложке, а не спонтанное ее возникновение, проистекающее из самой природы объекта. Ведь сведения, которые мы «получаем», анализируя какой-либо объект, могут быть использованы для создания информации об этом объекте, а это не следует смешивать со считыванием информации, в данном объекте содержащейся, – если, конечно, она там имеется. Инвариантность информации по отношению к носителям С фиксируемостью информации теснейшим образом связано такое ее свойство, как инвариантность по отношению к физической природе носителей [10]. Это важнейшее свойство информации, и представлять его себе следует очень ясно. Свойство, или, точнее, принцип, инвариантности информации означает, что одна и та же информация, независимо от ее семантики, может быть «записана» на любом языке, любым алфавитом, т.е. системой знаков, наносимых любыми способами на любые носители. Другими словами, ни количество, ни семантика никакой информации не зависят от того, какая система записи избрана для ее фиксации и какой для этого использован носитель. Инвариантность информации как бы подчеркивает ее внутреннюю независимость от ее материальных оков, ее автономность и суверенность, которые сохраняются как бы наперекор судьбе, обрекающей информацию быть вечным узником мира вещей – ее физических носителей. Инвариантность информации обусловливает возможность использовать разные способы ее фиксации на разных носителях при осуществлении разных элементарных информационных актов – создания, передачи, приема, хранения и использования информации. Для «перевода» информации с одной системы записи на другую или для перекодировки во многих информационных системах существуют специальные устройства. Перевод информации с одного языка на другой или с одной системы записи на другую возможен только благодаря свойству инвариантности. Таким образом, именно инвариантность лежит в основе возможности понимания информации – перевода ее с чуждого языка (или способа записи) на язык (или способ записи), свойственный данной информационной системе. Свойство инвариантности информации по отношению к системе записи и природе носителя также означает, что результаты ее реализации (или использования) не зависят ни от того, ни от другого, а определяются лишь ее семантикой. Ярчайшим примером инвариантности информации может служить наше понимание генетической информации и создание искусственных генов в соответствии с заранее составленным планом. Количество информации и емкость информационной тары Инвариантность информации по отношению к носителям создает принципиальную возможность записи любой информации на одном и том же языке с помощью одного и того же алфавита, т.е. как бы «сведения ее к единому знаменателю». Это, хотя и не явно, было использовано К.Шенноном при решении вопроса о способе определения количества информации. Для этого можно воспользоваться формулой (12) где М - число букв в тексте, a i - порядковый номер одной буквы в алфавите, использованном для записи информации. Здесь k - коэффициент, величина которого зависит от выбора единиц измерения количества информации и основания логарифмов. Если Н выражать в битах, то при q = 2 величина k = 2. При использовании для записи информации бинарного кода (п = 2, р1 = ро = 0,5) величина Нм = М. Другими словами, количество информации, выраженное в битах, равно числу знаков бинарного алфавита, необходимому для ее записи. Последнее утверждение далеко не тривиально. В основе его лежит, во-первых, свойство инвариантности информации по отношению к носителям; во-вторых, представление о емкости информационной тары; в-третьих, способ количественного измерения этой емкости, которым, по существу, и является формула Шеннона. Рассмотрим эти вопросы более внимательно. Свойство инвариантности, как мы уже видели, позволяет утверждать, что одну и ту же информацию можно фиксировать любыми носителями. Носители информации – языки, алфавиты, способы фиксации и подложки – выступают как бы в роли «информационной тары», которая может содержать информацию, причем любую. Если представление о количестве информации не лишено смысла, то отсюда следует, что для фиксации одного и того же количества информации с помощью разных носителей емкость используемой для этого информационной тары должна быть одной и той же. Полагая элементарные носители информации – отдельные буквы алфавита – дискретными, можно утверждать, что одну и ту же информацию, по меньшей мере в пределах одного и того же языка, можно записывать самыми разными алфавитами, содержащими разное число букв, в том числе и бинарным. Формула (1), показывающая, сколько битов информации содержится в некотором сообщении, по существу означает, что для записи этого сообщения бинарным кодом требуется М букв. Формулу (1) можно записать несколько иначе, а именно: (13) Очевидно, что данная формула показывает, сколько знаков М алфавита, состоящего из п букв, требуется для записи данного количества Н информации. Очевидно, что в основе формулы (13) лежит формула (6), означающая, следовательно, сколько информации может «вместиться» в один из символов данного алфавита. Приняв в качестве единицы количества информации один бит и используя разные значения п и pi, легко убедиться, что информационная емкость отдельных символов может быть выражена любым числом, как целым, так и дробным, в том числе апериодическим. Это лучше согласуется с представлением о континуальности, нежели о дискретности самой информации, в отличие от единиц информационной тары. Итак, мы пришли к выводу, что информационная емкость i- го символа любого алфавита, выраженная в битах, равна –log2pi, где piесть частота встречаемости этого символа в данном языке. Это утверждение, выведенное из формулы (6) К. Шеннона, можно назвать правилом Шеннона. Заметим, однако, что в работах самого К. Шеннона речь идет не об информационной емкости, а о количестве информации. Справедливо полагая, что количество информации, связанной с каким-либо сообщением, не должно зависеть от его семантики, К. Шеннон формулировал вопрос так: сколько информации получает адресат, воспринимая каждую из букв сообщения? Количество такой информации он и предложил выражать через величину Н и постулировал аддитивность этой величины по отношению к любому числу символов, составляющих сообщение. При этом непроизвольно произошла подмена терминов: понятие об информации, как о содержательной стороне сообщения, было подменено понятием о количестве информации, представляющем собой функцию статистических характеристик составляющих сообщение символов. Эта подмена терминов не имела никаких последствий для развития математической теории связи и даже оказалась для нее благотворной: ведь по каналам связи передают не информацию, а ее носителей, и для оптимизации работы систем связи безразлично, какую именно информацию эти носители содержат и содержат ли они ее вообще. Однако для теории информации эти различия весьма существенны, и вот почему. Рассмотрим два сообщения: «Каин убил Авеля» и «инилА ваКу лебя». Оба они состоят из одинаковых 15 знаков, но первое – вполне осмысленно, т.е. содержит информацию, а второе представляет собой случайную последовательность букв и никакой информации не содержит. Согласно формуле (8), однако, с ними обоими связано одно и то же количество информации –около 45 битов. Если принять это утверждение за истинное, то отсюда следует, что информация может быть лишена семантики, что на самом деле нонсенс, ибо бессмысленной информации не бывает. Но возможен другой выход из этого противоречия: считать, что формула (8) является мерой не количества информации, а емкости информационной тары. Первая фраза – это тара, «полностью загруженная информацией», а вторая фраза это совершенно пустая тара. Очевидно, что емкость тары не зависит от того, загружена она или нет, полностью загружена или частично, а также от того, чем именно она загружена. Если тара заполнена, то ее емкость может служить мерой количества содержащегося в ней груза. Эти простые соображения позволяют сделать три вывода. Во-первых, если H-функцию считать емкостью информационной тары, то ее в равной мере можно прилагать и к осмысленным, и к бессмысленным наборам символов, которые могут служить носителями информации. Во-вторых, одни и те же единицы измерения, биты, можно применять для оценки и емкости тары, и количества информации, которая в ней может содержаться. В-третьих, при измерении в битах количество информации В, содержащейся в сообщении, заключено в интервал 0≤В≤Н, где Н – емкость составляющих сообщение носителей информации. Н сообщения, таким образом, – это верхняя граница того количества информации, которое может в нем содержаться, причем В = Н только при абсолютно компактном тексте. К этим же выводам можно прийти и другим путем, рассматривая смысловое содержание понятия «избыточности», или условную вероятность встречаемости i-ro символа после 1-го, 2-го и т.д., а также после разных сочетаний двух, трех и т.д. символов [11]. При таком подходе легко показать, что величина Н имеет максимальное значение только при совершенно случайном расположении символов в сообщении, а при возрастании его осмысленности величины piнезависимо от i, стремятся к единице, а Я стремится к нулю. В нашей интерпретации это выглядит вполне естественным: по мере заполнения тары информацией свободного места в ней остается все меньше. Если перед правыми частями формул (6)-(8) не ставить знак минус, как это делал Н. Винер [5], то величина Н будет меньше или равной нулю и будет обозначать количество недостающей в таре информации до ее полного заполнения. Естественно, что эта величина имеет минимальное значение лишь при совершенно случайном расположении составляющих сообщение букв. Теперь вернемся опять к вопросу о дискретности и непрерывности информации. То обстоятельство, что элементарные единицы носителей информации – буквы – дискретны, ничего не говорит ни в пользу дискретности, ни в пользу континуальности самой информации. Дискретность носителей информации и различия в информационной емкости элементарных носителей в разных системах записи таковы, что в общем случае емкость разных носителей не является кратной какому-либо определенному числу, которое можно было бы принять за элементарную единицу количества самой информации. Это же относится и к сообщениям, состоящим из произвольного числа букв. Лишь в тех случаях, когда сообщения записаны бинарным кодом, их информационная емкость выражается целым числом битов, в подавляющем же большинстве других случаев она может быть выражена любым дробным числом. Это приводит к интересному следствию: переводя информацию с одной системы записи на другую, мы, как правило, вынуждены использовать тару разного объема. Действительно, если для некоторого сообщения, записанного 24-х буквенным алфавитом, H = 78,37 бит, то при записи его 2-х буквенным алфавитом, мы в лучшем случае можем использовать 78 или 79, но никак не 78,37 букв. Означает ли это, что при переводе с одной системы записи на другую изменяется и количество самой информации? Скорее всего, нет: мы уже видели, что в общем случае В < Н, и это неравенство хорошо соответствует описанной ситуации. И вообще, имеем ли мы основания говорить о дискретности или непрерывности самой информации? Приложимы ли к ней эти понятия? Не лучше ли говорить о «полной» или «неполной» информации, имея в виду достаточность или недостаточность данной информации для построения какого-либо оператора. Однако, как это будет специально рассмотрено ниже, ни об одном операторе не может существовать полностью исчерпывающей информации. Это обстоятельство (или, точнее, принцип) делает весьма шатким и такие категории, как «полнота» и «неполнота». Поэтому о количественных аспектах информации (как, впрочем, и о других) можно судить лишь по тем или иным формам ее проявления (например, по степени заполненности ею носителей), но не по самой информации, как таковой. Ведь «информация есть информация, а не материя и не энергия», и этого не следует забывать. Теперь, учитывая сделанные выше замечания, еще раз вернемся к правилу Шеннона, выраженному формулой (10). Очевидно, что формула эта выражает идеальный вариант, который в действительности проявляется лишь как тенденция, а не как абсолютное равенство. Тенденция эта будет тем ярче выражена, чем больше величина Н, т.е. с увеличением Н разность между М теоретическим и М действительным должна стремиться к нулю. Это, по-видимому, справедливо и для записи информации разными алфавитами на одном и том же языке и на разных языках, хотя во втором случае различия между теоретическим и действительным значениями М при относительно малых значениях Н должны быть, видимо, выражены значительно ярче, чем в первом. Жаль, что подобного рода данные в литературе отсутствуют. Таким образом, располагая каким-либо сообщением и зная статистические веса слагающих язык букв в соответствующем языке, можно весьма точно рассчитать, какова емкость Н этой информационной тары, и на этом основании утверждать, что в данном сообщении содержится или может содержаться не более Н битов информации. Заметим, что определяемое таким путем количество информации полностью обусловливается двумя ипостасями ее носителей − языковой и алфавитной. Способ фиксации информации и природа ее носителя, столь важные для сохранения информации и ее репликации, здесь никакой роли не играют. Никак не связано количество информации и с ее семантикой, – т.е. семантика информации в пределах любого заданного ее количества может быть любой. Бренность информации Итак, каждая данная информация, – точнее, каждый ее экземпляр - всегда зафиксирована на каком-либо физическом носителе. Поэтому сохранность и само существование информации целиком и полностью определяется судьбой ее носителя. Это обусловливает, прежде всего, такое свойство информации, как ее бренность, т.е. возможность (или, скорее, неизбежность) ее разрушения и исчезновения в результате изменения или разрушения ее носителей. Бренность позволяет говорить о сроке жизни информации, точнее – о средней продолжительности ее жизни, что определяется особенностями не самой информации, а того носителя, который использован для ее фиксации. Пока носитель остается в недеформированном состоянии, сохраняется и сама информация, независимо от того, используется она для каких-то целей или нет; с деформацией же носителя зафиксированная на нем информация изменяется или разрушается, т.е. исчезает. Таким образом, информация погибает только со своими носителями... Транслируемость, размножаемость и мультипликативность информации Бренности информации противостоит такое ее свойство, как транслируемость, т.е. возможность быть переданной с одного носителя на другой, такой же или иной физической природы, в той же или иной системе записи. Пусть Vp - средняя скорость размножения информации в результате трансляции, a Vr – средняя скорость ее гибели. Тогда отношение (14) будет характеризовать «жизнеспособность» информации. Действительно, при L < 1 данная информация обречена на вымирание, независимо от абсолютного значения Vp; L = 1 – нестабильное состояние, соответствующее «прозябанию» информации [12]; a L>1означает, что число копий данной информации будет неуклонно возрастать, также независимо от скорости единичного акта удвоения. Таким образом, когда скорость транслируемости превосходит скорость разрушения и гибели информации, это приводит к ее размножаемости. Следствием размножения информации является ее мультипликативность, т.е. возможность одновременного существования одной и той же информации в виде некоторого числа идентичных копий на одинаковых или разных носителях. Следует отметить, что число таких копий, в принципе, не ограничено, т.е. может быть сколь угодно большим. Изменчивость информации Деформируемость физических носителей, а также ошибки при трансляции могут приводить не только к гибели информации, но и к ее изменениям. Если под гибелью информации понимать как ее исчезновение или разрушение, так и «обессмысливание», то под изменчивостью будем понимать такие ее изменения, которые затрагивают количество и/или семантику информации, но не лишают ее смысла. Как к первому, так и ко второму результату могут приводить сходные события: выпадение отдельных символов, использованных для записи информации, добавление новых символов или замена одних символов на другие. Масштабы таких событий (т.е. число выпавших, встроенных или замененных символов), а также причины, к ним приводящие, могут быть самыми разными. Однако других путей изменчивости информации нам не известно. Информация, следовательно, может изменяться только вследствие изменений, совершающихся с ее носителями.
Воспользуйтесь поиском по сайту: ©2015 - 2024 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...
|