Главная | Обратная связь | Поможем написать вашу работу!
МегаЛекции

Информация, сигналы, данные




 

Коротко информацию можно определить как результат моделирования (описания) реального мира или исследуемой его части. Иначе, информация – это содержание сообщения, сигнала, памяти. Информация приносит знания об окружающем мире, которых не было в рассматриваемой точке до получения информации. Информация не материальна, но она хранится на материальных носителях.

При работе с информацией всегда имеется ее источник и потребитель (получатель). Для потребителя информации очень важной характеристикой является ее адекватность.

Адекватность информации – это определенный уровень соответствия, создаваемого с помощью полученной информации образа реальному объекту, процессу, явлению и т.п.

От степени адекватности информации реальному состоянию объекта или процесса зависит правильность принятия решений человеком.

Количество информации определяют, используя статистическую меру, связанную с понятием неопределенности состояния системы, иначе с энтропией системы. Статистическая количественная характеристика информации – это мера снимаемой в процессе получения информации неопределенности системы.

Количество информации зависит от закона распределения состояний системы. Для равновероятных дискретных сообщений количество информации зависит только от числа передаваемых сообщений. Пусть источник информации передает N сообщений, тогда количество информации в сообщениях будет равно:

. (2.1)

Рассмотрим понятие собственной информации. Под собственной информацией будем понимать информацию, которая содержится в данном конкретном сообщении. Пусть сообщение x i появляется с вероятностью p i, тогда количество собственной информации в сообщении xi определяется как:

. (2.2)

Математическое ожидание случайной величины собственной информации называется энтропией. Энтропия рассчитывается на множестве сообщений (символов) X и определяет среднее количество собственной информации, которое содержится в элементах множества.

Пусть для источника информации случайная величина собственной информации принимает значения: I (x1), I (x2), …, I (xn)с вероятностями: p (x1) ,p (x1), …, p (xn)соответственно. Тогда энтропия источника Н (X) количественная мера неопределенности и, следовательно, информативности равно:

. (2.3)

Наиболее часто в формулах (2.1) и (2.3) используются двоичные, десятичные и натуральные логарифмы. Единицами измерения в этом случае будут соответственно бит, дит и нат.

В связи с тем, что информации может выражаться в трех формах: семантической, синтаксической, прагматической различают и единицы измерения количества информации.

Синтаксическая форма способствует восприятию внешних, структурных характеристик, не касаясь смыслового содержания информации. Она может быть измерена в бит, дит и нат, в зависимости от того какие логарифмы – двоичные, десятичные или натуральные используются в формулах (2.1) и (2.2).

Так как объем данныхв сообщении измеряется количеством символов, то при переходе от одной системы счисления к другой изменяется вес одного разряда и, следовательно, единица измерения данных. Так, в двоичной системе счисления единица измерения – бит (двоичный разряд), а в десятичной системе счисления единица измерения – дит (десятичный разряд).

Семантическая форма предполагает учет смыслового содержания информации. Для измерения смыслового содержания информации используется тезаурусная мера, которая связывает семантические свойства информации со способностью пользователя принимать поступившие сообщения.

Относительная мера количества семантической информации определяется коэффициентом содержательности: C= Ip/VД; Ip – где количество семантической информации в сообщении, воспринимаемом пользователем, VД – объем данных.

Прагматическая форма непосредственно связана с практическим использованием информации, с соответствием ее целевой функции деятельности системы, поэтому ее целесообразно измерять в тех же единицах, в которых измеряется целевая функция.

При оценке количества информации в семантической и прагматической формах представления необходимо учитывать, что со временем ее ценность падает, и важно использовать информацию в момент наибольшей ценности.

В настоящее время широкое распространение получит структурный подход к оценке информации который связан с проблемами хранения, реорганизации и извлечения информации и по мере увеличения объемов накапливаемой информации.

При структурном подходе рассматривают логические и физические структуры организации информации. Для эффективного использования огромных объемов информации, которые хранятся машинных носителях необходимо так организовать структуру информации, чтобы можно было осуществлять быстрый поиск необходимых сведений, их запись и модификацию.

При машинном хранении структурной единицей информации является один байт, содержащий восемь бит (двоичных единиц информации). Менее определенной, но также переводимой в байты является неделимая единица экономической информации – реквизит.

Реквизиты объединяются в показатели, показатели – в записи, записи – в массивы, из массивов создаются комплексы массивов, а из комплексов – информационные базы. Структурная теория позволяет на логическом уровне определить оптимальную структуру информационной базы, которая затем с помощью определенных средств реализуется на физическом уровне - уровне технических устройств хранения информации. От выбранной структуры хранения зависит такой важный параметр, как время доступа к данным, т.е. структура влияет на время записи и считывания информации, а значит, и на время создания и реорганизации информационной базы.

Информационная база совместно с системой управления базой данных (СУБД) формирует автоматизированный банк данных.

Значение структурной теории информации растет при переходе от банков данных к банкам знаний, в которых информация подвергается еще более высокой степени структуризации.

После преобразования информации в машинную форму ее аналитический и прагматический аспекты как бы уходят в тень, и дальнейшая обработка информации происходит по «машинным законам», одинаковым для информации любого смыслового содержания. Информация в машинном виде, т.е. в форме электрических, магнитных и тому подобных сигналов и состояний, носит название данных.

При любых видах работы с информацией всегда идет речь о ее представлении в виде определенных символических структур. Наиболее распространены одномерные представления информации, при которых сообщения имеют вид последовательности символов. Так,информация представляется в письменных текстах, при передаче по каналам связи, в памяти ЭВМ. Однако широко используется и многомерное представление информации. Под многомерностью понимается расположение элементов информации на плоскости или в пространстве в виде рисунков, схем, графов, объемных макетов и т.д., а также множественность признаков используемых символов, например цвет, размер, вид шрифта в тексте.

Формирование представления информации называется ее кодированием. В более узком смысле под кодированием понимается переход от исходного представления информации, удобного для восприятия человеком, к представлению, удобному для хранения, передачи и обработки. В этом случае обратный переход к исходному представлению называется декодированием.

Итак, кодирование информации – установление соответствия между элементами сообщения и сигналами, при помощи которых эти элементы могут быть зафиксированы.

Пусть В – множество сообщений; – элементы сообщения В; А – алфавит с символами .

Конечная последовательность символов называется словом в данном алфавите.

Множество слов в алфавите А называется кодом, если оно поставлено во взаимно однозначное соответствие с множеством В.

Каждое слово, входящее в код, называется кодовым словом.

Число символов в кодовом слове называется длиной кода. Коды могут иметь одинаковую длину (равномерный код) или различную длину (неравномерный код). Таким образом, кодированием называется отображение дискретного сообщения сочетаниями кодовых символов.

Цели кодирования информации:

- представление входной информации в ЭВМ;

- согласование источников информации с каналом передачи;

- обнаружение и исправление ошибок при передаче и обработке данных;

- сокрытие смысла сообщения (криптография) и т.д.

На разных этапах обработки информации достигаются разные цели, и поэтому информация неоднократно перекодируется, преобразуется из вида, удобного для восприятия человеком, к виду, удобному для обработки автоматическими средствами, и наоборот. Такое преобразование происходит, например, при передаче телеграмм, при программировании на ЭВМ.

Рассмотрим эффективное кодирование информации, целью которого является согласование информационных свойств источника информации и канала передачи.

Пусть источник информации выдает на выходе сообщение, состоящее из букв m – буквенного алфавита Появление букв независимо и подчинено распределению Источник характеризуется энтропией на символ, определяемой по формуле:

, (2.3).

Энтропия – мера неопределенности появления на входе источника информации очередного символа. Равенство достигается при вырожденном распределении Р, так как сообщение детерминировано; равенство достигается при равномерном появлении – ситуация наибольшей неопределенности. При m = 2 и равномерном появлении энтропия максимальна и . Неопределенность при равномерном выборе из двух альтернатив и используется как единица количества энтропии – 1 бит.

Пусть канал передачи информации работает в r буквенном алфавите Вr и r<m. Кодирование в этом случае заключается в сопоставлении каждому символу слова в алфавите Br .

Каждый способ кодирования характеризуется средним числом букв выходного алфавита, приходящегося на одну букву входного алфавита Am. Для алфавитного кодирования средняя длина кодового слова определяется по формуле:

, (2.4)

где li – длина слова в алфавите Br. Если кодирование взаимно однозначно, то:

, (2.5).

Величина

, (2.6)

называется избыточностью кодирования при распределении P. Задача кодирования состоит в отыскании в заданном классе взаимно однозначных кодирований кодирования, обладающего минимальной величиной .

Существование минимума и его значение устанавливаются теоремой Шеннона для канала без шума (при отсутствии помех), гласящей, что для источника с конечным алфавитом Am с энтропией H(P) можно так приписать кодовые слова буквам источника, что средняя длина кодового слова будет удовлетворять условиям:

, (2.7).

То есть минимальное число кодовых символов, приходящихся на один символ сообщения, можно сделать сколь угодно близким к .

Таким образом, . Для бинарного источника r= 2 и m= 2, следовательно, .

Общие правила кодирования, при выполнении которых средняя длина кодовых комбинаций оказывается близка к границе, указанной в теореме:

1. В каждом из разрядов кодовой комбинации различные символы алфавита должны иметь равную вероятность.

2. Вероятность появления символа в каждом разряде не должна зависеть от всех предыдущих символов.

Отношение к реально достигнутой в данном коде средней длине кодовых слов называется эффективностью кода:

, (2.8).

Качество кода характеризуется относительной избыточностью кода:

, (2.9).

Если используемые при кодировании символы независимы, но неравновероятны, применяются коды Шеннона-Фэно и Хаффмена.

Алгоритм кодирования сообщения кодом Шеннона-Фэно заключается в следующем:

1. Символы, подлежащие кодированию, записываются в порядке убывания их вероятностей.

2. Полученную последовательность разбивают на две группы с приблизительно одинаковой по возможности суммой вероятностей появления символов, входящих в каждую группу.

3. Всем символам первой группы приписывают 0 (или 1), а символам второй группы 1 (или 0).

4. Процесс продолжают до тех пор, пока в каждой группе не останется по одному символу.

Рассмотренный алгоритм не всегда приводит к однозначному построению кода, так как при разбиении на подгруппы в некоторых задачах можно сделать большей по вероятности как верхнюю, так и нижнюю подгруппы. Таким образом, построенный код может оказаться не самым лучшим.

Рассмотрим алгоритм кодирования сообщения кодом Хаффмена, который гарантирует однозначное построение кода с наименьшим для данного распределения вероятностей средним числом символов на букву. Для двоичного кода методика построения заключается в следующем:

1. Буквы, подлежащие кодированию, записываются в порядке убывания их вероятностей.

2. Находится сумма вероятностей двух наименее вероятных букв.

3. Все буквы, не участвовавшие в суммировании и полученная вспомогательная буква, упорядочиваются по убыванию вероятностей в дополнительном столбце.

4. Находится сумма вероятностей двух следующих наименее вероятных сообщений (букв).

5. Процесс повторяется до тех пор, пока сумма вероятностей, оставшихся двух букв не станет равной 1.

6. Затем каждому верхнему символу в группах из двух наименее вероятных символов приписывается 0 (либо 1), а нижнему соответственно 1 (либо 0).

Для составления кодовой комбинации, соответствующей данному сообщению, необходимо проследить путь перехода букв по строкам и столбцам таблицы, записывая кодовые комбинации, соответствующие каждой букве, справа налево.

К характеристикам кода относятся эффективность кода и избыточность. Эффективность кода – это отношение минимального числа кодовых символов, приходящихся на один символ сообщения к реально достигнутой в данном коде средней длине кодовых слов. Эффективность кода определяется по формуле (2.8).

Относительная избыточность кода характеризует его качество и определяется по формуле (2.9).

Информация может быть заключена как в знаках, так и в их взаимном расположении. Знаки и сигналы несут информацию только для получателя, способного его распознать. Распознавание состоит в отождествлении знаков и сигналов с объектами и их отношениями в реальном мире. Под знаками понимают реальные, различимые получателем объекты: буквы, цифры, предметы. Под сигналами – динамические процессы, то есть процессы, изменяющиеся со временем, или колебания любой природы.

В теории информации понятия знак и сигнал взаимозаменяемы без ущерба однозначности. Из знаков и сигналов строятся последовательности, которые называются сообщениями. Каждый из знаков и сигналов является элементарным сообщением. Множество всех знаков и сигналов называют еще алфавитом, из которого строятся сообщения.

Знаки чаще используются для хранения информации, а сигналы – для переноса сообщений из одной точки пространства в другую. В этом случае со знаками однозначно сопоставляются сигналы. Правило, по которому производится сопоставление, называется кодированием. Процесс, обратный кодированию, называется декодированием.

Наряду с информацией часто употребляется понятие «данные». Под данными будем понимать признаки или записанные наблюдения, которые по каким-то причинам не используются, а только хранятся. В том случае, если появляется возможность использовать эти данные для уточнения чего-либо или уменьшения неопределенности, данные превращаются в информацию. Поэтому можно утверждать, что информацией являются используемые данные.

Таким образом, данные – это факты, характеризующие объекты, явления или процессы, зафиксированные на каком-либо материальном носителе в виде необработанных результатов измерений и наблюдений.

Особенностью данных является то, что их всегда получают целенаправленно, они имеют первичный, исходный характер и являются «сырьем» для последующего анализа и обработки. Исходя из этого, информацию можно определить следующим образом: информация – сведения об объектах, явлениях или процессах, получаемые путем анализа и обработки данных, уменьшающие неполноту знаний об изучаемых объектах, явлениях или процессах и пригодные для принятия решений потребителем.

Таким образом, информацию можно рассматривать как некоторые «вторичные», преобразованные данные, имеющие определенный уровень обобщения и смыслового содержания в интересах решения конкретной задачи в искусственных системах.

Информация это сведения, являющееся объектом хранения, передачи и преобразования. Работа с ней всегда связана с использованием каких-нибудь материалов и затратами энергии. Информация хранится в наскальных рисунках древних людей в камне, в текстах книг на бумаге, в картинах на холсте, в музыкальных магнитофонных записях на магнитной ленте, в данных оперативной памяти компьютера, в наследственном коде ДНК в каждой живой клетке, в памяти человека и т.д. Для ее записи, хранения, обработки, распространения нужны материалы (камень, бумага, холст, магнитная лента, электронные носители данных и пр.), а также энергия, например, чтобы приводить в действие печатающие машины, создавать искусственный климат для хранения шедевров изобразительного искусства, питать электричеством электронные схемы калькулятора, поддерживать работу передатчиков на радио и телевизионных станциях. Таким образом, понятия «данные» и «информация» неразрывно связаны с их физическим носителем. При этом разделяют физические носители, используемые для фиксации и хранения данных и информации, и физические носители, используемые для передачи данных и информации между объектами, или «сигналы».

Сигнал – определенным образом структурированный физический носитель данных и информации, посредством которого осуществляется передача информации или данных от одного объекта к другому или от объекта к потребителю. Физическая природа сигналов может быть различной (электромагнитное излучение, акустическое или механическое воздействие и т. д.).

Информация (в системе, о системе) по отношению к окружающей среде (окружению) бывает трех типов: входная, выходная и внутренняя.

Входная информация это информация воспринимаемая системой от окружающей среды.

Выходная информация это информация, которую система выдает в окружающую среду.

Внутренняя, внутрисистемная информация это информация, которая хранится, перерабатывается, используется только внутри системы, актуализируется лишь подсистемами системы.

Используя представленные выше определения, введем понятие информационной системы как системы, обладающей набором перечисленных в п. 1.4 классификационных признаков систем.

 

Информационная система

 

Информационная система (ИС) – сложная человеко-машинная система, целевое назначение, элементный состав и структура которой позволяют осуществлять различного рода преобразования данных и информации в интересах обеспечения потребностей пользователей.

ИС часто отождествляется с системой поддержки (автоматизации) интеллектуальных работ, в частности:

- поиска информации;

- администрирования;

- экспертизы;

- принятия решений;

- управления;

- распознавания;

- накопления знаний;

- обучения и др.

ИС это система, в которой элементы, цель, ресурсы, структура рассматриваются, в основном, на информационном уровне.

Любая информационная система имеет следующие типы основных подсистем:

1) информационного обеспечения (данных);

2) интеллектуального обеспечения (информации, знаний);

3) технического обеспечения (аппаратуры);

4) технологического обеспечения (технологии);

5) коммуникативного обеспечения (интерфейса);

6) анализа и проектирования;

7) оценки адекватности и качества, верификации;

8) организационного взаимодействия и управления персоналом;

9) логистики (планирования и движения товаров и услуг).

Состав ИС – средства вычислительной техники, средства добывания данных, средства связи, программные средства, информационные ресурсы, обслуживающий персонал. Т.е. ИС это система, элементами которой являются не только программные средства, но и технические средства, обеспечивающие реализацию ее целевого назначения. Таким образом, информационная система – человеко-машинная система поддержки принятия решений и производства информационных продуктов, основанная на использовании соответствующей информационной технологии.

Основные признаки современных ИС:

- четко выраженная целенаправленность ИС – наличие совокупности целей (целевых задач), определяющих желаемые результаты, которые должны быть получены в процессе ее функционирования;

- многофункциональность – разнообразие решаемых целевых задач, которое возникает в результате взаимодействия ИС с большим количеством различных объектов искусственного и естественного происхождения – объектов информационного взаимодействия (ОИВ);

- стохастический характер процессов информационного взаимодействия внутри системы между ее элементами, а также между ИС и объектами внешней среды;

- разветвленность структуры и пространственная распределенность элементов ИС, что определяет сложность процессов преобразования информации и управления ИС, а также необходимость использования многоуровневых вычислительных структур и сетей информационного обмена данными;

- большие масштабы зоны действия и контура связей ИС с ОИВ, размещаемыми на земной поверхности, в воздушном и космическом пространстве, приводящие к возрастающей роли средств коммуникации, используемых в составе ИС, и, как следствие, превращения систем в информационно-коммуникационные системы;

- эволюционный характер процессов создания и модернизации ИС, многоэтапность жизненного цикла, осуществляемых с непрерывной коррекцией принимаемых технических и технологических решений на основе последних достижений науки и техники, что в целом позволяет говорить о ИС как о развивающихся системах.

Поделиться:





Воспользуйтесь поиском по сайту:



©2015 - 2024 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...