Главная | Обратная связь | Поможем написать вашу работу!
МегаЛекции

Количество информации. Единицы измерения информации

Лекция 2. Свойства и количество информации

Понятие информации, ее виды, свойства и особенности

Понятие информации является основополагающим понятием информатики. Любая деятельность человека представляет собой процесс сбора и переработки информации, принятия на ее основе решений и их выполнения. С появлением современных средств вычислительной техники информация стала выступать в качестве одного из важнейших ресурсов научно-технического прогресса.

Информация содержится в человеческой речи, текстах книг, журналов и газет, сообщениях радио и телевидения, показаниях приборов и т.д. Человек воспринимает информацию с помощью органов чувств, хранит и перерабатывает ее с помощью мозга и центральной нервной системы. Передаваемая информация обычно касается каких-то предметов или на самих и связана с событиями, происходящими в окружающем нас мире.

Термин информация происходит от латинского слова informatio, что означает разъяснение, осведомленность, изложение. Информация -сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.

С понятием информации связаны такие понятия, как сигнал, сообщение и данные.

Сигнал представляет собой любой процесс, несущий информацию.

Сообщение – это информация, представленная в определенной форме и предназначенная для передачи.

Данные – это информация, представленная в формализованном виде и предназначенная для обработки ее техническими средствами, например, ЭВМ.

Любое информационное сообщение можно представить функцией X(t), характеризующей изменение во времени материально – энергетических параметров физической среды, в которой осуществляются информационные процессы.

Функция X(t) принимает любые вещественные значения в диапазоне изменения аргумента t. Если функция X(t) непрерывная, то имеет место «непрерывная» или аналоговая информация. Источником аналоговой информации являются различные природные объекты (например, температура и влажность воздуха), объекты технологических производственных процессов (давление и температура теплоносителя в контурах ядерного реактора) и т.д.

Если функция X(t) дискретна, то информационное сообщение имеет характер дискретных сообщений. Например, сигналы тревоги, передаваемые посредством световых и звуковых сообщений, языковые сообщения, передаваемые в письменном или звуковом виде, сообщения, передаваемые с помощью жестов.

Информация может быть входной, выходной и внутренней. Если система или объект воспринимает любую совокупность сигналов извне, то такая информация называется входной. Если же система или объект выдает в окружающую среду любую совокупность сигналов, то такая информация называется выходной. А, если система или объект хранит в себе любую совокупность сигналов, то такая информация называется внутренней.

Все многообразие окружающей нас информации можно сгруппировать по различным признакам.

По признаку «область возникновения» информация делится на:

1. Элементарную – отражает процессы и явления неодушевленной природы.

2. Биологическую – отражает процессы растительного и животного мира.

3. Социальную – отражает процессы человеческого общества.

По способу передачи и восприятия различают информацию:

1. Визуальную – передается видимыми образами и символами.

2. Тактильную – передается ощущениями.

3. Органо-лептическую – передается запахами и вкусом.

4. Машинную – выдаваемую и воспринимаемую средствами вычислительной техники.

Информацию, создаваемую и используемую человеком, по общественному назначению делят на виды:

1. Массовая: общественно-политическая, научно-популярная.

2. Специальная: научная, техническая, экономическая, управленческая.

3. Личная: индивидуальная.

Рассмотрим свойства информации:

1. Релевантность – способность информации соответствовать нуждам потребителя.

2. Полнота – свойство информации исчерпывающе характеризовать рассматриваемый объект.

3. Своевременность – способность информации соответствовать нуждам потребителя в нужный момент времени.

4. Достоверность – свойство информации не иметь скрытых ошибок.

5. Доступность – свойство информации, характеризующее возможность ее получения данным потребителем.

6. Защищенность – свойство, характеризующее невозможность несанкционированного использования или изменения.

7. Эргономичность – свойство, характеризующее удобство формы и объема информации с точки зрения данного потребителя.

Информация размещается на физических носителях – бумажных или магнитных документах, в виде сигналов, передаваемых по каналам связи. Особенностью информации является то, что она может находиться в статичном или динамичном состояниях. Статичное состояние информации связано с ее длительным хранением, накоплением в информационных фондах и базах данных. Динамичное состояние – постоянное движение в виде потоков – присуще информации, реализующей в человеко-машинных, автоматизированных системах, в которых обмен сведениями осуществляется с помощью знаковых символов.

Количество информации. Единицы измерения информации

Количеством информации называют числовую характеристику сигнала, отражающую ту степень неопределенности (неполноту знаний), которая исчезает после получения сообщения в виде данного сигнала. Эту меру неопределенности в теории информации называют энтропией, а способ измерения количества информации называют - энтропийным. Если в результате получения сообщения достигается полная ясность в каком-то вопросе, говорят, что была получена полная или исчерпывающая информация и необходимости в получении дополнительной информации нет. И, наоборот, если после получения сообщения неопределенность осталась прежней, значит, информации получено не было (нулевая информация).

Приведенные рассуждения показывают, что между понятиями информация, неопределенность и возможность выбора существует тесная связь. Так, любая неопределенность предполагает возможность выбора, а любая информация, уменьшая неопределенность, уменьшает и возможность выбора. При полной информации выбора нет. Частичная информация уменьшает число вариантов выбора, сокращая тем самым неопределенность.

Например, человек бросает монету и наблюдает, какой стороной она упадет. Обе стороны монеты равноправны, поэтому одинаково вероятно, что выпадет одна или другая сторона. Такой ситуации приписывается начальная неопределенность, характеризуемая двумя возможностями. После того, как монета упадет, достигается полная ясность и неопределенность исчезает (становится равной нулю).

Приведенный пример относится к группе событий, применительно к которым может быть поставлен вопрос типа «да-нет». Количество информации, которое можно получить при ответе на вопрос типа «да-нет», называется битом (англ. bit – сокращенное от binary digit – двоичная единица). Бит – минимальная единица количества информации, т.к. получить информацию меньшую, чем 1 бит, невозможно. При получении информации в 1 бит неопределенность уменьшается в 2 раза. Таким образом, каждое бросание монеты дает нам информацию в бит.

В качестве других моделей получения такого же количества информации могут выступать электрическая лампочка, двухпозиционный выключатель, магнитный сердечник, диод и т.п. Включенное состояние этих объектов обозначают цифрой 1, а выключенное – цифрой 0.

Рассмотрим систему из двух электрических лампочек, которые независимо друг от друга могут быть включены или выключены. Для такой системы возможны следующие состояния:

Лампа А 0 0 1 1

Лампа В 0 1 0 1

Чтобы получить полную информацию о состоянии системы, необходимо задать два вопроса типа «да-нет» - по лампочке А и лампочке В соответственно. В этом случае количество информации, содержащейся в данной системе, определяется уже в 2 бита, а число возможных состояний системы – 4. Если взять три лампочки, то необходимо задать уже три вопроса и получить 3 бита информации. Количество состояний такой системы равно 8 и т.д.

Связь между количеством информации и числом состояний системы устанавливается формулой Хартли:

i = log2N,

где i – количество информации в битах;

N – число возможных состояний.

Ту же формулу можно представить иначе:

N = 2i

Группа из 8 битов информации называется байтом. Если бит – минимальная единица информации, то байт ее основная единица. Существуют производные единицы информации: килобайт (Кбайт, Кбт), мегабайт (Мбайт, Мбт) и гигабайт (Гбайт, Гбт).

1 Кбт = 1024 байта = 210 (1024) байтов.

1 Мбт = 1024 Кбайта = 220 (1024 • 1024) байтов.

1 Гбт = 1024 Мбайта = 230 (1024 • 1024 • 1024) байтов.

Эти единицы чаще всего используют для указания объема памяти ЭВМ.

 

 

Поделиться:





Воспользуйтесь поиском по сайту:



©2015 - 2024 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...