Понятие информации. Непрерывная и дискретная формы представления информации. Количество и единицы измерения информации. ЭВМ как универсальное средство обработки информации.
Информация – фундаментальное понятие, поэтому определить его исчерпывающим образом через какие-то более простые понятия невозможно. Каждый вариант определения информации обладает некоторой неполнотой. В широком смысле информация – это отражение реального (материального, предметного) мира, выражаемое в виде сигналов и знаков. Сигналы отражают физические (физически - химические) характеристики различных процессов и объектов. Действия, выполняемые с информацией, называются информационными процессами. Информационные процессы можно разложить на три составляющие: хранение, передачу и обработку информации. Объединение понятий (информация) и (управление) привело Н. Винера в 40-х гг. XX века к созданию кибернетики, которая, в частности, впервые указала на общность информационных процессов в технике, обществе и живых организмах. Инфоpматика — это основанная на использовании компьютерной техники дисциплина, изучающая структуру и общие свойства информации, а также закономерности и методы её создания, хранения, поиска, преобразования, передачи и применения в различных сферах человеческой деятельности. Для обмена информацией с другими людьми человек использует естественные языки (русский, английский, китайский и др.). Основу языка составляет алфавит, или набор символов (знаков), которые человек различает по их начертанию. Последовательности символов алфавита образуют в соответствии с правилами грамматики основные объекты языка — слова. Правила, согласно которым строятся предложения из слов данного языка, называются синтаксисом. Наряду с естественными языками были разработаны формальные языки (нотная запись, языки программирования и др.). Основное отличие формальных языков от естественных состоит в наличии не только жестко зафиксированного алфавита, но и строгих правил грамматики и синтаксиса.
Кодирование – это процесс перевода символов одного языка в символы другого языка. Чаще всего в компьютерах осуществляют преобразование символов естественного языка в числа. Система счисления — это знаковая система, в которой числа записываются по определенным правилам с помощью цифр — символов некоторого алфавита. Например, в десятичной системе для записи числа существует десять всем хорошо известных цифр: 0, 1, 2 и т. д. Все системы счисления делятся на позиционные и непозиционные. В позиционных системах счисления значение цифры зависит от ее положения в записи числа, а в непозиционных — не зависит. Позиция цифры в числе называется разрядом. Разряд числа возрастает справа налево, от младших разрядов к старшим. Каждая позиционная система использует определенный алфавит цифр и основание. В позиционных системах счисления основание системы равно количеству цифр (знаков в ее алфавите) и определяет, во сколько раз различаются значения цифр соседних разрядов числа, Наиболее распространенными в настоящее время позиционными системами счисления являются десятичная и двоичная: Система счисления Основание Алфавит цифр Десятичная 10 0,1,2,3,4,5,6,7,8,9 Двоичная 2 0,1 Рассмотрим в качестве примера десятичное число 555. Цифра 5 встречается трижды, причем самая правая обозначает пять единиц, вторая справа — пять десятков и, наконец, третья — пять сотен. В развернутой форме запись числа 555 в десятичной системе выглядит следующим образом: 55510 = 5 • 102 + 5 • 101 + 5 • 100. Как видно из примера, число в позиционных системах счисления записывается в виде суммы степеней основания (в данном случае 10), коэффициентами при этом являются цифры данного числа. В двоичной системе основание равно 2, а алфавит состоит из двух цифр (0 и 1). В развернутой форме двоичные числа записываются в виде суммы степеней основания 2 с коэффициентами, в качестве которых выступают цифры 0 или 1. Например, развернутая запись двоичного числа 101 а будет иметь вид:
1012=1•22+0•21+1•20. В настоящее время получили распространение подходы к определению понятия "количество информации", основанные на том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле её новизны или, иначе, уменьшения неопределённости наших знаний об объекте. Так, американский инженер Р. Хартли (1928 г.) процесс получения информации рассматривает как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определяет как двоичный логарифм N.
Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log2100 ≈ 6,644. То есть сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единиц информации. Приведем другие примеры равновероятных сообщений: - при бросании монеты: "выпала решка", "выпал орел"; - на странице книги: "количество букв чётное", "количество букв нечётное". Определим теперь, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины. Для задач такого рода американский учёный Клод Шеннон предложил в 1948г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.
Легко заметить, что если вероятности p1,..., pN равны, то каждая из них равна 1/N, и формула Шеннона превращается в формулу Хартли.
В качестве единицы информации условились принять один бит (англ. bit — binary, digit — двоичная цифра). Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений. А в вычислительной технике битом называют наименьшую "порцию" памяти, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд. Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица — байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28). Широко используются также ещё более крупные производные единицы информации: - 1 Килобайт (Кбайт) = 1024 байт = 210 байт, - 1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт, - 1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт. В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как: - 1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт, - 1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт. Информацию можно:
Все эти процессы, связанные с определенными операциями над информацией, называются информационными процессами. Информация передаётся в виде сообщений от некоторого источника информации к её приёмнику посредством канала связи между ними. Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи. В результате в приёмнике появляется принимаемый сигнал, который декодируется и становится принимаемым сообщением. В качестве носителя информации в компьютерах используются: магнитная лента, магнитные диски, оптические диски.
Процедуры бывают событийными и общими. Общие процедуры бывают общедоступными (глобальными - Public) и местными (локальными - Private)
Полосы прокрутки HScrollBar горизонтальная полоса прокрутки VScrollBar вертикальная полоса прокрутки Свойства Min и Max – диапазон значений (целые числа Integer).
Воспользуйтесь поиском по сайту: ©2015 - 2024 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...
|