В технике (теория кодирования и передачи сообщений) под количеством информации понимают количество кодируемых, передаваемых или хранимых символов.
Бит – двоичный знак двоичного алфавита 0,1. Бит - минимальная единица измерения информации. Байт – единица количества информации в системе СИ. Байт – это восьмиразрядный двоичный код, с помощью которого можно представить один символ. При вводе в ЭВМ символа с клавиатуры машине передается 1 байт информации.
Информационный объем сообщения (информационная емкость сообщения) – количество информации в сообщении, измеренное в битах, байтах или производных единицах (Кбайтах, Мбайтах и т.д.). В теории информации количеством информации называют числовую характеристику сигнала, не зависящую от его формы и содержания и характеризующую неопределенность, которая исчезает после получения сообщения в виде данного сигнала. В этом случае количество информации зависит от вероятности получения сообщения о том или ином событии. Для абсолютно достоверного события (события обязательно произойдет, поэтому его вероятность равна 1 количество вероятности в сообщении о нем равно 0. Чем невероятнее событие, тем большую информацию о нем несет сообщение. Лишь при равновероятных ответах ответ «да» или «нет» несет 1 бит информации. Задания для повторения Технический аспект измерения информации
Страниц текста 50 000 или 150 романов
Цветных слайдов высочайшего качества 150 Аудиозапись речи 1,5 часа Музыкальный фрагмент качества СD-стерео 10 минут Фильм высокого качества записи 15 секунд Протоколы операций с банковским счетом за 1000 лет
Информация как снятая неопределенность
Интересный факт
На памятнике немецкому ученому Л. Больцману высечена формула, выведенная в 1977г. и связывающая вероятность состояния физической системы и величину энтропии этой системы. Энтропия (грек. en- в, внутрь + trope- превращение, буквальный перевод: то, что внутри, неопределенно)- физическая величина, характеризующая тепловое состояние тела и системы, мера внутренней неупорядоченности системы. Так вот, формула для энтропии Больцмана совпадает с формулой, предложенной Шенноном для среднего количества информации, приходящейся на один символ в сообщении. Совпадение это произвело столь сильное впечатление, что Шеннон назвал количество информации энтропией. С тех пор слово «энтропия» стало, чуть ли не синонимом слова «информация». Чем больше энтропия системы, тем больше степень ее неопределенности. Поступающее сообщение полностью или частично снимает эту неопределенность. Следовательно, количество информации можно измерять тем, насколько понизилась энтропия системы после поступления сообщения. За меру количества информации принимается та же энтропия, но с обратным знаком. Уменьшая неопределенность, мы получаем информацию, в этом весь смысл научного познания.
Различные подходы к определению и измерению информации.
Информационные процессы Информация не существует сама по себе. Она проявляется в информационных процессах. Если обратиться в далекое прошлое, то жалобы на обилие информации мы сможем найти тысячелетия назад. На глиняной дощечке (шумерское письмо IV тысячелетия до нашей эры.) начертано: «Настали тяжелые времена. Дети перестали слушаться родителей, и каждый норовит написать книгу». Особенно модным стало жаловаться на непереносимость информационного бремени с XVII в. В ХХ в. заговорили об информационной катастрофе. Информационный кризис – это возрастающее противоречие между объемами накапливаемой информации и ограниченными возможностями ее переработки отдельно взятой личностью. Количество информации, циркулирующей в обществе, удваивается примерно каждые 8-12 лет. Появилась уверенность в том, что справиться с такой лавиной информации человек не сможет. Для этого нужны специальные средства и методы обработки информации, ее хранения и использования. Сформировалась новая научная дисциплина – информатика, поставившая своей целью изучение закономерностей информационных процессов. Основными информационными процессами являются: поиск – сбор – хранение – передача – обработка – использование – защита. Познакомимся теперь с каждым из этих процессов в отдельности.
Поиск информации F «Все иду сегодня в театр, - твердо решили вы в одно прекрасное воскресное утро. – Узнать бы какой сегодня спектакль!»
Итак, цель определена: выяснить автора и название пьесы. Как будет решаться поставленная задача?
Вы затратили много время и энергию, а задачу не решили. Это результат неэффективно организованного поиска информации. F Вы задумались о том, какую профессию выбрать, и решили, что она должна быть связана с производством и использованием компьютеров. Какие это профессии, в каком учебном заведении, и на каком, факультете можно приобрести такую специальность, вы пока не знаете. Первое, чем вам придется заняться, - это поиск информации.
Успех вашего выбора в большой степени будет зависеть от того, как вы организовали поиск информации.
Материал для запоминания
Воспользуйтесь поиском по сайту: ©2015 - 2024 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...
|