Главная | Обратная связь | Поможем написать вашу работу!
МегаЛекции

Двоичное кодирование символов.




Государственное Образовательное Учреждение Высшего Профессионального Образования Сургутский Государственный Педагогический Университет

 

Реферат

По дисциплине информатика

на тему:

«Арифметические основы ЭВМ»

 

Выполнила:Студентка гр.Б-2151

Жимайлова Юлия

Проверила: Турковская Н.В.

 

 

Сургут,2012 год
С О Д Е Р Ж А Н И Е

ВВЕДЕНИЕ

Кодирование информации в ЭВМ.

Двоичное кодирование символов.

Двоичное кодирование числовой информации.

Системы счисления.

A. Десятичная система счисления.

B. Римская система счисления.

C. Шестидесятеричная система счисления.

D. Славянская система счисления.

Позиционные и непозиционные системы счисления.

Двоичная система счисления.

Литература

Источники


Цель
: Показать учащимся как происходит процесс кодирования информации (адресов, чисел, символов и команд) в ЭВМ.

 

Требования к знаниям учащихся: Учащиеся должны знать, что существует возможность представлять команды программ и данные в виде двоичных кодов.

 

Мотивация: Как известно, современные компьютеры состоят из электронных схем, которые могут находиться в одном из 2-х состояний, определяемых протеканием электрического тока. Состояние электронной схемы, в которой протекает электрический ток, условно кодируемый 1, а противоположное состояние – 0.

В ЭВМ два устойчивых состояния, кодируемые 1 и 0.Значит все данные: слова, числа, символы должны быть закодированы с помощью этих двух цифр, т.е. вся информация представляется в двоичной системе счисления.

 

Методические указания

 

Рассмотрение вопроса об арифметическом принципе работы ЭВМ необходимо начинать с вопроса о представления информации в ЭВМ. Эта проблема появляется при рассмотрении понятия «информация» и «единицы измерения информации», когда дается вероятностное определения понятия информация

Потребность количественно измерять информацию в процессе обработки на ЭВМ и передавать по линиям связи привели к вероятностно-статистическому определению количества информации. Впервые это сделал в 1948 г. К. Шеннон в работе «Математическая теория связи». Здесь под информацией понимается не любое сообщение, а лишь то, которое уменьшает неопределенность знаний о каких либо событиях у получателя информации. Важно, что именно такие процессы характерны для человеческой деятельности (познание, общение, управление).

Учащихся можно ознакомить с основами теории Шеннона. Существует формула Шеннона, по которой можно вычислять количество информации:

 

I = -å pilog2pi, где I – количество информации;

n – количество возможных событий;

pi – вероятности отдельных событий.

Таким образом, утверждение, что из множества событий, каждое из которых может наступить с определенной вероятностью, оно действительно наступило, сводит неопределенность к нулю. Это позволяет рассматривать величину I как меру количества информации.

Для частного, но широко распространенного случая, когда события равновероятностные (pi = I/n) величина принимает максимальное значение:

I = -å (1/n) log2 (1/n) = log2 (n)

За единицу количества информации было принято количество информации, соответствующее утверждению о том, что произошло одно из двух равновероятностных событий:

I = log2 (2) = 1 бит

Эту единицу назвали бит (bit – от английского словосочетания Binary digit).

К сожалению, учащиеся незнакомы с понятием логарифма, и поэтому введение понятия количества информации и единиц ее измерения проводится на конкретных примерах. Например, при бросании монеты существуют два равновероятных исхода (события): «орел» или «решка». Сообщение о том, что произошло одно из этих событий, например, монета упала «орлом», уменьшает неопределенность вдвое и несет 1 бит информации. Вообще 1 бит информации можно определить как сообщение, которое уменьшает неопределенность в два раза.

Учащимся очень важно показать, что в ЭВМ вся информация кодируется с помощью двух цифр (0 и 1), т.е. возможны два равновероятных события. Следовательно, один двоичный разряд «выбирает» одно из двух событий и несет информацию в 1 бит. Два двоичных разряда несут соответственно информацию 2 бит и т.д.

В качестве примера можно рассмотреть двухразрядное двоичное число 01.Всего существует четыре различных двух разрядных двоичных числа:

00, 01,10,11

Младший разряд нашего числа равен 1. Он несет 1 бит информации и уменьшает неопределенность в два раза, т.е. «выбирает» два числа, имеющие 1 в младшем разряде, из четырех:

01, 11

Старший разряд нашего числа равен 0. Он также несет 1 бит информации и уменьшает неопределенность в два раза, т.е. «выбирает» одно из оставшихся двух чисел, имеющее в старшем разряде 0:

Если представить количество событий как 2 n то тогда n – количество бит информации, которое несет в себе сообщение о том, что произошло одно из этих событий.


Кодирование информации в ЭВМ.

 

При рассмотрении вопроса об основах кодирования информации в ЭВМ необходимо объяснить учащимся, что обработка информации в ЭВМ основана на обмене сигналами между различными устройствами машины. Эти сигналы возникают в определенной последовательности. Признак наличия сигнала можно обозначить цифрой 1, признак отсутствия – цифрой 0.(1 – высокое напряжение +4.5 В, а 0 – низкое напряжение +0.5 В). Таким образом, в ЭВМ реализуется два устойчивых состояния. Как уже было сказано выше с помощью определенных наборов 0 и 1 можно закодировать любую информацию. Так как используется только две цифры, то необходимо рассмотреть систему счисления, для которой 0 и 1 являются алфавитом.

Двоичное кодирование символов.

При вводе символов с клавиатуры происходит их кодирование в виде последовательности электрических импульсов или, с логической точки зрения, последовательности 0 и 1.Для того, чтобы с учащимися разобрать принцип кодирования символов необходимо ответить на вопрос: «Какое количество электрических импульсов или, другими словами, двоичных разрядов необходимо, чтобы закодировать 256 различных символов».

256 различных символов – это 256 различных событий, т.е. 2^8. Следовательно, для кодирования необходимо 8 двоичных разрядов или 8 бит информации. Каждому символу соответствует последовательность из восьми 0 и 1: для буквы А – 01000001

для буквы М – 01001101 и т.д.

Такое количество комбинаций необходимо, чтобы можно было закодировать все необходимые символы для представления информации в алфавитно-цифровом виде (заглавные и строчные буквы русского и латинского алфавитов, цифры, знаки арифметических и логических отношений, разделители, специальные символы и т.д.). Здесь необходимо учащимся показать, что взаимооднозначное соответствие между символами и их представлениями в двоичном коде определяется стандартным кодом КОИ-8.

На сегодняшний день широкое распространение получила кодировка АSCII (American Standard Code for Information Interchange –американский стандартный код для обмена информацией).Это семиразрядный код (каждый символ кодируется семью двоичными разрядами).Можно закодировать 128 ситуаций. Чтобы работать с русским алфавитом пользуются восьмиразрядным расширением кода ASCII.

В информатике широко используется ещё одна единица информации – байт:

1 байт = 8 бит.

 

Таким образом, для кодирования одного символа необходим 1 байт информации.

 


Поделиться:





Воспользуйтесь поиском по сайту:



©2015 - 2024 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...