logo
ШПОРЫ НАШИ

57. Единица измерения информации

В последние годы ученые дали слову информация такое значение: "мера определенности в сообщении". Человек, бросающий монету и наблюдающий за ее падением, получает определенную информацию. Его интересует ответ-какой стороной упадет монета. Неопределенность после того, как монета упадет, будет равна нулю, т.е. будет достигнута полная ясность. Какой же прогноз можно сделать до бросания монеты? Обе стороны монеты "равноправны", поэтому одинаково вероятно, что выпадет как одна, так и другая сторона. Начальная неопределенность равна 1. Конечная неопределенность после падения монеты равна 0.

Таким образом, сообщение о событии, у которого два одинаково возможных исхода, содержит одну единицу информации, называемую БИТОМ.

Задача передающей системы передать за единицу времени как можно больше полезной инфомации. Для этого ее нужно грамотно и рационально закодировать, т.е. найти экономный и скупой язык для передачи информации. В передающих каналах информация кодируется двумя знаками 0(сигнала нет) и 1 (сигнал есть).

Сколько же нулей и единиц нужно, чтобы закодировать сообщение? С помощью двух бит кодируются четыре различных состояния: 00, 01, 10, 11. Три бита - восемь состояний 000, 001, 010, 011, 100, 101, 110, 111. В общем случае: n бит - 2^n состояний.

На ЭВМ можно обрабатывать не только числа, но и тексты. При этом требуется закодировать около 256 различных символов. Для этого в двоичном коде нужно не менее восьми разрядов( 2^8=256).

Восемь двоичных разрядов составляет БАЙТ: 1 байт = 8 бит

Т.е. для кодирования каждого символа нужно 8 двоичных знаков: Например буква А кодируется в машине как 01000001, В - 01000010.

Существуют и более крупные единицы измерения информации:

1К - килобайт = 2^10 байт=1024 байт;

1 М - мегабайт = 2^10 К =1024 К;

1 Г - гигабайт = 2^10 М =1024 М.