Кодирование данных двоичным кодом
Возможность представления любых чисел (да и не только чисел) двоичными цифрами впервые была предложена Лейбницем в 1666 году. Значительный вклад в развитие двоичной системы внес английский ученый первой половины XIX века Джордж Буль, создатель логической алгебры или булевой алгебры. Основное назначение логической алгебры, по замыслу Дж. Буля, состояло в том, чтобы кодировать логические… Читать ещё >
Кодирование данных двоичным кодом (реферат, курсовая, диплом, контрольная)
Для автоматизации работы с данными, относящимися к различным типам, очень важно унифицировать их форму представления — для этого обычно используется прием кодирования, то есть выражение данных одного типа через данные другого типа. Естественные человеческие языки — это не что иное, как системы кодирования понятий для выражения мыслей посредством речи. К языкам близко примыкают азбуки (системы кодирования компонентов языка с помощью графических символов).
Та же проблема универсального средства кодирования достаточно успешно реализуется в отдельных отраслях техники, науки и культуры. В качестве примеров можно привести систему записи математических выражений, телеграфную азбуку, морскую флажковую азбуку, систему Брайля для слепых и многое другое.
Своя система существует и в вычислительной технике — она называется двоичным кодированием.
Возможность представления любых чисел (да и не только чисел) двоичными цифрами впервые была предложена Лейбницем в 1666 году. Значительный вклад в развитие двоичной системы внес английский ученый первой половины XIX века Джордж Буль, создатель логической алгебры или булевой алгебры. Основное назначение логической алгебры, по замыслу Дж. Буля, состояло в том, чтобы кодировать логические высказывания и сводить структуры логических умозаключений к простым выражениям, близким по форме к математическим формулам. Результатом формального расчета логического выражения является одно из двух логических значений: истина или ложь.
Значение логической алгебры долгое время игнорировалось, поскольку ее приемы и методы не содержали практической пользы для науки и техники того времени. Однако, когда появилась принципиальная возможность создания средств вычислительной техники на электронной базе, операции, введенные Булем, оказались весьма полезны. Они изначально ориентированы на работу только с двумя сущностями: истина и ложь. Нетрудно понять, как они пригодились для работы с двоичным кодом, который в современных компьютерах тоже представляется всего двумя сигналами: ноль и единица. В основе работы всех видов процессоров современных компьютеров лежат четыре основные логические операции:
И (логическое умножение),.
ИЛИ (логическое сложение),.
НЕ (логическое отрицание),.
ИСКЛЮЧАЮЩЕЕ ИЛИ.
Двоичное кодирование основано на представлении данных последовательностью всего двух знаков: 0 и 1. Эти знаки называются двоичными цифрами, по-английски — binary digit или сокращенно bit (бит).
Одним битом могут быть выражены два понятия: 0 или 1 (да или нет, черное или белое, истина или ложь и т. п.). Если количество битов увеличить до двух, то уже можно выразить четыре различных понятия:
00 01 10 11.
Тремя битами можно закодировать восемь различных значений:
000 001 010 011 100 101 110 111.
Увеличивая на единицу количество разрядов в системе двоичного кодирования, мы увеличиваем в два раза количество значений, которое может быть выражено в данной системе, то есть общая формула имеет вид:
,
где N — количество независимых кодируемых значений;
т — разрядность двоичного кодирования, принятая в данной системе.