Заказать курсовые, контрольные, рефераты...
Образовательные работы на заказ. Недорого!

Кодирование данных двоичным кодом

РефератПомощь в написанииУзнать стоимостьмоей работы

Возможность представления любых чисел (да и не только чисел) двоичными цифрами впервые была предложена Лейбницем в 1666 году. Значительный вклад в развитие двоичной системы внес английский ученый первой половины XIX века Джордж Буль, создатель логической алгебры или булевой алгебры. Основное назначение логической алгебры, по замыслу Дж. Буля, состояло в том, чтобы кодировать логические… Читать ещё >

Кодирование данных двоичным кодом (реферат, курсовая, диплом, контрольная)

Для автоматизации работы с данными, относящимися к различным типам, очень важно унифицировать их форму представления — для этого обычно используется прием кодирования, то есть выражение данных одного типа через данные другого типа. Естественные человеческие языки — это не что иное, как системы кодирования понятий для выражения мыслей посредством речи. К языкам близко примыкают азбуки (системы кодирования компонентов языка с помощью графических символов).

Та же проблема универсального средства кодирования достаточно успешно реализуется в отдельных отраслях техники, науки и культуры. В качестве примеров можно привести систему записи математических выражений, телеграфную азбуку, морскую флажковую азбуку, систему Брайля для слепых и многое другое.

Своя система существует и в вычислительной технике — она называется двоичным кодированием.

Возможность представления любых чисел (да и не только чисел) двоичными цифрами впервые была предложена Лейбницем в 1666 году. Значительный вклад в развитие двоичной системы внес английский ученый первой половины XIX века Джордж Буль, создатель логической алгебры или булевой алгебры. Основное назначение логической алгебры, по замыслу Дж. Буля, состояло в том, чтобы кодировать логические высказывания и сводить структуры логических умозаключений к простым выражениям, близким по форме к математическим формулам. Результатом формального расчета логического выражения является одно из двух логических значений: истина или ложь.

Значение логической алгебры долгое время игнорировалось, поскольку ее приемы и методы не содержали практической пользы для науки и техники того времени. Однако, когда появилась принципиальная возможность создания средств вычислительной техники на электронной базе, операции, введенные Булем, оказались весьма полезны. Они изначально ориентированы на работу только с двумя сущностями: истина и ложь. Нетрудно понять, как они пригодились для работы с двоичным кодом, который в современных компьютерах тоже представляется всего двумя сигналами: ноль и единица. В основе работы всех видов процессоров современных компьютеров лежат четыре основные логические операции:

И (логическое умножение),.

ИЛИ (логическое сложение),.

НЕ (логическое отрицание),.

ИСКЛЮЧАЮЩЕЕ ИЛИ.

Двоичное кодирование основано на представлении данных последовательностью всего двух знаков: 0 и 1. Эти знаки называются двоичными цифрами, по-английски — binary digit или сокращенно bit (бит).

Одним битом могут быть выражены два понятия: 0 или 1 (да или нет, черное или белое, истина или ложь и т. п.). Если количество битов увеличить до двух, то уже можно выразить четыре различных понятия:

00 01 10 11.

Тремя битами можно закодировать восемь различных значений:

000 001 010 011 100 101 110 111.

Увеличивая на единицу количество разрядов в системе двоичного кодирования, мы увеличиваем в два раза количество значений, которое может быть выражено в данной системе, то есть общая формула имеет вид:

,

где N — количество независимых кодируемых значений;

т — разрядность двоичного кодирования, принятая в данной системе.

Показать весь текст
Заполнить форму текущей работой