Каждый, кто работал с компьютером, встречал два таких понятия, как бит и байт. Это и неудивительно, ведь это основные единицы измерения информации. Объем любого файла, хранящегося на жестком диске или съемном носителе, отображается при помощи этих двух величин. В этой статье мы разберем, кто ввел эти определения в информатику, как они связаны между собой и что они отображают.
Предыстория, определения и основные положения
Чтобы понять, как произошли единицы измерения информации надо знать определение термина информация. Итак:

Информация – это сведения о чем либо.
Как видно из определения, информация понятие широкое и эфемерное. Казалось бы, как её вообще можно измерить?
Это было и правда так, однако в 1948 году выдающийся американский ученый Клод Шеннон, также известный, как отец информационной эры, вводит такое понятие, как бит. С помощью него он обозначает наименьшую единицу информации.

Термин бит происходит от таких английских слов, как Binary digit (двоичное число). Ниже приведено более точное определение.

Бит (bit) – минимальная единица для измерения информации. Это сигнал или символ, который может находиться в двух различных состояниях.
Приведем несколько примеров, которые могут служить для обозначения бита в повседневной жизни:
- Лампа накаливания – включена или нет;
- Числа – 0 или 1;
- Ток – есть ток в цепи или нет;
- Магнитная лента – намагничен один из её участков или нет.

Также для бита есть и другое определение:

Бит – количество информации нужной, чтобы ответить на вопрос, в котором допускаются только такие ответы, как да или нет (два состояния).
В качестве примера может послужить вопрос: идет ли сейчас дождь? На него мы можем ответить либо положительно, либо отрицательно. Третьего варианта здесь не дано.
Именно с этого термина начинается эра развития информационных технологий и вычислительной техники. Люди поняли, что любую информацию (графическую, звуковую или текстовую) можно представить в виде цифры. Это очень удобно, чтобы осуществлять с ней такие операции, как «хранение» и «передача».
А что же с байтом? С байтом все немного интереснее. Впервые это слово упоминается в 1956 году при проектировании компьютера IBM 7030. Ввел его немецко-американский ученый Вернер Бухгольц.

Bite переводится с английского, как «кусок». В дальнейшем, чтобы не путать bite с bit, букву I заменили на y и получился byte.
На тот момент байт был равен шести битам. Однако с развитием информационных технологий его расширили до 8. В современной информатике:

1 байт = 8 битам (1 byte = 8 bits)
С помощью одного байта можно представить 256 различных значений или символов (\( 2^8 \) = 256). Сейчас именно байты являются основной мерой для измерения информации.
Производные величины
Единицы информации можно переводить, как сантиметры в метры. Сейчас для этих целей, в основном, используется метрическая система СИ и такие приставки, как Кило (\( 10^3 \)), Мега (\( 10^6 \)), Гига (\( 10^9 \)) и т.д. Однако используются они не как обычно. Так, например, 1 KByte содержит 1024 bytes, а в 1 MByte содержатся 1024 KBytes. Ниже Вы можете увидеть небольшую таблицу производных.

Перевод
С байтами все понятно – для перевода из килобайт в мегабайты, мегабайт в гигабайты и т.д. можно воспользоваться калькулятором или таблицей. Но как, например, связать мегабиты и мегабайты? Все очень просто 1 мегабайт = 8 мегабитам. Это следует из определения байта (смотреть выше). Стоит отметить, что это свойство используют интернет провайдеры, как маркетинговый ход 😁.
Заключение
Вот Вы и познакомились с основными единицами измерения информации в информатике – байтами (byte) и битами (bit). Сложного в этой теме ничего нет, однако на этих простых постулатах стоят цифровые технологии.