Co to jest bajt i bit?
Bit (cyfra binarna) to najmniejsza jednostka danych w informatyce, reprezentująca pojedynczą wartość binarną: 0 lub 1. Bity są podstawą wszystkich cyfrowych komunikacji i przechowywania danych.
Bajt natomiast to jednostka danych, która zazwyczaj składa się z 8 bitów. Bajty są używane do reprezentowania znaków (np. liter, cyfr, symboli) oraz do mierzenia rozmiarów plików, pojemności pamięci i nośników danych. Standard 8-bitowego bajta został ustanowiony w latach 60. XX wieku wraz z rozwojem komputerów IBM System/360, choć wcześniejsze systemy wykorzystywały różne rozmiary bajtów (np. 6-bitowe bajty do kodowania tekstu).
Formuła
Konwersja z bajtów na bity jest prosta:
Ta formuła odzwierciedla fakt, że 1 bajt = 8 bitów.
Przykłady
Przykład 1: Podstawowa konwersja
Przelicz 3 bajty na bity:
Przykład 2: Konwersja rozmiaru pliku
Plik o rozmiarze 5 KB (kilobajtów) zawiera:
Przelicz na bity:
Przykład 3: Kontekst prędkości internetu
Jeśli prędkość pobierania wynosi 10 MB/s (megabajtów na sekundę), to prędkość w bitach na sekundę to:
(Uwaga: 1 megabajt = 1 048 576 bajtów, więc pomnożenie przez 8 daje wynik w bitach.)
Dlaczego bajty i bity są ważne?
- Pamięć masowa: Dyski twarde, SSD i pendrive’y są sprzedawane z podaną pojemnością w bajtach (np. 1 TB = 1 bilion bajtów).
- Sieci: Prędkości internetu są reklamowane w bitach na sekundę (np. 100 Mbps = 100 milionów bitów na sekundę).
- Programowanie: Programiści manipulują danymi na poziomie bitów, np. przy szyfrowaniu czy kompresji.
Kontekst historyczny
Termin bit został wprowadzony przez statystyka Johna Tukeya w 1947 roku. Bajt został wymyślony przez inżyniera IBM Wernera Buchholza w 1956 roku i początkowo opisywał 6-bitową jednostkę. 8-bitowy bajt stał się dominujący ze względu na efektywność w reprezentowaniu 256 wartości (od 0 do 255), co pozwalało na uwzględnienie dużych i małych liter, cyfr oraz symboli wczesnych komputerów.
Komputer PDP-8 wykorzystywał 12-bitową architekturę słowa, a nie 12-bitowe bajty. Termin „bajt” nie był wtedy jeszcze ustandaryzowany, a PDP-8 operował na 12-bitowych słowach do przetwarzania danych.
Typowe zastosowania
- Przechowywanie danych: Pendrive o pojemności 1 GB mieści 8 589 934 592 bity.
- Przepustowość sieci: Połączenie o prędkości 1 Gb/s (gigabit na sekundę) przesyła 125 000 000 bajtów na sekundę.
- Adresowanie pamięci: System 4-bajtowy (32-bitowy) może uzyskać dostęp do 4 294 967 296 adresów pamięci.
Uwagi
- Wielkość liter ma znaczenie: „b” = bit, „B” = bajt (np. 100 Mb/s ≠ 100 MB/s).
- Wariacje historyczne: Wczesne komputery, takie jak PDP-8, używały 12-bitowych słów, a nie bajtów.
- Przedrostki binarne: 1 kibibajt (KiB) = 1024 bajty, w przeciwieństwie do 1 kilobajta (KB) = 1000 bajtów w niektórych kontekstach.
Często zadawane pytania
Ile bitów jest w bajcie?
W 1 bajcie jest 8 bitów. Standaryzacja ta rozpoczęła się od IBM System/360 w 1964 roku i pozostaje uniwersalna do dziś.
Dlaczego dostawcy internetu używają bitów zamiast bajtów?
Prędkości internetu są reklamowane w bitach, aby uprościć duże liczby. Na przykład „100 Mbps” (100 milionów bitów na sekundę) brzmi szybciej niż „12,5 MB/s” (12,5 miliona bajtów na sekundę), chociaż reprezentują tę samą prędkość.
Jak przeliczyć 500 bajtów na megabity?
- Przelicz bajty na bity:
- Przelicz bity na megabity (1 megabit = 1 000 000 bitów):
Czy nibble jest powiązany z bajtem?
Tak! Nibble to 4 bity (połowa bajta). Rzadko używany dziś, ale był pomocny we wczesnych systemach do reprezentacji szesnastkowych.
Czy bajt może mieć więcej niż 8 bitów?
Historycznie tak. Na przykład:
- 6-bitowe bajty kodowały znaki we wczesnych systemach IBM.
- 9-bitowe bajty były używane w latach 60. do wykrywania błędów.
Współczesne systemy powszechnie używają 8-bitowych bajtów.