Megabit (Mb) to jednostka miary danych stosowana w komputerach cyfrowych lub nośnikach danych. Jeden Mb to milion (1 000 000 lub 106) bitów lub 1000 kilobitów (kb).
Międzynarodowy Układ Jednostek Miar (SI) definiuje prefiks mega jako mnożnik 106 lub milion (1 000 000) bitów. Binarny prefiks mega to 1 048 576 bitów lub 1024 kb. Różnica między SI a binarną wynosi około 4,86 procent.
Co oznacza megabit?
Centralne jednostki przetwarzania (CPU) są zbudowane z instrukcjami sterowania danymi dla bitów – najmniejszej jednostki miary danych. Bity to namagnesowane i spolaryzowane cyfry binarne, które reprezentują dane cyfrowe przechowywane w pamięci RAM lub pamięci tylko do odczytu (ROM). Bit jest mierzony w sekundach i charakteryzowany przez wartości wysokiego napięcia 0 (włączony) lub 1 (wyłączony).
Mb nadal ma zastosowanie w wielu kontekstach pomiarowych, w tym:
Dane internetowe/Ethernetowe: Prędkości pobierania i przesyłania danych (DTR) wyrażone w megabitach na sekundę (Mb/s).
Przechowywanie danych: 16-bitowe kartridże z grami o pojemności 8 Mb, w tym Mega Drive (Genesis) i Super Nintendo Entertainment System (SNES).
Pamięć RAM i pamięć tylko do odczytu (ROM): Na przykład układ DDR3 (double data-rate three) zawiera 512 Mb.
Pliki internetowe przesyłane są w megabajtach (MB). Na przykład połączenie sieciowe z DTR o prędkości 8 Mb/s musi osiągnąć DTR sieciowy wynoszący jeden megabajt (MB) na sekundę (MB/s).
W 2000 roku Instytut Inżynierów Elektryków i Elektroników (IEEE) formalnie zatwierdził przez Międzynarodową Komisję Elektrotechniczną (IEC) prefiksy metryczne układu SI (na przykład MB jako milion bajtów i KB jako tysiąc bajtów). Nowo dodane jednostki metryczne to:
- Kibibajt (KiB) to 1024 bajty.
- Mebibajt (MiB) to 1 048 576 bajtów.
- Gibibajt (GiB) to 1 073 741 824 bajty.