Megabajt (MB) to jednostka miary danych stosowana w komputerach cyfrowych lub nośnikach danych. Jeden MB to milion (106 lub 1 000 000) bajtów. Międzynarodowy Układ Jednostek Miar (SI) definiuje prefiks mega jako mnożnik 10 lub milion (1 000 000) bitów. Binarny prefiks mega to 1 048 576 bitów lub 1 024 kb. Różnica SI i binarna wynosi około 4,86 procent.
Co oznacza megabajt?
Centralne jednostki przetwarzania (CPU) są zbudowane z instrukcjami sterowania danymi, dla których bity są najmniejszą jednostką miary danych. Bit, najmniejsza jednostka miary danych, to namagnesowana i spolaryzowana cyfra binarna, która reprezentuje dane cyfrowe przechowywane w pamięci RAM lub pamięci tylko do odczytu (ROM). Bit jest mierzony w sekundach i charakteryzowany wartościami logicznymi 0 (wyłączony) lub 1 (włączony). Osiem bitów równa się jednemu bajtowi. Bajty mierzą prędkość komunikacji urządzeń w tysiącach bajtów na sekundę.
Megabajty nadal mają zastosowanie w wielu kontekstach pomiarowych, w tym w cyfrowych systemach komputerowych i multimedialnych, pamięci i oprogramowaniu, w zależności od formatu pliku, a także możliwości kompresji i napędu. MB mierzy format tekstu, obrazy bitmapowe, pliki wideo/multimedialne lub skompresowany/nieskompresowany dźwięk. Na przykład 1 024 000 bajtów (1000 × 1024) często reprezentuje sformatowane możliwości dyskietki 3,5-calowej o pojemności 1,44 MB (1 474 560 bajtów). Pliki internetowe są często mierzone w MB. Na przykład połączenie sieciowe o przepustowości DTR wynoszącej osiem MB/s musi osiągnąć przepustowość DTR sieci wynoszącą jeden megabajt (MB) na sekundę (MB/s).
W 2000 roku Instytut Inżynierów Elektryków i Elektroników (IEEE) formalnie zatwierdził przez Międzynarodową Komisję Elektrotechniczną (IEC) prefiksy metryczne układu SI (na przykład MB jako milion bajtów, a KB jako tysiąc bajtów).