W dzisiejszych czasach bardzo mało osób spoza środowiska IT, jest w stanie odpowiedzieć na pytanie – czym różni się megabit od megabajta. Bardzo mało osób jest również w stanie odpowiedzieć na pytanie – dlaczego w informatyce korzysta się wyłącznie z 0 i 1? W niniejszym artykule znajdą Państwo odpowiedzi na te i wiele innych pytań.
Jak działa kod binarny?
Na samym starcie warto zrozumieć jak działa procesor, czyli serce każdego komputera stacjonarnego, przenośnego oraz każdego nowoczesnego telefonu komórkowego. Procesor dokonuje mniej lub bardziej skomplikowanych obliczeń, zamieniając wszelkie liczby oraz litery w ciągi 0 i 1. To właśnie ten ciąg nazywany jest potocznie kodem binarnym. Jedynka oznacza przepływ prądu, z kolei zero przeciwnie, czyli jego brak. Mając 0 i 1 możemy te dwie cyfry układać w różnorodne kombinacje. Przykładowo w kodzie binarnym:
cyfra 2 to ciąg – 10
cyfra 3 to ciąg – 11
cyfra 4 to ciąg – 100
litera A to ciąg – 01100001
litera B to ciąg – 01100010
W informatyce 1 i 0 to tak naprawdę najmniejsza porcja informacji, którą w branży IT nazywa się bitem. Osiem bitów z kolei tworzy jeden bajt. System binarny, czyli dwójkowy, w dzisiejszych czasach dotyczy tak naprawdę niemal wszystkich aspektów funkcjonowania komputera. Warto wspomnieć również i o tym, że nie posługujemy się w informatyce potęgami dziesiątki, tylko potęgami dwójki. W praktyce oznacza to, że przedrostek kilo nie oznacza wcale 1000, ale 1024.
Kod binarny jest przyczyną bardzo wielu pomyłek, zwłaszcza wśród osób, które po raz pierwszy nabywają nowy sprzęt informatyczny i nie mają zielonego pojęcia czym jest kod binarny. Kupując na przykład dysk twardy, bardzo wiele osób w dalszym ciągu interpretuje jego pojemność w dziesiętny sposób. Pamiętać należy jednak o tym że dysk 1 GB, to nie miliard bajtów. Przeglądając oferty dostawców sieci warto zdawać sobie sprawę z tego, że przepustowość łącza (np. 10 mb/s) nie oznacza megabajt na sekundę, ale megabit na sekundę. Megabajt zapisuje się przy użyciu litery B (MB).