Bit to najmniejsza ilość informacji potrzebna do określenia, który z dwóch równie prawdopodobnych stanów przyjął układ. Jednostka logiczna.
Jest to również najmniejsza jednostka informacji używana w odniesieniu do sprzętu komputerowego a oznaczana jest za pomocą „b”, co koliduje z inną jednostką – belem. Przeważnie stosuje się podstawowe przedrostki wieloktrotności SI, czyli o mnożniku 1000.
Bit przyjmuje jedną z dwóch wartości, które zwykle określa się jako 0 (zero) i 1 (jeden), choć można przyjąć dowolną inną parę wartości, np. prawda i fałsz czy -1 i +1. W pierwszym przypadku bit jest tożsamy z cyfrą w systemie dwójkowym.
Binarny sposób zapisu informacji związany jest z tym, że komputer jako urządzenie elektroniczne rozpoznać może dwa stany prądowe:
  • 0 – niskie napięcie prądu (również brak);
  • 1 – wysokie napięcie prądu.
Z tego względu, obliczenia wykonywane przez procesor opierają się na binarnym (dwójkowym) systemie liczbowym.
We wczesnej historii komputeryzacji istniały komputery opierające się na decymalnym (dziesiętnym) systemie liczenia, lecz okazał się on mało efektywny w praktyce.
Prędkość transmisji danych mierzy się w bitach na sekundę (bps, bp/s).
Publikacja wraz ze zdjęciami jest udostępniona w Encyklopedii "Zgapedia" części portalu zgapa.pl. Treść objęta jest licencją GNU FDL Wolnej Dokumentacji w wersji 1.3 lub dowolnej pózniejszej opublikowanej przez Free Software Foundation i została ona opracowana na podstawie Wikipedii, tutaj możesz znaleźć artykuł źródłowy oraz autorów. Warunki użytkowania Encyklopedii znajdziesz na tej stronie.