Skip to content

Cosa è il bit?

Il bit è l’unità di informazione più piccola in un sistema binario e rappresenta solo due stati: 0 o 1. (in elettronica si usa anche il termine “bit” per indicare la capacità di trasmettere informazioni). La sua importanza risiede nel fatto che tutta l’informazione digitale viene rappresentata tramite combinazioni di bits.

Il sistema binario

In informatica, l’informazione viene rappresentata utilizzando il sistema binario, che si basa solo su due simboli: 0 e 1. Questi due simboli sono detti bit (contrazione di binary digit). Ogni bit può quindi rappresentare uno dei due stati: attivo (1) o inattivo (0).

Tutta l’informazione digitale viene rappresentata tramite combinazioni di bits. Ad esempio, un byte è composto da otto bits e può rappresentare 256 diversi valori (da 0 a 255). In questo modo, i computer possono elaborare informazioni digitali come testo, immagini e suoni.

Ecco alcuni esempi di come i bits vengono utilizzati per rappresentare informazioni digitali:

  • Un carattere ASCII (American Standard Code for Information Interchange) viene rappresentato da sette bits. Ad esempio, la lettera ‘A’ viene rappresentata dal valore 65 in decimale, che corrisponde alla sequenza di bits 01000001.
  • Un numero intero a 32 bit può rappresentare valori compresi tra -2.147.483.648 e +2.147.483.647. Ad esempio, il numero 50 viene rappresentato dalla sequenza di bits 00000000 00000000 00000000 00110010.
  • Un’immagine digitale in formato bitmap (BMP) viene rappresentata da una serie di bit che indicano il colore di ogni pixel dell’immagine. Ad esempio, un’immagine in bianco e nero a 8 bit può avere solo due colori (bianco o nero), mentre un’immagine a 24 bit può avere milioni di colori diversi.

Il bit è strettamente legato ai concetti proposti da Claude Shannon, padre della teoria dell’informazione che ha introdotto il concetto di bit nella sua tesi di dottorato del 1937, intitolata “Una teoria matematica della comunicazione”. In questa tesi, Shannon ha definito il bit come l’unità di informazione più piccola in un sistema binario e ha dimostrato come tutta l’informazione digitale possa essere rappresentata tramite combinazioni di bits.

Inoltre, Shannon ha proposto il concetto di entropia per quantificare la quantità di informazione contenuta in una fonte di informazioni. L’entropia misura la quantità media di informazione fornita da una fonte e viene espressa in bit. Ad esempio, se una fonte ha due possibili stati (ad esempio, un interruttore a due posizioni), l’entropia massima è di un bit per stato.

Shannon ha anche introdotto il concetto di canale di comunicazione e ha dimostrato come la quantità di informazione che può essere trasmessa attraverso un canale sia limitata dalla sua capacità (misurata in bit per secondo) e dal rumore presente nel canale. In particolare, Shannon ha dimostrato che è possibile trasmettere informazioni senza errori solo se il tasso di informazione della sorgente è inferiore alla capacità del canale.

Un sistema di comunicazione secondo la teoria di Shannon ha questa struttura:

graph TD;
A[Sorgente] --> B[Codificatore];
B --> C[Canale];
C --> D[Decodificatore];
D --> E[Destinatario];

In questo diagramma, la sorgente rappresenta l’origine dell’informazione da trasmettere. Il codificatore converte l’informazione in un formato adatto per il canale di comunicazione. Il canale rappresenta il mezzo attraverso cui l’informazione viene trasmessa (ad esempio, una linea telefonica o una connessione internet). Il decodificatore riceve il segnale dal canale e lo converte nuovamente nel formato originale dell’informazione. Infine, il destinatario riceve l’informazione decodificata.

In un sistema di comunicazione secondo Shannon, è importante considerare anche la presenza di rumore nel canale, che può introdurre errori nella trasmissione delle informazioni. Per questo motivo, vengono utilizzati tecniche di codifica ridondante e correzione degli errori per garantire una trasmissione affidabile dell’informazione.

bit e algebra di Boole

Inoltre, i bits sono strettamente legati all’algebra di Boole. George Boole sviluppò un sistema algebraico basato solo sui valori 0 e 1, che divenne noto come algebra booleana o logica booleana. Questa algebra è utilizzata per descrivere le operazioni binarie, come AND, OR e NOT, che sono fondamentali per la manipolazione dei bits in sistemi digitali.

Shannon ha dimostrato che i circuiti elettrici basati sull’algebra booleana possono essere utilizzati per implementare operazioni sui bits. In particolare, ha mostrato che ogni operazione logica (AND, OR, NOT) può essere rappresentata da un circuito elettrico composto da porte logiche.

Ad esempio, la porta AND produce un output di 1 solo se entrambi gli input sono 1, mentre la porta OR produce un output di 1 se almeno uno degli input è 1. La porta NOT produce un output inverso rispetto all’input (cioè, se l’input è 0, l’output è 1 e viceversa).

In questo modo, Shannon ha dimostrato che i circuiti elettrici basati sull’algebra booleana possono essere utilizzati per elaborare informazioni digitali rappresentate in formato binario.

Questa equivalenza tra bit e algebra booleana ha avuto un impatto significativo sull’evoluzione dell’informatica e delle telecomunicazioni, poiché ha permesso la creazione di circuiti elettronici sempre più complessi e potenti.