Che cos’è davvero l’informazione? E come possiamo misurarla?
In questo episodio entriamo nel cuore teorico dell’informatica partendo dal processo di comunicazione: sorgente, segnale, canale, ricezione e codifica. Scopriamo come un semplice segnale fisico – una vibrazione nell’aria, una macchia su un foglio, una luce rossa al semaforo – diventi informazione grazie a un codice che riduce l’ambiguità e permette la trasmissione nello spazio e nel tempo.
Attraverso esempi concreti e piccoli “giochi” di decodifica, esploriamo il legame tra informazione e incertezza, fino ad arrivare alla teoria di Shannon: l’informazione è ciò che riduce l’incertezza. Da qui nasce il concetto di bit, l’unità minima di informazione, e la formula che lega simboli, lunghezza dei messaggi e quantità di significati rappresentabili.
Infine, affrontiamo una distinzione fondamentale: codifica analogica vs codifica digitale. Perché il digitale è meno sensibile al rumore? Perché consente copie perfette, compressione, modularità e multicanalità? E quali sono i suoi limiti rispetto all’analogico?
Un episodio per comprendere le basi teoriche che rendono possibile tutto l’ecosistema digitale in cui viviamo — dai computer alle reti, fino all’intelligenza artificiale.
Il testo Fondamenti di Informatica per le Scienze Umanistiche è disponibile qui:
https://he.pearson.it/bundle/914