Cos’è l’informazione? Dalla codifica analogica alla nozione di bit cover art

Cos’è l’informazione? Dalla codifica analogica alla nozione di bit

Cos’è l’informazione? Dalla codifica analogica alla nozione di bit

Listen for free

View show details

About this listen

Che cos’è davvero l’informazione? E come possiamo misurarla?

In questo episodio entriamo nel cuore teorico dell’informatica partendo dal processo di comunicazione: sorgente, segnale, canale, ricezione e codifica. Scopriamo come un semplice segnale fisico – una vibrazione nell’aria, una macchia su un foglio, una luce rossa al semaforo – diventi informazione grazie a un codice che riduce l’ambiguità e permette la trasmissione nello spazio e nel tempo.

Attraverso esempi concreti e piccoli “giochi” di decodifica, esploriamo il legame tra informazione e incertezza, fino ad arrivare alla teoria di Shannon: l’informazione è ciò che riduce l’incertezza. Da qui nasce il concetto di bit, l’unità minima di informazione, e la formula che lega simboli, lunghezza dei messaggi e quantità di significati rappresentabili.

Infine, affrontiamo una distinzione fondamentale: codifica analogica vs codifica digitale. Perché il digitale è meno sensibile al rumore? Perché consente copie perfette, compressione, modularità e multicanalità? E quali sono i suoi limiti rispetto all’analogico?

Un episodio per comprendere le basi teoriche che rendono possibile tutto l’ecosistema digitale in cui viviamo — dai computer alle reti, fino all’intelligenza artificiale.


Il testo Fondamenti di Informatica per le Scienze Umanistiche è disponibile qui:

https://he.pearson.it/bundle/914

No reviews yet
In the spirit of reconciliation, Audible acknowledges the Traditional Custodians of country throughout Australia and their connections to land, sea and community. We pay our respect to their elders past and present and extend that respect to all Aboriginal and Torres Strait Islander peoples today.