• Codifiche standard: come si codificano testo, numeri e immagini
    Mar 3 2026

    Come si costruisce concretamente un codice digitale? E come si passa dalla teoria dei bit agli standard che usiamo ogni giorno?

    In questo episodio entriamo nel cuore della codifica digitale applicata: partendo dalla formula della quantità di informazione, vediamo come progettare un codice binario passo dopo passo. Dalle condizioni meteo ai sistemi numerici, impariamo a calcolare quanti bit servono per rappresentare un insieme di messaggi e come associare in modo arbitrario sequenze binarie ai significati.

    Affrontiamo poi le codifiche storiche del testo: dall’ASCII allo Unicode, fino agli standard UTF-8, UTF-16 e UTF-32. Perché oggi UTF-8 è lo standard dominante? Qual è il compromesso tra memoria e velocità di interpretazione? E perché dichiarare correttamente il formato di un file è fondamentale nei sistemi informatici?

    Passiamo quindi alla rappresentazione dei numeri in base binaria, esplorando la notazione posizionale e il legame tra potenze di due e sequenze di bit. Infine, introduciamo la codifica delle immagini: pixel, risoluzione, RGB e compressione. Come si rappresenta un’immagine con i bit? Perché alcune immagini si comprimono facilmente e altre no?

    Un episodio che collega teoria, standard tecnici e applicazioni concrete per capire davvero cosa significa “digitalizzare” un’informazione.


    Il testo Fondamenti di Informatica per le Scienze Umanistiche è disponibile qui:

    https://he.pearson.it/bundle/914

    Show More Show Less
    1 hr and 24 mins
  • Cos’è l’informazione? Dalla codifica analogica alla nozione di bit
    Mar 2 2026

    Che cos’è davvero l’informazione? E come possiamo misurarla?

    In questo episodio entriamo nel cuore teorico dell’informatica partendo dal processo di comunicazione: sorgente, segnale, canale, ricezione e codifica. Scopriamo come un semplice segnale fisico – una vibrazione nell’aria, una macchia su un foglio, una luce rossa al semaforo – diventi informazione grazie a un codice che riduce l’ambiguità e permette la trasmissione nello spazio e nel tempo.

    Attraverso esempi concreti e piccoli “giochi” di decodifica, esploriamo il legame tra informazione e incertezza, fino ad arrivare alla teoria di Shannon: l’informazione è ciò che riduce l’incertezza. Da qui nasce il concetto di bit, l’unità minima di informazione, e la formula che lega simboli, lunghezza dei messaggi e quantità di significati rappresentabili.

    Infine, affrontiamo una distinzione fondamentale: codifica analogica vs codifica digitale. Perché il digitale è meno sensibile al rumore? Perché consente copie perfette, compressione, modularità e multicanalità? E quali sono i suoi limiti rispetto all’analogico?

    Un episodio per comprendere le basi teoriche che rendono possibile tutto l’ecosistema digitale in cui viviamo — dai computer alle reti, fino all’intelligenza artificiale.


    Il testo Fondamenti di Informatica per le Scienze Umanistiche è disponibile qui:

    https://he.pearson.it/bundle/914

    Show More Show Less
    1 hr and 33 mins