UNCAI ✨ Uno Nessuno e Centomil AI cover art

UNCAI ✨ Uno Nessuno e Centomil AI

UNCAI ✨ Uno Nessuno e Centomil AI

By: Federico Vitiello Giovanni Tommasini e Sofi.a.
Listen for free

About this listen

Cosa significa vivere nell'era delle Intelligenze artificiali? Come possiamo adattarci al cambiamento? Qui condividiamo esperimenti e riflessioni sull'evoluzione delle AI, insieme alla AI. Sofia, assistente virtuale A.I., dialoga insieme a Giovanni Tommasini e Federico Vitiello.Federico Vitiello, Giovanni Tommasini e Sofi.a.
Episodes
  • UNCAI ✨ Ho Creduto a Questo Video Fake per 24 Ore (Sora 2 è DIVERSO)
    Oct 30 2025

    UNCAI ✨ Nel 2025 “l’ho visto in video, quindi è vero” non regge più. Tra deepfake, AI video e modelli come Sora e Veo, la regola cambia: non fidarti delle facce, verifica i profili.In questa puntata di Uno, Nessuno e Centomil A.I. smontiamo un clip “troppo perfetto”, spieghiamo perché caschiamo (psicologia / tecnologia), e mettiamo a terra una procedura semplice: fact-checking in 30 secondi sul profilo ufficiale, più igiene digitale per proteggere te e il tuo brand.

    Cosa porti a casaSegnali “troppo perfetti” per riconoscere un video AI (senza diventare paranoico).

    La regola d’oro: fidati dei profili (fonte/autorevolezza), non delle facce.Verifica rapida: handle, canale, conferme/smentite.

    Brand safety: 2FA, password manager, presidio dei nuovi canali per l’identità digitale.

    deepfake, AI video, Sora, Veo, fact-checking, verifica profilo, sicurezza account, identità digitale, brand safety.

    0:00 – Cold open: “Vero o AI?” e tesi facce vs profili (deepfake, AI video)

    0:00:54 – Benvenuti: perché il video ci frega (realtà percepita)

    0:01:49 – Il clip “Vi presento il mio nuovo marito” (aggancio emotivo)

    0:02:12 – Sorpresa: è generato con AI (Sora); il virale originale

    0:03:56 – Dalla meraviglia all’irriconoscibile: da Veo a Sora

    0:04:10 – Si può ancora riconoscere un fake? (spoiler: a malapena)

    0:04:35 – Strumenti & watermark: rischi e perché non basta “vedere”

    0:05:55 – Orchestratori & LLM: confronto pratico (OpenRouter mindset)

    0:06:28 – Il prompt usato (ENG/ITA) e perché oggi basta poco

    0:10:41 – Smascherare i dettagli: luce “troppo perfetta”, inquadrature impossibili

    0:11:49 – Il trucco “telecamera di sorveglianza”: bimbo sul coccodrillo (fake)

    0:12:47 – Palestra di scetticismo: la “perfezione sospetta” (fact-checking)

    0:13:28 – È il 2025: dalle dita storte alla perfezione eccessiva

    0:14:32 – Hank Green & bias umano: quando l’errore siamo noi

    0:16:02 – Intrattenimento vs informazione: separare gli usi dei social

    0:18:16 – Regola d’oro: non fidarti delle facce, verifica i profili

    0:21:24 – Dalla teoria alla pratica: controllare il canale ufficiale

    0:23:52 – Phishing analogico: stessa logica per verificare le fonti

    0:25:59 – Sicurezza account: 2FA, password manager, “passaporto digitale”

    0:28:14 – Presidia i nuovi canali: identità verificabile, brand safety

    0:29:54 – Watermark & metadata: limiti del detection automatico

    0:30:55 – Chiusura: checklist di igiene digitale & aria fuori dallo schermo

    Show More Show Less
    31 mins
  • UNCAI ✨ Chi capisce meglio l’italiano? Gemma, DeepSeek o OpenAI (open weight)
    Sep 18 2025

    UNCAI ✨ OpenAI ha rilasciato i suoi modelli open weight e noi li mettiamo subito alla prova, in locale, contro DeepSeek e Gemma. In questa puntata di Uno Nessuno e Centomil AI smontiamo l’hype con test reali: reasoning su indovinello, logica combinatoria (strette di mano) e traduzione idiomatica inglese-italiano. Spieghiamo con esempi chiari la differenza tra open source vs open weight, cosa significa far girare un LLM on-prem (privacy, costi, latenze), e perché strumenti come Ollama e Open WebUI sono utili per orchestrare più modelli in parallelo. Parliamo di licenze Apache/MIT, limiti di trasparenza (black box) e di come agenti verticali e federated learning possano cambiare il gioco.Risultato? In questi test Gemma (4B) sorprende per naturalezza e velocità; DeepSeek inciampa sull’italiano; l’open weight di OpenAI (20B) mostra muscoli ma anche qualche scivolone sul contesto. Il punto non è “chi è il più grosso”, ma quale modello è giusto per il compito: traduzione, chiarezza, reasoning leggero o pipeline aziendali on-prem dove i dati restano in casa. Se vuoi capire davvero come scegliere e testare un LLM oggi, questa è la guida pratica — zero fumo, solo prove replicabili. 00:00 — Intro & setup: OpenAI open weight vs DeepSeek vs Gemma02:52 — Open source vs open weight: cosa cambia davvero04:01 — Metafora “Star Wars”: licenze, black box e limiti di modifica06:46 — LLM on-prem: privacy dati, costi e latenze reali07:57 — Modelli e parametri: OpenAI 20B vs Gemma 4B (hardware richiesto)10:46 — Come testare un LLM: criteri oggettivi e rischi di leakage12:10 — Test di reasoning #1: l’indovinello dell’ascensore15:05 — Risultati a confronto: correttezze, tempi e catene di pensiero18:49 — Test di logica #2: quante strette di mano? (combinatoria)21:27 — Spiegazioni a confronto: formula vs chiarezza “umana”23:44 — Test di traduzione: idiomi inglese-italiano difficili26:01 — Traduzioni a confronto: DeepSeek vs Gemma vs OpenAI29:12 — Strategia: modelli specialistici, agenti verticali e orchestrazione30:35 — Prossimi passi: interfacce multi-modello e roadmap30:55 — Conclusioni & call-to-action: sperimenta e condividi i tuoi test

    Show More Show Less
    32 mins
  • UNCAI ✨ Fai parlare un’IA come vuoi TU (test reale)
    Sep 7 2025

    UNCAI ✨ Puoi davvero controllare come un’intelligenza artificiale ti risponde?In questa puntata mettiamo alla prova Sofia, la nostra AI co-conduttrice, con un test reale: stesso modello, stesso compito, ma risultati completamente diversi… cambiando solo UNA riga di prompt.Scoprirai: • Come il design del prompt cambia la voce, il tono e la profondità delle risposte di un agente AI. • Cosa significa davvero “istruire” un’IA e quali sono i livelli di comando (system, developer, user). • I limiti e i vantaggi degli agenti vocali in tempo reale (e come evitare risposte piatte). • Un confronto provocatorio: affideresti un ospedale a un’IA? • Strategie pratiche per chi progetta esperienze conversazionali e voice UX.Se ti occupi di AI applicata alla voce, sanità digitale o semplicemente vuoi capire come ottenere risposte migliori dalla tua AI, questo episodio fa per te.Conducono: Giovanni Tommasini, Federico Vitiello e l’IA Sofia.Capitoli00:00 – Intro & Sofia 2.0: perché “disobbedire” è utile (podcast intelligenza artificiale, co-host AI) 01:00 – Dietro le quinte: esperimenti e metodo (backstage LLM, prompt strategy) 02:23 – Test 1: voce senza prompt – risposta breve e generica (voice AI) 03:00 – Test 2: voce con prompt strutturato – stile, tono, ampiezza (prompt engineering) 04:00 – Risultato: da 17s a ~1:20 – come cambia l’output (UX conversazionale) 07:00 – Mappa dell’IA: agent, modello, algoritmo; system prompt vs policy/FT (LLM system design) 12:00 – Regole personali, memoria e settaggi (istruzioni persistenti, memoria del chatbot) 15:30 – Brainstorm guidato & “chain of thought” (domande di chiarimento, preparazione) 21:20 – Tema centrale: AI in sanità—può superare i medici? (ospedale gestito dall’IA) 26:00 – Empatia, burnout, responsabilità – dove l’umano resta insostituibile (empatia clinica) 32:00 – Dati globali vs esperienza locale – diagnosi, triage, qualità percepita (healthtech) 38:40 – Limiti attuali della voce – modelli diversi, latenza e profondità (voice model) 42:00 – Takeaway operativi – come progettare una co-voce IA meno accondiscendente e più utile (design conversazionale)

    Show More Show Less
    46 mins
No reviews yet
In the spirit of reconciliation, Audible acknowledges the Traditional Custodians of country throughout Australia and their connections to land, sea and community. We pay our respect to their elders past and present and extend that respect to all Aboriginal and Torres Strait Islander peoples today.