Un bot al bar, o: etica della persuasione digitale - chi ci manipola davvero? cover art

Un bot al bar, o: etica della persuasione digitale - chi ci manipola davvero?

Un bot al bar, o: etica della persuasione digitale - chi ci manipola davvero?

Listen for free

View show details

About this listen

Stai discutendo di politica, sport o uncinetto (sì, pure lì si litiga) con un utente super convincente. Poi scopri che non esiste: era un bot, un’IA travestita. Non una burla da troll, ma un esperimento segreto. Per mesi nessuno se n’è accorto, e i bot hanno convinto più di quasi tutti gli umani. Poi la rivelazione, e parte una shitstorm epica: utenti furiosi, minacce legali, perfino minacce di morte. Reddit non perdona. Non è fantascienza, è successo qualche mese fa. Esperimento eticamente discutibile? Certo. Ma ecco il paradosso: ci indigniamo per qualche ricercatore che infiltra bot in un forum, e intanto scrolliamo tranquilli mentre le grandi compagnie tecnologiche manipolano quotidianamente i feed di centinaia di migliaia di utenti. Qualcuno ha detto Cambridge Analytica? L’IA è già uno strumento di manipolazione politica: dai deepfake in Slovacchia e Polonia alle bot farm come Meliorator, fino alla pubblicità iper-personalizzata che ci tiene incollati agli schermi. Siamo già cavie di un esperimento globale, solo che lo chiamiamo “user experience”. Allora la domanda è: esiste un diritto di persuadere? Convincere con argomenti fa parte della democrazia; manipolare di nascosto è un’altra storia. E l’IA rende questo confine sempre più sottile.

Fonti:
Bartlett 2025, “‘The Worst Internet-Research Ethics Violation I Have Ever Seen’” (https://www.theatlantic.com/technology/archive/2025/05/reddit-ai-persuasion-experiment-ethics/682676/ ).
Spitale, Biller-Andorno e Germani 2023, “AI model GPT-3 (dis)informs us better than humans” (https://doi.org/10.1126/sciadv.adh1850 ).
Reddit 2025, “META: Unauthorized Experiment on CMV Involving AI-generated Comments” (https://www.reddit.com/r/changemyview/comments/1k8b2hj/meta_unauthorized_experiment_on_cmv_involving/ ).
LLMResearchTeam 2025, “Dear r/ChangeMyView users,” (https://www.reddit.com/r/changemyview/s/odiUBeBv2p ).
Ho 2025, “Reddit slams ‘unethical experiment’ that deployed secret AI bots in forum” (https://www.washingtonpost.com/technology/2025/04/30/reddit-ai-bot-university-zurich/ ).
Petricca 2025, “L’IA sa manipolarci, e lo sta già facendo: cosa dicono gli studi” (https://www.agendadigitale.eu/cultura-digitale/lia-sa-manipolarci-e-lo-sta-gia-facendo-cosa-dicono-gli-studi/#:~:text=L%E2%80%99integrazione%20dei%20chatbot%20nella%20comunicazione,e%20le%20convinzioni%20degli%20utenti )
Kramer, Guillory e Hancock 2014, “Experimental evidence of massive-scale emotional contagion through social networks” (https://doi.org/10.1073/pnas.1320040111 ).
Booth 2014, “Facebook reveals news feed experiment to control emotions” (https://www.theguardian.com/technology/2014/jun/29/facebook-users-emotions-news-feeds ).
Cadwalladr e Graham-Harrison 2018, “Revealed: 50 million Facebook profiles harvested for Cambridge Analytica in major data breach” (https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election ).
Meyer 2014, “Everything You Need to Know About Facebook's Controversial Emotion Experiment” (https://www.wired.com/2014/06/everything-you-need-to-know-about-facebooks-manipulative-experiment ).
Information Commissioner’s Office 2018, “Investigation into the use of data analytics in political campaigns” (https://ico.org.uk/media2/migrated/2260271/investigation-into-the-use-of-data-analytics-in-political-campaigns-final-20181105.pdf ).
Cadwalladr 2018, “Mueller questions Cambridge Analytica director Brittany Kaiser” (https://www.theguardian.com/uk-news/2019/feb/17/brittany-kaiser-trump-russia-robert-mueller-cambridge-analytica ).
Spitale 2025, “The role of AI in election interference and political propaganda in Europe” (https://www.giovannispitale.net/the-role-of-ai-in-election-interference-and-political-propaganda-in-europe/ ).
Germani, Spitale e Biller-Andorno 2024, “The Dual Nature of AI in Information Dissemination: Ethical Considerations” (https://doi.org/10.2196/53505 ).
Vinay et al. 2025, “Emotional prompting amplifies disinformation generation in AI large language models” (https://doi.org/10.3389/frai.2025.1543603).
No reviews yet
In the spirit of reconciliation, Audible acknowledges the Traditional Custodians of country throughout Australia and their connections to land, sea and community. We pay our respect to their elders past and present and extend that respect to all Aboriginal and Torres Strait Islander peoples today.