L'IA aujourd'hui ! cover art

L'IA aujourd'hui !

L'IA aujourd'hui !

By: Michel Levy Provençal
Listen for free

About this listen

L'IA aujourd'hui : le podcast de l'IA par l'IA qui vous permet de rester à la page !


Un podcast unique en son genre, entièrement généré par l'intelligence artificielle et présenté par le clone numérique de Michel Lévy Provençal, qui décrypte chaque jour les actualités les plus marquantes du monde de l'IA. De la Silicon Valley aux laboratoires de recherche, en passant par les implications éthiques et sociétales, découvrez une analyse approfondie des développements qui façonnent notre futur numérique.

Dans chaque épisode, plongez au cœur des innovations technologiques avec des explications claires et accessibles. Ce podcast vous offre un regard unique sur la révolution de l'intelligence artificielle.


Une production innovante qui utilise l'IA pour parler de l'IA, tout en gardant l'expertise et le style dynamique caractéristique de Michel Lévy Provençal.

Un rendez-vous quotidien indispensable pour comprendre les enjeux qui transforment notre monde.


En savoir plus sur Michel Levy Provençal

Élargissez votre horizon grâce à nos conférences d'acculturation, nos ateliers de formation, et notre conseil sur mesure. L'IA générative devient un levier incontournable de productivité. Découvrir les offres IA proposées par Michel Levy Provençal


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Michel Levy Provençal
Episodes
  • L'IA aujourd'hui épisode du 2026-01-27
    Jan 27 2026
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : IA et souveraineté linguistique, polémiques sur les sources des chatbots, nouveautés Google Search/Ads, Yann LeCun et les modèles du monde, un “procès de l’IA” en classe, virage de ManyVids, montée des agents et enjeux juridiques, et un nouvel outil MCP pour agents.En Europe, les LLM deviennent un instrument de souveraineté. Les États investissent dans les ressources linguistiques qui alimentent l’entraînement des modèles: dictionnaires, corpus, normes. L’anglais domine, pénalisant les langues “à faibles ressources”. Plusieurs pays répliquent: la Serbie annonce un LLM national pour le serbe; l’Estonie et la Lituanie financent ces ressources à coups de millions d’euros par an; l’Espagne consacre 1 milliard sur cinq ans pour promouvoir les langues espagnoles, avec des enjeux géopolitiques, notamment en Amérique latine. Des tensions existent: l’histoire rappelle l’usage politique de la langue, comme l’imposition du cyrillique en URSS dans les années 1930. Aujourd’hui, des minorités craignent des usages de surveillance: un LLM pour le romani interroge. À l’inverse, des erreurs dans des ressources publiques, comme sur Wikipédia en groenlandais, peuvent paradoxalement compliquer l’exploitation par des acteurs malveillants dans un contexte sécuritaire.Autre controverse: des tests rapportés par la presse indiquent que GPT-5.2 aurait cité à neuf reprises sur une douzaine de requêtes “Grokipedia”, encyclopédie IA lancée en octobre par xAI, réputée sans relecture humaine et accusée d’amplifier des narratifs partisans. Les citations concerneraient des sujets “gris” — structures paramilitaires iraniennes, éléments biographiques de Sir Richard Evans — plutôt que des thèmes hyper surveillés. Des spécialistes parlent de “LLM grooming”: la machine légitimerait des contenus faibles en les citant. OpenAI invoque l’usage large de sources publiques et des filtres, xAI répond par des attaques contre les médias. Au-delà de la querelle, le risque est réputationnel: une fois intégrées, des contrevérités peuvent persister, comme l’a constaté Nina Jankowicz.Côté Google, le moteur active l’“Intelligence Personnelle en Mode IA” pour personnaliser les résultats. Si un aperçu IA n’est pas possible, retour aux extraits en vedette. Dans Google Ads, un bug PMax empêche d’éditer les groupes d’actifs dans l’interface web, compliquant l’optimisation des campagnes. Les résultats locaux de Gemini montrent comment Google “lit” une entreprise, utile pour le SEO local. Et face à la hausse des détournements de comptes, Google recommande de durcir la sécurité. Un récap vidéo hebdo fait le point sur ces évolutions.Yann LeCun quitte Meta et lance à Paris AMI Labs. Il défend l’open source et estime que l’avenir est aux “modèles du monde” capables de prédire et planifier dans le réel, au-delà du texte: données vidéo, audio, capteurs. Il cite des architectures comme JEPA. Applications visées: modélisation de processus industriels, lunettes capables d’anticiper des actions de l’utilisateur. Il critique la course à l’échelle des LLM et encourage l’université à viser des objectifs hors de portée des systèmes actuels. Contexte: Llama peine à s’imposer, et l’acquisition controversée de ScaleAI a crispé en interne. LeCun oppose son ouverture à l’approche propriétaire américaine, et note que la Chine diffuse des modèles ouverts adoptés hors États-Unis.Dans les classes, un “procès de l’IA” imaginé par Alexandre Balet et Eric Berard a réuni des enseignants de 15 pays de la zone Asie-Pacifique. Pendant deux jours, ils ont préparé un dossier mêlant extraits de presse, interviews et données chiffrées, puis ont tenu une audience de 3h30: procureurs, défense, jurés et greffiers, avec un échauffement en format “speed dating”. Les chefs d’inculpation s’alignaient sur la Semaine de la Presse et des Médias à l’École: sources d’information, désinformation, économie des plateformes. Les débats ont souligné la responsabilité humaine, l’exploitation possible des données personnelles et l’intérêt d’une EMI collective et interdisciplinaire.Sur ManyVids, des conversations imaginaires avec des extraterrestres et des vidéos IA d’OVNIs ou de “nombres angéliques” surgissent, alors que la fondatrice Bella French dit vouloir orienter le site vers du contenu non sexuel. L’annonce, les messages jugés cryptiques et l’usage d’IA ont poussé certains créateurs à partir. French a modifié son site personnel pour afficher l’objectif de “faire sortir un million de personnes de l’industrie pour adultes”. Les créateurs, qui versent déjà une commission importante, s’inquiètent de leurs revenus et dénoncent un virage perçu comme ...
    Show More Show Less
    7 mins
  • L'IA aujourd'hui épisode du 2026-01-26
    Jan 26 2026
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : navigation web et JavaScript sur x.com, un modèle qui lit plus de 10 millions de jetons, la personnalisation Gemini dans la recherche Google, les risques d’injection de prompt, la traque des contenus IA sur Wikipedia, et le code généré par IA selon Ryan Dahl.On commence par x.com, où un message s’affiche si JavaScript est désactivé. Le site demande d’activer JS ou de passer à un navigateur compatible, listé dans son Centre d’aide. Rappel utile: JavaScript alimente les menus déroulants, animations et mises à jour en temps réel sans rechargement. Sans JS, certaines fonctions cessent de marcher. Pour l’activer, direction les réglages de sécurité ou de confidentialité du navigateur. Les options recommandées restent Chrome, Firefox, Safari et Edge, maintenus à jour pour suivre les normes web. x.com renvoie aussi vers ses Conditions d’utilisation, sa Politique de confidentialité et sa Politique cookies, pour clarifier l’usage et la protection des données.Cap sur le MIT CSAIL, qui teste un « Recursive Language Model » capable d’analyser plus de 10 millions de jetons dans un seul document. Les essais ont porté sur des textes de 6 à 11 millions de jetons. Contrairement aux LLM classiques, le RLM ne charge pas tout dans le contexte: il conserve le texte hors du modèle et n’envoie que les passages nécessaires. Il découpe les documents, lit des métadonnées (comme nombre de sections ou de caractères), génère du code pour localiser les passages clés, puis analyse chaque extrait avant d’assembler le résultat. L’architecture sépare un « modèle racine » — qui planifie et écrit le code d’interrogation — d’un « modèle travailleur » plus rapide qui traite les fragments. Sur le benchmark BrowseComp-Plus, un RLM basé sur GPT-5 a extrait correctement 91 % des réponses attendues, dépassant les approches standard. Le système sait boucler sur le texte, chercher des mots-clés, suivre des limites de chapitres, et peut se combiner à du RAG pour retrouver vite des passages tout en gardant le fil. Le code est disponible sur GitHub; les coûts annoncés restent comparables aux solutions classiques, sans réentraînement requis.Transition vers Google: la nouvelle « Intelligence Personnelle » de Gemini arrive dans le Mode IA de la recherche. Réservée pour l’instant aux abonnés AI Pro et AI Ultra, uniquement aux États-Unis et sur comptes personnels, l’expérience est optionnelle. Elle peut s’appuyer sur des données de Gmail, Google Photos, YouTube et vos recherches passées. L’utilisateur choisit de connecter Gmail et/ou Photos, et peut couper la fonction à tout moment. Exemple concret: croiser une réservation d’hôtel dans Gmail et des souvenirs de voyage dans Photos pour proposer un itinéraire adapté, jusqu’au musée interactif pour les enfants ou au vieux salon de glace détecté via vos selfies gourmands. Google précise que le Mode IA ne s’entraîne pas directement sur votre boîte Gmail ni sur votre bibliothèque Photos; il utilise des « prompts spécifiques » pour améliorer ses réponses. Des erreurs de liaison entre sujets peuvent survenir: l’utilisateur peut clarifier via des relances et donner un pouce vers le bas pour signaler un problème. Une extension à d’autres pays et aux non-abonnés est prévue ultérieurement.Côté sécurité, rappel sur les attaques par injection de prompt, qui poussent des LLM à réaliser des actions non prévues. Les modèles traitent le contexte par similarité textuelle, sans comprendre hiérarchies ni intentions, et ont tendance à répondre plutôt qu’à exprimer l’incertitude. Formés pour des cas moyens, ils gèrent mal les scénarios extrêmes. Des pistes évoquées: intégrer des modèles du monde physique pour mieux contextualiser, tout en reconnaissant l’incertitude de leur efficacité. La recommandation immédiate: multiplier les couches de défense et d’audit autour du modèle.Sur Wikipedia, le guide d’identification des contenus générés par IA serait utilisé pour masquer ces mêmes contenus. Cela alimente une prolifération de « slop », des textes faibles ou trompeurs produits en masse, et une « course aux armements » entre producteurs automatisés et modérateurs. L’enjeu touche la confiance dans l’information en ligne et les projets collaboratifs, y compris ceux qui s’appuient sur des contributions humaines pour entraîner des modèles. D’où l’appel à des méthodes de détection et de régulation plus efficaces.Enfin, Ryan Dahl, créateur de NodeJS, affirme que l’ère où les humains écrivaient le code est révolue. NodeJS, qui exécute JavaScript côté serveur, a propulsé le web moderne. Selon lui, les ingénieurs ont encore beaucoup à faire, mais plus en écrivant de la syntaxe: ils doivent se concentrer sur la conception, l’...
    Show More Show Less
    6 mins
  • L'IA aujourd'hui épisode du 2026-01-25
    Jan 25 2026
    Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : lire 10 millions de jetons d’un coup, la personnalisation Gemini dans la recherche, données d’entraînement et mémoire des modèles, injections de prompt, Wikipédia et la dissimulation de textes générés, l’IA qui code selon Ryan Dahl, et un rappel pratique sur JavaScript et x.com.On commence au MIT CSAIL, où un « modèle récursif » (RLM) a analysé des documents de 6 à 11 millions de jetons. Plutôt que de charger tout le texte, il le garde hors mémoire et n’envoie au modèle que les fragments nécessaires. Sur le benchmark BrowseComp-Plus dédié à la récupération de passages précis, un RLM basé sur GPT-5 a extrait correctement 91 % des réponses attendues. Concrètement, le « modèle racine » planifie et écrit du code pour interroger le texte externe, puis un « modèle travailleur » analyse chaque extrait, avant intégration des résultats. Le système commence par lire des indications globales (nombre de sections, de caractères), génère du code pour localiser les passages clés et traite les morceaux pas à pas, sans réentraînement. Il peut aussi se combiner avec le RAG pour retrouver vite des passages, et son code est disponible sur GitHub.Transition avec Google et sa « Intelligence Personnelle » dans le Mode IA de la recherche. Réservée pour l’instant aux abonnés AI Pro et AI Ultra, comptes personnels, aux États-Unis, et entièrement optionnelle. Les utilisateurs peuvent relier Gmail et/ou Google Photos, et la fonctionnalité s’appuie aussi sur YouTube et l’historique de recherche. Exemple donné : croiser une réservation d’hôtel dans Gmail et des souvenirs de voyage dans Photos pour proposer un itinéraire, avec des recommandations adaptées, jusque dans le détail d’un salon de crème glacée si vos photos en regorgent. Google précise ne pas entraîner directement le modèle sur votre boîte Gmail ni votre bibliothèque Photos ; l’entreprise utilise des « incitations spécifiques » pour améliorer les réponses. Le système peut établir de mauvaises connexions ; l’utilisateur peut clarifier, ou cliquer sur « pouce vers le bas ». Désactivation possible à tout moment, extension internationale prévue ultérieurement.Côté données d’entraînement, le jeu Books3 — environ 200 000 livres, sans autorisation des auteurs — alimente le débat. Des chercheurs de Stanford et Yale montrent que des modèles commerciaux déconnectés d’Internet peuvent réciter des textes. Ils ont amené Gemini 2.5 Pro à restituer 77 % de « Harry Potter à l’école des sorciers » en complétant la première phrase, puis en prolongeant progressivement. Le Monde a aussi obtenu la reproduction du premier paragraphe de « Du côté de chez Swann » et d’œuvres anglaises du domaine public ; pour des œuvres protégées dans leurs tests, l’IA s’est limitée à des résumés. Le sujet remet en question l’idée que les modèles ne mémorisent que des « fragments » et relance la discussion sur le droit d’auteur.Sécurité maintenant : les LLMs restent exposés aux injections de prompt. Le principe consiste à formuler des instructions qui contournent les garde-fous, jusqu’à pousser un modèle à divulguer des mots de passe ou à détailler des procédures sensibles via une fiction. Des contenus hostiles peuvent aussi passer via de l’art ASCII ou des images. Les protections ponctuelles bloquent certaines techniques, mais il n’existe pas de défense générale aujourd’hui. Les modèles ne disposent pas d’instincts sociaux, traitent le contexte comme une similarité textuelle et deviennent vulnérables si le contexte est trop mince ou trop chargé. D’où la nécessité de mécanismes d’audit et de défense autour des modèles.Sur Wikipédia, un guide conçu pour repérer l’écriture générée par l’IA serait désormais utilisé… pour la masquer. Cela illustre une course aux armements entre producteurs automatisés — capables de générer beaucoup de contenu parfois crédible — et les curateurs, limités par le temps et les moyens. Le risque est celui d’une dégradation générale du contenu en ligne, une « tragédie des biens communs ». Certains évoquent des lois pénalisant la dissimulation volontaire. Wikipédia liste des indices, dont l’idée d’un texte « sans âme », non sans paradoxe pour une encyclopédie. À terme, on pourrait voir plus d’automatisation éditoriale, avec contrôle humain ciblé.Enfin, Ryan Dahl, créateur de NodeJS, affirme que l’ère où les humains écrivent le code touche à sa fin. Les développeurs se recentreraient sur conception, architecture et optimisation, tandis que l’IA produit une part croissante du code. Google indique déjà environ 30 % de code de production généré par l’IA. Cela suppose d’accepter du code sans en maîtriser chaque détail et d’...
    Show More Show Less
    6 mins
No reviews yet
In the spirit of reconciliation, Audible acknowledges the Traditional Custodians of country throughout Australia and their connections to land, sea and community. We pay our respect to their elders past and present and extend that respect to all Aboriginal and Torres Strait Islander peoples today.