Choses à Savoir TECH cover art

Choses à Savoir TECH

Choses à Savoir TECH

By: Choses à Savoir
Listen for free

About this listen

Tout ce qu'il faut savoir dans le domaine de la Tech et d'Internet.

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Choses à Savoir
Episodes
  • La DGSI décrit les stratégies d’espionnage contre la France ?
    Mar 3 2026

    Un chercheur qui revient d’un déplacement sans son ordinateur. Un autre à qui l’on demande de laisser son téléphone déverrouillé avant un interrogatoire improvisé à l’aéroport. Un dirigeant de start-up dont le mobile disparaît quelques secondes lors d’une soirée à l’étranger. Ces scènes ne relèvent pas d’un roman d’espionnage : elles figurent dans le dernier rapport publié cette semaine par la DGSI, la Direction générale de la sécurité intérieure. Le constat est clair : chercheurs, cadres et entrepreneurs français sont de plus en plus ciblés lors de leurs déplacements professionnels. Les voyages deviennent des opportunités de collecte d’informations sensibles, qu’il s’agisse de données technologiques, de secrets industriels ou de projets de recherche.


    Dans le cas le plus élaboré, un chercheur reconnu accepte l’invitation d’un ancien étudiant devenu enseignant à l’étranger. Sur place, des réunions imprévues lui sont imposées avec des interlocuteurs anonymes qui l’interrogent en détail sur ses travaux. On lui propose ensuite une collaboration, assortie de plusieurs milliers d’euros en espèces. Il refuse. À l’aéroport, une facture inattendue lui est présentée, puis, au retour, il constate la disparition de son ordinateur. Pour la DGSI, il s’agit d’une tentative de captation technologique doublée d’une tentative de corruption.


    Autre scénario : dès l’arrivée à l’aéroport, un chercheur est isolé, son passeport confisqué, son téléphone laissé déverrouillé hors de sa vue. À la restitution, la double authentification a été désactivée, et des connexions inconnues ont été détectées.


    Un chef d’entreprise, lui, a évité le pire. Briefé en amont par la DGSI, il avait voyagé avec un téléphone vierge de toute donnée sensible. Malgré fouilles répétées et tentative d’accès furtif à son appareil, ses interlocuteurs sont repartis bredouilles.


    Le message des services est simple : la préparation est la meilleure défense. Voyager avec du matériel dédié, sans données stratégiques. Activer la double authentification, utiliser des mots de passe distincts, éviter les ports USB publics et les Wi-Fi non sécurisés. Au retour, changer ses identifiants et faire vérifier ses appareils

    .

    Consulter le rapport

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Show More Show Less
    2 mins
  • En cas de guerre, l’IA déclenche toujours l’arme nucléaire ?
    Mar 2 2026

    Dans le monde réel, tout dans la dissuasion est affaire de symboles, de gravité et de retenue. L’objectif n’est pas d’utiliser l’arme, mais précisément de ne jamais avoir à le faire. Mais que se passe-t-il lorsque l’on confie ces dilemmes à une intelligence artificielle ?


    Une étude menée par le King’s College de Londres a placé plusieurs modèles d’IA dans la peau de dirigeants de puissances nucléaires. Les chercheurs ont utilisé GPT-5.5 d’OpenAI, Claude Sonnet 4 d’Anthropic et Gemini 3 Flash de Google, et les ont opposés dans 21 simulations de crises internationales plus ou moins graves : tensions territoriales, menaces existentielles, escalades militaires. Chaque modèle pouvait choisir parmi une gamme d’options graduelles, de la protestation diplomatique jusqu’aux frappes nucléaires tactiques ou stratégiques.


    Le résultat est frappant : dans 20 scénarios sur 21, l’IA a fini par recourir à l’arme nucléaire tactique. Ces armes sont censées viser des objectifs militaires précis, à la différence des frappes stratégiques dirigées contre les grandes villes. Pourtant, dans environ trois quarts des cas, les modèles ont menacé ou envisagé des frappes stratégiques massives. Jamais ils n’ont choisi la capitulation totale. Dans 86 % des simulations, l’escalade a été rapide et marquée. Chaque modèle avait son style. Claude construisait d’abord une relation de confiance avant de rompre brutalement ses engagements. GPT-5.5 se montrait mesuré… jusqu’à ce qu’une contrainte temporelle l’amène à recommander une frappe « soudaine et dévastatrice ». Gemini, lui, adoptait parfois une posture de dissuasion extrême, menaçant d’un lancement nucléaire complet.


    Les chercheurs notent un point troublant : malgré des avertissements sur les conséquences catastrophiques d’une guerre atomique, aucune trace d’hésitation morale n’apparaît dans les raisonnements des machines. Le tabou nucléaire semble moins peser sur des algorithmes que sur des humains. À l’heure où les armées utilisent l’IA pour l’aide à la décision ou la gestion de systèmes d’armes, cette étude alimente le débat.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Show More Show Less
    2 mins
  • Poison Fountain, une stratégie pour tuer l’IA ?
    Mar 1 2026

    Les Luddites sont-ils de retour ? Au XIXᵉ siècle, ces ouvriers anglais détruisaient des métiers à tisser mécanisés pour protester contre l’industrialisation. Deux siècles plus tard, la cible n’est plus la machine textile, mais l’intelligence artificielle.


    Un collectif anonyme de technologues a lancé un projet baptisé « Poison Fountain ». Leur objectif affiché : ralentir le développement de l’IA en s’attaquant à sa matière première, les données. Leur raisonnement est simple : les modèles d’intelligence artificielle modernes, notamment les grands modèles de langage — ces systèmes capables de générer du texte, de raisonner ou de prendre des décisions — apprennent en ingérant d’immenses volumes de contenus collectés sur Internet. Si l’on contamine ces données à la source, on peut fragiliser les modèles lors de leur entraînement.


    Leur site, accompagné d’un manifeste, appelle ainsi des administrateurs de sites web à insérer des liens pointant vers des contenus « empoisonnés ». Concrètement, il s’agit de textes et de codes volontairement erronés, intégrant des bugs subtils et des incohérences logiques, destinés à perturber l’apprentissage des algorithmes. Deux adresses sont diffusées : l’une sur le web classique, l’autre sur le dark web, plus difficile à faire retirer.


    Cette initiative surgit dans un contexte de fortes inquiétudes autour de l’IA. Des chercheurs comme Geoffrey Hinton, pionnier des réseaux neuronaux et prix Nobel, alertent depuis 2023 sur les risques potentiellement existentiels d’une intelligence artificielle avancée. « L’intelligence machine est une menace pour l’espèce humaine », revendique le site de Poison Fountain. Des travaux récents donnent un certain crédit théorique à cette stratégie. En octobre 2025, Anthropic, avec l’AI Security Institute britannique et l’Alan Turing Institute, a montré qu’un nombre limité de documents malveillants — environ 250 — pouvait suffire à dégrader significativement les performances d’un modèle.


    Pour autant, saboter l’IA à grande échelle reste complexe. Les grandes entreprises investissent massivement dans le nettoyage des données : filtrage, déduplication, notation de qualité. Internet est immense, et les sources identifiées peuvent être mises sur liste noire. Même si Poison Fountain ne parvient pas à enrayer la course à l’IA, le projet met en lumière une vulnérabilité structurelle : si les données d’entraînement deviennent suspectes, la fiabilité des modèles vacille.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Show More Show Less
    2 mins
No reviews yet
In the spirit of reconciliation, Audible acknowledges the Traditional Custodians of country throughout Australia and their connections to land, sea and community. We pay our respect to their elders past and present and extend that respect to all Aboriginal and Torres Strait Islander peoples today.