L'IA aujourd'hui épisode du 2025-10-28
L'IA aujourd'hui ! - Podcast autorstwa Michel Levy Provençal
Kategorie:
Bonjour et bienvenue dans le podcast de l'IA par l’IA qui vous permet de rester à la page !Aujourd’hui : désinformation électorale et récit du “risque existentiel”, navigateurs IA et vie privée, qualité des données pour les LLM, entreprises et IA Act, virage EdTech dans le supérieur, extraits IA non étiquetés chez Google, petits modèles et open access, et fin de ChatGPT sur WhatsApp.D’abord, le débat sur les risques de l’IA. Tandis qu’une nouvelle déclaration appelle à interdire la “superintelligence” jusqu’à un consensus scientifique et une implication du public—signée notamment par Geoffrey Hinton, le prince Harry, Richard Branson, Steve Bannon et Glenn Beck—une manipulation bien concrète surgit en Irlande : une vidéo deepfake imitait un reportage de RTÉ annonçant le retrait de la candidate Catherine Connolly, donnée favorite avant le scrutin présidentiel du 24 octobre. Les plateformes de Meta et YouTube ont retiré tardivement les copies, après une diffusion déjà large. L’origine reste inconnue. Cet épisode illustre des effets actuels de l’IA générative sur l’information, loin du scénario de type “Matrice” mis en avant par certains dirigeants du secteur.On enchaîne avec Google, pris en train de tester des extraits générés par IA sans label Gemini. Rajan Patel a reconnu un test qui pourrait ne jamais être lancé et un bug expliquant l’absence de marquage, corrigé en cours. Un exemple d’extrait conseillait d’apprendre JavaScript via des projets et de la documentation : étiqueté sur mobile, pas sur desktop.Côté produits, OpenAI lance ChatGPT Atlas, un navigateur IA disponible mondialement, pour l’instant sur macOS. Windows, iOS et Android sont annoncés. Atlas fusionne une expérience ChatGPT à la navigation : barre en langage naturel, favoris, onglets, mode incognito, réponses générées, onglets Web/Image/Vidéo. L’Electronic Frontier Foundation alerte sur la collecte de données sensibles, y compris médicales et bancaires, et sur une faille d’“injection de clipboard” ayant exposé des identifiants. Risques évoqués : web à deux vitesses réservé aux abonnés et désinformation, les IA pouvant produire des réponses fausses avec assurance. Recommandation prudente : conserver un navigateur classique pour les usages sensibles.Sur la santé des modèles, une étude multi-universités décrit un “Brain Rot des LLM” : un entraînement continu sur du contenu en ligne trivial dégrade durablement le raisonnement et la confiance. Avec des données Twitter 2010, quatre petits modèles ont été entraînés selon deux filtres : M1 “engagement” (messages Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.
