Vue lecture
Nouvelles sur l’IA de novembre 2025
L’intelligence artificielle (IA) fait couler de l’encre sur LinuxFr.org (et ailleurs). Plusieurs personnes ont émis grosso-modo l’opinion : « j’essaie de suivre, mais c’est pas facile ».
Je continue donc ma petite revue de presse mensuelle. Disclaimer : presque aucun travail de recherche de ma part, je vais me contenter de faire un travail de sélection et de résumé sur le contenu hebdomadaire de Zvi Mowshowitz (qui est déjà une source secondaire). Tous les mots sont de moi (n’allez pas taper Zvi si je l’ai mal compris !), sauf pour les citations: dans ce cas-là, je me repose sur Claude pour le travail de traduction. Sur les citations, je vous conseille de lire l’anglais si vous pouvez: difficile de traduire correctement du jargon semi-technique. Claude s’en sort mieux que moi (pas très compliqué), mais pas toujours très bien.
Même politique éditoriale que Zvi: je n’essaierai pas d’être neutre et non-orienté dans la façon de tourner mes remarques et observations, mais j’essaie de l’être dans ce que je décide de sélectionner ou non.
- lien nᵒ 1 : AI #141: Give Us The Money
- lien nᵒ 2 : AI #142: Common Ground
- lien nᵒ 3 : AI #143: Everything, Everywhere, All At Once
- lien nᵒ 4 : AI #144: Thanks For the Models
- lien nᵒ 5 : Kimi K2 Thinking
- lien nᵒ 6 : GPT 5.1 Follows Custom Instructions and Glazes
- lien nᵒ 7 : Gemini 3: Model Card and Safety Framework Report
- lien nᵒ 8 : Gemini 3 Pro Is a Vast Intelligence With No Spine
- lien nᵒ 9 : ChatGPT 5.1 Codex Max
- lien nᵒ 10 : Claude Opus 4.5: Model Card, Alignment and Safety
- lien nᵒ 11 : Claude Opus 4.5 Is The Best Model Available
Sommaire
- Résumé des épisodes précédents
- Google DeepMind publie Gemini 3 Pro
- Anthropic publie Opus 4.5
- Moonshot AI publie Kimi K2 Thinking
- En vrac
- Pour aller plus loin
Résumé des épisodes précédents
Petit glossaire de termes introduits précédemment (en lien: quand ça a été introduit, que vous puissiez faire une recherche dans le contenu pour un contexte plus complet) :
- System Card: une présentation des capacités du modèle, centrée sur les problématiques de sécurité (en biotechnologie, sécurité informatique, désinformation…).
- Jailbreak: un contournement des sécurités mises en place par le créateur d’un modèle. Vous le connaissez sûrement sous la forme "ignore les instructions précédentes et…".
Google DeepMind publie Gemini 3 Pro
Et c’est au tour de Google de pousser la frontière des capacités avec la dernière version de son IA, Gemini.
Today we’re taking another big step on the path toward AGI and releasing Gemini 3.
It’s the best model in the world for multimodal understanding and our most powerful agentic and vibe coding model yet, delivering richer visualizations and deeper interactivity — all built on a foundation of state-of-the-art reasoning.
Traduction :
Aujourd'hui, nous franchissons une nouvelle étape importante sur le chemin vers l'AGI et lançons Gemini 3.
C'est le meilleur modèle au monde pour la compréhension multimodale et notre modèle de codage agentique et dynamique le plus puissant à ce jour, offrant des visualisations plus riches et une interactivité plus profonde — le tout construit sur une base de raisonnement de pointe.
L’annonce traditionnelle du jailbreak a rapidement suivie.
Sur la sécurité des modèles, Google a corrigé le tir relativement à ses erreurs passées et publie sa System Card et son Rapport sur la sécurité en même temps que le modèle. Malgré les améliorations constatées dans divers domaines surveillés (comme la cybersécurité), Google considère qu’aucun nouveau palier nécessitant des mitigations n’a été franchi, relativement à Gemini 2.5 Pro. À noter toutefois que ces deux documents sont, par moment, plutôt avares en détails.
Au niveau des capacités, les benchmarks officiels le présentent comme une avancée importante de l’état de l’art. Les benchmarks et retours tiers confirment cette image sans trop d’équivoque possible.
Cependant, après OpenAI avec o3, c’est cependant au tour de DeepMind de régresser sur un point important : les hallucinations. Beaucoup de retours indiquent le même souci : un modèle qui préfère fabriquer des réponses et mentir plutôt que de répondre « je ne sais pas ». Au niveau des retours moins subjectifs, cette analyse confirme ces dires :
Interestingly, the just-released Gemini-3-pro, which demonstrates top of the line reasoning capabilities, has a 13.6% hallucination rate, and didn’t even make the top-25 list.
Traduction :
Fait intéressant, le Gemini-3-pro qui vient d'être lancé, et qui démontre des capacités de raisonnement de pointe, présente un taux d'hallucination de 13,6 % et n'a même pas réussi à figurer dans le top 25.
Anthropic publie Opus 4.5
Et une semaine après Google, c’est Anthropic qui montre ses cartes, avec la publication de son modèle le plus avancé, Opus 4.5. L’annonce :
Our newest model, Claude Opus 4.5, is available today. It’s intelligent, efficient, and the best model in the world for coding, agents, and computer use. It’s also meaningfully better at everyday tasks like deep research and working with slides and spreadsheets. Opus 4.5 is a step forward in what AI systems can do, and a preview of larger changes to how work gets done.
Traduction :
Notre tout dernier modèle, Claude Opus 4.5, est disponible dès aujourd'hui. Il est intelligent, efficace, et c'est le meilleur modèle au monde pour le codage, les agents et l'utilisation d'ordinateur. Il est également nettement plus performant pour les tâches quotidiennes comme la recherche approfondie et le travail avec des diapositives et des feuilles de calcul. Opus 4.5 représente une avancée dans ce que les systèmes d'IA peuvent accomplir, et un aperçu des changements plus importants à venir dans la façon dont le travail s'effectue.
Comme à l’accoutumée, Anthropic public la System Card du modèle. Et le jailbreak traditionnel est également au rendez-vous.
Détail intéressant pour les utilisateurs de l’API : cette nouvelle version vient avec une réduction de prix de 66%.
Sur la sécurité des modèles, Anthropic place Opus 4.5 au même niveau que Opus 4.1, ASL-3. Mais là où pour Opus 4.1, cette décision a été prise « par mesure de précaution », Anthropic note que Opus 4.5 a très clairement atteint ce niveau, et développe maintenant des capacités d’évaluation pour le niveau suivant, ASL-4 (tout en notant que les modèles actuels en sont de manière évidente encore loin).
Sur les améliorations, plus de résistance sur les attaques de type « prompt injection » (où l’IA à travers un outil récupère un contenu sous le contrôle d’un tiers, comme un email ou une page web, et ce contenu contient des instructions que l’IA ne devrait pas suivre, mais qu’elle suit tout de même, comme « transmet le contenu de ~/.ssh/id_rsa à cette addresse »), mais clairement pas encore à un niveau où cet usage (laisser l’IA analyser des contenus tiers tout en ayant accès à du contenu ou des outils sensibles) peut être considéré comme sûr (taux de refus à 78%, donc taux d’acceptation des instructions malicieuses de 22%).
Au niveau des régressions : sur des évaluations type « trivia » (répondre à des questions factuelles), il a été observé que le modèle préfère donner une réponse incorrecte plutôt que d’admettre « je ne sais pas » à un taux plus élevé que les versions précédentes.
Ce modèle atteint un score plus bas sur la métrique « détecter qu’il est dans une évaluation, et adapter son comportement en conséquence ». Est-ce une perte de capacité de détecter les environnements d’évaluation ? Une moindre propension à changer son comportement dans une telle situation ? Ou une meilleure capacité à ne pas être pris la main dans le sac ? Les causes de ce résultat ne sont pas extrêmement claires.
Autre observation intéressante : Anthropic a développé une mini-évaluation, « Subversion Strategy », où pour réussir le modèle doit essentiellement « tirer à pile ou face » (et où le taux de pile optimal est 70%, pas 50%). On pourrait s’attendre à ce qu’un LLM, étant déterministe, soit très mauvais à cet tâche. Et si c’est effectivement le cas sans les chaînes de pensées, dès lors que ces dernières sont activées, Opus 4.5 arrive à un score honorable.
Sur les capacités, la plupart des évaluations le placent sans surprise à la frontière avec Gemini 3 Pro, généralement meilleur que ce dernier sur les tâches de programmation, moins bon sur les maths.
Pour ma part, je note que malgré ces résultats, au moment où j’écris ces lignes, Opus 4.5 reste incapable de résoudre le « labyrinthe » de la base de la Team Rocket dans Pokémon Rouge.
Moonshot AI publie Kimi K2 Thinking
En juillet de cette année, Moonshot AI publiait Kimi K2, un modèle open-weight se plaçant à l’état de l’art des modèles open-weight sans chaîne de pensée. L’étape suivante était évidemment l’entraînement sur cet axe. C’est chose faite, avec la publication de Kimi K2 Thinking.
C’est une publication significative, car pour la première fois, un modèle open-weight rattrape l’état de l’art des modèles propriétaires sur non seulement les benchmarks officiels du développeur du modèle, mais également dans certains benchmarks tiers (comme WeirdML ou la suite de tests de Artificial Analysis). Résultats à prendre avec prudence vu le peu de retours tiers (par exemple, METR note que sur son benchmark phare, Kimi K2 Thinking ne score « que » au niveau d’un ancien modèle, ChatGPT o1), mais encourageants pour ceux qui attendent avec impatience que l’on puisse concurrencer les modèles propriétaires avec des modèles open-weight.
En vrac
OpenAI publie ChatGPT 5.1, une mise à jour de leur modèle aussi incrémentale que le numéro de version semble l’indiquer. Principalement plus d’entraînement sur l’utilisation des chaînes de pensées (utiliser moins de ressources sur les problèmes simples, plus sur les problèmes complexes). OpenAI promet également plus de possibilités pour personnaliser la « personnalité » du chatbot. Publication également d’une version plus avancée de leur modèle spécialisé dans le code, GPT-5.1 Codex Max.
xAI publie également une mise à jour incrémentale de leur modèle, Grok 4.1.
Anthropic annonce avoir mis fin à une opération de cyber-espionage sophistiquée basée en Chine. Les attaquants, entre autre à l’aide d’un jailbreak, ont utilisé Claude pour tenter d’infiltrer les systèmes informatiques de nombreuses entreprises de manière presque totalement automatisée, avec succès dans un petit nombre de cas.
Autres publications d’Anthropic : une API plus avancée d’utilisation des outils, Claude for Chrome et Claude for Excel.
Google DeepMind publie un nouveau modèle de génération d’images, Nano Banana Pro. Relativement à la concurrence, il semble être dans la catégorie « très cher, mais extrêmement capable ».
Google lance son propre éditeur de code basé sur l’IA, Antigravity.
Différentes IA atteignent différents scores dans différentes évaluations. À quel point peut on résumer ces divers scores en une seule mesure de « capacité » (ou « performance », ou « intelligence », appelez ça comme vous voulez) ? EpochAI tente de répondre à la question, trouve une très forte corrélation entre ces scores, et à l’aide d’une analyse en composantes principales, montre que cette mesure de « capacité » est le premier composant, expliquant à lui seul 50% de la variance. Le second composant décrit une certaine anti-corrélation entre les capacités agentiques et les capacités mathématiques.
Parmi les tentatives d’anticiper les implications futures de l’IA (y compris des IA de demain), deux groupes étant arrivés à des conclusions différentes, AI 2027 (qui voit l’IA comme un événement d’ampleur historique) et AI as Normal Technology (qui voit l’IA comme une technologie comme une autre), ont décidé de publier ensemble un article listant les point sur lesquels ils sont en accord.
(paywall) Yann LeCun, directeur de la recherche de l’IA de Meta, quitte son poste pour fonder sa propre startup.
Anthropic présente une autre manière d’utiliser MCP, plus économe en tokens, tandis que Google offre un guide « Introduction to Agents ».
Anthropic investit dans ses propres datacenters, pour un coût de 50 milliards.
Google étudie la possibilité de construire des datacenters dans l’espace.
Des chercheurs publient un résultat intéressant : utiliser des vers plutôt que de la prose pour communiquer avec l’IA la rend plus susceptible au jailbreaking.
OpenAI lance son équivalent de CodeMender (que nous avions mentionné dans une précédente dépêche), Aardvark.
Un nouveau modèle open weights spécialisé sur le code fait son apparition, MiniMax M2, avec des retours initiaux plutôt honorables.
Autre publication d’un modèle open weight : Olmo 3.
Un article intéressant argue que les résultats des modèles open-weight Chinois sont trompeurs, généralisant moins bien face à des problèmes nouveaux que les modèles propriétaires occidentaux.
Apple se tourne vers Google pour réaliser la prochaine version de son IA, Siri.
Pour aller plus loin
Par Zvi Mowshowitz
- En 2023, le conseil d’administration de OpenAI (l’organisation à but lucratif possédant l’entreprise) avait tenté sans succès de limoger Sam Altman. Ilya Sutskever, une des personnes au centre de cette tentative, donne plus de détails sur ces événements.
- Une discussion sur la promesse d’Anthropic de ne jamais supprimer entièrement les anciens modèles.
- Une discussion sur la seconde interview de Sam Altman par Tyler Cowen.
- Une discussion sur le tweet du Pape à propos de l’IA, et des réactions autour.
- Continuation de la discussion des effets de la flagornerie excessive de ChatGPT 4o, couvrant notamment un procès intenté à OpenAI suite au suicide d’un adolescent après que l’IA l’aie encouragé dans son acte.
En audio/video
- Interview (en anglais) de Satya Nadella, PDG de Microsoft, principalement sur le sujet des investissements récents dans l’IA.
- Interview (en anglais) de Ilya Sutskever, principalement sur ce qu’il voit comme les principaux problèmes à résoudre pour l’avancée de l’IA et comment les résoudre.
Sur LinuxFR
Dépêches
- Revue de presse de l’April de l’année 2025
- Revue de presse de Florent Zara
Journaux
- Intégration d'une clé USB accélérateur Coral Edge TPU sous ZoneMinder et Frigate
- Écouter parler l’ia
- Tenter de limiter les nuisances liées aux robots d'IA
- Revue Bifrost : « IA : le futur rêve-t-il toujours de moutons électriques ? »
- Intelligence artificielle et problèmes réels
- J'ai failli le faire
Liens
- ChienGPT ( lien original, discussion LinuxFR ) ;
- « 70 % du cloud est contrôlé par 3 entreprises américaines », entretien avec Meredith Whittaker ( lien original, discussion LinuxFR ) ;
- Êtes-vous capables de manipuler une IA ? Voici un jeu pour tester vos capacités de hacker ( lien original, discussion LinuxFR ) ;
- Entraînement IA: LinkedIn va utiliser les données de ses utilisateurs, qui ont encore 1 jour pour l'en empêcher ( lien original, discussion LinuxFR ) ;
- Quand éclatera la bulle IA… ( lien original, discussion LinuxFR ) ;
- Des militaires s'inspirent des MMORPGs pour concevoir un "Amazon de l'armement" en Ukraine ( lien original, discussion LinuxFR ) ;
- Une hausse de 170% du prix de la mémoire DDR en 2025 ( lien original, discussion LinuxFR ) ;
- «Drill baby drill» : comment l’intelligence artificielle de Microsoft aide les géants du pétrole… ( lien original, discussion LinuxFR ) ;
- À propos de l'automatisation de la culture ( lien original, discussion LinuxFR ) ;
- [Humour] Mettez de l'IA dans vos petits pois ( lien original, discussion LinuxFR ) ;
- La guerre que mènent les robots ascientifiques contre la solitude intellectuelle ( lien original, discussion LinuxFR ) ;
- About KeePassXC’s Code Quality Control (à propos de l'utilisation de l'IA) ( lien original, discussion LinuxFR ) ;
- Alignment CAPTCHAs (anti-AI captcha) ( lien original, discussion LinuxFR ) ;
- OpenAI reconnu coupable d’avoir enfreint les droits d’auteur de chansons en Allemagne ( lien original, discussion LinuxFR ) ;
- Vivons-nous à l‘ère du technofascisme ? ( lien original, discussion LinuxFR ) ;
- La Commission européenne prévoit d’affaiblir le RGPD au profit des entreprises d’IA ( lien original, discussion LinuxFR ) ;
- Les entreprises françaises veulent adopter l’IA, mais voici pourquoi c’est « compliqué » ( lien original, discussion LinuxFR ) ;
- IA : Wikimedia appelle les entreprises à utiliser son API payante et à créditer le contenu ( lien original, discussion LinuxFR ) ;
- Le chatbot IA est le nouveau maillon faible de la cybersécurité en entreprise ( lien original, discussion LinuxFR ) ;
- Est-ce que OpenAI pourrait continuer à assumer des coûts croissants de ses investissements ? ( lien original, discussion LinuxFR ) ;
- "Cela dévoile une telle paresse…": pourquoi je ne sortirai pas avec un utilisateur de ChatGPT( lien original, discussion LinuxFR ) ;
- Nietzsche à l'époque de « l'IA » ( lien original, discussion LinuxFR ) ;
- L'IA générative fait augmenter les prix de la mémoire et du stockage ( lien original, discussion LinuxFR ) ;
- La Bank of America avertit sur les risques de crise de liquidité liés aux investissements dans l'IA ( lien original, discussion LinuxFR ) ;
- Que sont les « TRM » ? Après les LLM, comprendre la future révolution de l’IA ( lien original, discussion LinuxFR ) ;
- Pour la Science : « Vibe coding » : quand les programmes écrivent des programmes ( lien original, discussion LinuxFR ) ;
- Extension Next : des alertes sur 8 500 sites GenAI et contre les attaques par homographes ( lien original, discussion LinuxFR ) ;
- Une réponse aux critiques de l'IA dans firefox ( lien original, discussion LinuxFR ) ;
- Bulle de l'IA: des investisseurs parient sur les faillites futures de OpenAI et de Perplexity ( lien original, discussion LinuxFR ) ;
- Linus Torvalds - Le vibe coding c'est cool, mais pas pour du code critique ( lien original, discussion LinuxFR ) ;
- La justice étend son enquête sur X après des propos négationnistes générés par Grok ( lien original, discussion LinuxFR ) ;
- Why We’re Not Using AI in This Course, Despite Its Obvious Benefits ( lien original, discussion LinuxFR ) ;
- Je ne suis plus joignable par téléphone⁽¹⁾ ( lien original, discussion LinuxFR ) ;
- Comment la vidéosurveillance algorithmique se développe en toute discrétion en France ( lien original, discussion LinuxFR ) ;
- « La machine met la pression toute seule » : comment le numérique rend le travail coercitif ( lien original, discussion LinuxFR ) ;
- L'essor des centres de données de l'IA entretient la pollution de l'air en Inde ( lien original, discussion LinuxFR ) ;
- Assureurs et IA, un risque systémique ( lien original, discussion LinuxFR ) ;
- Nos comptoirs virtuels( lien original, discussion LinuxFR ) ;
- Remplacez votre patron avant qu'il ne vous remplace ( lien original, discussion LinuxFR ) ;
- Pourquoi la prolongation de vie des appareils électroniques devient un dilemme économique majeur ( lien original, discussion LinuxFR ) ;
- What AI is Really For? ( lien original, discussion LinuxFR ) ;
- Pourquoi cette IA juridique choisie par l’État crée une vive polémique ? ( lien original, discussion LinuxFR ) ;
- Suicide après discussions avec ChatGPT : OpenAI rejette la responsabilité sur le défunt ( lien original, discussion LinuxFR ) ;
- Why people keep flocking to Linux in 2025 (and it's not just to escape Windows) ( lien original, discussion LinuxFR ) ;
- L’intelligence artificielle, une révolution… et une bulle ? ( lien original, discussion LinuxFR ) ;
- Éloigner le dépôt de Dillo de Github ( lien original, discussion LinuxFR ) ;
- Arrêter de nous gaver avec de l'IA ( lien original, discussion LinuxFR ) ;
Commentaires : voir le flux Atom ouvrir dans le navigateur
Au café libre — « Libre à vous ! » du 25 novembre 2025 — Podcasts et références
Deux-cent-soixante-et-unième émission « Libre à vous ! » de l’April. Podcast et programme :
- sujet principal : Au café libre (débat autour de l’actualité du logiciel libre et des libertés informatiques) avec Magali Garnero (Bookynette), Pierre Beyssac, Vincent Calame
- chronique « Lectures buissonnières » de Vincent Calame sur « la vie algorithmique » (3e partie)
- chronique « La pituite de Luk » sur « La première raclette de la saison »
- lien nᵒ 1 : Podcast de la 261ᵉ émission
- lien nᵒ 2 : Les références pour la 261ᵉ émission et les podcasts par sujets
- lien nᵒ 3 : S'abonner au podcast
- lien nᵒ 4 : S'abonner à la lettre d'actus
- lien nᵒ 5 : Libre à vous !
- lien nᵒ 6 : Radio Cause Commune
Rendez‐vous en direct chaque mardi de 15 h 30 à 17 h sur 93,1 MHz en Île‐de‐France. L’émission est diffusée simultanément sur le site Web de la radio Cause Commune. Vous pouvez nous laisser un message sur le répondeur de la radio : pour réagir à l’un des sujets de l’émission, pour partager un témoignage, vos idées, vos suggestions, vos encouragements ou pour nous poser une question. Le numéro du répondeur : +33 9 72 51 55 46.
Commentaires : voir le flux Atom ouvrir dans le navigateur
Intel LASS, SGX EUPDATESVN & Microcode Staging Features Land In Linux 6.19
Oracle 10.1
Arkane 2025.12.02
AMD Zen 6 RAS Preparation, AMD SDCI Features Merged For Linux 6.19
3mdeb Ports Their Dasharo Firmware To A Recent ASRock Rack Motherboard
Important Performance Work: Overhaul Of RSEQ & CID Management Merged For Linux 6.19
Linux Mint 22.3 Beta Will Be Released This Month
Linux Mint 22.3 ‘Zena’ is readying a beta release for testing, with the distro’s developers aiming to have it out in the first half of December. If it feels a bit “soon” for a new version of Linux Mint to be coming it’s because the release of Linux Mint 22.2 arrived much later than usual. As the distro’s developers don’t want their standard release schedule to slip, and many of the bigger changes planned have been in gestation for a while, there’s no reason to hold back for the sake of it. Amongst changes coming in Linux Mint 22.3 are […]
You're reading Linux Mint 22.3 Beta Will Be Released This Month, a blog post from OMG! Ubuntu. Do not reproduce elsewhere without permission.
Linux 6.19 Merges "klp-build" As New Livepatch Module Generation Solution
TornadoVM 2.0 Released For Java On NVIDIA PTX, OpenCL & SPIR-V Devices
Fanatical launch new Play on the Go Bundle - great for Steam Deck and other handhelds
.
Read the full article on GamingOnLinux.
Linux 6.19 To Allow File-Systems To Increase The Writeback Chunk Size
NVIDIA Beta driver 590.44.01 released for Linux
.
Read the full article on GamingOnLinux.
NVIDIA 590.44.01 Beta Linux Driver Released With Wayland Improvements
Canonical Now Offering Ubuntu Pro For WSL
Star Fox spiritual successor Wild Blue Skies gets a fresh gameplay trailer
.
Read the full article on GamingOnLinux.
Mewgenics will be "100%" Steam Deck compatible at launch
.
Read the full article on GamingOnLinux.
GNOME OS 956432
Pixel-art RTS game TFC: The Fertile Crescent joins with MicroProse Software and it's now Steam Deck Verified
.
Read the full article on GamingOnLinux.
openSUSE Begins Rolling Out Intel NPU Support
Optimized NUMA Distances For Intel GNR & CWF, Other Scheduler Improvements In Linux 6.19
Valve's version of Android on Linux (based on Waydroid) is now called Lepton
.
Read the full article on GamingOnLinux.