↩ Accueil

Vue lecture

La fin de support des GPU Maxwell et Pascal crée quelques remous sur Arch Linux

Rogntudju
La fin de support des GPU Maxwell et Pascal crée quelques remous sur Arch Linux

Vous avez peut-être vu passer ces quelques derniers jours des actualités pointant vers la fin du support d’anciens GPU NVIDIA par Arch Linux. Ce n’est pas tout à fait ça, même si le résultat y ressemble.

À l’origine, on trouve la publication des pilotes 590 de NVIDIA. C’est bien cette version, sortie début décembre, qui met fin au support officiel des GPU des générations Maxwell et Pascal, c’est-à-dire les GeForce GTX des séries 900 et 1000.

Cette fin de support, annoncée il y a plusieurs années, signifie que NVIDIA n’ajoute plus d’optimisations spécifiques ni de prises en charge de jeux en particulier. Les GPU continuent de fonctionner avec la version précédente des pilotes (de la branche 580). En outre – et c’est une information importante – le support complet n’est pas coupé : les mises à jour de sécurité continueront d’arriver jusqu’en octobre 2028.

Simple comme une mise à jour

Pourquoi un problème particulier avec Arch Linux dans ce cas ? À cause du fonctionnement en « rolling release », à savoir la diffusion quasi immédiate des dernières nouveautés logicielles. Le pilote 590 de NVIDIA y a été diffusé, avec utilisation par défaut. Ce n’est pas sans conséquence sur des systèmes appliquant toutes les mises à jour quand un pilote supprime un support.

Pour Arch Linux, la situation a été expliquée le 20 décembre par Peter Jung, l’un des mainteneurs du système (et créateur de cachyOS, distribution spécialisée dans le jeu vidéo). Il y indique que la nouvelle série 590 supprime le support des générations Pascal et antérieures, et que des remplacements de paquets sont donc appliqués : nvidia par nvidia-open, nvidia-dkms par nvidia-open-dkms, et nvidia-lts par nvidia-lts-open.

Il avertissait également que la mise à jour des paquets NVIDIA sur des systèmes intégrant ces anciens GPU entraînerait l’échec de chargement du pilote et donc celui de l’environnement graphique. La seule solution est de désinstaller les paquets nvidia, nvidia-lts et nvidia-dkms, puis d’installer le paquet nvidia-580xx-dkms depuis le dépôt AUR.

Les GeForce 16XX hors de danger

Il ajoute que rien ne change pour les GPU datant d’au moins la génération Turing, qui comprend la série 2000 des GeForce, mais également la série 1600. Cette dernière est en effet basée sur Turing, mais débarrassée des capacités de ray tracing. Les GeForce 1660 Ti, notamment, ne sont ainsi pas concernées par l’abandon de support dans le pilote 590.

Reste que la décision d’Arch Linux de procéder ainsi a provoqué de nombreuses réactions, comme on peut le voir dans les commentaires de sites tels que Phoronix et TechPowerUp. Plusieurs personnes manifestent de l’incompréhension face à une méthode jugée un peu trop radicale, indiquant qu’une détection automatique aurait pu être mise en place.

Enfin, précisons que cet arrêt de support n’est pas spécifique à la sphère Linux : Windows est lui aussi concerné. Le problème est cependant différent, car l’application NVIDIA n’installera pas d’elle-même la mise à jour, et Windows Update ne devrait pas non plus la proposer. Si l’on veut télécharger le pilote depuis le site officiel, l’outil intégré permet d’envoyer vers la bonne version. Si vous avez par exemple une GeForce GTX 1060, la version proposée au téléchargement est la 581.80.

  •  

☕️ OpenAI veut recruter quelqu’un pour réfléchir aux dérapages de l’IA

L’annonce semble tardive, mais OpenAI cherche activement à recruter une personne dont le rôle sera de s’inquiéter de tous les dangers liés à l’IA. Ce nouveau « chef de la préparation » (head of preparedness) aura pour mission de diriger les efforts de l’entreprise dans l’encadrement de ses modèles.

« Le responsable de la préparation développera, renforcera et guidera ce programme afin que nos normes de sécurité s’adaptent aux capacités des systèmes que nous développons », indique OpenAI dans son annonce. « Vous serez le responsable direct de la construction et de la coordination des évaluations des capacités, des modèles de menace et des mesures d’atténuation qui forment un pipeline de sécurité cohérent, rigoureux et opérationnellement évolutif ».

L’annonce ajoute que ce poste nécessite « un jugement technique approfondi, une communication claire et la capacité de guider des travaux complexes à travers de multiples domaines de risque ». Il implique une collaboration « avec la recherche, l’ingénierie, les équipes produit, les équipes de suivi et d’application des politiques, la gouvernance et des partenaires externes ».

Sam Altman, CEO de l’entreprise, y est allé de sa propre annonce sur X. Il y évoque un poste « crucial à un moment charnière ». Selon lui, les modèles évoluent très vite et sont capables désormais « de prouesses remarquables », mais « commencent » à poser de sérieux défis. Il cite deux exemples « entrevus » en 2025 : l’impact sur la santé mentale et une puissance telle que les LLM révèlent des vulnérabilités critiques.

Altman affirme qu’OpenAI dispose déjà d’outils solides pour mesurer ces « capacités croissantes ». Mais une personne qualifiée permettrait d’aller plus loin, notamment en aidant « le monde à trouver comment doter les défenseurs de la cybersécurité de capacités de pointe tout en veillant à ce que les attaquants ne puissent pas les utiliser à des fins malveillantes ».

Plusieurs personnalités reconnues du monde de l’IA se sont déjà succédé à ce poste chez OpenAI. La casquette a d’abord été portée par Aleksander Mądry, qui a discrètement été affecté à d’autres missions en juillet 2024. Elle est ensuite revenue à un duo composé de Joaquin Quinonero Candela et Lilian Weng, qui ont préféré jeter l’éponge au printemps dernier.

« Ce sera un travail stressant et vous serez plongé directement dans le grand bain », avertit le CEO. L’annonce évoque un salaire annuel de l’ordre de 555 000 dollars, assorti d’une participation.

  •  

☕️ OpenAI veut recruter quelqu’un pour réfléchir aux dérapages de l’IA

L’annonce semble tardive, mais OpenAI cherche activement à recruter une personne dont le rôle sera de s’inquiéter de tous les dangers liés à l’IA. Ce nouveau « chef de la préparation » (head of preparedness) aura pour mission de diriger les efforts de l’entreprise dans l’encadrement de ses modèles.

« Le responsable de la préparation développera, renforcera et guidera ce programme afin que nos normes de sécurité s’adaptent aux capacités des systèmes que nous développons », indique OpenAI dans son annonce. « Vous serez le responsable direct de la construction et de la coordination des évaluations des capacités, des modèles de menace et des mesures d’atténuation qui forment un pipeline de sécurité cohérent, rigoureux et opérationnellement évolutif ».

L’annonce ajoute que ce poste nécessite « un jugement technique approfondi, une communication claire et la capacité de guider des travaux complexes à travers de multiples domaines de risque ». Il implique une collaboration « avec la recherche, l’ingénierie, les équipes produit, les équipes de suivi et d’application des politiques, la gouvernance et des partenaires externes ».

Sam Altman, CEO de l’entreprise, y est allé de sa propre annonce sur X. Il y évoque un poste « crucial à un moment charnière ». Selon lui, les modèles évoluent très vite et sont capables désormais « de prouesses remarquables », mais « commencent » à poser de sérieux défis. Il cite deux exemples « entrevus » en 2025 : l’impact sur la santé mentale et une puissance telle que les LLM révèlent des vulnérabilités critiques.

Altman affirme qu’OpenAI dispose déjà d’outils solides pour mesurer ces « capacités croissantes ». Mais une personne qualifiée permettrait d’aller plus loin, notamment en aidant « le monde à trouver comment doter les défenseurs de la cybersécurité de capacités de pointe tout en veillant à ce que les attaquants ne puissent pas les utiliser à des fins malveillantes ».

Plusieurs personnalités reconnues du monde de l’IA se sont déjà succédé à ce poste chez OpenAI. La casquette a d’abord été portée par Aleksander Mądry, qui a discrètement été affecté à d’autres missions en juillet 2024. Elle est ensuite revenue à un duo composé de Joaquin Quinonero Candela et Lilian Weng, qui ont préféré jeter l’éponge au printemps dernier.

« Ce sera un travail stressant et vous serez plongé directement dans le grand bain », avertit le CEO. L’annonce évoque un salaire annuel de l’ordre de 555 000 dollars, assorti d’une participation.

  •  

☕️ Firefox se dote d’une vue partagée pour afficher deux sites côte à côte

Une nouvelle fonction a été découverte dans le « about:config » du navigateur, qui permet pour rappel d’activer certaines capacités non finalisées. Firefox va ainsi se doter d’une vue scindée, souvent appelée Split View, comme relevé par OMGUbuntu.

Ce type de fonction, que l’on trouve volontiers dans des navigateurs « avancés » comme Vivaldi, permet d’afficher deux sites côte à côte. La vue scindée est devenue plus courante avec le temps, Microsoft l’ayant ajoutée dans Edge en 2024 et Google dans Chrome le mois dernier.

L’utilisation dans Firefox est simple. Il faut d’abord se rendre dans « about :config » et lancer une recherche sur « split ». Il suffit ensuite de double-cliquer sur la ligne « browser.tabs.splitView.enabled », afin que la valeur « False » passe en « True ». Pas besoin de télécharger une préversion de Firefox, l’option est disponible dans l’actuelle révision stable 146.

Une fois le paramètre activé, il suffit de faire un clic droit sur n’importe quel onglet et de sélectionner « Ajouter une vue scindée ». L’onglet se divise alors en deux sous-onglets plus petits, chacun ayant sa propre adresse. Par défaut, chaque site récupère la moitié de la fenêtre, mais on peut déplacer la barre de séparation. Ce type de fonction est très utile pour comparer deux pages ou pour lire un contenu tout en surveillant un flux de réseau social.

Si la fonction est disponible actuellement, elle ne préfigure pas d’une arrivée officielle dans Firefox 147. Celle-ci s’annonce déjà comme une mouture importante, au moins sous le capot. D’après les notes de version actuelles du canal Beta, Firefox 147 apportera ainsi le support de WebGPU aux Mac équipés puces Apple Silicon, une amélioration des performances pour les vidéos avec les GPU AMD, le support de la spécification XDG Base Directory de Freedesktop.org pour les distributions Linux, ou encore la prise en charge de Safe Browsing V5.

  •  

☕️ Le groupe NoName de pirates prorusses revendique l’attaque contre La Poste

À l’heure où nous écrivons ces lignes, plusieurs services du groupe La Poste ne fonctionnent toujours pas, notamment le site de Colissimo, rendant le suivi des paquets impossible. La faute à une cyberattaque contre le groupe qui dure depuis plus de 48 heures, sous la forme d’un vaste déni de service distribué (DDoS).

Le ministre de l’Économie, Roland Lescure, a indiqué hier à BFM que l’attaque était toujours en cours, mais qu’elle faiblissait. Il s’était montré rassurant pour les (nombreux) colis attendus en cette période de fêtes de fin d’année : « Si vous avez demandé un colis pour Noël, vous n’avez pas aujourd’hui les moyens d’aller voir sur le site où il en est, mais le colis, lui, est en train d’arriver. La priorité des priorités, c’est de faire en sorte que les colis arrivent à temps pour Noël ».

Hier soir, l’attaque a été revendiquée par le groupe prorusse NoName057(016), a rapporté franceinfo. Nos confrères indiquent que l’information a été confirmée par le parquet de Paris. Les gendarmes de l’UNC (Unité nationale cyber) et la DGSI (Direction générale de la sécurité intérieure) ont été saisis de l’enquête « pour des faits d’entrave au fonctionnement d’un système de traitement automatisé de données ».

Comme le rappelle franceinfo, ce n’est pas la première fois que le groupe s’en prend à la France. En mars 2023, le site de l’Assemblée nationale avait ainsi disparu pendant presque une journée. Les pirates avaient expliqué viser la France « où les protestations contre Macron, qui a décidé de ne pas se soucier des Français et continue à servir les néonazis ukrainiens, ne se calment pas ». Le parquet de Paris avait pourtant confirmé en juillet dernier le démantèlement de l’infrastructure principale du groupe et l’arrestation de plusieurs pirates présumés, dont deux en France.

Certains doutent cependant que le groupe soit réellement l’auteur de l’attaque. C’est le cas du chercheur en sécurité Baptiste Robert, pour qui certaines informations ne collent pas. Il nie également que la France soit le pays le plus visé par le groupe NoName : « Depuis 2023, avec DDOSia, le pays le plus ciblé, et de très, très loin (roulement de tambour), est l’Ukraine ».

  •  

[MàJ] Conversion du code en Rust : Microsoft rétropédale

Modern C
[MàJ] Conversion du code en Rust : Microsoft rétropédale

Galen Hunt, l’un des principaux ingénieurs de Microsoft, a publié une offre d’emploi détonante : l’entreprise recherche un ingénieur pour aider à la transition intégrale du code C/C++ vers Rust, qui doit être achevée en à peine cinq ans. Il a cependant rétropédalé, évoquant des « lectures spéculatives ».

Mise à jour du 24 décembre : Dans une mise à jour, Galen Hunt indique : « Il semble que mon post ait suscité bien plus d’attention que je ne l’avais prévu… Avec beaucoup de lectures spéculatives entre les lignes. Juste pour clarifier… Windows n’est *PAS* en train d’être réécrit dans Rust avec l’IA ». Et d’ajouter qu’il s’agit d’un projet de recherche : le développement de « technologies pour rendre possible la migration d’un langage à un autre ».

Difficile pourtant de parler de « lectures spéculatives », car le texte initial (toujours disponible) était clair, notamment : « Mon objectif est d’éliminer toutes les lignes de C et C++ de Microsoft d’ici 2030 ». Des termes clairs, d’autant plus quand ils sont prononcés par l’un des principaux ingénieurs dans l’entreprise.

Dans un commentaire, Wolfgang Grieskamp, un autre ingénieur de Microsoft, indique que la traduction automatique vers Rust ne donne de toute façon pas de bons résultats. Le code obtenu est « unsafe, au sens de Rust », car il est nécessaire de penser le projet avec le langage dès le départ, modifiant largement la manière dont les données sont gérées.


Article original du 23 décembre :

Microsoft n’a jamais caché son intérêt pour le Rust. Il a été question un temps d’attendre que l’outillage s’adapte et soit plus mature, mais la version 24H2 de Windows 11 a été la première à introduire du code Rust dans son noyau. Signe clair que la situation avait largement évolué. En février 2025, Paul Thurrott rapportait que la consigne avait été donnée en interne de ne commencer aucun nouveau projet en C ou C++, seulement en Rust.

Le langage, créé initialement par Mozilla, est depuis longtemps géré par une fondation indépendante. Microsoft en était d’ailleurs l’un des principaux membres fondateurs. Le Rust est observé de près par de nombreuses entreprises, particulièrement pour tout ce qui touche à la programmation système. On en trouve d’ailleurs dans le noyau Linux, bien que cette intégration ne se soit pas faite sans heurts. Comme nous l’expliquait récemment Sylvestre Ledru de Mozilla, Firefox en intègre également plusieurs millions de lignes de code, tout comme Chrome.

Mais Microsoft vient de donner un sérieux coup d’accélérateur : la firme veut remplacer tout son code C/C++ d’ici 2030.

Un projet titanesque

L’annonce n’a pas fait l’objet d’un billet ou d’un communiqué de presse. Elle est présente dans une offre d’emploi publiée par Galen Hunt, l’un des plus anciens ingénieurs logiciels de l’entreprise. L’offre est pour un ingénieur logiciel principal, en présentiel à Redmond.

Elle est cependant vite évacuée au profit d’une déclaration fracassante : « Mon objectif est d’éliminer toutes les lignes de C et C++ de Microsoft d’ici 2030 ». Galen Hunt indique que la stratégie consiste à mêler IA et algorithmes, et que « l’étoile polaire » est d’atteindre « 1 ingénieur, 1 mois, 1 million de lignes de code ». La tâche est décrite comme « inimaginable jusqu’ici ».

L’infrastructure algorithmique de l’entreprise est utilisée actuellement pour créer « un graphe évolutif sur le code source à grande échelle ». Après quoi, des agents IA, « guidés par des algorithmes », effectuent les modifications, également à grande échelle. Galen Hunt assure que le « cœur de cette infrastructure fonctionne déjà à grande échelle sur des problèmes tels que la compréhension du code ».

Une expérience en programmation système de qualité production est exigée. Galen Hunt enchaine sur d’autres paramètres de l’offre et un descriptif de l’équipe travaillant sur ce projet.

Le Rust, toujours le Rust

Plusieurs personnes sont venues témoigner de leur étonnement dans les commentaires. Sur le choix du Rust par exemple : pourquoi ne pas avoir choisi C#, qui présente lui aussi certaines caractéristiques intéressantes pour la sécurité ?

Galen Hunt a répondu : C# est « memory safe », mais pas « concurrent safe ». Comprendre que si C# permet d’éliminer certaines classes de failles de sécurité, notamment via un typage fort, Rust va plus loin. Il est jugé plus adapté à la programmation concurrente, quand plusieurs threads, processus ou tâches évoluent en parallèle, avec ou sans zone mémoire commune. Autre raison, attendue : les performances. Rust fonctionne sans ramasse-miettes (garbage collector) et permet d’atteindre les performances du C++.

L’ingénieur évalue à un milliard le nombre de lignes de code concernées chez Microsoft. Pourquoi un projet aussi démesuré ? Pourquoi ne pas garder le code C/C++ ? « Pas de sécurité mémoire. Pas de sécurité sur la concurrence. Bien sûr, pour une seule base de code C ou C++, ces qualités peuvent être atteintes par une discipline et un effort extraordinaires – et disparaître en une seule erreur. Avec Rust, cela peut être prouvé par le compilateur », répond Galen Hunt.

L’annonce a été accueillie avec une certaine incrédulité… y compris dans les rangs mêmes de Microsoft. Rupo Zhang, l’un des responsables de l’ingénierie logicielle de l’entreprise, demande en commentaire sur LinkedIn : « Vous êtes sérieux ? ». La question est restée sans réponse.

Relecture critique

Le projet est en effet pharaonique. « Notre mission est de développer des capacités permettant à Microsoft et à nos clients d’éliminer la dette technique à grande échelle », indiquait Galen Hunt dans l’annonce. Ce qui implique non seulement la conversion de centaines de millions de lignes de code, mais également les nombreux tests devant être réalisés pour en vérifier la fiabilité et les performances.

L’annonce laisse d’ailleurs entendre que le projet est double : convertir tout le code en Rust et finaliser l’infrastructure capable d’accomplir cette opération. Cette dernière impliquerait notamment que l’intégralité du code de Windows serait convertie en Rust, tout en maintenant la rétrocompatibilité, qui est l’une des marques de fabrique de la plateforme. Début septembre, on apprenait notamment que Microsoft voulait encourager le développement de pilotes en Rust, mais que seules les premières briques de l’infrastructure étaient proposées.

Quoi qu’il en soit, Microsoft répète continuellement depuis plus de dix ans que 70 % des failles de sécurité corrigées sont liées à une mauvaise gestion de la mémoire. Le Rust, bien qu’il élimine pratiquement tous les types de failles dans ce contexte, n’est pas non plus une protection absolue contre toutes les menaces. Il faut encore que le code ait été bien écrit. Comme nous le disait récemment l’ingénieur Horacio Gonzalez (Clever Cloud), la relecture critique a toutes les chances de devenir une compétence très recherchée.

  •  

OpenAI : les injections de prompts resteront « un défi pour de nombreuses années »

Prise de devants
OpenAI : les injections de prompts resteront « un défi pour de nombreuses années »

Dans un billet de blog publié ce 22 décembre, OpenAI a abordé plus en détail la sécurité de son navigateur Atlas. L’entreprise a notamment décrit la formation d’un agent spécialement entrainé pour trouver des failles. Elle reconnait cependant que les injections de prompts resteront possibles pour longtemps.

Le billet d’OpenAI se concentre sur les attaques par injection de prompts, aussi appelées injections rapides. Spécifiques à l’IA générative, elles tablent sur l’exploration par un chatbot de ressources contenant des instructions malveillantes cachées. Une requête peut par exemple envoyer ChatGPT visiter une certaine page sur un site, laquelle abrite un autre prompt, que l’IA va analyser et interpréter comme tel, avant de satisfaire la demande. Le résultat peut être notamment une fuite d’informations personnelles.

« À titre d’exemple hypothétique, un attaquant pourrait envoyer un courriel malveillant tentant de tromper un agent pour qu’il ignore la demande de l’utilisateur et transmette à la place des documents fiscaux sensibles vers une adresse e-mail contrôlée par l’attaquant. Si un utilisateur demande à l’agent de revoir les e-mails non lus et de résumer des points clés, l’agent peut ingérer cet e-mail malveillant pendant le flux de travail. S’il suit les instructions injectées, il peut s’écarter de sa tâche et partager à tort des informations sensibles », explique ainsi OpenAI.

Atlas au premier plan

Problème pour OpenAI : tout ce qu’il est possible de faire avec l’interface classique de ChatGPT l’est avec les agents. Selon les instructions données, ces derniers exécutent même leur mission de manière automatisée. Et puisqu’ils sont au cœur du navigateur Atlas, OpenAI fait le pari de communiquer directement sur la question.

Cette publication se fait à la faveur d’une mise à jour du modèle, décrit comme mieux entrainé et doté de meilleures protections contre les injections. OpenAI ajoute que cette mise à jour a été déployée suite à la détection d’une série d’attaques par sa « red team automatisée interne ». Une « red team » est une équipe chargée de tester les défenses d’un produit. Dans le cas présent, OpenAI évoque un agent spécialement créé et entrainé dans cet objectif.

Reconnaissant que le « mode agent élargit la surface d’attaque », l’entreprise en a formé un pour attaquer son navigateur. Il fonctionne par renforcement et est décrit comme s’adaptant sans cesse pour trouver de nouvelles portes d’entrée. OpenAI indique avoir accès à la liste de toutes les opérations tentées, l’agent étant présenté comme plus rapide dans ses approches qu’aucun humain ne pourra jamais l’être. Il est basé sur un LLM et se comporte comme un pirate survitaminé, selon l’entreprise.

Pour OpenAI, cette méthode a deux gros avantages : l’approche proactive forçant une adaptation rapide et l’analyse du comportement de tous les agents impliqués, aussi bien en attaque qu’en défense. L’agent attaquant peut lui aussi analyser le comportement des agents présents dans Atlas, pour itérer et lancer une boucle de rétroaction : chaque « décision » prise par Atlas est scrutée pour trouver une faille.

Un problème « à long terme »

Si OpenAI veut montrer qu’elle prend le problème des attaques par injection très au sérieux, elle reconnait dans le même temps qu’il ne sera probablement jamais circonscrit.

« Nous nous attendons à ce que nos adversaires continuent de s’adapter. L’injection rapide, tout comme les arnaques et l’ingénierie sociale sur le web, est peu susceptible d’être un jour complètement « résolue ». Mais nous sommes optimistes quant à une boucle de réponse rapide proactive, très réactive et capable de continuer à réduire de manière significative les risques réels au fil du temps », reconnait l’entreprise dans son billet de blog.

OpenAI parle de « lucidité » sur le compromis entre puissance et surface d’attaque. Cette communication a en outre un autre effet : le sous-texte est que tous les navigateurs agentiques sont concernés, avec des piques invisibles lancées aux concurrents comme Perplexity et son Comet, et surtout Google avec Chrome. Et que dire d’un Windows 11 agentique ?

  •  

[MàJ] Cyberattaque : les services de La Poste toujours indisponibles

Un 22 décembre ?
[MàJ] Cyberattaque : les services de La Poste toujours indisponibles

La Poste, La Banque postale, Colissimo, Digiposte : la plupart des services en ligne du groupe sont toujours indisponibles ce matin. On ne sait pas encore quand la situation reviendra à la normale.

Mise à jour du 23 décembre à 10h02 : Au micro de BFM, le ministre de l’Économie, Roland Lescure, a indiqué que la cyberattaque (DDoS) contre les services du groupe La Poste était toujours en cours. Elle aurait cependant « baissé en intensité ».

« Si vous avez demandé un colis pour Noël, vous n’avez pas aujourd’hui les moyens d’aller voir sur le site où il en est, mais le colis, lui, est en train d’arriver. La priorité des priorités, c’est de faire en sorte que les colis arrivent à temps pour Noël », a affirmé le ministre.


Article original du 22 décembre :

« Depuis tôt ce matin, un incident affecte l’accès à votre banque en ligne et à l’app mobile. Il est actuellement en cours de résolution, nos équipes mettent tout en œuvre pour rétablir le service rapidement », indiquait La Banque postale à 8h14 sur X. L’entreprise précisait que les paiements en ligne restaient disponibles via une authentification par SMS, l’application bancaire ne pouvant plus être utilisée. Les paiements par carte en magasin et les virements par Wero continuaient de fonctionner.

Des clients dans le flou

Tous les services en ligne du groupe La Poste semblent touchés, comme le site principal, Colissimo ou Digiposte. Le symptôme est toujours le même : le site « mouline » puis affiche un message d’erreur : « Nos équipes mettent tout en œuvre afin de rétablir la situation au plus vite. Nous vous présentons nos excuses pour la gêne occasionnée ».

À 13h25, nouveau tweet : « Un incident perturbe actuellement l’accessibilité d’une partie de nos systèmes d’information ». Là encore, le groupe indique que tout est fait pour rétablir la situation au plus vite, sans plus de détails. Il ajoute cependant que les « services essentiels de la banque ne sont pas impactés » : les paiements, les échanges interbancaires et le traitement des flux.

À l’heure où nous écrivons ces lignes, les services impactés depuis ce matin ne sont toujours pas de retour. Sur le compte X, les réponses les plus récentes indiquent aux usagers qu’aucun horaire ne peut encore être communiqué.

Attaque par déni de service

Sur X, malgré les demandes, le compte officiel ne communique pas sur l’origine de « l’incident ». Selon plusieurs médias cependant, dont Le Monde Informatique et Clubic, le groupe est victime d’une attaque par déni de service (DDoS) qui immobiliserait ses services. La Poste a fini par confirmer l’hypothèse au Monde.

Selon Clubic d’ailleurs, la panne qui a affecté les services du groupe le samedi 20 décembre était déjà liée à une attaque DDoS.

Le calendrier ne doit dans tous les cas rien au hasard, à deux jours du réveillon de Noël. Le groupe a d’ailleurs assuré à franceinfo que la livraison des colis continuait, mais qu’elle était perturbée.

  •  

Microsoft va apporter l’accélération matérielle à son chiffrement BitLocker, mais…

Disponible, mais pas vraiment
Microsoft va apporter l’accélération matérielle à son chiffrement BitLocker, mais…

BitLocker, la technologie de chiffrement intégral du disque chez Microsoft, recevra en 2026 une évolution majeure : le support de l’accélération matérielle. Les gains attendus sont significatifs, mais ce support sera très restreint dans un premier temps. En outre, des questions restent en suspens sur l’implémentation.

BitLocker est une technologie de Microsoft permettant de chiffrer intégralement le disque. Elle existe depuis longtemps, mais a surtout pris son envol avec Windows 10. Elle est présente dans Windows 11 et est même censée être active par défaut sur les installations neuves du système, à condition qu’elles se fassent avec la version 24H2. Un test récent sur un ordinateur portable, depuis une image ISO de Windows 11 25H2 (récupérable sur le site de Microsoft), nous a cependant montré que cette activation n’était toujours pas systématique.

Le chiffrement utilisé aujourd’hui est entièrement logiciel. Le gros avantage de cette approche est qu’elle rend BitLocker compatible avec toutes les configurations. Elle a pourtant deux inconvénients : le coût en performances et le niveau de sécurité.

Pour remédier à ces problèmes, Microsoft a annoncé ce 19 décembre l’arrivée de l’accélération matérielle. Malheureusement, aucune configuration n’a ce qu’il faut actuellement, et il faudra peut-être attendre fin 2026 pour en profiter, sur un nombre très limité de configurations.

Approche logicielle : un coût croissant en performances

Dans son billet, Microsoft indique que le coût en performances de BitLocker aurait dû continuer à s’exprimer via un pourcentage à un seul chiffre. Ce n’est plus possible aujourd’hui, à cause du niveau élevé de performances offert par les SSD NVMe.

Le constat peut paraitre contre-intuitif, mais l’explication est simple : certains disques sont si rapides que le processus galope pour suivre l’explosion du nombre d’opérations entrée/sortie (I/O) et répercuter les opérations de chiffrement attenantes.

« À mesure que les disques NVMe continuent d’évoluer, leur capacité à délivrer des débits de transfert de données extrêmement rapides a créé de nouvelles attentes en matière de réactivité système et de performance des applications. Bien que cela représente un avantage majeur pour les utilisateurs, cela signifie aussi que tout traitement supplémentaire — comme le chiffrement et le déchiffrement en temps réel par BitLocker — peut devenir un goulot d’étranglement s’il n’est pas correctement optimisé », explique Microsoft.

Le problème n’est pas nouveau : Tom’s Hardware en parlait par exemple en octobre 2023. Nos confrères avaient mesuré l’impact de BitLocker via plusieurs tests, qui avaient montré une chute de performances sur SSD pouvant atteindre 45 %. Dans sa communication, Microsoft ne donne pas de chiffres, mais évoque des baisses sensibles de performances dans des cas courants comme les chargements de gros fichiers vidéo, de grandes bases de code ou même dans certains jeux, où une latence peut se faire sentir. Et plus les SSD progressent, plus le problème est manifeste.

Décharger le CPU

L’arrivée de l’accélération matérielle pour BitLocker a été annoncée initialement durant la conférence Ignite, qui s’est tenue du 18 au 21 novembre. Microsoft est même déjà prête pour ce changement, puisque les bases en ont été posées dans la mise à jour de septembre pour Windows 11.

Comme toujours avec l’accélération matérielle, l’objectif est de décharger le processeur central (CPU) de certaines opérations, pour en finir avec les goulots d’étranglement. Dans le nouveau fonctionnement, tout sera ainsi traité par une nouvelle partie dédiée dans des processeurs à venir, de la même manière que le NPU (Neural Process Unit) prend en charge les opérations liées à l’IA dans certaines puces.

L’accélération matérielle se servira de l’algorithme XTS-AES-256 pour ses opérations, qui comprendront le chiffrement intégral, l’activation manuelle, l’activation pilotée par des politiques d’entreprise ainsi que celle basée sur des scripts. Microsoft ne donne pas de détails sur son protocole de test, mais dit avoir observé des performances équivalentes entre un disque NVMe avec chiffrement matériel et un autre sans chiffrement « sur les charges de travail courantes ». Des améliorations ont également été constatées sur les « écritures et lectures séquentielles et aléatoires ». L’entreprise dit aussi avoir constaté une baisse de 70 % des cycles CPU requis pour les opérations de chiffrement en moyenne.

Cette hausse des performances permettrait aussi une meilleure autonomie des ordinateurs portables concernés, puisque les opérations consomment moins d’énergie.

Le chiffrement matériel est en outre présenté comme bénéfique pour la sécurité, car les clés utilisées pour le chiffrement de masse sont soustraites du périmètre logiciel pour être encapsulées matériellement, « ce qui aide à accroître la sécurité en réduisant leur exposition aux vulnérabilités CPU et mémoire ». Ce fonctionnement vient alors compléter celui de la puce TPM, qui s’occupe des clés intermédiaires de chiffrement.

Problèmes à l’horizon

La publication de Microsoft soulève un certain nombre de questions et de problèmes. Plusieurs cas ne seront par exemple pas pris en charge : si un algorithme ou une taille de clé non pris en charge a été spécifié manuellement, si la politique d’entreprise impose un algorithme incompatible, ou encore si la politique FIPS 140 est active dans l’organisation.

Microsoft indique que des solutions vont être apportées pour aider les entreprises à transiter vers le chiffrement matériel pour BitLocker. Au printemps, Windows 11 va ainsi être mis à jour pour procéder automatiquement à une augmentation de la taille de la clé quand c’est possible, mais le système ne pourra changer l’algorithme lui-même. En clair, il passera automatiquement de AES-XTS-128 à AES-XTS-256 quand le contexte s’y prêtera.

Rappelons également que BitLocker a bénéficié un temps d’un chiffrement matériel avec les disques auto-chiffrés eDrive. Le support avait été supprimé après la découverte de plusieurs vulnérabilités, qui avaient notamment affecté Dell. Un chiffrement logiciel avait l’avantage pour Microsoft de permettre la maitrise de toute la chaine. Le retour de l’accélération matérielle réintroduit une dépendance sur les implémentations matérielles, qui peuvent comporter des vulnérabilités (BitLocker lui-même n’est pas une protection absolue). On ne sait rien du processus qui conduira à d’éventuelles certifications.

Surtout, la question du support matériel est intrigante. Pour l’instant, seuls les processeurs Core Ultra Series 3 d’Intel (Panther Lake) sont présentés comme compatibles. Et encore, Microsoft ne parle que d’un « support initial ». Or, ces puces sont attendues pour le second semestre 2026, sans plus de précisions. Aucune mention d’AMD et des puces Arm (qui équipent l’immense majorité des PC Copilot+ via les Snapdragon X Elite de Qualcomm), Microsoft n’évoquant qu’un support prévu « pour d’autres fabricants et plateformes », sans plus de détails.

  •  

☕️ Microsoft diffuse en urgence un patch pour MSMQ sur Windows 10

Windows 10 n’a officiellement plus de support technique depuis le 14 octobre dernier. Dans l’ensemble des marchés, il est d’ordinaire possible de payer pour obtenir une année de support supplémentaire. Ce programme, nommé Extended Security Updates (ESU), est cependant gratuit en Europe. Il est limité à la première année et prendra fin (en théorie) en octobre 2026.

Dans le cadre de cette extension, des correctifs sont publiés pour les failles importantes ou critiques. Or, le dernier « Patch Tuesday » comportait une mise à jour spécifique, KB5071546, qui a entrainé de sérieux problèmes pour la fonction Message Queuing (MSMQ). Son installation a ainsi entrainé un arrêt de la fonction sur les machines Windows 10, Windows Server 2019 et Windows Server 2016.

Microsoft a rapidement publié une fiche technique pour résumer les symptômes : les files d’attente MSMQ deviennent inactives, les sites IIS ne fonctionnent plus et affichent des erreurs « Ressources insuffisantes pour effectuer l’opération », les applications ne peuvent plus écrire dans les files d’attente, des journaux (logs) affichent de faux messages « Il n’y a pas assez d’espace disque ou de mémoire », etc.

L’éditeur en profitait pour indiquer la source du souci : « Ce problème est causé par les récents changements introduits dans le modèle de sécurité MSMQ et les permissions NTFS sur le dossier C:\Windows\System32\MSMQ\storage. Les utilisateurs MSMQ doivent désormais accéder en écriture à ce dossier, qui est normalement réservé aux administrateurs. En conséquence, les tentatives d’envoi de messages via les API MSMQ peuvent échouer avec des erreurs de ressources. »

Dans la nuit du 18 au 19 décembre, Microsoft a donc publié en urgence un patch pour rétablir la fonction. L’entreprise ajoute d’ailleurs que ce problème peut aussi affecter un « environnement MSMQ clusterisé sous charge ». Les administrateurs sont invités à diffuser la mise à jour dans les parcs concernés.

  •  

☕️ Steam est désormais 64 bits sur Windows, les versions 32 bits abandonnées le 1er janvier

Le mois dernier, nous évoquions l’arrivée du 64 bits dans la version Windows de Steam via une bêta. Dans la mise à jour stable du 19 décembre, Steam est officiellement 64 bits sur l’ensemble des machines Windows fonctionnant sur ce type d’architecture (soit la quasi-totalité des ordinateurs aujourd’hui).

Dans les notes de version, Valve confirme que les versions 32 bits de Steam ne recevront des mises à jour que jusqu’au 1ᵉʳ janvier, ne laissant plus que quelques jours. Le client continuera de fonctionner pendant un temps, mais les bugs ne seront plus corrigés.

Les mêmes notes contiennent d’autres apports, comme la possibilité de déclarer directement un message comme suspect ou de type harcèlement depuis un clic droit sur le pseudo dans une conversation de groupe. La même fenêtre permet de bloquer l’utilisateur ciblé.

On remarque aussi que cette mise à jour ajoute le support des contrôleurs Switch 2 par l’USB sur Windows, et celui des adaptateurs GameCube en mode Wii-U avec vibration sous Windows. Plusieurs bugs ont été corrigés, notamment en lien avec les gyroscopes de plusieurs manettes.

  •  

☕️ Firefox aura un « kill switch » pour ses fonctions IA

L’arrivée du nouveau CEO de Mozilla, Anthony Enzor-DeMeo, ne s’est pas faite dans le calme. Les premières déclarations du nouveau patron ont confirmé que Firefox allait se plonger dans l’IA. Il a insisté également sur la confiance, affirmant que Mozilla devait devenir une référence dans ce domaine. Ce qui impliquait un travail sur l’IA en accord avec le Manifeste de la fondation.

Rapidement, des conversations enflammées sont apparues : Firefox allait-il perdre son âme ? La concentration sur l’IA allait-elle la rendre inévitable ? Dans quelle mesure le navigateur allait-il changer ? Des débats parfois houleux, avec de nombreuses déclarations d’intentions : il allait falloir se débarrasser de Firefox, qui avait succombé à la nouvelle mode.

La situation a assez chauffé pour que Mozilla prenne la parole, via Jake Archibald, l’un des développeurs du navigateur. Sur Mastodon, il pointe « quelque chose qui n’a pas été clairement expliqué : Firefox aura une option pour désactiver complètement toutes les fonctionnalités d’IA. Nous l’appelons en interne le kill switch de l’IA. Je suis sûr qu’il sortira avec un nom moins meurtrier, mais c’est dire à quel point nous prenons cela au sérieux ».

Pour rappel, un « kill switch » est un dispositif d’arrêt d’urgence permettant de couper sans délai une fonction ou un service. Le terme renvoie souvent au caractère absolu et arbitraire de l’action. Apple et Google disposent par exemple d’un « kill switch » pour leurs boutiques respectives. Il permet de couper rapidement la distribution d’une application et d’exécuter un ordre de suppression sur les terminaux.

Jack Archibald a également précisé que les fonctions IA seraient en « opt-in ». Il estime que le terme tombe parfois dans des « zones grises » car il peut revêtir un sens différent selon les personnes. « Par exemple, un nouveau bouton sur une barre d’outils est-il opt-in ? », demande-t-il.

Bien que le message se soit voulu rassurant, il a été immédiatement suivi de nouveaux débats.

  •  

S3NS obtient la qualification SecNumCloud par l’ANSSI

First !
S3NS obtient la qualification SecNumCloud par l’ANSSI

C’est fait : la coentreprise S3NS, créée par Thales et Google, vient d’obtenir la qualification SecNumCloud 3.2 pour l’ensemble de son offre PREMI3NS, dédiée au cloud de confiance. Une étape marquante, que le concurrent Bleu devrait atteindre très bientôt aussi.

S3NS est une coentreprise créée en 2022 par Thales et Google. Son objectif est simple : proposer du cloud Google dans une offre « cloud de confiance » avec des arguments forts de souveraineté. La question de l’extraterritorialité revenait régulièrement sur la table : si S3NS utilise les technologies de Google, les produits proposés par la coentreprise seront-ils soumis au Cloud Act ?

La réponse vient d’arriver sous la forme d’une qualification SecNumCloud 3.2 par l’ANSSI. Une annonce majeure, qui fait de S3NS la première structure hybride de ce type à recevoir le précieux label, presque 18 mois après la validation du premier jalon du processus. Ce n’est pas une surprise puisque Vincent Strubel avait quasiment vendu la mèche en juin dernier lors d’une audition au Sénat.

« Nouvelles perspectives »

L’ANSSI a validé l’intégralité de la plateforme de l’offre PREMI3NS, dédiée au cloud de confiance. Celle-ci est disponible depuis plusieurs mois via un programme « early adopters ». Selon S3NS, une trentaine de clients l’utilisent déjà. Elle dit également accompagner des entreprises dans leur migration vers le « cloud de confiance », dont les assurances MGEN, Matmut et AGPM, ainsi que des sociétés comme le Club Med, Qonto ou même Thales elle-même. S3NS ajoute qu’EDF a choisi aussi ses services, mais la coentreprise n’est pas la seule : Bleu a également été sélectionnée.

Crédits : S3NS

L’arrivée de la qualification SecNumCloud est dans tous les cas une étape majeure, dûment célébrée par S3NS. « L’obtention du Visa de sécurité ANSSI pour la qualification SecNumCloud 3.2 marque l’aboutissement d’une collaboration unique entre deux leaders du cloud et de la cyber, et ouvre de nouvelles perspectives pour l’ensemble du marché français et européen. Ce cloud qualifié SecNumCloud 3.2 propose une offre de services équivalente à celle des clouds publics les plus avancés. PREMI3NS permettra ainsi à ses clients d’innover, d’optimiser, de se transformer en toute confiance et sécurité sur leurs périmètres sensibles. Le groupe Thales a d’ailleurs choisi S3NS pour son informatique interne et pour son ingénierie sensible », a déclaré Christophe Salomon, directeur général adjoint de Thales.

S3NS se retrouve ainsi dans une position unique (pour l’instant) : c’est la première coentreprise hybride de ce type à recevoir cette qualification. Celle-ci est lourde de sens, puisque parmi son millier de points de contrôle, l’imperméabilité à l’extraterritorialité des lois étrangères (au sens extra-européen) est un prérequis. Conséquence, l’ANSSI valide ce point pour PREMI3NS : l’offre n’est pas concernée par le Cloud Act, entre autres lois étrangères problématiques pour l’Europe. En outre, la qualification s’applique à l’ensemble du périmètre fonctionnel de l’offre, donc ses composantes IaaS (Infrastructure-as-a-Service), CaaS (Containers as a Service) et PaaS (Platform-as-a-Service).

S3NS rappelle fièrement que le « référentiel SecNumCloud est le standard le plus exigeant en Europe en matière de sécurité du cloud ». La version 3.2 du référentiel servait d’ailleurs de base au niveau High+ d’EUCS, la directive qui devait aboutir au classement des offres cloud par niveaux de sécurité. Cette version a été abandonnée, sous l’influence notamment de l’Allemagne, au grand dam de la France.

Une offre plus large en 2026

À l’Usine Digitale, plusieurs responsables ont confirmé un plan de bataille pour 2026, largement tourné vers l’ajout de fonctions. L’offre PREMI3NS propose en effet une bonne partie des services disponibles sur Google Cloud Platform, mais pas tous. Il manque en outre de nombreux produits liés à l’IA.

La coentreprise a ainsi déclaré à nos confrères qu’elle comptait doubler son catalogue de fonctions l’année prochaine. Vertex AI est décrit comme une priorité. Avec les mêmes capacités que sur GCP ? « Je ne peux pas encore vous dire si nous offrirons plus de 200 modèles de langage comme sur GCP public, mais nous en aurons beaucoup », a déclaré Cyprien Falque, directeur général de S3NS, à l’Usine Digitale. Devrait suivre tout ce qui touche aux agents et à la sécurité.

Les équipes, en revanche, ne grandiront pas beaucoup plus, a indiqué Hélène Bringer, présidente de S3NS. Elle a évoqué « quelques personnes de plus » pour compléter les 200 personnes actuellement employées par l’entreprise, qui a « vocation à rester agile et de petite taille ».

Vincent Strubel, directeur général de l’ANSSI, a réagi avec enthousiasme à la nouvelle. « Une qualification de l’ANSSI, ce n’est jamais une promenade de santé, mais là c’est plus vrai que jamais, vu l’ampleur du périmètre », a-t-il ajouté.

Il en a profité pour lancer une pique aux détracteurs : « Je ne doute pas que cela déclenchera des réactions passionnées, mais il est peu probable que les auteurs de ces réactions aient passé autant de temps que nous à tester votre solution sous tous les angles avant d’émettre leur avis péremptoire. Ce sera néanmoins utile dans les prochains mois de poursuivre l’effort de pédagogie pour expliquer que vous faites beaucoup, beaucoup plus que revendre en marque blanche la technologie d’un autre ».

Une question de souveraineté

De manière intéressante, le communiqué de S3NS cite la localisation française de ses centres de données, l’exigence de qualification SecNumCloud, ou encore l’intérêt croissant d’autres structures européennes pour ce type d’offre. Le mot « souveraineté » n’apparait pourtant nulle part, alors que le sujet est central et particulièrement actif depuis plusieurs mois. C’est d’autant plus le cas qu’un rapport salé de la Cour des comptes a mis en avant les défaillances françaises et un manque flagrant de cohérence.

Si la qualification SecNumCloud vient valider l’approche de S3NS (Bleu devrait suivre rapidement), sa complexité n’a pas changé. La structure hybride suppose en effet que les produits de Google sont acquis (Microsoft dans le cas de Bleu) sur une base de logiciels installés séparément des serveurs de Google. L’éditeur américain fournit le code, mais n’héberge rien. Ce qui signifie aussi un retard dans le déploiement des fonctions, car S3NS doit analyser toutes les mises à jour avant de les répercuter. La problématique est la même pour Bleu, comme l’entreprise nous l’avait expliqué en octobre dernier.

S3NS rejoint néanmoins une très courte liste d’acteurs français ayant obtenu une qualification SecNumCloud. Bleu devrait annoncer la sienne prochainement. L’entreprise a d’ailleurs annoncé il y a quelques jours que son « cloud de confiance » avait été choisi par Dassault Aviation.

  •  

☕️ Linux Mint 22.3 (avec Cinnamon 6.6) a sa bêta publique

La distribution Linux Mint, très appréciée, aura bientôt une version 22.3 intermédiaire (nommée Zena), avec à son bord quelques nouveautés importantes. La bêta est disponible depuis ce 18 décembre, mais la phase de test sera assez courte, puisque la version finale est attendue pour la toute fin d’année ou les premiers jours de 2026.

Le changement le plus significatif est l’arrivée de Cinnamon 6.6, dont nous avons parlé il y a peu. On y retrouve un nouveau menu d’applications plus personnalisable, la possibilité d’utiliser des icônes pleines ou symboliques, un meilleur support de Wayland, l’affichage des dossiers usuels ou encore une réorganisation générale, dans l’idée de rendre le menu plus efficace. Cette version 6.6 introduit de multiples autres changements, notamment dans les paramètres, avec l’apparition d’un module dédié au Thunderbolt par exemple.

Outre le nouveau Cinnamon, Zena introduit des améliorations bienvenues comme la possibilité de mettre en pause une opération de fichier dans Nemo, l’arrivée de nouveaux outils Information Système et Administration Système, un classement des notifications par applications, une option permettant de mettre en pause la création d’instantanés (snapshots) dans Timeshift, ou encore une fonction Night Light toujours active.

Rappelons que les versions de Linux Mint sont toujours basées sur les dernières révisions LTS d’Ubuntu. Zena est ainsi basée sur Ubuntu 24.04.03 et embarque un noyau Linux 6.14. L’arrivée d’Ubuntu 26.04, « Resolute Raccoon », servira de fondation à la future version 23 de Linux Mint.

  •  

☕️ Gemini 3 a désormais sa variante Flash

Quand Google a lancé sa nouvelle famille de modèles Gemini 3, seule la variante Pro a été présentée. C’est le modèle « à tout faire » de la nouvelle génération de LLM chez Google, avec un mode rapide et un autre pour le raisonnement, selon les besoins. Mais comme souvent, beaucoup attendaient une ou plusieurs versions réduites, beaucoup moins chères et plus adaptées à certains usages.

Google complète donc son offre avec une version Flash, positionnée comme un modèle à faible latence, optimisé pour l’inférence en temps réel, tout en préservant ses capacités multimodales et un mode de raisonnement. Gemini 3 Flash accepte ainsi en entrée le texte, les photos, vidéos et tout ce qui touche à la vision, pour interroger par exemple un flux vidéo en temps réel.

Le prix est bien sûr moins élevé que le modèle Pro. Via l’API, la facture s’élève ainsi à 0,30 dollar par million de jetons en entrée et 2 dollars en sortie. Google met également sur le devant de la scène des performances élevées, avec notamment 90,4 % au test GPQA Diamond, 78 % à SWE-bench Verified ou encore 33,7 % sur Humanity Last Exam, battant du même coup plusieurs modèles plus larges.

Le nouveau LLM est disponible dans Google AI Studio, Google Antigravity, Gemini CLI, Android Studio et Vertex AI, depuis l’API.

  •  

[Offert] Notes de la communauté : un rempart efficace mais très imparfait contre la désinformation

leS NoTEs sAy La lIBErTé
[Offert] Notes de la communauté : un rempart efficace mais très imparfait contre la désinformation

L’éditeur de Facebook et Instagram a démarré hier une phase de test pour ses notes de la communauté. Largement calquées sur celles de X, elles permettent d’épingler nombre de contenus erronés, voire mensongers. De quoi résoudre tous les problèmes ? Non, selon Bloomberg, qui a publié une vaste étude sur le sujet.

Pour les fêtes de fin d’année, Next vous offre cet article initialement paru le 21 mars 2025 et réservé aux abonnés. Pour lire les prochains entretiens dès leur publication, abonnez-vous !


Les notes de la communauté sont un mécanisme simple : à la lecture d’une publication, on peut décider d’ajouter un contexte, en général un commentaire suivi d’un ou plusieurs liens. Le système avait été initié sur Twitter, avec son rachat par Elon Musk et sa transformation en X, en complément des entreprises et médias effectuant une vérification professionnelle.

Depuis quelques mois, les projecteurs sont braqués sur ces notes. Elon Musk s’est débarrassé de tous les vérificateurs professionnels, louant les mérites d’un système alimenté par les internautes. Dans l’esprit du milliardaire, le réseau social s’équilibre de lui-même. Une idée séduisante, d’autant plus que le mécanisme a l’immense avantage d’être parfaitement gratuit pour celui qui, après avoir dépensé des dizaines de milliards de dollars pour racheter Twitter, lie actuellement ses entreprises à la Maison-Blanche.

Les notes de la communauté ont plusieurs mérites

Bloomberg Opinion s’est lancé dans un vaste travail : analyser 1,1 million de notes de la communauté, publiées entre début 2023 et février 2025. Une montagne de données, qui permet d’en tirer nombre de conclusion ou, en tout cas, de faisceaux et corrélations. Les éléments mis en lumière pointent leur dualité, entre un système fréquemment encensé par Elon Musk et ses attaques contre les médias classiques.

Premier constat, sans doute l’un des plus importants : les notes de la communauté ne sont pas une arnaque. Qu’il s’agisse de constats par Bloomberg ou d’autres études pointées par nos confrères, le système fonctionne. Les messages épinglés par la communauté reçoivent ainsi moins d’engagement du reste des internautes, en likes comme en retweets. Ils sont également plus susceptibles d’être supprimés. De manière générale, le processus est considéré comme plus fiable et transparent que la vérification par des professionnels. Bloomberg relève également une limitation de la viralité de certains canulars pendant les grands incendies de Los Angeles.

Le fonctionnement de ces notes est assez simple. Si vous voyez passer un message qui vous parait faux, vous pouvez passer par le menu « … » pour demander à en ajouter une. Il faut fournir un message explicatif ainsi qu’un ou plusieurs liens pour appuyer le propos. Elle n’est pas automatiquement publiée : elle doit rassembler suffisamment de voix. Les autres personnes contribuant aux notes sont en effet invitées à voter. Quand un nombre suffisant de personnes donnent leur aval, la note apparait chez tout le monde.

Ce système, souligne Bloomberg, fonctionne généralement bien, et même mieux qu’avant. En janvier 2023, le temps médian nécessaire pour ajouter une note et la faire valider était d’environ 30 heures. Le mois dernier, ce temps était de 14 heures. On comprend donc pourquoi le système intéresse doublement Meta : non seulement il ne coute rien (en dehors de la mise en place du système et de sa maintenance), mais il est plus rapide que le travail des vérificateurs professionnels, qui peuvent prendre jusqu’à une semaine pour répondre.

Un outil parmi d’autres

Si les notes de la communauté donnent de bons résultats, elles ne représentent pas pour autant l’alpha et l’oméga de la modération et de la vérification des faits. Avoir divisé par deux le temps d’apparition d’une note montre un plus fort engagement des internautes et un processus mieux intégré dans les habitudes, mais l’efficacité du mécanisme est soumise au consensus. Qui prend du temps.

C’est la première limite du système selon Bloomberg : les 14 heures ont beau représenter une forte amélioration, les notes arrivent le plus souvent bien après la bataille de la viralité, le mal étant déjà fait.

Surtout, les données analysées par Bloomberg montreraient qu’après un pic, le système pourrait perdre en efficacité. Cette dernière dépend étroitement du consensus. Or, sur les sujets les plus clivants, il a du mal à être atteint. Selon les informations recueillies, moins de 10 % des notes de la communauté seraient réellement publiées, faute d’un accord. Parmi celles publiées, 26 % sont même supprimées, suite à un désaccord. Ce n’est qu’une moyenne, car plus le sujet divise, plus le score augmente. Sur un échantillon de 2 674 notes portant sur la Russie et l’Ukraine l’année dernière, plus de 40 % des notes ont ainsi été supprimées.

De plus, ce système de quorum peut être manipulé. « Il n’est pas rare de voir des instances de voix pro-russes rassemblant leurs partisans pour qu’ils votent collectivement contre une note proposée ou publiée », indique ainsi Bloomberg.

Même chose pour Elon Musk : sur les 167 notes accolées à ses tweets, seules 88 étaient encore en ligne au moment de la publication de l’article. Pour nos confrères, le milliardaire n’a besoin de rien faire : « ses partisans s’en chargent souvent à sa place ». En outre, il y a un mois, le patron de X s’est tout à coup mis en colère. Affirmant que Volodymyr Zelensky était malaimé de ses concitoyens ukrainiens, une note est venue le contredire. Plus récemment, The Economist a mis à jour ces chiffres, montrant une forte cote de popularité.

Sources fiables : la grande ambivalence

Bloomberg pointe également l’ambivalence d’Elon Musk au sujet des médias traditionnels, qu’il accuse régulièrement d’avoir leur propre agenda politique et de répandre le « virus woke ». À cet ancien monde, il oppose justement les notes de la communauté, système qu’il présente comme l’aboutissement d’une démocratie libre, où chacun peut donner son avis, le tout s’équilibrant de lui-même.

Pour autant, ce système de notes repose sur la fiabilité des sources pour fonctionner. De quoi parle-t-on ? Des médias traditionnels, qui représentent « la principale source d’information ». Plus précisément, 31 % des liens cités, suivis par 20 % de liens vers des réseaux sociaux (qui peuvent renvoyer eux-mêmes vers des médias) et 11 % vers des sites éducatifs. Parmi les sources les plus fréquemment citées, on trouve Reuters (« l’organisation d’information la plus trompeuse au monde », selon Elon Musk), la BBC (« British Pravda ») et NPR (« gérée par la Stasi wok»).

Même problème avec Wikipédia, source la plus souvent citée dans les notes de la communauté. Elon Musk ne cache pas sa détestation profonde de l’encyclopédie collaborative. Il a appelé par exemple en décembre dernier à couper les dons à la fondation Wikimedia.

Sur ce point, Bloomberg note « une curieuse bizarrerie de la nature humaine » : « Les utilisateurs semblent croire plus facilement un inconnu sur internet qui renvoie à un article du New York Times, par exemple, qu’ils ne croient le New York Times lui-même lorsqu’il propose directement une vérification des faits ». Pour nos confrères, c’est l’équivalent « d’un ami qui sort Wikipédia pour trancher un débat dans un bar ».

Avec Meta, les notes vont changer d’échelle

Bloomberg a fait coïncider les résultats de son enquête avec le début des tests pour les notes de communauté sur les services de Meta. Comme nous l’indiquions la semaine dernière, Meta s’est lancée le 18 mars dans une phase d’essai aux États-Unis. Et tout portait à croire que le système allait rapidement trouver son public, avec plus de 200 000 inscriptions.

Dans un billet, la société disait s’attendre « à ce que les notes de communauté soient moins biaisées que le programme tiers de vérification des faits qu’elles remplacent, car elles permettent à davantage de personnes ayant plus de perspectives d’ajouter du contexte aux publications ». Un axe de communication reprenant le discours de Mark Zuckerberg en janvier, dans lequel il déclarait que « les fact-checkers sont devenus trop biaisés politiquement, et ils ont détruit plus de confiance qu’ils n’en ont créée, particulièrement aux États-Unis ».

Or, avec l’arrivée des notes chez Meta, le changement d’échelle est manifeste : d’environ 220 millions d’utilisateurs sur X à environ 3,3 milliards sur les plateformes Facebook, Instagram et Threads cumulées. L’efficacité des notes sur une si large population reste à démontrer, mais il est probable qu’elles aient un certain impact, comme sur X.

En revanche, pour Bloomberg, elles ne sauraient être la défense ultime contre la propagation des fake news ou simplement des erreurs. Dans une approche « prévenir plutôt que guérir », le média indique que le fonctionnement même de X aujourd’hui alimente en bonne partie le problème : la course à la viralité. Elon Musk a modifié la manière dont les détenteurs d’un compte Premium peuvent gagner de l’argent sur sa plateforme, en misant sur l’engagement, incitant à faire réagir autant que possible.

En même temps que Facebook a annoncé cette grande bascule, plusieurs autres changements importants ont été présentés. Par exemple, les notes de la communauté n’auront aucun impact sur la visibilité des publications, contrairement au système actuel. En outre, l’incitation financière pour les créateurs de contenus sera plus importante, là encore un encouragement à la viralité.

En somme, les notes de la communauté fonctionnent dans une certaine mesure, mais perdent nettement en efficacité dès que les sujets deviennent plus clivants. Mais selon nos confrères, la conclusion la plus évidente est que si les plateformes de réseaux sociaux voulaient vraiment lutter contre la désinformation, elles commenceraient par ne plus inciter à la viralité.

  •  

Piratage du ministère de l’Intérieur : un suspect interpelé

Des données oui, mais...
Piratage du ministère de l’Intérieur : un suspect interpelé

Le parquet de Paris a annoncé qu’un suspect avait été arrêté dans le cadre du piratage du ministère de l’Intérieur. Parallèlement, les pirates ont diffusé des informations en lien avec la Caisse d’allocations familiales, mais il n’y a rien de neuf sur les fichiers TAJ et FPR.

« Une personne a été interpelée le 17 décembre dans le cadre de l’enquête ouverte par la section de lutte contre la cybercriminalité du parquet de Paris, des chefs notamment d’atteinte à un système de traitement automatisé de données à caractère personnel mis en œuvre par l’État en bande organisée, à la suite de la cyberattaque au préjudice du ministère de l’Intérieur », a indiqué le parquet dans un communiqué, retransmis sur X et signé Laure Beccuau, procureur de la République.

Le communiqué donne d’autres informations, notamment que le suspect est né en 2003 et qu’il était déjà « connu des services de justice pour avoir été condamné pour des faits similaires en 2025 ». Le parquet rappelle que ce délit fait encourir une peine de 10 ans d’emprisonnement. On apprend également que les « investigations diligentées par l’OFAC [Office anti-cybercriminalité, ndlr] se poursuivent » et qu’une « nouvelle communication interviendra à l’issue de la garde à vue, qui peut durer jusqu’à 48 heures ».

Fuite d’informations provenant de la CAF

Indra, qui se présente comme un des pirates derrière l’attaque du ministère de l’Intérieur, a publié de nouveau un message BreachForums hier soir, à nouveau ressuscité l’espace d’un instant. « Bonjour la communauté BreachForums, Je vous annonce aujourd’hui un cadeau de Noël pour la France. Dites merci à « SaxX », c’est vraiment un bon menteur : la compromission d’une base de données de la CAF », a écrit Indra, en référence à celui qui se décrit comme « Gentil hacker », pour avoir minimisé l’ampleur de la fuite dans un tweet hier soir. Il y évoquait un « gros bluff » et traitait le groupe de pirates de « bande de clowns ».

« Voilà l’envers du décor ! Des jeunes cybercriminels français avec une émulation néfaste qui jouent à qui aura la plus grosse et défoncent néanmoins nos systèmes d’information en France. On est bien loin de l’ingérence étrangère comme j’ai pu l’évoquer depuis quelques jours », clamait ainsi SaxX hier soir vers 21 h.

La fuite d’informations de la CAF a bien été identifiée comme telle par plusieurs personnes, dont Christophe Boutry (anciennement de la DGSI). Il indique dans un tweet que la base n’est pas « classique », dans le sens où il « agrège des bénéficiaires CAF, MSA (agricole) et CNOUS (étudiants) ». Selon lui, le seul dispositif croisant ces trois bases est le Pass’Sport. En outre, il pointe un chiffre « trompeur », car les 22 millions annoncés se réduisent à 3,5 millions de foyers uniques « après dédoublonnage intégral ».

La situation serait particulièrement sensible pour les jeunes adultes : « Le fichier permet de suivre l’évolution précise du bénéficiaire. De simple ayant-droit associé au mail de ses parents, il devient une cible directe à sa majorité, avec l’apparition de ses propres coordonnées (téléphone, email personnel) et de sa situation sociale », indique Christophe Boutry. La fuite reste grave dans tous les cas, d’autant que les informations y sont fraiches, les dernières datant de novembre. « Encore une faille majeure dans la chaîne de sous-traitance de l’État », ajoute Christophe Boutry.

Le ou les pirates ont annoncé il y a quelques heures détenir également 2,1 millions de dossiers patients provenant de l’AP-HP (Assistance Publique – Hôpitaux de Paris).

  •  

☕️ La distribution Emmabuntüs revient dans une version Debian Edition 6

Emmabuntüs, une distribution spécialisée dans le matériel reconditionné pour lui redonner une seconde vie, a reçu une évolution majeure. Cette Debian Edition 6 est basée sur la version 13.2 de Debian (Trixie) et reçoit en tant que telle toutes les évolutions importantes de cette dernière. La version 5 était basée sur Debian 12.1 à sa sortie.

Sans surprise, la nouvelle édition reste axée sur la légèreté. La session par défaut utilise Xfce 4.20. Pas question de GNOME ou KDE ici, à moins de l’installer spécifiquement. Pour le matériel plus ancien, LXQt 2.1 est également présent, avec une consommation de ressources encore plus réduite. Précisons quand même qu’avec une base Debian 13.2, la nouvelle Emmabuntüs ne peut plus être installée que sur des machines 64 bits. La version 5 reste disponible.

Screenshot

La Debian Edition 6 se concentre largement sur les questions d’accessibilité. De nombreuses options ont été ajoutées, disponibles dans une interface dédiée. On y trouve ainsi le support des synthétiseurs vocaux MBROLA et Piper, la synthèse vocale pendant la navigation, la prise en charge de trois profils Orca, un bip sonore pour l’insertion des clés USB, l’arrivée de LIOS (Linux-Intelligent-OCR-Solution). On trouve aussi de multiples scripts, notamment pour installer Index Braille et Wine, afficher le niveau de batterie de l’ordinateur ou encore pour simplifier les mises à jour du système.

L’ensemble des nouveautés peut être consulté depuis le site officiel. Comme toujours, la nouvelle version est fournie sous forme d’image ISO.

  •  

☕️ OpenAI dégaine son GPT Image 1.5 pour concurrencer Nano Banana Pro

Le père de ChatGPT vient de lancer la version 1.5 de son générateur d’images, sobrement nommé GPT Image. La version 1.0 avait été lancée en mars dernier, avant que les capacités soient mises à disposition un mois plus tard à travers l’API gpt-image-1.

Entre temps, Google lui a largement volé la vedette. Le lancement de Nano Banana en septembre a montré qu’OpenAI n’était pas le seul acteur à faire de la génération d’images plus convaincantes. Mais l’arrivée de Gemini 3 Pro s’est accompagnée de Nano Banana Pro. Ce modèle a rapidement fait le tour de la planète pour ses capacités de génération d’images, au point que beaucoup ne voyaient plus la différence avec des photos réelles.

OpenAI a donc répliqué avec GPT Image 1.5, qui se présente avec des capacités équivalentes à Nano Banana Pro, mais avec une tarification 20 % moins chère via l’API que l’ancien modèle. Par rapport à ce dernier, OpenAI affirme que la génération peut également prendre jusqu’à quatre fois moins de temps. Dans ChatGPT (web ou application mobile), un nouveau hub (dans la barre latérale) permet de se lancer plus rapidement avec des invites (prompts) prêtes à l’emploi et des filtres.

Nos confrères de MacG ont pris en main le nouveau générateur et l’ont comparé à Nano Banana Pro via quelques tests. Leurs conclusions sont simples : les deux modèles se valent globalement, l’un ou l’autre remportant la manche selon les demandes.

Le nouveau modèle d’OpenAI est en tout cas disponible pour l’ensemble des utilisateurs, aux mêmes conditions que l’ancien modèle.

  •  

Piratage du ministère de l’Intérieur : les fichiers TAJ et FPR ont bien été consultés

Jeu de dupes ?
Piratage du ministère de l’Intérieur : les fichiers TAJ et FPR ont bien été consultés

Le ministère de l’Intérieur a confirmé il y a quelques jours une fuite de données. Des pirates ont revendiqué l’attaque, affirmant avoir des informations sur des millions de personnes, issues notamment des fichiers TAJ et FPR. Le ministre de l’Intérieur, Laurent Nunez, a confirmé ce matin que ces bases avaient bien été consultées et que des fiches avaient été volées.

Un ou des pirates ont revendiqué l’attaque contre le ministère de l’Intérieur. Une personne, se faisant appeler « Indra », a relancé brièvement BreachForums, qui avait disparu suite à plusieurs arrestations, aussi bien aux États-Unis qu’en France. Le message revendiquait l’attaque, précisait qu’il s’agissait d’une vengeance pour l’arrestation de ses « amis » et que la fuite était bien plus grave que ce que l’on pensait. Les pirates affirmaient ainsi posséder des informations sur plus de 16 millions de personnes, dont quantité d’informations provenant des fichiers TAJ (Traitement d’antécédents judiciaires) et FPR (Fichier des personnes recherchées).

Officiellement, le ministère de l’Intérieur, Laurent Nunez, a confirmé dans un premier temps qu’une attaque avait bien eu lieu contre des services de messagerie. Les mesures de sécurité avaient en conséquence été relevées et des rappels d’hygiène numérique faits aux forces de l’ordre. La fuite est cependant plus grave qu’initialement reconnu.

« Quelques dizaines de fiches »

Ce matin, Laurent Nunez a donné de nouvelles informations à Franceinfo, lors de l’émission de 8h30. « On a fait l’objet d’une intrusion malveillante il y a quelques jours ». Il a confirmé que des accès ont été obtenus à partir de « certaines boites professionnelles ». De là, « l’individu ou le groupe d’individus […] a pu consulter un certain nombre de fichiers importants pour nous, notamment le traitement des antécédents judiciaires, et procéder à un certain nombre d’extractions ».

Le ministre évoque « quelques dizaines d’extractions », mais pas les « millions de données » revendiquées dans le message sur BreachForums. Cependant, Laurent Nunez indique en même temps que l’on « ne connait pas l’ampleur des compromissions », faisant relativiser le nombre d’extractions donné.

De plus, le ministère ne peut « absolument pas dire si cela va compromettre des enquêtes », mais affirme que l’incident « ne met pas en danger la vie de nos compatriotes ». Autre affirmation : aucune demande de rançon n’aurait été reçue. Ce qui irait d’ailleurs dans le sens du message des pirates, qui indiquaient attendre que la France les contacte.

Laurent Nunez reconnait que « des imprudences » ont été commises et le scénario d’attaque laisse effectivement penser que de l’ingénierie sociale a été utilisée pour piéger une ou plusieurs personnes. Les accès récupérés (sous forme de mots de passe en clair dans des échanges e-mails) auraient alors servi à accéder aux applications métiers et bases de données, dont le TAJ et le FPR. « On a saisi la CNIL aussi, la Commission nationale de l’informatique et des libertés, comme la loi nous l’impose. Et puis il y a eu une enquête administrative que j’ai demandée, sur laquelle on travaille », a ajouté le ministre.

L’ampleur de la fuite reste à déterminer

La grande question est désormais de savoir quelle crédibilité accorder aux affirmations du ou des pirates. Si la menace est avérée, alors une grande partie du TAJ et du FPR serait dans la nature, avec des conséquences potentiellement catastrophiques pour la France.

La situation n’est cependant pas claire. Le message du ou des pirates a été publié initialement le 13 décembre. Un ultimatum était donné à la France, qui a jusqu’au 20 décembre pour contacter le groupe à une adresse tutanota indiquée dans l’avertissement. Indra insistait en outre sur l’aspect vengeance de l’attaque, pour l’arrestation des membres du groupe ShinyHunters.

Cependant, si l’on en croit SaxX, les ShinyHunters (avec qui il assure être en contact) se seraient « désolidarisés » de ce Indra ayant attaqué le ministère de l’Intérieur, dont on ne sait rien de plus à l’heure actuelle. Il pourrait s’agir, comme le suppose SaxX, d’une menace étatique étrangère ayant pris l’apparence d’un groupe cybercriminel « classique ».

Trop peu de preuves à ce stade

La situation est d’autant plus floue que les experts ne sont pas d’accord sur l’ampleur de la menace. Pour Baptiste Robert par exemple, le ou les pirates n’ont pas exfiltré l’intégralité du TAJ et du FPR. Preuve en serait l’usage de termes trop génériques employés dans ce contexte.

Le chercheur en sécurité soulignait également hier soir que les pirates avaient publié sur leur chaine Telegram une capture montrant le portail de connexion CHEOPS avec l’adresse de la chaine en identifiant et les mots « WE ARE STILL HERE » (« Nous sommes toujours là ») dans le mot de passe. Selon lui, cette capture ne prouve rien, car l’utilisateur n’est pas authentifié. « Si c’est un moyen d’essayer de faire pression en vue d’une éventuelle négociation, c’est particulièrement mal fait », a indiqué Baptiste Robert.

Il y aurait ainsi bien compromission, récupération d’accès et consultation des données, mais aucune preuve d’une extraction conséquente des données.

  •  

Anthony Enzor-DeMeo, nouveau CEO de Mozilla : une question de confiance… et d’IA

Aussi différent que tout le monde
Anthony Enzor-DeMeo, nouveau CEO de Mozilla : une question de confiance… et d’IA

Mozilla a désormais un nouveau CEO : Anthony Enzor-DeMeo. Il remplace Laura Chambers, qui a dirigé l’entreprise comme CEO par intérim.

Anthony Enzor-DeMeo était arrivé chez Mozilla il y a tout juste un an, pour prendre la tête de Firefox. Dans l’annonce faite ce 16 décembre, il a remercié Laura Chambers pour son « leadership exceptionnel » dans une période charnière pour Mozilla, à qui elle a « apporté clarté, stabilité et concentration ». Nabiha Syed reste à la tête de la fondation depuis le départ de Mitchell Baker en début d’année, et Mark Surman est toujours directeur général de l’entreprise.

Il enchaine rapidement sur ce qu’il présente comme le crédo de l’entreprise : la confiance. « Quand j’ai rejoint Mozilla, il était clair que la confiance allait devenir le problème majeur de la technologie et que le navigateur serait l’endroit où cette bataille allait se dérouler. L’IA remodelait déjà la façon dont les gens recherchent, achètent et prennent des décisions de manière difficile à voir et encore plus à comprendre », indique Anthony Enzor-DeMeo.

Trois grands axes, dont l’IA

« Les gens veulent un logiciel rapide, moderne, mais aussi honnête sur ce qu’il fait », ajoute le nouveau CEO. La confiance doit surpasser tout le reste et Mozilla doit devenir une référence dans le domaine. « Ce n’est pas un slogan », martèle Anthony Enzor-DeMeo.

Il définit les trois grands axes de son règne : chaque produit développé par Mozilla doit donner de l’autonomie (confidentialité, utilisation des données, simplicité des contrôles…), une monétisation transparente et le passage à un écosystème plus large de logiciels de confiance, dont Firefox restera « l’ancre ».

Et que tout le monde soit averti : Firefox va bien évoluer vers un navigateur IA. Des investissements vont être faits en ce sens sur trois ans. Mais le nouveau CEO précise rapidement que ce travail devra « refléter le Manifeste Mozilla » et que tout ce qui touche à l’IA devra pouvoir être désactivé facilement. La différenciation avec le reste de l’industrie se ferait sur les « principes ».

Pas de LLM made in Mozilla à l’horizon

« Nous agirons avec urgence. L’IA change les logiciels. Les navigateurs deviennent le point de contrôle de la vie numérique. La réglementation modifie les défauts. Ces changements jouent en faveur des forces de Mozilla », affirme Anthony Enzor-DeMeo. À The Verge, le CEO indique cependant être conscient de « l’érosion de la confiance » sur l’IA, insistant sur la nécessité pour Mozilla de devenir une référence.

Mais de quelle IA parle-t-on ? Comme le confirme le CEO à nos confrères, Mozilla ne va pas développer son propre LLM. Firefox va surtout s’équiper d’un mode IA qui donnera accès à divers modèles. Certains seront open source, d’autres non, et les principaux acteurs devraient être présents. Aucun modèle en particulier ne sera mis en avant, tout dépendant du choix fait par l’internaute. Reste à voir comment Mozilla arrivera à faire passer son message à faire la différence dans un marché du navigateur en pleine effervescence, l’IA ayant relancé la guerre, avec de nouveaux acteurs comme OpenAI et Perplexity.

  •