Le noyau Linux contient du code Rust depuis bientôt trois ans. De petits ajouts, qui ont surtout consisté pendant un temps à permettre à du code Rust d’être ajouté, notamment dans les pilotes. Mais la progression du langage dans le noyau reste complexe.
C’est ce qu’a tenté de faire Hector Martin. Si le nom vous parle, c’est peut-être parce qu’il est le fondateur et développeur principal de la distribution Asahi Linux, spécialisée dans le support matériel des Mac équipés d’une puce Apple Silicon. Un travail qui l’a mené d’ailleurs à la faille « M1RACLES » dans les puces M1. Ou peut-être parce qu’il fut un redoutable hacker, spécialisé dans les consoles de jeu, tout particulièrement les PlayStation et la Wii.
Garde-barrières
Le développeur a toutefois un problème : il promeut activement l’usage de Rust dans le noyau Linux et le processus de révision de ce dernier est bien trop lent selon lui. Le mois dernier, il a souhaité pousser un patch qui aurait permis aux pilotes de périphériques écrits en Rust de faire appel à la fonction DMA (Direct Memory Access) du noyau. Refus catégorique de Christoph Hellwig, mainteneur principal du noyau.
Ces tensions entre promoteurs du Rust et mainteneurs habitués au C n’est pas nouvelle. Elles avaient notamment provoqué des départs dans l’équipe de Rust for Linux. Il y a quelques jours, The Register signalait la tension montante entre Hector Martin et Christoph Hellwig, le premier poussant l’équipe de Rust for Linux à ignorer les remarques du second et d’envoyer quand même leurs propositions de modifications. Tout du moins tant que Linus Torvalds n’intervenait en personne.
« Le problème vient peut-être de vous »
Et Linus Torvalds est intervenu. Répondant directement à Hector Martin qui expliquait combien ces tensions le fatiguaient, le père du noyau Linux s’est montré franc dès la première ligne : « Et si vous acceptiez le fait que le problème vient peut-être de vous ? ». Il continue : « Vous pensez que vous savez mieux [que les autres]. Mais le processus actuel fonctionne. Il a des problèmes, mais les problèmes font partie de la vie. La perfection n’existe pas ».
Dans la suite du message, il accuse Hector Martin de « brigandage » sur les réseaux sociaux, le développeur ayant essayé d’alerter de la situation. « Parce que si nous avons des problèmes dans le modèle de développement du noyau, alors les médias sociaux ne sont certainement pas la solution. De la même manière qu’ils n’étaient pas la solution à la politique », a ajouté Linus Torvalds.
Torvalds n’est pas contre le Rust
Au sein du noyau Linux, la priorité reste le code en C. Le mélange de deux langages est considéré comme risqué. Christoph Hellwig l’a même comparé à un « cancer », ce qui faisait dire à Hector Martin que le propos violait probablement les règles de bonne conduite. L’expression rappelle également les propos que Steve Ballmer, ancien CEO de Microsoft, avait tenu au sujet de Linux lui-même.
Linus Torvalds, de son côté, n’a rien contre le Rust en tant que tel. Sa position est connue depuis septembre dernier, lors la version européenne de l’Open Source Summit. « Certaines discussions deviennent désagréables. Je ne sais pas vraiment pourquoi Rust est un domaine si controversé. Cela me rappelle ma jeunesse. Les gens se disputaient entre vi et EMACS. Pour une raison ou pour une autre, toute la discussion sur Rust contre C a pris des accents presque religieux dans certains domaines », avait-il alors indiqué.
Il s’était montré philosophe : « Rust est très différent, et beaucoup de gens sont habitués au modèle C. Ils n’aiment pas les différences, mais ce n’est pas grave ». Il avait toutefois plaidé pour qu’on laisse sa chance au langage : « Cela ne fait que deux ans que nous travaillons avec Rust, il est donc bien trop tôt pour dire que Rust est un échec ».
Quand c’est officiel, c’est officiel : les images valent 1 000 mots, alors imaginez 1 000 images, on va bien finir par arriver à 100 milliards, c’est lui qui vous le dit !
À la veille du Sommet pour l’action sur l’IA qui s’ouvre à Paris ce lundi, Emmanuel Macron a annoncé « 109 milliards d’euros » d’investissements « dans les prochaines années » lors d’une interview sur France 2.
Il y a moins d’un mois, Donald Trump annonçait en grande pompe le projet Stargate : jusqu’à 500 milliards de dollars d’investissements en quatre ans, réunissant les partenaires financiers SoftBank, OpenAI, Oracle et MGX et les partenaires techniques Arm, Microsoft, NVIDIA, Oracle et OpenAI.
À l’occasion du « Sommet pour l’action sur l’IA » qu’il copréside avec le Premier Ministre nationaliste indien Narendra Modi, Emmanuel Macron veut jouer dans la même cour en annonçant lui-même « 109 milliards d’euros dans les prochaines années ». Il a d’ailleurs insisté lors de l’interview qu’il a donné à France 2 dimanche 9 février : « C’est l’équivalent pour la France de ce que les États-Unis ont annoncé avec “Stargate”. C’est le même rapport ».
Si le projet états-unien semble être organisé en un partenariat financier et technique autour d’un projet précis, la somme annoncée par le président français additionne, elle, les différents investissements attendus en France dans le domaine pour les prochaines années, sans liens les uns avec les autres, mais qui se concentrent notamment sur la création de data centers.
Les milliards de MGX
L’annonce d’investissement la plus importante, et qui a permis à Emmanuel Macron de parler d’une somme symboliquement au-dessus des 100 milliards d’euros, est celle des Émirats arabes unis et de leur fonds d’investissement MGX. Elle a été faite jeudi 6 février, en marge du sommet et représente « de 30 milliards à 50 milliards d’euros » d’investissements, selon l’Élysée, comme nous l’expliquions dernièrement.
Mais pour l’instant, ce projet n’a pas encore dépassé le stade des annonces. On ne sait pas encore où il pourra être implanté et quand il sortira de terre. Cet immense montant pourrait être la somme de plusieurs annonces qui seront faites par le fonds MGX lors des sommets « Choose France » des prochaines années, l’Élysée expliquant qu’ « une annonce sur la première tranche d’investissement sera faite lors du Sommet Choose France 2025 ».
Un projet de data center à Cambrai financé par Brookfield
Un autre fonds étranger a annoncé investir en France à l’occasion de ce sommet : le journal la Tribune a appris samedi que le fonds canadien Brookfield allait investir 20 milliards d’euros dans l’Hexagone et notamment dans le développement d’un « immense data center à Cambrai » ainsi que des « infrastructures associées » comme, par exemple, de la production d’énergie.
Enfin, en termes d’investissement, la banque publique d’investissement française, Bpifrance, affirme vouloir « soutenir ce secteur stratégique pour la France » qu’est celui de l’IA « à hauteur de 10 milliards d’euros d’ici 2029 ». Sans être très précise dans les projets qu’elle prévoit de financer, Bpifrance explique vouloir accompagner « en fonds propres » des projets de modèles de fondation mais aussi investir « dans les acteurs des infrastructures IA ou des nouveaux composants/puces spécialisés IA ». Elle ajoute vouloir déployer ces investissements dans « le renforcement de l’action en fonds de fonds ».
Dans cette annonce de 109 milliards d’euros, Emmanuel Macron agrège aussi vraisemblablement les projets d’entreprises françaises comme Orange, Thales ou Iliad. Cette dernière y a, par exemple, aussi été de son communiqué de presse [PDF], avec la promesse d’un investissement de 3 milliards d’euros sur le sujet. De son côté, Mistral AI a annoncé investir « plusieurs milliards d’euros » dans un data center qui devrait, selon le Parisien, être implanté sur « plusieurs milliers de mètres carrés sur le plateau de Saclay ».
Cette somme annoncée par le Président est donc effectivement importante, mais il est difficile de savoir si elle sera réellement atteinte et quand. L’addition de tous ces projets semble être notamment un signal de communication pour afficher une « rivalité » possible avec le projet géant américain.
Le nucléaire comme réponse aux besoins énergétiques
Alors que l’accélération de l’IA pose déjà des questions de pénuries d’eau et d’énergie, lors de son interview à France 2, Emmanuel Macron a répondu sur le coût environnemental et l’énorme consommation électrique de ces data centers que, « grâce au nucléaire, nous avons l’énergie la plus décarbonée d’Europe ».
« Les data centers en France, ce n’est pas comme aux États-Unis où on utilise du pétrole et du gaz. Ce sont des data centers propres » a affirmé le Président de la République, ajoutant « nous sommes exportateurs d’électricité, donc ça ne prend pas sur la consommation des ménages ».
En effet, la France a commencé l’année 2025 avec la plus grande production mensuelle d’électricité depuis plus de trois ans (75 577 GWh), comme l’explique Reuters, après l’achèvement des travaux de maintenance des centrales. Mais la capacité de nos centrales nucléaires n’est pas infinie et il faudra quand même choisir entre l’électrification du parc automobile, l’exportation de cette énergie vers nos voisins européens, son utilisation pour de nouvelles infrastructures d’IA et/ou l’extension du parc des réacteurs nucléaires français.
D’énormes besoins en eau
L’agence de presse explique aussi qu’ « une baisse de la production globale n’est pas à exclure à l’horizon 2025, en particulier si la disponibilité de l’eau de refroidissement provenant des rivières est entravée par le temps chaud de l’été ». Cette disponibilité de l’eau touche aussi les data centers qui utilisent l’eau pour leur refroidissement.
Au Royaume-Uni, le plan IA, selon un rapport de l’Académie royale d’ingénierie, pourrait entraîner des pénuries d’eau, signalait encore récemment la BBC. « Les centres de données utilisent de l’eau du réseau de distribution courant, plutôt que de l’eau de surface, afin que les tuyaux, les pompes et les échangeurs de chaleur utilisés pour refroidir les baies de serveurs ne soient pas obstrués par des contaminants », explique le média britannique.
Le Royaume-Uni aurait émis une ordonnance obligeant Apple à introduire une porte dérobée. L’entrée permettrait à la sécurité britannique un accès aux données chiffrées, même quand toutes les options de sécurité sont activées.
Selon le Washington Post, le gouvernement anglais aurait envoyé à Apple un « avis de capacité technique ». Ce type d’ordonnance est rendu possible par la loi IPA (Investigatory Powers Act), entrée en vigueur en 2016. Elle autorise le ministère de l’Intérieur à réclamer d’une entreprise qu’elle laisse passer les agents de sécurité pour récupérer des données, même en cas de chiffrement de bout en bout.
Dans le cas d’un produit Apple (iPhone, iPad, Mac…), la majeure partie des services communiquent avec un chiffrement de bout en bout. Par défaut, la sauvegarde iCloud de la totalité des données d’une personne n’utilise cependant pas de chiffrement. Apple tient ces données à disposition des forces de l’ordre si un mandat dument délivré par un juge est présenté, dans le cadre d’une enquête.
Dans les paramètres iCloud, l’option « Protection avancée des données » permet cependant d’ajouter une défense supplémentaire. Les données issues des sauvegardes, d’iCloud Drive, Notes, Photos, Rappels, Raccourcis, Dictaphone, Cartes ainsi que les signets de Safari deviennent alors chiffrées de bout en bout. La procédure oblige l’utilisateur à créer une méthode de récupération. Apple prévient en outre qu’en cas de perte du moyen de récupération, toutes les données seront perdues, la société ne pouvant plus y accéder.
Il ne faut pas confondre cette protection supplémentaire avec le mode Isolement (Réglages > Confidentialité et sécurité), qui ajoute des barrières supplémentaires pour lutter contre les cyberattaques en réduisant la surface d’attaque.
Aucun « précédent connu dans les principales démocraties »
Selon l’article du Washington Post, c’est donc cette Protection avancée des données que le Royaume-Uni veut contourner. L’avis de capacité de technique imposerait à Apple de percer dans ses propres défenses pour offrir une porte dérobée aux forces de l’ordre. Ces dernières pourraient alors, au cours d’une enquête, accéder à toutes les données, quelles que soient les options de sécurité activées.
Cette ordonnance, « émise le mois dernier, exige une capacité générale de visualiser du matériel entièrement chiffré, et pas seulement une assistance pour craquer un compte spécifique, et n’a pas de précédent connu dans les principales démocraties », indique le Washington Post.
En mars 2024, devant la volonté du Royaume-Uni de renforcer la loi IPA, la société avait envoyé un témoignage au Parlement britannique, dans lequel elle exposait clairement ses positions. « Les pouvoirs actuels de l’IPA sont déjà extrêmement étendus et constituent un risque important pour la disponibilité mondiale de technologies de sécurité d’une importance vitale », déclarait-elle notamment.
Prétentions extraterritoriales
La société californienne mettait surtout trois points en avant. D’une part, le secrétaire d’État a le pouvoir d’exiger le silence de l’entreprise concernée, l’empêchant d’avertir ses clients de la modification demandée. D’autre part, la loi IPA a une portée extraterritoriale, « ce qui permet au gouvernement britannique d’affirmer qu’il peut imposer des exigences secrètes aux fournisseurs situés dans d’autres pays et qui s’appliquent à leurs utilisateurs dans le monde entier ». Enfin, face au renforcement de l’IPA par plusieurs amendements, les sociétés technologiques devraient notifier à l’avance le gouvernement britannique de tout ajout prévu de fonctions de sécurité, qui pourraient alors être bloquées.
Pour Apple, le Royaume-Uni chercherait à s’ériger en « régulateur mondial des technologies de sécurité ». La firme pointe les dangers pour le niveau mondial de sécurité, l’exposition des données personnelles aux piratages et les chocs juridiques avec d’autres pays.
Apple se montrait donc claire sur ses conclusions : jamais elle n’introduira de porte dérobée dans ses produits. Si le Royaume-Uni insiste, la société finira par supprimer la protection avancée des données. Si la société met sa menace à exécution, cela ne répondra toutefois pas aux exigences de la loi IPA, puisque la protection ne pourrait pas être désactivée sur les appareils l’ayant déjà. Et pour cause : Apple n’a pas la main sur le code de récupération.
La porte dérobée, encore elle
La BBC indique de son côté avoir eu confirmation de la manœuvre en cours. La volonté du gouvernement britannique serait, d’après ses sources, de cibler des individus spécifiques présentant un risque pour la sécurité nationale, plutôt que de « passer au peigne fin les données de tout le monde ». Les demandes seraient faites comme d’habitude, avec un mandat délivré par un juge dans le cadre d’une enquête, comme avec les comptes n’ayant pas activé l’option.
La procédure ne pourrait rien cependant contre l’inévitable risque que ferait peser une porte dérobée. Même si son accès était réservé à un très petit nombre, uniquement avoir montré patte blanche, elle serait tôt ou tard trouvée par des tiers, par accident ou à force de chercher. Les pirates pourraient alors s’en emparer, provoquant un vaste pillage mondial des données sur les comptes Apple.
Colère et inquiétude des ONG
Du côté des ONG, c’est la douche froide. Pour Caroline Wilson Pallow, directrice juridique de Privacy International, c’est « une attaque sans précédent » contre les données personnelles. À la BBC, elle a ajouté : « C’est un combat que le Royaume-Uni n’aurait pas dû choisir. Ce dépassement crée un précédent extrêmement préjudiciable et enhardira les régimes abusifs dans le monde entier ».
Pour S.T.O.P (Surveillance Technology Oversight Project), le Royaume-Uni porte atteinte à la vie privée de ses citoyens, tout en affaiblissant la sécurité mondiale. L’organisation souligne elle aussi l’impossibilité d’avoir une porte dérobée réservée aux forces de l’ordre. « Non seulement cela rendrait d’innombrables utilisateurs plus à risque d’être surveillés par les gouvernements, mais cela ouvrirait la porte à une vaste gamme de menaces de la part des pirates informatiques et des cybercriminels », indique l’ONG.
À la CCIA (Computer & Communications Industry Association), la récente tempête de cybersécurité aux États-Unis, Salt Typhoon, a mis en lumière l’importance du chiffrement de bout en bout, désormais largement mis en avant par la CISA. « Les décisions concernant la vie privée et la sécurité des Américains devraient être prises aux États-Unis, de manière ouverte et transparente, et non par le biais d’ordres secrets émanant de l’étranger et exigeant que les clés soient laissées sous le paillasson », a déclaré Matthew Schruers, président de la CCIA.
Des échos de San Bernardino
Apple ne voudra sans doute rien lâcher dans son opposition au gouvernement britannique. La menace de retirer les fonctions de sécurité avancée n’est probablement pas feinte.
L’histoire rappelle le choc brutal entre l’entreprise et le FBI après la tuerie de San Bernardino, en décembre 2015. Un iPhone 5c avait été retrouvé sur le corps d’un terroriste, après un attentat ayant provoqué 14 morts et 21 blessés par balles. Le FBI, en possession de l’appareil, voulait en récupérer les données. Problème, l’iPhone était verrouillé.
Apple, à l’époque, avait aidé le FBI en fournissant certains outils. Mais la firme ne pouvait pas passer le code de verrouillage car elle ne disposait pas de cette information. Or, ce code est repris par iOS pour façonner la clé de sécurité qui chiffre ensuite les données sur l’appareil. Autre problème, le FBI ne savait pas si le terroriste avait activé l’option entrainant un effacement des données en cas de multiples tentatives ratées sur le code.
Le FBI avait fini par exiger d’Apple qu’elle perce ses propres défenses. Refus catégorique d’Apple, qui arguait que la sécurité des données faisant partie de ses arguments de vente. Ajouter une porte dérobée aurait brisé cette promesse, détériorant la confiance du public et entrainant une chute importante de son chiffre d’affaires.
Le ton est monté pendant plusieurs semaines. Jusqu’à ce que le Bureau dépose officiellement plainte contre l’entreprise, pour la faire plier. Alors qu’une intense bataille juridique se préparait, le FBI a fini par annoncer que l’aide d’Apple n’était plus requise : une faille de sécurité allait permettre la récupération des données. Apple avait réclamé les détails de cette vulnérabilité, en vain à l’époque (on ne sait pas si elle a depuis été corrigée).
Le contexte était à peu près le même cependant. John Miller, alors responsable de l’unité antiterroriste à New York, avait ainsi accusé Apple « d’aider les kidnappeurs, les voleurs et les meurtriers ». Un son de cloche régulièrement entendu au Royaume-Uni et ailleurs au sujet du chiffrement de bout en bout.
La CNIL surveille depuis longtemps le développement des intelligences artificielles, notamment au travers du RGPD. La gardienne des libertés individuelles propose deux nouvelles recommandations pour « un usage de l’IA respectueux des données personnelles » : informer les personnes et faciliter l’exercice des droits.
Elles viennent s’ajouter aux autres recommandations et proposent, selon la Commission nationale de l’informatique et des libertés, « des solutions concrètes pour informer les personnes dont les données sont utilisées et faciliter l’exercice de leurs droits ».
Informer les personnes… dans la mesure du possible
« Lorsque des données personnelles servent à l’entraînement d’un modèle d’IA et sont potentiellement mémorisées par celui-ci, les personnes concernées doivent être informées », souligne la première recommandation.
La CNIL précise le périmètre de ce qu’elle entend par « informer », et passe rapidement d’une phrase simple à quelques exceptions. Les modalités d’information peuvent ainsi « être adaptées en fonction des risques pour les personnes et des contraintes opérationnelles ».
La CNIL rappelle que le Règlement européen permet, dans certains cas, « de se limiter à une information générale (par exemple, sur le site web de l’organisme) ». Par exemple, lorsque les modèles d’IA utilisent des sources tierces et que « le fournisseur n’est pas en capacité de contacter individuellement les personnes ».
Et si jamais le modèle utilise de nombreuses sources (c’est le cas des grands modèles), « une information globale, indiquant par exemple des catégories de sources, voire le nom de quelques sources principales, est généralement suffisante », indique la CNIL. Une page dédiée aux obligations concernant l’information aux personnes est disponible par ici.
Données personnelles : « best effort » sur les droits
La seconde recommandation sonne comme un rappel : « La règlementation européenne prévoit des droits d’accès, de rectification, d’opposition et d’effacement des données personnelles ». Précisons que ces droits sont applicables aussi bien sur les bases de données d’apprentissage que sur les modèles d’IA en eux-même, du moins s’ils ne sont pas considérés comme anonymes.
La CNIL rappelle, en effet, que « certains modèles d’IA sont anonymes : ils n’ont pas à appliquer le RGPD. Mais d’autres modèles, comme le modèle de langage (LLM), peuvent contenir des données personnelles ».
Avec la quantité phénoménale de données ingurgitée par les IA (génératives) on se rend vite compte que la gestion des droits des utilisateurs sur les données personnelle est plus facile à dire qu’à faire. Face à cette problématique, la CNIL propose de mettre en place des « solutions réalistes et proportionnées afin de garantir les droits des personnes sans empêcher l’innovation en matière d’intelligence artificielle ».
La CNIL passe ainsi en mode best effort et « demande aux acteurs de faire tous leurs efforts pour prendre en compte la protection de la vie privée dès le stade de la conception du modèle ». L’histoire récente et l’actualité tendent à montrer le contraire, au moins sur les gros modèles américains et chinois (OpenAI et DeepSeek en tête) : les modèles se goinfrent généralement du maximum de données qu’ils peuvent trouver.
Quoi qu’il en soit, la Commission demande aux acteurs de « porter une attention particulière aux données personnelles présentes dans les bases d’entraînement : en s’efforçant de rendre les modèles anonymes, lorsque cela n’est pas contraire à l’objectif poursuivi ; et en développant des solutions innovantes pour empêcher la divulgation de données personnelles confidentielles par le modèle ».
De possibles « exceptions » à l’exercice des droits
La CNIL précise d’autres limitations : « le coût, l’impossibilité ou les difficultés pratiques pourront parfois justifier un refus d’exercice des droits ; lorsque le droit doit être garanti, la CNIL prendra en compte les solutions raisonnables à la disposition du créateur du modèle et les conditions de délai pourront être aménagées ».
Elle demande aux responsables de traitement de bien vérifier auprès des personnes exerçant leurs droits le motif de leur demande (données d’entraînement et/ou modèle d’IA) et de répondre de manière détaillée. Par exemple, « cela est particulièrement important lorsque la modification de leurs données dans les jeux d’entrainement n’est pas répercutée (ou du moins pas immédiatement) dans le modèle ou système d’IA déjà développé ».
À contrario, il existe des scénarios ou la conservation des données d’identification n’est pas nécessaire. Par exemple, si des personnes ont bien été informées que « l’effacement des données mémorisées par le modèle d’IA sera impossible ».
Le mot du jour : « anonymat »
La CNIL termine par un rappel d’une bonne pratique : « les solutions techniques aujourd’hui disponibles n’étant pas satisfaisantes dans tous les cas où un modèle est soumis au RGPD, la CNIL invite en priorité les fournisseurs à anonymiser les données d’entrainement ou, à défaut de pouvoir le faire, à s’assurer que le modèle d’IA est anonyme à l’issue de son entrainement ».
Dans tous les cas, la Commission en profite pour rappeler que la recherche avance rapidement et demande donc aux acteurs de se tenir informés des évolutions afin de « protéger au mieux les droits des personnes ». Là encore, une page dédiée a été mise en ligne.
Nokia a annoncé lundi que son conseil d’administration avait reçu la démission de Pekka Lundmark, son actuel CEO, effective au 31 mars prochain. L’entreprise finlandaise révèle dans le même temps qui pilotera ses activités à compter du 1ᵉʳ avril prochain : il s’agit de Justin Hotard, jusqu’ici vice-président en charge de l’IA et des centres de données chez Intel.
« Je suis ravi d’accueillir Justin chez Nokia. Il possède une solide expérience dans l’accélération de la croissance des entreprises technologiques ainsi qu’une vaste expertise dans les marchés de l’IA et des centres de données, qui sont des domaines essentiels pour la croissance future de Nokia », se réjouit Sari Baldauf, présidente du conseil d’administration de Nokia, dans un communiqué.
« Des téléphones mobiles aux réseaux, en passant par la connectivité avancée qui rend possible l’intelligence artificielle et le cloud, Nokia possède un héritage unique en matière d’innovation et de réinvention. Je suis ravi de diriger Nokia vers son prochain chapitre d’innovation, de croissance et de création de valeur », annonce de son côté le futur CEO sur LinkedIn.
Justin Hotard est entré chez Intel en février 2024, pour prendre la responsabilité de toutes les activités liées aux centres de données, des processeurs Xeon jusqu’aux accélérateurs dédiés à l’IA. Il était précédemment vice-président et directeur des activités HPC (calcul haute performance) et IA chez HPE.
Les Nations Unies ont décidé que 2025 était l’Année internationale des sciences et technologies quantiques (AISQ). La cérémonie d’ouverture s’est déroulée la semaine dernière (le replay est disponible), au siège de l’UNESCO à Paris. Une centaine d’événements sont prévus un peu partout dans le monde, explique le CERN.
« Cette initiative vise à sensibiliser le public, à favoriser l’accès à l’éducation quantique, notamment dans les pays en développement, et à encourager la recherche », explique le CNRS. Le Centre national pour la recherche scientifique ajoute que cette année 2025 coïncide avec « le centenaire de la mécanique quantique, fondement des technologies modernes comme les transistors, lasers ou communications sécurisées ».
L’Organisation européenne pour la recherche nucléaire ajoute que « le quantique est également le thème central de la saison 2025 des événements publics du CERN au Portail de la science. Le coup d’envoi de la saison des événements publics sera donné le 11 février, à l’occasion de la Journée internationale des femmes et des filles de science ».
Le premier, De Temps en Temps, aura lieu demain au CERN (Genève). Il s’agit d’une « création artistique et scientifique qui explore la perception du temps en physique et en musique, y compris la mécanique quantique, avec le quatuor à cordes féminin DoniSSi et les interventions de Yasmine Amhis, coordinatrice scientifique de l’expérience LHCb au CERN ». L’UNESCO aussi propose une liste des événements.
Durant les deux derniers jours, de nombreuses annonces ont eu lieu dans le monde de l’intelligence artificielle. Alors que s’ouvre en France le sommet sur l’IA, plusieurs entreprises ont lancé de nouveaux produits, dont Mistral, GitHub, OpenAI, Google et Kyutai. Passage en revue.
On commence par Mistral, qui vient de lancer son application mobile pour Le Chat, son assistant maison. L’application est disponible pour iOS/iPadOS (15.1 minimum) et Android (7.0 minimum) et est traduite dans de nombreuses langues, dont le français bien sûr.
Les performances comme argument
Le lancement de ces applications mobiles était attendu. L’entreprise française doit lutter dans un marché à la concurrence féroce. Continuer à proposer une simple version web devenait donc problématique.
« Alimenté par les modèles Mistral les plus performants et à la latence la plus faible, ainsi que par les moteurs d’inférence les plus rapides de la planète, le Chat raisonne, réfléchit et répond plus rapidement que n’importe quel autre assistant de chat, jusqu’à environ 1000 mots par seconde. Nous appelons cette fonctionnalité Flash Answers, et elle est actuellement disponible en avant-première pour tous les utilisateurs », annonce ainsi tout de go Mistral dans son communiqué.
La société met donc en avant ses performances pour faire la différence. Difficile pour l’instant de juger réellement d’un potentiel écart avec des données chiffrées, mais d’après nos propres constatations, Le Chat s’est avéré particulièrement rapide, avec une grande réactivité.
Autre superlatif, Le Chat bénéficierait du « meilleur traitement des téléchargements au monde », renvoyant aux capacités de l’assistant sur tout ce qui touche à la reconnaissance de documents (OCR) et à leur analyse. Le Chat serait également à la pointe dans la génération d’images, la fonction étant alimentée par le modèle Flux Ultra de Black Forest Labs, présenté comme le plus performant. Dans le communiqué, l’entreprise n’hésite pas à se comparer à ChatGPT et Grok.
Mistral n’indique pas directement quels modèles sont utilisés pour son assistant. On sait en revanche que l’entreprise développe les siens propres, comme son modèle génératif Mistral Large, ou son modèle multimodal Pixtral. Quand la version Large de ce dernier est sortie en novembre, le communiqué mentionnait que l’un des moyens de le tester était justement Le Chat. Des améliorations pour ce dernier avaient été annoncées également il y a quelques mois. Dans l’annonce d’hier, c’est à nouveau le cas. À noter que Mistral Large et Pixtral sont tous deux présents dans Amazon Bedrock, Azure AI Studio et Google Vertex AI.
Plusieurs moyens de se différencier
Mais en dehors du délicat terrain des performances, où les percées sont vite oubliées, comment Mistral compte-t-elle se différencier ? L’entreprise dispose de plusieurs arguments. D’abord sur les prix, puisque l’entreprise profite de l’occasion pour introduire un forfait Pro, à 14,99 dollars/euros par mois.
Pour ce prix, la formule donne un accès illimité aux modèles les plus performants proposés, même si l’on ne sait pas lesquels. Mistral évoque également un « accès étendu aux réponses Flash », ce qui signifie une limite plus haute, mais une limite quand même. On note aussi la possibilité de désactiver le partage de ses informations et la présence d’un support dédié.
Mistral pourrait cependant avoir une carte à jouer sur la capacité de son assistant à tourner localement. L’offre Enterprise permet en effet de déployer Le Chat sur site, dans un environnement dédié et avec des outils personnalisés, pour exploiter si besoin les propres données de l’entreprise, sans communication avec les serveurs de Mistral. Le fonctionnement de l’assistant peut également se baser sur des modèles personnalisés. Cette capacité vient d’apparaitre, mais uniquement en accès anticipé pour l’instant.
Enfin, Mistral compte proposer bientôt des agents multi-étapes, nouveau grand axe de développement chez la concurrence également. Objectif, connecter ses contenus et systèmes avec des agents capables d’automatiser « les parties ennuyeuses de votre travail ». L’entreprise n’en dit pas plus pour l’instant, mais elle aura fort à faire. Les agents sont l’une des fonctions les plus mises en avant depuis l’année dernière, notamment chez Microsoft. La conférence Build 2024 revenait ainsi régulièrement sur cette thématique.
GitHub améliore son Copilot
Le Copilot de GitHub est devenu rapidement le produit phare de l’entreprise, rachetée par Microsoft. La filiale vient d’annoncer plusieurs évolutions importantes pour son assistant, dont… un mode agent. La nouvelle fonction doit permettre à Copilot d’itérer sur son propre code et de corriger automatiquement ses erreurs.
Le lancement de ce mode agent est une réponse du berger à la bergère. GitHub a largement popularisé le concept d’assistant dans le développement, mais se retrouve menacé par de jeunes entreprises aux grandes ambitions, dont Bolt, Cursor ou encore Replit. GitHub imagine donc un monde où les développeurs seront bientôt rejoints par des équipes d’agents IA toujours plus intelligents, qui agiront comme autant de « pair-développeurs » pour prendre en charge les tâches quotidiennes.
Ce mode agent, plus autonome, cherche à analyser les exigences de la tâche complète avant de générer du code. Il peut, selon GitHub, « déduire » d’éventuelles tâches supplémentaires qui n’ont pas été spécifiées par les développeurs humains, mais qui lui semblent requises. Il va ensuite itérer sur le code produit et le résultat de ce dernier, jusqu’à ce que toutes les tâches « déduites » soient accomplies.
Et GitHub va encore plus loin. Selon l’entreprise, son mode agent est capable de reconnaitre automatiquement ses propres erreurs, peut corriger les problèmes identifiés sans intervention des développeurs, surveille les erreurs pendant l’exécution et fournit des corrections, et peut suggérer et exécuter les commandes nécessaires dans le terminal. Les nouveautés peuvent être testées en passant par la version Insiders de Visual Studio Code.
GitHub évoque également l’avenir en indiquant qu’à terme, son projet Padawan permettra d’aboutir à un agent totalement autonome, à qui on pourra confier une liste de tâches de développement. Plus précisément, on pourra confier à Padawan un problème, l’agent s’occupant alors d’en définir toutes les étapes intermédiaires et les solutions allant avec. La fonction doit arriver d’ici la fin de l’année, sans plus de précisions.
OpenAI ouvre sa recherche ChatGPT à tout le monde
Parallèlement, OpenAI vient d’ouvrir sa recherche ChatGPT à tout le monde, sans plus nécessiter de compte. Initialement, la fonction était apparue en octobre dernier pour les personnes payant un abonnement. Deux mois plus tard, elle a été étendue à l’ensemble des utilisateurs, mais en exigeant un compte. Désormais, le champ est libre pour partir plus frontalement à l’assaut de Google et des autres moteurs de recherche.
Cette ouverture aura attendu que plusieurs séries d’améliorations viennent enrichir le service. La dernière salve date de décembre, quand la recherche est devenue accessible à tous les détenteurs de comptes. OpenAI a alors ajouté diverses capacités, dont surtout l’affichage des cartes et d’informations liées, comme les points d’intérêt. Ce type de fonction progresse rapidement, Perplexity ayant par exemple fait de même récemment. Après tout, si ChatGPT et ses concurrents veulent concurrencer pleinement les moteurs de recherche, autant en reprendre tous les attributs.
Parallèlement, Microsoft a annoncé hier soir la disponibilité dans Azure OpenAI Service des préversions de GPT-4o-Mini-Realtime-Preview et GPT-4o-Mini-Audio-Preview. Le premier modèle est destiné aux interactions vocales en temps réel. Il se destine clairement aux chatbots, particulièrement ceux tournés vers la clientèle. Ce modèle doit permettre des échanges naturels avec la voix, permettant selon Microsoft une plus grande rapidité dans les questions/réponses. Le second modèle est plus général et se destine aux interactions audios au sens large. Il ne permet pas de faire plus que GPT-4o, mais peut le faire pour « une fraction de prix », selon l’éditeur.
Quand les deux modèles seront disponibles en versions finales, ils seront intégrés aux API Realtime et Chat Completion fournies par Azure OpenAI. Microsoft ne tarit pas d’éloges sur ces capacités, qui pourraient jouer un rôle dans tout ce qui touche à la génération vocale, aussi bien dans les jeux vidéo que les podcasts, en passant par le cinéma.
OpenAI a également annoncé il y a quelques jours la possibilité de stocker les données en Europe. Ce choix n’est pour l’instant disponible que pour les nouveaux projets ChatGPT Enterprise, ChatGPT Edu et pour l’API. Pour cette dernière, les demandes seront également traitées dans la région européenne. Aucune bascule ne semble prévue pour les projets existants. OpenAI ajoute dans son annonce que les données sont chiffrées au repos en AES-256, que ses modèles ne sont pas entrainés « par défaut » sur les données des clients et que ses pratiques sont conformes avec le RGPD.
Google : du raisonnement et à nouveau des agents
Chez Google également la semaine a été chargée. Mercredi, la société a publié une série d’annonces sur ses modèles Gemini 2.0, dont une version expérimentale de son très attendu Gemini 2.0 Pro, qui prendra logiquement la succession de l’actuelle version 1.5 Pro. Cette préversion est disponible dans Vertex AI et Google AI Studio, et arrivera bientôt dans l’application mobile Gemini pour les détenteurs d’un compte Advanced.
Gemini 2.0 Pro prendra la relève en tant que modèle phare, avec une fenêtre de contexte de 2 milliards de jetons, ce qui correspond à peu près à 1,5 milliard de mots. Le modèle peut également « utiliser des outils tels que la recherche Google et l’exécution de code », précise l’éditeur. Dans son annonce, Google fournit un tableau réunissant différents benchmarks de ses modèles, et où Gemini 2.0 Pro arrive bien sûr en tête.
Parallèlement, Google a mis son modèle Gemini 2.0 Flash à la disposition du grand public. Annoncé initialement en décembre, il est désormais disponible depuis l’application Gemini, ainsi que dans Vertex AI et Google AI Studio.
Et puisque l’on parle de Flash, Google donne des nouvelles de deux variantes. D’abord, Gemini 2.0 Flash-Lite, une version qui se veut économique. Disponible, elle aussi, dans Google AI Studio et Vertex AI, elle doit donner le change dans un contexte largement bousculé par le modèle chinois DeepSeek. Flash-Lite garde la même fenêtre contextuelle d’un million de jetons et accepte les entrées multimodales. Selon Google, il préserve les performances de la version 1.5, tout en donnant de meilleurs résultats.
Quant à Gemini 2.0 Flash Thinking Experimental, un modèle de raisonnement disponible uniquement dans AI Studio jusqu’à présent, il arrivera bientôt dans l’application Gemini. Google n’indique cependant aucune date.
Kyutai revient avec une technologie de traduction simultanée
Kyutai, présenté comme un laboratoire en IA open-science à but non lucratif et fondé par Xavier Niel, Rodolphe Saadé et Eric Schmidt fin 2023, revient avec une nouvelle technologie. Dans un communiqué hier, Iliad annonce ainsi Hibiki, une technologie présentée comme capable d’assurer une traduction simultanée préservant la voix du locuteur. Hibiki pourrait « adapter son rythme au contenu sémantique du discours source ». La traduction orale se ferait en temps réel.
Toujours selon Iliad, Hibiki n’a pour l’instant été entrainé que pour traduire du français vers l’anglais. Il pourrait être déployé facilement dans le cloud et se montrerait assez efficace pour une « utilisation en temps réel sur mobile ».
Enfin, toujours chez iliad, un plan d’investissement a été annoncé ce soir : « OpCore [le nouveau nom depuis juin 2023 de Scaleway Datacenter, NDLR], la filiale qui opère les 13 datacenters du Groupe, va investir 2,5 milliards d’euros afin de renforcer sa position de leader européen du datacenter hyperscale dédié notamment aux ressources de calcul IA ». Une annonce dans la continuité de celle de décembre 2024 quand iliad annonçait vouloir devenir « un leader européen du data center hyperscale ».
Dans la même veine, « le Groupe a aussi investi dans la plus grande capacité de calcul commercialisable en Europe pour l’IA. Ce sont ainsi près de 5 000 GPUs dernière génération qui sont mis à la disposition des entreprises pour entraîner et utiliser leurs modèles ». Parmi les partenaires il y a Mistral AI, H et Photoroom. Là encore, c’est la continuité d’une annonce de 2023.
Le parquet de Paris confirme vendredi l’ouverture d’une enquête sur X, chargée de déterminer si et comment les algorithmes qui régissent l’affichage des messages sur le réseau social ont pu fausser le fonctionnement de son système de traitement automatisé de données.
Révélée en milieu d’après-midi par France Info, l’ouverture de cette enquête fait suite à un signalement déposé par le député (Ensemble) Eric Bothorel, le 12 janvier dernier.
L’intéressé l’avait lui-même signalé via son compte X jeudi. « Je vois passer plusieurs publications qui évoquent « les auteurs du fonctionnement faussé de l’algorithme de recommandation du STAD du réseau X ». J’ai saisi par courrier simple le parquet cyber J3 à ce sujet le 12 Janvier dernier ».
« Le parquet de Paris a reçu ce signalement de député en date du 12 janvier 2025, dénonçant des algorithmes biaisés dans le fonctionnement de X comme susceptibles d’avoir faussé le fonctionnement d’un système de traitement automatisé de données », confirme à Next le parquet de Paris.
Il ajoute : « les magistrats et assistants spécialisés de la section de lutte contre la cybercriminalité saisis l’analysent et procèdent aux premières vérifications techniques ».
L’enquête sera selon toute vraisemblance confiée aux personnels de la section J3, spécialisée dans les sujets cyber, et notamment compétente pour les infractions qui relèvent de l’atteinte à un système de traitement automatisé de données (STAD).
X n’a pour l’instant pas réagi à l’annonce de l’ouverture de cette enquête. En 2022, le réseau social (qui s’appelait encore Twitter) avait obtenu la relaxe dans une affaire judiciaire en arguant du fait que la société de droit français Twitter France n’était pas responsable des traitements réalisés par sa maison mère, Twitter International, basée en Irlande.
Hier s’est ouvert à Paris le Sommet pour l’action sur l’IA. Que faut-il en attendre de cet événement dont le nom est souvent réduit à « Sommet sur l’IA » ? Quels sont ses objectifs ? De premières actions concrètes ont déjà été annoncées. On vous explique.
Dégrossissons les contours du Sommet pour l’action sur l’IA. Dans une interview à Maddyness, la représentante du président de la République Anne Bouverot explique que ce Sommet est « un mélange de Vivatech et de Choose France, et un objet diplomatique ».
Diplomatique, car le Sommet doit permettre de « mettre en lumière notre écosystème français et de montrer que le développement de l’IA ne se limite pas aux États-Unis ou à la Chine », quand il n’est pas réduit à une guerre entre OpenAI et DeepSeek.
#FranceIA (2017), Stratégie nationale sur l’IA (2018), Sommet sur l’IA (2025)
Ce Sommet est présenté par le gouvernement comme « une troisième étape » dans la stratégie intelligence artificielle de la France, lancée en 2017 avec le plan de bataille #FranceIA. En 2018, nous avons aussi eu une « stratégie nationale de recherche en intelligence artificielle », après un rapport de Cédric Villani.
L’Europe n’est pas en reste avec l’AI Act qui est entré en vigueur 1ᵉʳ août 2024. Une première étape a été franchie le 2 février avec l’interdiction dans l’Union européenne des systèmes d’IA présentant des « risques inacceptables ». D’autres sont à suivre cette année et en 2026.
Renforcer l’action internationale, au service de « l’intérêt général »
Revenons au Sommet. On trouve une première ligne directrice sur le site de l’Élysée : « Pendant près d’une semaine, à partir du 6 février 2025, Paris accueillera de nombreux évènements visant à renforcer l’action internationale en faveur d’une intelligence artificielle au service de l’intérêt général ».
Cinq thèmes jugés essentiels sont abordés : l’IA au service de l’intérêt public, l’avenir du travail, l’innovation et la culture, l’IA de confiance et enfin la gouvernance mondiale de l’IA. La France n’est pas seule aux commandes : cet événement est « co-présidé par la France et l’Inde », rappelle l’Agence Française de développement.
Deux journées scientifiques et un week-end culturel
Hier et aujourd’hui se déroulent des journées scientifiques avec de nombreuses conférences. Ces deux jours sont organisés par l’Institut Polytechnique de Paris, sur son campus. Il s’agit de préparer le terrain avec des « discussions sur les transformations engendrées par l’IA » et des présentations de travaux de recherche.
Pour embarquer le grand public, ce week-end des rencontres culturelles dédiées à l’IA seront organisées : « les participants, tous âges confondus, pourront s’immerger dans les différentes approches de l’IA : par la pratique, par les débats contradictoires, par la découverte d’œuvres et par des échanges avec les artistes ».
L’Élysée revient sur deux facettes de l’IA, décrite comme « une formidable source d’appui aux créateurs », qui « soulève en même temps des questionnements importants sur des sujets comme le droit d’auteur et la rémunération des artistes ». Il y a également une troisième voie (au moins) à explorer : la pollution d’articles GenAI dans des médias en français, comme le montre notre enquête.
Quoi qu’il en soit, il reste des places gratuites à certaines conférences de samedi à la Bibliothèque nationale de France. Samedi et dimanche, la Conciergerie propose un parcours artistique baptisé Machina sapiens dont le but est de « cartographier les enjeux de l’IA générative et de son impact sur la société à travers une vingtaine d’œuvres d’artistes français et internationaux ». Sur son site, la Conciergerie indique que le parcours est « gratuit sans réservation », de 9h30 à 18 h.
Vous pouvez aussi ré(écouter) notre podcast Algorithmique et lire nos différents tutos pour apprendre et tester soi-même le fonctionnement de l’intelligence artificielle et de son entrainement.
Lundi des conférences, mardi des discussions avec les chefs d’État
La semaine prochaine, deux gros morceaux sont attendus : « Le Sommet débutera le 10 février au Grand Palais avec un forum qui réunira d’importants acteurs mondiaux de l’IA (gouvernements, entreprises, chercheurs, artistes, acteurs de la société civile, journalistes) » Puis ce sera au tour du « Sommet des chefs d’État se déroulera quant à lui le 11 février, au Grand Palais ».
Lundi sera la journée de « rencontres et discussions entre participants du monde entier » avec des sujets comme l’avenir du travail, l’IA de confiance, le développement des enfants, la gouvernance, les données, les bonnes pratiques… Voici le programme (chargé de cette journée) :
La longue liste des personnalités attendues
Mardi, durant la session plénière, des chefs d’État et de gouvernement ainsi que des personnalités internationales « échangeront sur les grandes actions communes à mettre en œuvre en matière d’IA ». Reste à voir ce qui en sortira.
L’AFP dresse une liste des invités de marque : Premier ministre indien, vice-président américain, vice-Premier ministre chinois, présidente de la Commission européenne, secrétaire général des Nations Unies, directrice générale de l’OMC, secrétaire général de l’OCDE, directeur de l’Agence internationale de l’énergie.
Les patrons de la tech aussi font le déplacement : Sam Altman (OpenAI), Sundar Pichai (Alphabet/Google), Demis Hassabis (DeepMind), Brad Smith (Microsoft), Dario Amodei (Anthropic). Le cas de certaines personnalités reste en suspend, notamment Liang Wenfeng (DeepSeek) et Elon Musk (X). Les français seront évidemment bien représentés avec Xavier Niel (Iliad) et Rodolphe Saadé (CMA CGM) qui ont tous les deux lancé Kyutai, ainsi que « les patrons d’Airbus, Thales et EDF ».
Des conversations plus que des résolutions de problématiques
Anne Bouverot apporte un élément de réponse dans son interview à Maddyness. À la question « n’avez-vous pas peur que l’effet de ce sommet soit un peu comme les effets des COP Climat : beaucoup d’engagements, mais peu ou pas d’impact concret ? », elle reconnait que la portée sera très certainement limitée :
« Notre objectif, ici, n’est donc pas de résoudre l’ensemble des problématiques liées au développement de l’intelligence artificielle, mais plutôt de garantir que des conversations aient lieu, que des initiatives soient lancées, et qu’elles trouvent ensuite des cadres où elles pourront être suivies ».
L’une des dernières décisions de Google devrait alimenter les discussions. En effet, l’engagement selon lequel les IA développées par l’entreprise ne doivent pas servir à la création d’armes a été enlevée de sa déclaration encadrant ses grands principes éthiques et moraux. La société justifie ce changement par une approche basée sur la gestion du risque, grâce à un « framework » dédié.
En parallèle de cette session plénière, une centaine d’évènements sont prévus pour les acteurs de la société civile et les entreprises. Il est question de l’IA et la démocratie, de l’impact environnemental, de la manipulation de l’information, de la cybersécurité, etc.
La CNIL, l’ANSSI, la DGCCRF et la DGE seront présents à Station F mardi pour le Business Day. Son but : « pour sensibiliser les entreprises et startups aux obligations du règlement IA dont l’entrée en application s’opère graduellement depuis l’été 2024 ». Le programme est bien chargé. L’événement est complet, mais il sera possible de le regarder sur YouTube.
Des annonces tous azimuts
Vous l’avez certainement remarqué, avant même l’ouverture de ce Sommet, les annonces fusent de tous les côtés, aussi bien avec des annonces de produits chez les principaux acteurs (nous y reviendrons dans une actualité dédiée), des investissements, des tribunes où chacun donne son avis, des annonces du gouvernement sur les datacenters, etc. Impossible de les citer toutes, mais faisons tout de même une rapide recension :
Sur X, Guillaume Rozier (Conseiller du président de la République) revient sur les premières annonces de l’État autour de l’Intelligence Artificielle. « D’ici un an tous les agents publics bénéficieront de l’IA, notamment au travers d’un agent conversationnel souverain ». Il affirme que l’État « déploiera plus largement les meilleures technologies IA souveraines, proposées par des startups françaises, ou disponibles en open source ».
Deux « livrables » : une cartographie de l’INA et une fondation
Hier, l’INA a mis en ligne un des « livrables » de ce sommet de l’IA : une « cartographie des enjeux et usages de l’IA pour le journalisme ». Elle propose des pistes de réflexion sur les usages et les outils IA pour le journalisme, une analyse des enjeux et enfin une grille d’évaluation de son intérêt.
Du côté des tribunes, Le Monde en a publié plusieurs ces derniers jours. La première d’une vingtaine d’organisations intitulée « L’intelligence artificielle accélère le désastre écologique, renforce les injustices et aggrave la concentration des pouvoirs ». La seconde d’une centaine d’ONG : « L’IA telle qu’elle est développée alimente un système d’exploitation global ».
Elles demandent respectivement de « résister au déploiement massif de l’IA, au nom des droits humains, sociaux et environnementaux » et de « placer les droits humains et la justice environnementale au cœur de la régulation de l’intelligence artificielle ».
Dans La Nouvelle République, on retrouve une autre tribune de l’Alliance de la presse d’information générale, de la FNPS, du Geste, du SEPM et du Spiil : « Trois conditions pour garantir la fiabilité de l’information et préserver la démocratie à l’heure de l’IA générative ».
« Les services d’intelligence artificielle générative s’imposent à une vitesse fulgurante dans la recherche d’informations, répondant de plus en plus directement aux usagers, sans renvoyer à la source. Ce faisant, ils se substituent aux médias, mais sans leur cadre déontologique », peut-on lire dans cette tribune. Et là encore, ce n’est pas notre enquête qui dira le contraire.
Wikimedia France relaie aussi une tribune du think tank Renaissance numérique avec 43 signataires (dont Wikimédia France) : « Gouvernance mondiale de l’IA : passer à l’action avec la société civile ». Elle demande de mettre en place « d’urgence trois mesures concrètes pour renforcer et faciliter l’implication de la société civile dans la gouvernance de l’IA, pendant et surtout après le sommet : Encourager des processus de sélection plus ouverts et transparents […] Imposer un devoir de réponse aux contributions […] Faciliter le financement. »
Près de dix ans après son lancement en France, la NVIDIA Shield reçoit cette semaine une mise à jour logicielle. Son environnement, basé sur Android TV passe en version 9.2 avec quelques corrections de bugs, bien sûr, mais aussi des nouveautés fonctionnelles.
La principale d’entre elles consiste en la prise en charge du format de son AURO-3D, censé offrir une spatialisation améliorée des effets sonores, sous réserve de connecter la petite console, via HDMI, à un décodeur compatible.
NVIDIA annonce par ailleurs l’introduction du contrôle parental en langue française, une mise à jour des composants dédiés à la lecture de vidéos 4K protégées par DRM et une fonction, encore en bêta, de synchronisation des images à la fréquence d’affichage de la TV.
La mise à jour Shield Experience 9.2 permet par ailleurs à NVIDIA de corriger une vingtaine de bugs, dont des saccades susceptibles d’intervenir en sortie de veille, un problème qui empêchait le transfert de gros fichiers via le réseau, un crash au démarrage de l’application GeForce Now, ou des défauts de compatibilité avec certains casques sans fil Bluetooth. Cette nouvelle version, qui pèse environ 1 Go, est actuellement déployée par NVIDIA, mais si la notification correspondante n’est pas encore arrivée, il est possible de forcer la mise à jour via le menu paramètres.
La dernière mise à jour (hors hotfix) remontait à novembre 2022.
Le Premier ministre a annoncé jeudi, en prélude au Sommet pour l’action sur l’IA, l’identification de 35 sites industriels « clés en main » dédiés à la création de datacenters. Quelques heures plus tard, l’Élysée a révélé un projet d’investissement porté par les Émirats arabes unis, qui doit conduire à la création d’un immense datacenter adossé à un campus dédié à l’IA.
Installé en septembre 2023 par Élisabeth Borne, le comité interministériel de l’intelligence artificielle s’est réuni jeudi matin, en préambule au Sommet pour l’action sur l’IA, qui doit réunir le gratin mondial du secteur à Paris. Présidée par François Bayrou à Matignon, la rencontre a permis au gouvernement de livrer les principaux éléments de sa feuille de route en matière de soutien à l’IA.
35 sites fléchés en priorité à des projets de datacenter
Le Premier ministre a notamment annoncé à cette occasion l’identification de 35 sites industriels considérés comme particulièrement propices à l’installation de centres de données, à la fois pour leur accès à l’énergie, pour leur surface foncière et pour leur disponibilité.
« Partout en France, des Hauts-de-France à la région Provence-Alpes-Côte d’Azur, 35 sites ont été identifiés pour accueillir des centres de données, qui irriguent toute la filière IA en données. Notre pays a l’avantage considérable de pouvoir leur garantir l’accès à une énergie fiable, décarbonée et abondante », écrit le Premier ministre dans un rapport transmis par Matignon à la rédaction à l’issue de ce comité.
L’emplacement exact de ces 35 sites n’a pas été communiqué. Matignon indique en revanche qu’ils représentent des surfaces allant de « 18 à 150 hectares et plus », pour une surface totale de l’ordre de 1 200 hectares, et des possibilités en matière de raccordement électriques qui pourraient atteindre un total de 1 GW à horizon 2027.
Des procédures administratives accélérées
Aux éventuels porteurs de projet intéressés, le comité interministériel promet le soutien d’une équipe dédiée et, surtout, la perspective de procédures administratives raccourcies. Les sites concernés devraient en effet bénéficier du régime accéléré prévu par la loi sur l’Industrie verte. Pour un vrai choc de simplification, le gouvernement devra cependant en repasser par la loi.
Les centres de données ne sont en effet pas encore éligibles au statut de « Projet d’Intérêt National Majeur » (PINM). Or c’est lui qui permet aux grands projets industriels d’obtenir des dérogations en matière de protection des espèces, des adaptations des règles d’urbanisme locales ou un raccordement prioritaire aux infrastructures RTE.
Le comité annonce à ce niveau qu’il proposera d’exclure les projets de datacenters du champ de la commission nationale du débat public (qui prévoit un long temps d’échange entre le porteur de projet et les populations). « Enfin, les procédures contentieuses contre les projets de centres de données seront simplifiées, avec à la suppression du double degré de juridiction. Un gain de 9 à 18 mois est attendu à ce titre ».
L’annonce anticipée de ces futures facilités n’a rien d’un hasard : le gouvernement souhaite profiter de l’exposition offerte par le Sommet sur l’IA pour attirer l’attention des industriels du secteur, et accélérer le dépôt de nouveaux projets.
Un datacenter de 1 GW cofinancé par les Émirats Arabes Unis
En fin de journée, l’Élysée a embrayé avec une nouvelle annonce, nettement plus spectaculaire. La France et les Émirats arabes unis ont, en effet, conclu un accord dans le cadre duquel les fonds émirati participeront aux investissements nécessaires à la création d’un « campus de 1 GW dédié à l’intelligence artificielle en France ».
D’après l’Élysée, le projet représenterait une enveloppe globale de 30 à 50 milliards d’euros, amenés par « un consortium de champions franco-émiratis ». Le projet, d’une envergure inédite dans l’Hexagone, mêlerait à la fois des infrastructures informatiques, avec un immense datacenter, mais aussi des écoles, des centres de formation, des laboratoires, etc.
Où sera installé ce campus, et quand verra-t-il le jour ? « Une annonce sur la première tranche d’investissement sera faite lors du Sommet Choose France 2025 », se contente d’indiquer la présidence de la République, faisant référence à l’événement annuel, organisé au mois de mai, lors duquel l’Élysée réunit de grands acteurs économiques pour favoriser leurs investissements en France.
L’accord conclu entre la France et les Émirats « comprend des investissements dans l’IA française et émiratie, l’acquisition de puces de pointe, des centres de données, le développement de talents, ainsi que la mise en place d’ambassades virtuelles de données pour permettre la mise en place d’infrastructures souveraines d’IA et de cloud dans les deux pays », déclare encore l’Élysée.
À partir du 1ᵉʳ novembre, les heures creuses vont changer pour 11 millions de foyers. Le but est de s’adapter aux changements de modes de consommations (notamment télétravail) et à l’augmentation de la production photovoltaïque. Plus de 13 millions de clients auront deux périodes distinctes pendant la journée, avec de possibles différences entre l’hiver et l’été.
La Commission de régulation de l’énergie (CRE) vient de publier ses projets de décision sur le tarif d’utilisation des réseaux publics d’électricité (alias le TURPE). Le « TURPE 7 » entrera en vigueur le 1ᵉʳ aout, mais la hausse a pour rappel été « anticipée » à ce 1ᵉʳ février pour se « fondre » dans la baisse des coûts de l’électricité.
Si le TURPE 7 reconduit globalement la structure tarifaire du TURPE 6, la CRE explique que des changements sont à prévoir sur les heures creuses :
« La CRE, lors des différentes consultations, a proposé de revoir le placement des heures creuses pour bénéficier de la production photovoltaïque abondante et peu chère en après-midi et notamment en été. Cette proposition a été accueillie très favorablement par une grande majorité des acteurs. Elle sera mise en œuvre progressivement à compter de l’automne 2025 ».
Deux plages horaires, avec 8 h creuses par jour
La Commission rappelle que les heures creuses/pleines (HP/HC) ont été introduits dès les années 60 après la mise en service des premières centrales nucléaires. Le dispositif a ensuite été étendu dans les années 70 - 80. La journée est ainsi divisée en deux plages horaires : « 16 heures « pleines » et 8 heures « creuses » (consécutives ou non), avec deux prix différents ».
Rappelons que les plages d’heures creuses sont fixées par le Gestionnaire du Réseau de Distribution d’électricité (Enedis) ou les Entreprises Locales de Distribution (ELD). Elles peuvent varier d’un client à l’autre, mais vous ne pouvez pas les choisir ni demander à les modifier. Les heures creuses existent aussi bien pour les tarifs réglementés que les autres.
La CRE donne quelques exemples des changements qui pourront être mis en place pour différents types de foyers.
Des heures creuses plus propices entre 11 h et 17 h
La répartition 16/8 ne changera pas, affirme la CRE. Par contre les plages horaires vont bouger cette année : « L’objectif est de mettre en adéquation ces heures creuses avec les enjeux du réseau et de l’équilibre offre-demande ». La période entre 11 h et 17 h est désormais « plus propice qu’avant pour consommer l’électricité, en particulier en été ». À contrario, les heures creuses en début de matinée et de soirée ne sont « plus opportunes », du changement est donc au programme.
La Commission explique qu’une partie des « heures mal placées » (celles de 7 h à 11 h ou de 17 h à 23 h) vont ainsi être déplacées « vers des créneaux où l’énergie est abondante et peu chère », principalement l’après-midi entre 11 h et 17 h.
Pour s’adapter au mieux à la saisonnalité de la production d’électricité via le photovoltaïque, les pages horaires pourront être différentes en été (du 1ᵉʳ avril au 31 octobre, précise la CRE). Il sera possible d’avoir des heures creuses uniquement la nuit en hiver et jusqu’à 3 heures creuses pendant la journée en été. Dans tous les cas, les clients « conserveront un minimum de cinq heures creuses consécutives au cœur de la nuit ».
11 millions de foyers concernés, mais pas ceux avec Tempo
La CRE dénombre 14,5 millions de foyers avec un contrat HP/HC. 11 millions « vont connaitre une évolution dans le placement de leurs heures creuses, au moins », ce qui veut aussi dire que pour 3,5 millions de foyers rien ne change. Sur ces 3,5 millions, 2,1 millions ont déjà les heures creuses sur deux périodes pendant la journée tandis que les 1,4 million restant n’ont des heures creuses que la nuit.
Dans sa foire aux questions, la CRE précise bien que les changements ne concernent que les clients avec une offre « heures pleines / heures creuses ». Ceux avec une formule « heures super creuses », « semaine/week-end », une part d’indexation sur un prix de marché ainsi que les clients Tempo ne seront pas concernés.
Changements entre novembre 2025 et fin 2027
Les changements vont se faire progressivement entre novembre 2025 et… la fin d’année 2027. Les clients seront prévenus au moins un mois avant la date effective du changement par les fournisseurs d’électricité (qui eux ont l’information six mois avant).
Suite aux changements de tarifs et des taxes en place au 1ᵉʳ février, nous avons mis à jour notre comparatif d’une vingtaine d’offres. N’hésitez pas à le consulter et à le copier sur votre compte pour l’adapter en fonction de vos usages et de votre consommation.
Un rappel utile pour finir : vous pouvez changer de fournisseur sans frais. Les offres sont sans engagement et nous pouvez alterner entre les tarifs réglementés et les offres de marché comme bon vous semble.
Nouvelle mouture importante pour la suite bureautique libre, avec de nombreuses améliorations à la clé. LibreOffice 25.2 prend notamment en charge le format OpenDocument 1.4 et intègre une nouvelle fonction capable de supprimer toutes les informations personnelles dans les métadonnées d’un document. Par exemple, tout ce qui touche aux auteurs, aux horodatages (heures de modification et commentaires notamment), nom et configuration de l’imprimante ou encore les modifications de suivi.
Cette version 25.2 introduit également plusieurs options liées au thème, dont une sélection du thème indépendante du système ou de l’environnement de bureau. Il est également possible de choisir la couleur des caractères non imprimables ou encore celle de l’arrière-plan des commentaires. Toujours dans la catégorie personnalisation, LibreOffice permet maintenance de faire bouger les limites des objets indépendamment des marques de formatage.
Certains ajouts étaient en outre attendus de longue date. Sous macOS, LibreOffice 25.2 prend ainsi en charge Quick Look, pour visualiser rapidement un document depuis le Finder. Si un certificat de sécurité a été configuré par défaut, il peut désormais servir à signer automatiquement tous les documents.
Outre ces améliorations générales, chaque application de la suite a ses propres nouveautés. Writer dispose – enfin ! – d’un niveau de zoom par défaut personnalisable pour tous les documents. Autre outil bien pratique, la possibilité de supprimer tout ce qui se trouve dans un certain type de contenu (à l’exception des titres). Calc reçoit un nouvel outil pour gérer les doublons, des améliorations pour la recherche dans les fonctions ou encore une meilleure interopérabilité avec les fichiers XSLX.
On peut consulter la liste complète (et touffue) des nouveautés depuis cette page. Le téléchargement se fait comme d’habitude depuis le site officiel. Les personnes ayant déjà la suite installée recevront une notification les invitant à effectuer la mise à jour.
Le DOGE d’Elon Musk continue de prendre la main sur de nombreux outils informatique des agences américaines. Certains de ses membres ont pu s’immiscer dans les données de Medicare et Medicaid, les services de santé des États-Unis. Son immixtion dans les systèmes du Trésor a été l’objet d’une passe d’armes juridique, mais deux de ses employés devraient garder un accès en lecture seule.
C’est un véritable sprint qu’ont enclenché Elon Musk et son département DOGE, officiellement chargé de « l’efficacité gouvernementale ». Ils mettent la main sur le plus de données possible à propos des utilisateurs des différentes agences américaines, avant que d’éventuels contre-pouvoirs viennent leur mettre des bâtons dans les roues.
Jusqu’à présent et depuis l’investiture de Donald Trump le 20 janvier dernier, la voie est libre pour eux. Des manifestations anti-Trump et anti-Musk commencent tout de même à avoir lieu dans les 50 États, avec des messages comme « rejetons le fascisme » ou « l’oligarchie », « défendons notre démocratie », « Musk n’a pas été élu ». Les agents du DOGE ont pu accéder au système informatique du Trésor américain, aux ressources humaines fédérales, aux services informatiques fédéraux ou encore à ceux de l’agence américaine qui étudie l’atmosphère et les océans (NOAA) ou du système de connexion gouvernemental login.gov.
Medicare et Medicaid, un réservoir de données sensibles
Ils ont encore accédé à d’autres services publics cette semaine. Des agents du DOGE ont pu, selon le Wall Street Journal, accéder aux locaux des services de Medicare et Medicaid, le système d’assurance-santé public américain et le programme qui permet de fournir une assurance maladie aux personnes à très faibles revenus et ressources.
Selon les sources de nos confrères, le DOGE s’intéresse, comme pour les autres agences, aux systèmes informatiques de ces deux services de santé, rassemblés sous la responsabilité de l’Agence Fédérale du département américain de la Santé et des Services sociaux (Centers for Medicare & Medicaid Services, CMS). Ils seraient notamment à l’affût de ce qu’ils considèrent comme de la fraude ou du gaspillage.
Le CMS « est le centre névralgique d’une grande partie de l’économie complexe des soins de santé du pays, avec des dépenses d’environ 1 500 milliards de dollars pour l’exercice 2024, soit environ 22 % du total fédéral », souligne le Wall Street Journal. L’agence rassemble 6 710 employés, dont de nombreux vétérans qui y travaillent depuis des décennies.
Au journal américain, un responsable du CMS explique que « deux vétérans seniors dirigent la coordination avec le DOGE ». Les responsables seraient dans un esprit de collaboration avec le DOGE pour l’instant, dans une recherche de plus grande efficacité.
Selon le Wall Street Journal, les personnels du DOGE ont accédé en lecture seule à un logiciel qui permet notamment de gérer les contrats du CMS. Ils n’ont pas encore accédé aux bases de données contenant des informations personnelles sur la santé des bénéficiaires de Medicare ou de Medicaid, ni au système HIGLAS. Ce dernier standardise et centralise les fonctions de comptabilité financière fédérale pour tous les programmes de CMS.
Deux agents du DOGE ont toujours accès au Trésor
Du côté de l’accès aux données du Trésor américain, Ars Technica explique qu’une plainte [PDF] a été déposée lundi 3 février, par une association de retraités et des syndicats contre l’accès donné au DOGE à des informations personnelles et financières.
Mais selon notre consœur, Ashley Belanger, ces organisations auraient signé un accord [PDF] avec le ministère de la Justice (Department of justice, DOJ). Selon ses termes, le Trésor « ne donnera accès à aucun enregistrement de paiement ou système d’enregistrement de paiement géré par ou au sein du Bureau du service fiscal » aux employés du DOGE, sauf à deux d’entre eux, Tom Krause et Marko Elez. Comme l’explique Bloomberg, le premier était directeur général de Cloud Software Group (le groupe de Citrix et de Tibco). Le second est un ingénieur qui a travaillé dans les entreprises d’Elon Musk, SpaceX et X. L’accord doit encore être approuvé par le juge chargé de l’affaire.
Peur des menaces
Mais, selon le Washington Post, les agents du DOGE ont déjà eu accès à des dossiers concernant des millions d’employés fédéraux, « y compris des fonctionnaires du Trésor et du département d’État occupant des postes de sécurité sensibles ». Les sources du journal ont peur que ces informations soient utilisées de façon abusive pour menacer de représailles des fonctionnaires qui ne seraient pas jugés assez loyaux envers Donald Trump et le nouveau gouvernement.
Les données viendraient notamment de l’Office of Personnel Management (OPM, l’agence des ressources humaines des employés fédéraux américains), le DOGE ayant accédé à ses locaux et ses logiciels, comme nous l’indiquions. Le Washington Post raconte que des agents du DOGE auraient traité des responsables de l’OPM d’ « idiots » lors de réunions entre les deux services.
Pendant le Sommet sur l’IA, Next replonge dans les épisodes de son podcast Algorithmique
Du 6 au 11 février se tient à Paris le Sommet pour l’action sur l’intelligence artificielle, occasion d’une variété de moments d’échanges entre scientifiques, sociétés civiles, chefs d’État – dont le vice-président américain J.D. Vance, le vice-premier ministre chinois Ding Xuexiang, la présidente de la Commission européenne Ursula von der Leyen ou encore le premier ministre indien Narendra Modi – et patrons d’entreprises de la tech.
Mais de quoi on parle, au juste, lorsqu’on évoque l’intelligence artificielle ? Pour en comprendre les principaux enjeux, Next vous propose d’écouter ou réécouter les six épisodes de son podcast Algorithmique.
Sans nous vanter (quoique si, il faut qu’on apprenne à le faire si on veut convaincre plus de gens de s’abonner à Next), les auditeurs de ce podcast l’ont qualifié de « clair, pédagogique, avec des interlocuteurs de grande qualité » ou encore d’« excellente facture ». Il nous a même attiré des « merci » et des « re merci », auxquels nous répondons : avec grand plaisir ! Abonnez-vous, c’est votre soutien qui nous permet de créer ce genre de projet !
Six épisodes
Avec l’aide de l’informaticien et philosophe Jean-Gabriel Ganascia et de la docteure en IA Amélie Cordier, on se plonge d’abord dans une tentative de définition des contours historiques, éthiques, et même pratiques, de la discipline.
Vient ensuite l’enjeu des biais sociaux, qui revient régulièrement dans les conversations (souvenez-vous de ces résultats repérés dans Stable Diffusion ou ChatGPT). Avec la spécialiste des sciences de l’éducation et ancienne informaticienne Isabelle Collet et la chercheuse en intelligence artificielle Raziye Buse Çetin, on s’attaque à la manière dont ceux-ci s’infiltrent dans l’IA et sur certaines des pistes qui permettent d’y remédier.
À ce point de la réflexion vient la nécessité de se pencher sur des cas concrets. Valérie, chargée du numérique au collectif Changer de Cap, et Camille Lextray, créatrice de contenu, racontent ici comment des systèmes algorithmique défectueux influencent la vie de gens. La première détaille les difficultés des bénéficiaires d’aides de la Caisse d’Allocation Familiale (CAF) lorsqu’ils se retrouvent accusés à tort, et automatiquement, d’avoir reçu des paiements indus. À sa suite, l’autrice de Briser la chaîne (Leduc, 2024) retrace le combat qu’elle a mené en justice pour tenter de rendre le pouvoir sur les mécaniques de modération d’Instagram.
Un autre effet concret de l’IA est celui que ces produits, cette industrie, ont sur la planète. Pour mieux les envisager, Next rencontre dans ce quatrième épisode le sociologue des sciences et des techniques Clément Marquet et la professeure en informatique Anne-Laure Ligozat, tous deux spécialistes des enjeux environnementaux du numérique… et par extension, de l’IA.
En parallèle de ces constats, les travaux d’encadrement et de régulation sont allés bon train, que ce soit au sein des entreprises, avec divers engagements éthiques, ou dans les parlements. En Europe, l’aboutissement le plus emblématique aura été le règlement sur l’IA, qui a commencé d’entrer en vigueur ce mois-ci. Dans l’épisode 5 d’Algorithmique, le sociologue Bilel Benbouzid et la juriste spécialiste de la gouvernance de l’intelligence artificielle Imane Bello nous fournissent les boussoles pour se repérer dans les débats.
On ne saurait terminer un tel tour d’horizon sans s’interroger sur le rôle des citoyens. C’est pourquoi, pour clore cette première saison, Algorithmique a tendu le micro à Théo Alves da Costa, co-président de Data for Good, à Karl Pineau, co-président de Designers éthiques, et à Valentin Hacault, en charge des formations chez Latitudes. Le but : explorer ce que, concrètement, techniciens et non-spécialistes de la tech peuvent faire pour s’emparer du vaste sujet de débats qu’est l’intelligence artificielle.
Algorithmique a convaincu Framasoft, Dans Les Algorithmes, l’April qui les a tous retranscrits, ou encore #Règle30. À notre avis, cela signifie qu’il a toutes ses chances de vous intéresser aussi.
En plus, si vous vous abonnez à Algorithmique sur votre plateforme de podcast favorite, vous y verrez automatiquement notre prochaine série audio apparaître… d’ici quelques semaines.
Vous avez déjà tout écouté ? Dans ce cas, vous connaissez la musique : parlez-en, faites connaître le podcast autour de vous ! Vous nous aideriez beaucoup !
Après les Box 5G, la 5G StandAlone (5G SA ou 5G+) débarque dans un premier forfait de téléphonie mobile, dans la gamme « pro ». Les avantages sont nombreux pour Orange et proviennent en grande partie des fonctionnalités de la 5G SA. Explications.
Dans un communiqué de presse, Orange annonce « une offre inédite 5G + avec une bande passante dédiée pour ses clients professionnels ». Qu’est-ce que cela veut dire au-delà du discours bien rodé des équipes marketing ?
Nous avons déjà expliqué ce qu’est la 5G+ d’Orange : c’est le nom commercial de la 5G StandAlone (ou 5G SA). Pour rappel, la 5G utilisait à son lancement et durant ces dernières années un cœur de réseau 4G pour fonctionner, d’où son appellation technique de 5G Non StandAlone.
Orange remet donc le couvert aujourd’hui avec son forfait Performance série spéciale 5G+. Passons rapidement sur ses caractéristiques qui n’ont rien de particulier : 350 Go de data, appels et SMS/MMS illimités pour 79 euros HT par mois, sans engagement.
Orange reprend les poncifs habituels de la 5G : hausse des débits et baisse de la latence. Mais la 5G+ apporte aussi des nouveautés intéressantes, notamment la technologie la technologie VoNR (Voice over New Radio). Ainsi, la « connexion data est maintenue en 5G lors d’un appel voix ». Avant, la data repassait en 4G lors d’un appel avec VoLTE et en 3G dans le cas contraire.
Orange met aussi en avant « une sécurisation accrue des données sensibles grâce au chiffrement natif des identifiants IMSI et à l’authentification renforcée des utilisateurs sur le réseau ». Nous avons voulu télécharger la fiche tarifaire et la description du service indiqués sur cette page afin d’avoir de plus amples informations, mais les liens sont cassés.
Orange met en avant des débits de 1,5 Gb/s… inférieurs à ceux de la 5G
Comme chez Free, la 5G SA est uniquement disponible sur la bande des 3,5 GHz, dont le « déploiement [est] en cours ». Le débit maximum annoncé par Orange est de 1,5 Gb/s en téléchargement avec l’agrégation de la bande des 700 Mhz en 4G, et de 200 Mb/s en émission.
Selon le propre site d’Orange, la 5G+ fait donc moins bien que la 5G en débit théorique. En effet, en 5G le débit maximum théorique en réception est de 2,1 Gbit/s selon Orange. En émission, c’est la même chose avec 200 Mb/s dans les deux cas.
Cette quoi cette « bande passante dédiée » ? Du slicing…
Orange revient à plusieurs reprises sur la notion de bande « prioritaire » : « Au travers d’une bande passante dédiée Premium, le client bénéficie d’une qualité de service différenciée sur le réseau mobile Orange. Ainsi, même en cas de forte utilisation du réseau mobile, ses débits sont préservés ».
« Lors des évènements : Pour les services de billetterie ou les solutions de paiement, la bande passante dédiée permet une connexion stable et assure la fluidité des opérations », ajoute l’opérateur en guise d’exemple.
Là encore, il s’agit d’une dénomination commerciale d’une technologie bien connue de la 5G : le network-slicing. Elle permet de découper le réseau en « en plusieurs sous-réseaux, que l’on appelle des tranches, ou “slices” en anglais », explique Orange.
Les usagers sur une tranche sont d’une certaine manière isolés de ceux d’une autre tranche. Les clients d’un forfait 5G+ peuvent ainsi profiter d’une tranche rien que pour eux eux en 5G SA, tandis que les autres se partagent une autre tranche. Une surcharge sur la seconde tranche ne devrait pas avoir d’impact sur la première.
Sur cette page dédiée au network-slicing, Orange rappelle que « tout ceci était déjà possible avec la 4G d’un point de vue technique », mais la 5G apporte « une vraie valeur ajoutée » grâce « à une architecture réseau virtualisée ». SFR d’ailleurs, proposait pendant un temps des forfaits 4G avec « internet mobile prioritaire ». Ils permettaient, « en cas d’affluence » d’avoir un « débit généralement plus rapide que celui des utilisateurs du réseau SFR non détenteurs du service ». C’était il y a maintenant 10 ans, en 2015.
Orange ne précise pas quand de nouveaux forfaits 5G+ seront disponibles ni si cette technologie sera proposé au grand public dans un proche avenir.
Plus de mille sites découverts en quelques mois, et sans doute beaucoup d’autres, encore dissimulés ou en gestation. L’enquête au long cours publiée cette semaine par Next révèle que le phénomène des contenus bas de gamme générés par IA a déjà pris des proportions significatives sur le Web francophone. Si beaucoup de ces sites automatisés grâce à l’intelligence artificielle ne servent que des intérêts bassement mercantiles, leur prolifération soulève de réelles questions économiques, sociales et politiques.
Au départ, il y avait quelques articles trop mal écrits pour être honnêtes qui passaient de journaliste en journaliste : « Haha, regarde ces c*ns, ils n’ont même pas pensé à enlever les éléments de prise en compte du prompt ». Début 2025, la blague a depuis longtemps viré au comique de répétition. Du genre bien lourd, le comique.
Après tout, pourquoi pas ? Depuis la sortie de ChatGPT, en novembre 2022, la plupart des rédactions s’interrogent – avec plus ou moins de bonne volonté – sur la façon d’intégrer les possibilités offertes par l’intelligence artificielle générative dans leurs pratiques. Toutes celles qui communiquent publiquement sur leurs travaux convergent vers une même approche : l’utilisation de l’IA n’est pas exclue, et peut même se révéler souhaitable, dès lors qu’elle est encadrée par un humain, et que ses productions sont supervisées (comme chez les développeurs d’ailleurs, ainsi que nous l’expliquait Marie-Alice Blette). Chez Next aussi, on l’utilise (notre comparateur d’offres d‘électricité par exemple) : c’est une bonne aide, mais ce n’est pas elle qui est aux commandes.
L’armada de sites générés par IA dont il est question dans notre enquête ne répond pas à ce prérequis. Tous ces sites ont précisément été détectés parce que certains de leurs articles présentent des « artefacts » qui témoignent d’une génération automatisée sans réelle supervision : hallucinations flagrantes, sites capables de publier plusieurs centaines de nouveaux articles par jour, citations déformées, contresens manifestes, etc.
Dans la suite de notre enquête, nous vous montrerons qu’il suffit d’une poignée d’heures et de quelques lignes de code pour créer un site GenAI. Nous verrons aussi comment beaucoup de ces sites servent les intérêts de professionnels du référencement, qui les utilisent pour créer des univers sémantiques et des renvois de liens, éventuellement vendus à des tiers, pour doper la visibilité de business bien réels cette fois.
Souvent, il suffit de quelques clés de lecture pour détecter un site manifestement alimenté par une IA sans supervision. Mais il arrive aussi que l’exercice se révèle plus délicat. Par exemple, quand le site en question se dissimule derrière une marque média qui a eu, un temps, pignon sur rue. Ou quand les contenus produits à peu de frais s’intercalent entre des articles éditoriaux écrits par des humains. Le milieu des « éditeurs assistés par IA » monte d’ailleurs rapidement en compétences, notamment parce qu’il faut prévenir les éventuels outils de détection que pourrait mettre en place Google…
Après tout, pourquoi pas ? Des éditeurs ou des agences Web bricolent des sites grâce aux outils du moment, ils automatisaient déjà la production de contenus bien avant ChatGPT et ça leur permet de gagner leur vie : tant mieux pour eux ?
« Well, that escalated quickly »
Le problème, c’est que ces contenus générés par IA ne s’embarrassent souvent ni de véracité, ni de légalité. Plusieurs des sites identifiés dans le cadre de notre enquête plagient ainsi, de façon peu discrète, les médias qui leur servent de source. L’automatisation leur permet de le faire à une échelle industrielle, à peu de frais.
Dans une tribune parue jeudi, les grandes organisations professionnelles du monde des médias appellent le gouvernement à profiter du sommet sur l’IA, organisé cette semaine à Paris, pour « garantir la fiabilité de l’information à l’heure de l’IA Générative ». Ils demandent pour ce faire que les grands acteurs de l’IA respectent le choix des éditeurs quant à l’utilisation de leurs contenus, que la traçabilité des sources soit garantie et que les droits d’exploitation des contenus soient acquittés.
En attendant que les grands noms de l’IA acceptent, ou non, de se plier à d’éventuelles règles à ce sujet, il existe un préjudice plus immédiat, qui nous affecte tous : la pollution.
Elle attaque déjà directement les médias. Outre l’utilisation indue de leur propriété intellectuelle, ceux-ci courent ainsi le risque de voir une partie de leurs audiences, et donc de leur modèle économique, phagocytée par ces nouveaux venus automatisés.
Sur certains sujets, elle menace aussi les individus. Souvenez-vous de l’IA qui suggérait de mettre de la colle sur une pizza ou dans un sandwich. Imaginez maintenant que des sites, dédiés à la santé par exemple, multiplient les conseils à plus ou moins bon escient sur la base d’informations mal digérées, uniquement parce que la niche se révèle lucrative sur le plan publicitaire ?
Cette pollution fait enfin peser un risque social et sociétal, dont l’existence a été avérée à de multiples reprises ces derniers mois : la capacité à produire rapidement, massivement et à peu de frais des sites ayant l’apparence de médias légitimes a déjà ouvert la voie à des campagnes de manipulation de l’opinion.
Elle revêt cependant une importance cruciale en ces temps où l’actualité se révèle particulièrement outrancière. Impossible ici de ne pas faire allusion aux déclarations récentes de Donald Trump qui, en seulement quelques jours, a manifesté sa volonté de prendre le contrôle du détroit de Panama, du Groenland, du Canada et de la bande de Gaza. Dans le monde entier, les médias crient au délire, et soupèsent pourtant très sérieusement la faisabilité des différents projets. La bande de Gaza en nouvelle Riviera du Moyen-Orient, l’hypothèse vous parait-elle plausible ?
Ce n’est peut-être pas la bonne question à se poser, comme nous le rappelle un certain Steve Bannon, figure emblématique des milieux conservateurs populistes nationaux et ancien « conseiller stratégique » de Donald Trump. Le 31 janvier dernier, il se goberge, au micro du New York Times. Pour lui, les discours récents de Trump sont la mise en pratique, enfin aboutie, du mode opératoire qu’il préconisait au président des États-Unis lors de son premier mandat : « The real opposition is the media. And the way to deal with them is to flood the zone with shit ».
En termes fleuris, il expliquait alors à Trump qu’il ne fallait pas redouter le camp démocrate, mais les médias, et que le meilleur moyen de se débarrasser de ces derniers était – pardonnez ma vulgarité, qui n’est que le reflet de celle de Bannon – de les inonder de merde… Autrement dit, de générer du bruit. Tellement de bruit que l’on finit par créer un phénomène d’assourdissement ou de sidération permettant soit d’occulter les vrais problèmes, soit de concentrer l’attention de ses adversaires sur les sujets de son choix.
Quel plus bel outil que l’IA pour nourrir cet objectif ? On assiste aujourd’hui à un croisement entre performances des outils grand public, accessibilité financière et tensions politiques exacerbées qui laisse augurer d’innombrables usages malveillants.
Éduquer, informer, créer de la confiance
Signer avec OpenAI pour toucher des droits voisins sur l’entraînement des grands modèles de langage, c’est bien, mais ça n’empêchera pas une agence Web, une agence d’influence ou un simple geek dans son coin de copier-coller des articles, ou un flux RSS, et de l’injecter dans une série de grands modèles de langage pour obtenir une infinité de réécritures de moins en moins détectables, et éventuellement orientées.
On entend depuis des années que les médias doivent cultiver leur image de marque, et le lien direct avec leur lectorat, pour limiter la dépendance aux moteurs de recherche ou aux réseaux sociaux, et ainsi tenter de préserver leur modèle économique. La GenAI souligne et renforce encore le caractère impérieux de cette relation de confiance entre médias et lecteurs, parce qu’elle permet d’amplifier, à peu de frais et à grande échelle, le bruit ambiant. J’évoque l’argument économique, parce qu’il fait généralement mouche assez facilement, mais l’enjeu dépasse de loin la question des équilibres financiers : il ramène à la place que doivent occuper les médias d’information dans la société.
Quand Jean-Marc a débuté son enquête, il y a près d’un an, il aurait été facile de publier rapidement un petit tour d’horizon témoignant d’un épiphénomène. Pourtant, il a soutenu, mordicus, que le sujet méritait d’aller plus en profondeur, convaincu qu’il ne s’agissait pas que de « cinq gus dans un garage », comme disait une ancienne ministre. En dépit de notre modeste équipe (six journalistes, un dessinateur), Next a fait le choix de suivre son intuition, parce que nous pressentions que cette enquête allait se révéler nécessaire.
Le Sommet qui s’ouvre à Paris dira si et comment politiques et industriels de l’IA parviennent à converger vers un cadre commun. En attendant et sans parti pris, il nous semble important d’informer et de sensibiliser le plus largement possible, parce que le sujet touche à des valeurs qui nous sont chères. C’est la raison pour laquelle nous avons souhaité donner une dimension collaborative à cette enquête, en partageant nos trouvailles avec d’autres médias, dont Libération. C’est aussi la raison pour laquelle nous avons développé une extension dédiée, dont on espère qu’elle aidera le grand public à prendre conscience de la nécessité de systématiquement vérifier la qualité de la source d’une information.
Le Kremlin a annoncé avoir relevé de ses fonctions le directeur général de l’agence spatiale russe Roscosmos, Yury Borisov. Dans un autre message publié sur son site officiel russe, Moscou explique que c’est Dmitry Bakanov qui le remplace.
Cet été, le premier directeur général adjoint de l’agence, Andreï Elchaninov, cité par l’agence de presse Interfax déclarait que « le refus des contrats par des Etats hostiles (occidentaux, ndlr) a coûté 180 milliards de roubles à Roscosmos ». Rappelons que, suite à l’invasion de l’Ukraine par la Russie, la coopération spatiale a été arrêté entre les occidentaux et le pays dirigé par Vladimir Poutine.
La décision était attendue de pied ferme, elle est désormais là : la fibre Sosh passe d’un débit symétrique de 400 Mb/s à 1 Gb/s en téléchargement et 800 Mb/s en envoi.
Cette hausse des débits est automatique pour les nouveaux clients. Pour les personnes déjà abonnées, elle sera répercutée par vagues à compter du 10 février, la transition devant s’étaler jusqu’à la mi-avril, précise Sosh dans son annonce, tout juste publiée. Un e-mail sera envoyé pour prévenir que le compte a été mis à jour avec les nouveaux débits.
Dans sa communication, Sosh n’hésite pas à en faire des caisses. En plus d’évoquer une vitesse améliorée et une plus grande facilité lors des connexions multiples à la même connexion, le fournisseur d’accès va jusqu’à parler d’une latence réduite et d’une meilleure stabilité de la connexion.
« Dites adieu aux moments de suspense où l’image se fige pendant que vous regardez votre série préférée. Avec ce nouveau débit, profitez d’un streaming plus fluide et sans coupure ! », déclare ainsi Sosh. Pas certain qu’un streaming soit coupé par une connexion à 400 Mb/s, très au-delà des prérequis. Voici par exemple les vitesses de connexion recommandées par Netflix selon la qualité souhaitée :
En outre, même s’il s’agit bien sûr d’une très bonne nouvelle pour les abonnés (d’autant que le tarif ne change pas), Sosh ne fait que s’aligner sur la concurrence. RED et Bouygues proposent déjà des offres fibre 1 Gb/s ou même plus. Chez le premier, le débit 1 Gb/s est ainsi symétrique pour un tarif de 23,99 euros. À ce tarif, Bouygues propose même son offre B&YOU PureFibre avec des débits allant jusqu’à 8 Gb/s en téléchargement et 1 Gb/s en envoi. La box fournie est équipée en Wi-Fi 6E, là où Sosh et RED ne proposent encore que du Wi-Fi 5.
Amnesty International, la Ligue des droits de l’homme, Vox Public, Féministes contre le cyberharcèlement et une centaine d’autres organisations non gouvernementales appellent, à l’occasion du Sommet pour l’action sur l’IA, à mettre les droits humains et la justice environnementale au centre de travaux de régulation de l’intelligence artificielle.
« Telle qu’elle est développée » écrivent-ils dans une tribune parue dans Le Monde, l’IA « aggrave les inégalités, détruit la planète et alimente un système d’exploitation global ».
Hanna Barakat + AIxDESIGN & Archival Images of AI / Better Images of AI / Frontier Models 1 / CC-BY 4.0
« Se concentrer uniquement sur d’éventuels futurs risques existentiels à venir de l’IA est un leurre », argumentent-elles encore. Elles citent les effets « très concrets » sur les populations les plus vulnérables qu’ont eu les dysfonctionnements des systèmes algorithmiques utilisés dans diversservicespublics européens, les algorithmes de prédiction de risque de récidive surcatégorisant les personnes noires aux États-Unis, ou encore les systèmes automatisés utilisés par l’armée israélienne pour sélectionner des cibles gazaouies.
Les associations signataires rappellent qu’en parallèle du développement de ces outils, les émissions des grands acteurs de la tech ont augmenté, tirées par l’explosion de l’intelligence artificielle générative, tandis que les activités d’extraction se perpétuent avant tout dans les pays du Sud.
« Nos gouvernements ne cessent de parler de souveraineté de l’IA, mais les défis posés par ces systèmes transcendent les frontières » affirment les associations. Elles appellent à permettre à chacun de « pouvoir choisir la direction de ses développements, quitte à les refuser s’ils ne correspondent pas à notre projet de société ».
Next a identifié plus de 1 500 sites d’information utilisant plus ou moins massivement l’intelligence artificielle pour générer des articles censés avoir été écrits par des journalistes, soulevant des questions quant à la qualité des informations. Pour vous donner un maximum de cartes en mains, nous vous proposons une extension pour Chrome et Firefox permettant d’être alertés lorsque vous visitez un tel site.
Mise à jour du 10 février 14 h : Nous avons mis en ligne la version 1.1 de notre extension. Quelques bugs ont été corrigés, mais surtout la base de données a largement grandi pour dépasser les 1 500 sites. N’hésitez pas à installer cette mise à jour, que ce soit sur Chrome ou Firefox.
Article original du 6 février 9h47 : Dans une très longue enquête, notre journaliste Jean-Marc Manach explique comment il a découvert plus de 1 500 sites d’information francophones utilisant l’intelligence artificielle pour publier et/ou traduire des articles.
Preuve s’il en est besoin de l’ampleur du phénomène, on en retrouve même dans Google Actualités. Nous y reviendrons dans les jours à venir, avec d’autres articles consacrés aux « hallucinations » et « infox » relayées par ces articles GenAI, ceux reposant sur du plagiat, ou parasitant la presse régionale.
Nous avons décidé de développer une extension maison pour navigateur avec l’aide d’une IA (Claude.ai) et d’un développeur de chez moji (Hezirel, sur son temps libre, merci à lui !). Son but : vous prévenir lorsque vous visitez un site de notre liste de surveillance.
Le fonctionnement est on ne peut plus simple : l’extension tourne en tâche de fond et affiche un pop-up en cas d’alerte, avec le message suivant : « D’après les constatations (humaines) de Next.ink, des articles de ce site semblent avoir été (en tout ou partie) générés par IA ».
Détection sur le domaine
La détection se fait sur la base du nom de domaine, pas de chaque page individuellement. Un signalement ne veut donc pas forcément dire que l’article en question est généré à l’aide d’une IA, mais qu’on en retrouve sur ce nom de domaine.
En cliquant sur le bouton de l’extension, vous retrouverez la grille de lecture (liste non cumulative, ni exhaustive) nous ayant permis de détecter les sites d’info contenant des articles qui semblent avoir été (en tout ou partie) générés par IA :
Ils ont recours à des expressions, patterns ou hallucinations typiques des contenus GenAI,
sont signés de journalistes qui n’existent pas et/ou dont l’hyperproductivité est inhumaine,
ne sont que des traductions et/ou paraphrases d’autres articles (mais sans les mentionner),
ont recours à des images générées par IA ne correspondant pas aux critères journalistiques,
alignent des poncifs lénifiants ou moralisants plutôt que de présenter et recouper des faits,
ont été publiés sur un site sans mention légale (ou fictive) et sans directeur de publication,
usurpent la réputation de « noms de domaine expirés » pour cibler Google News & Discover,
s’apparentent plus à des contenus optimisés pour le SEO qu’à des articles journalistiques.
Suivez un des liens ci-dessous, ajoutez l’extension à votre navigateur et c’est terminé. L’extension tourne en tâche de fond. Elle est disponible sur les boutiques officielles de Chrome (compatible avec les navigateurs basés sur Chromium) et Firefox.
Depuis le début de notre enquête (il y a plusieurs mois) et face à l’ampleur du phénomène, l’idée d’une extension pour les navigateurs s’est imposée. Avec plusieurs centaines de sites référencés, on ne peut pas vérifier manuellement la liste chaque fois que l’on visite un nouveau site.
J’ai quelques connaissances en développement, je comprends donc bien la logique algorithmique. Je suis aussi capable de suivre le déroulement d’un programme, d’adapter et vérifier le code (sur du code simple comme c’est le cas ici). À l’époque de l’IA générative, je me suis donc appuyé sur cette dernière pour développer les grandes lignes de ce projet. Claude.ai a été mis à contribution et, en une soirée à peine, j’avais déjà une première version de l’extension fonctionnelle.
Nous l’avons améliorée au fil du temps, avec notamment la possibilité de nous signaler des sites. Il suffit de cliquer sur l’icône pour faire apparaitre un menu avec l’URL du site prérempli (libre à vous de la modifier), un menu pour la catégorie et un champ description (deux champs optionnels). Cliquez sur « Signaler ce site » et ces informations seront ensuite récupérées par un serveur et stockées dans une base de données que nous pouvons consulter.
Aucune autre information n’est envoyée, mais vous pouvez ajouter des précisions et/ou un email dans le champ description si besoin. Avec Hezirel, nous avons travaillé à obfusquer la base de données des URL et optimiser le code (en partant de ce que j’ai produit avec Claude.ai, il a donc fait ce qu’il a pu dans un temps contraint), pour arriver à la version proposée actuellement.
Flock s’est occupé des petites icônes, mais avec des images de 128 x 128 pixels au maximum, son talent ne pouvait guère s’exprimer. Cette extension est donc le fruit d’un travail d’équipe, mais vous pouvez quand même apprécier le Go Go gadget-au-chapeau en tête d’article.
Des bugs peuvent arriver (et arriveront surement), n’hésitez donc pas à nous les signaler. Même chose si vous avez des idées de fonctionnalités intéressantes à ajouter. Nous lirons vos retours et vos commentaires avec intérêt.
L’accès anticipé permet à des éditeurs ou même à des développeurs indépendants de publier un jeu sur Steam avant qu’il soit terminé. Le mécanisme permet le financement du reste du projet, mais obéit – normalement – à certaines règles, dont une fréquence correcte dans les mises à jour et les communications aux joueurs.
Mais à l’instar des campagnes de financement participatif, il y a des ratés. Certains éditeurs abandonnent leurs projets ou considèrent que leur devoir est rempli, occasionnant colère et frustration chez les joueurs.
Steam a donc décidé de prendre un peu plus le problème en main. Désormais, quand la page d’un jeu est inactive depuis trop longtemps, un message est ajouté pour prévenir les joueurs.
Sur la fiche de BattleBit Remastered par exemple, on peut lire : « Remarque : la dernière mise à jour a été publiée par l’équipe de développement il y a 13 mois. Les informations et le calendrier présentés ici peuvent être obsolètes ».
Même chose sur la fiche de Cavern Kings, la dernière mise à jour datant de 8 ans. À la décharge de l’éditeur (VINE), il est précisé plus bas dans la fiche que le développement a effectivement été abandonné, mais l’avertissement de Steam est autrement visible. Le message apparait en effet dans une couleur orangée qui tranche avec le fond bleu nuit du site, à l’intérieur du cadre signalant qu’il s’agit d’un accès anticipé.
Steam n’a pas encore communiqué officiellement sur ces ajouts, mais Eurogamer et PC Gamer ont signalé que la fonction avait d’abord été repérée par SteamDB. Ce dernier propose d’ailleurs une extension pour navigateur permettant d’afficher automatiquement la dernière date de mise à jour pour un jeu en allant sur sa fiche).
On ne sait pas précisément au bout de combien de temps d’inactivité le message s’affiche, même s’il semble que la période minimale soit d’un an. Il est possible que Steam soit en train de tester cet avertissement pour récoler des retours.
Next a identifié plus de 1 000 sites web d’information francophones faisant croire que leurs articles sont écrits par des journalistes ou des experts en la matière. Ils sont en fait générés et/ou traduitspar des IA, sans le mentionner. Au moins une centaine reposent sur du plagiat, et près de 150 étaient mentionnés comme sources sur Wikipédia. Vu l’ampleur du problème, nous avons proposé au service de fact-checking CheckNews de Libération de nous aider à enquêter sur ce qui s’apparente à une véritable « pollution » numérique et médiatique. Premier volet de notre enquête.
La société NewsGuard évalue « tous les sites d’information et d’actualité (plus de 7 500 sites) dont les contenus représentent 95 % de l’engagement avec l’actualité en ligne aux États-Unis, au Royaume-Uni, au Canada, en France, en Allemagne et en Italie ».
Son observatoire de suivi de la mésinformation facilitée par l’IA répertorie par ailleurs 1 150 « sites d’actualité non fiables générés par l’IA » (GenAI ou « UAINS », pour « Unreliable AI-generated News Sites » en anglais), contre seulement 49 lorsqu’elle avait commencé à les recenser, en mai 2023.
NewsGuard souligne que « ces sites portent généralement des noms génériques […] qui ressemblent pour le lecteur à des sites d’actualité classiques » :
« Dans de nombreux cas, le modèle économique de ces sites repose sur la publicité programmatique – des publicités placées de manière algorithmique par les sociétés d’ad-tech sans se soucier de la nature ou de la qualité des sites. Par conséquent, des grandes marques soutiennent ces sites involontairement. »
Or, leurs articles « contiennent parfois de fausses affirmations, telles que des infox sur la mort de célébrités, des événements fabriqués de toutes pièces et des articles présentant des événements anciens comme s’ils venaient de se produire ».
Accessible sur abonnement, sa liste de sites GenAI, établie par près de 15 fact-checkers, concerne 16 langues. Contactée par CheckNews, la société précise que sa base de données ne contiendrait qu’une vingtaine de sites en français.
Next en a de son côté identifié plus de 1 000, rien qu’en français. Et nous avons de bonnes raisons de penser qu’il en existerait plusieurs milliers, au vu du nombre de professionnels qui ont industrialisé la production de sites d’informations générés par IA. Nous avons en effet identifié une centaine de ces pros de l’info GenAI, sans pouvoir mesurer combien de dizaines (voire de centaines) d’autres se seraient lancés dans ce douteux (mais lucratif) « business ».
Signe de l’ampleur du problème et de son inflation, cette sous-estimation (tant dans les chiffres de NewsGuard que les nôtres) semble indiquer que nous serions débordés par le phénomène, qui s’apparente à une véritable « pollution » numérique et médiatique.
Une pollution quasi invisible, puisque personne ou presque ne semblait l’avoir identifiée jusque-là. En tout cas, pas à ce point.
Une « forme hybride de plagiat » facilitée, voire générée par IA
Mi-octobre, Olivier Marino, directeur adjoint des rédactions du groupe Nice Matin, déplorait sur LinkedIn une « forme hybride de plagiat » facilitée, voire générée par l’IA. Un « média d’information et d’actualité », situé lui aussi dans le Var, publie en effet des articles « sur des histoires où nous étions parfois le seul média présent ». Ce média reprend à son compte les informations recueillies par les journalistes de Nice Matin, mais « sans source, ni lien ».
L’analyse d’un échantillon de 46 articles, effectuée par une start-up spécialisée dans la détection de contenus générés par IA, « a pu déterminer que 32 d’entre eux avaient été – selon son outil – générés via de l’IA reprenant les informations de Var-matin, mais aussi d’autres médias locaux ».
En réponse, 60 millions de consommateurs, « média sans publicité commerciale et ne vivant que de ses ventes », déplorait que ses articles étaient « très rapidement plagiés et republiés depuis des années sur des sites web truffés de pub et en accès gratuit ». Surtout ses essais comparatifs, « particulièrement coûteux à réaliser, dont l’intégralité des résultats est souvent ainsi diffusée gratuitement » :
« Jusque-là, il s’agissait surtout de réécritures « manuelles » sur les sites web de « vrais » groupes de presse (notamment un dont le nom commence par « Re »). Mais on commence à voir désormais des reprises de nos articles par des sites inconnus au bataillon, vraisemblablement rédigées par de pures IA, et très très bien classés chez Google. La presse locale est donc loin d’être la seule concernée. »
Nous avons alors répondu que nous nous apprêtions à publier une enquête à ce sujet, « ayant identifié plus de 100 sites en français se faisant passer pour des sites d’informations reposant sur le travail de journalistes, mais qui sont en fait générés par des IA, dont près de 30 reposent sur du plagiat (majoritairement d’articles étrangers, traduits en français) ».
Compte tenu du nombre d’acteurs impliqués, de médias parasités voire plagiés, et des nombreuses questions (déontologiques, juridiques, légales, médiatiques, financières, notamment) que cette prolifération de sites d’info GenAI soulève, nous avons depuis proposé au service CheckNews de fact-checking de Libération d’enquêter avec nous à ce sujet (voir leur enquête).
De 100 à plus de 1 000 sites GenAI en quelques mois seulement
Le phénomène s’est, en effet, révélé d’une ampleur nettement supérieure à ce que nous anticipions. Fin octobre (soit 15 jours après notre commentaire sur LinkedIn), lorsque nous avons contacté Libé, notre recension était passée à 270 sites d’info GenAI. Le cap des 500 a été franchi à la veille de Noël, celui des 800 mi-janvier.
Entamée il y a près d’un an, notre enquête nous a depuis permis d’en identifier plus de 1 000, soit près de 750 de plus en seulement trois mois, dont une centaine au moins relevant du plagiat (nous y reviendrons dans un prochain article). Ce n’est pas tant que le phénomène serait en pleine expansion (une bonne partie de ces sites existent depuis des mois, voire des années), mais parce que nous avons affiné nos méthodes de détection.
La consultation des 28 pages de réponses, sur Google Actualités, à la requête « je suis désolé, mais je ne peux pas » (l’un des messages d’erreur bien connus liés à ChatGPT et ses avatars) était éloquente. Nous y avons découvert une quinzaine de sites d’infos GenAI qui, eux-mêmes, nous ont permis d’en identifier près de 250 autres, liés d’une manière ou d’une autre à leurs éditeurs respectifs. Ce, en moins d’une journée.
Nous revenons plus en détails sur les tactiques et procédures permettant de reconnaître les sites GenAI dans un second article dédié. Nous ne saurions par ailleurs que trop vous conseiller d’installer l’extension pour navigateur que nous avons développée afin d’alerter ses utilisateurs lorsqu’ils consultent un site dont les articles ont été, en tout ou partie, générés par IA.
S’il était prévisible que des pirates de l’info se saisissent des IA génératives pour développer de tels médias, il est par contre incompréhensible que la plupart de ces sites, référencés depuis des mois ou des années sur Google Actualités, n’en aient toujours pas été exclus, plus de deux ans après le lancement de ChatGPT puis de ses avatars.
Le SEO est-il mort ?
En janvier 2023, deux mois seulement après le lancement de ChatGPT, nous écrivions en effet que la démocratisation des intelligences artificielles génératives allait « faciliter la production d’éléments textuels assez banals, surtout destinées à booster son référencement sur Google ». Cela posait de « nouveaux risques » en matière d’accès à l’information.
Un an plus tard, le SEO est toujours là, mais l’IA a changé la donne : par son intermédiaire, des éditeurs inondent Google Actualités de prétendus sites d’information et d’articles GenAI.
Non contents de piller à bas coûts les articles de médias rémunérant leurs journalistes, ils privent leurs rédactions des revenus publicitaires qu’ils auraient pu engendrer si les internautes avaient lu les articles originaux, et non leurs plagiats générés par IA.
Une centaine de pros du SEO responsables des 3/4 de ces 1 000 sites GenAI
Une bonne partie de ces 1 000 sites sont répertoriés par Google Actualités ou cherchent à l’être (soulignant, comme s’il s’agissait d’une caution, qu’ils y ont été « approuvés »). Pourtant, leurs articles se bornent à utiliser des IA pour identifier, traduire en français, voire copier-coller de façon automatisée des articles émanant de journalistes. Ces derniers ne sont jamais mentionnés, et leurs sources quasiment jamais citées.
Non content d’induire leurs lecteurs en erreur en leur faisant croire que les informations relayées ont été vérifiées par des journalistes, ces sites GenAI vont jusqu’à relayer des informations « hallucinées » par leurs IA, donc erronées. Nous y reviendrons, dans un article à paraître sur ces « hallucinations ».
Nous avons aussi identifié environ 90 (auto-)entreprises responsables de plus des trois quarts de ces sites, dont l’écrasante majorité émanent de professionnels du SEO. Plus de 50 d’entre elles administrent au moins cinq sites GenAI, plus de 30 dix sites ou plus, 10 plus de 20, cinq plus de 30 et deux plus de 90 (au moins).
Y figurent aussi cinq entreprises se présentant comme des médias ou groupes de presse, supposées employer des journalistes (nous y reviendrons également). De nombreux sites prodiguent des conseils en matière de high-tech, de finance (notamment en termes de « cryptoactifs », d’assurance-vie, retraite ou d’ETF), de démarches administratives, de bien-être et même de santé, jusqu’à prodiguer des… « avis médicaux » (nous y reviendrons aussi).
Environ 250 sites GenAI (soit le quart de ceux que nous avons identifiés) ne fournissent, a contrario, aucune mention légale permettant d’identifier leurs responsables, en violation de la loi. Dans certains cas, ils mentionnent même des informations fictives.
S’il est impossible de savoir combien de médias sont générés par des IA, ces 1 000 et quelques sites GenAI ne sont vraisemblablement que la partie émergée de l’iceberg de ces faussaires qui polluent le web en général, et Google Actualités en particulier.
Près de 50 % des sites GenAI étaient mentionnés dans Wikipédia
Plusieurs de ces sites apparaissent régulièrement sur Discover, l’IA de Google qui met en avant des articles d’actualité sur l’application Google mobile. À tel point qu’il arrive que deux des 15 - 20 articles qui y sont mis en avant chaque jour renvoient à des sites GenAI, contribuant à alimenter le robinet à pollution (nous y reviendrons).
Plus inquiétant : sur les 327 sites que nous avions partagés en novembre avec un administrateur et une contributrice émérite de Wikipédia, tous deux habitués à y détecter les « faux nez », 14 avaient déjà été identifiés lors des enquêtes menées à l’été 2022 sur les caviardages orchestrés par la société Avisa Partners sur l’encyclopédie collaborative, et 150 étaient mentionnés dans l’encyclopédie, soit plus de la moitié.
À lui seul, ce chiffre montre que les contenus GenAI ne sont pas forcément « bas de gamme », puisqu’ils parviennent à induire en erreur des contributeurs de Wikipédia. La vérification d’un échantillon aléatoire de contributions mentionnant ces sites GenAI a d’ailleurs permis de constater que les ajouts avaient, dans la majeure partie des cas, été faits « de bonne foi ».
Plus inquiétant : les deux fact-checkers de Wikipédia ont découvert que ces mentions étaient « souvent l’œuvre de contributeurs expérimentés, voire très expérimentés, y compris lorsqu’il s’agit de sites de très mauvaise qualité (pas d’auteurs, pas de mentions légales, traduction automatique manifeste, etc.) ».
Après avoir examiné chacun des 150 sites, ils avaient pu confirmer que 105 recouraient à l’IA pour la rédaction de textes, et 65 au plagiat (avec ou sans traduction, ou reformulation par IA). Les deux fact-checkers de l’encyclopédie en fournissent le compte-rendu détaillé, avec la liste des 148 sites examinés.
81 n’avaient en outre pas de mentions légales, ou des mentions mensongères, avec des auteurs fictifs. 51 avaient été « vampirisés » après le rachat de leur nom de domaine (et alors qu’ils constituaient jusque-là des sources acceptables), 18 ayant été utilisés pour effectuer des « modifications promotionnelles » sur l’encyclopédie, et 7 pour y faire du spam.
Nous leur avons depuis transmis à la liste des 1 066 sites GenAI identifiés à ce jour : 443 sont mentionnés comme « sources » et notes de bas de page sur Wikipédia, soit plus de 40 % du total. La liste de ces noms de domaine va désormais permettre aux contributeurs de l’encyclopédie de vérifier combien peuvent légitimement continuer à y figurer, ou pas (nous y reviendrons).
Une extension web pour identifier les sites (en tout ou partie) GenAI
Nous avons aussi découvert que 29 de ces 1 000 sites GenAI figurent dans le classement SimilarWeb des 1 000 sites d’éditeurs d’actualités et médias les plus visités en France. 17 figurent même dans le Top 500 et 3 dans le Top 100. 19 d’entre eux font aussi partie de la centaine de sites reposant en tout ou partie sur du plagiat (nous y reviendrons).
« La capacité de générer en masse de tels contenus est un désastre pour notre système informationnel », déplorait Ioana Manolescu, chercheuse en informatique à Inria et professeure à l’école Polytechnique, dans une enquête du Figaro consacrée à la « pollution numérique » constituée par la déferlante de contenus visuels (images et vidéos) GenAI :
« Un terme est en train de s’imposer pour les désigner : le « AI Slop », slop étant dans la langue anglaise un terme désignant la bouillie industrielle donnée aux cochons. »
« Le slop peut disparaître si les internautes expriment un fort rejet », soulignait-elle. Elle espérait que, à l’instar de ce qui s’est passé pour le spam, les acteurs de la Tech’ allaient travailler de concert pour développer des solutions de filtrage.
Afin d’aider les internautes à éviter ces pièges, Next a développé une extension web (pour Firefox et les navigateurs basés sur Chromium) affichant un message d’alerte sur les sites dont les articles nous semblent avoir, en tout ou partie, été générés par IA.
L’extension permet également à ses utilisateurs de nous envoyer, d’un simple clic, les sites GenAI, de désinformation ou frauduleux que ses utilisateurs auraient identifiés, pour que nous puissions « crowdsourcer » la mise à jour de notre base de données.
En revanche, nous avons ne rendons pas publique l’intégralité de la liste de ces sites, pas plus que celle des entreprises, pour plusieurs raisons. Nous ne voulons pas, d’une part, que cette base de données puisse aider ceux qui voudraient améliorer leurs générateurs d’articles automatisés, et qui se targuent de ne pas être reconnus comme GenAI (nous y reviendrons).
Nous ne voulons pas non plus faire de « name and shame » et mettre sur le même plan des auto-entrepreneurs SEO ayant créé quelques sites de façon opportuniste et les entreprises (y compris individuelles) en ayant créé plusieurs dizaines.
Nous allons toutefois, au fil des nombreux articles que nous allons publier dans les jours à venir au sujet de cette enquête, mentionner quelques sites et entreprises particulièrement emblématiques des problèmes que pose cette pollution.
Des IA pour remplacer les « travailleurs du clic » sous-payés
Tout a commencé lorsque, début 2024, nous avons reçu des « Google Alerts » nous renvoyant à des articles, répertoriés sur Google Actualités, mais émanant de médias inconnus. Ces articles cumulaient plusieurs artefacts et traits caractéristiques des contenus GenAI.
Suite au lancement de ChatGPT et de plusieurs autres IA génératives, nous avions consacré deux articles aux techniques, tactiques et procédures (TTP) pour identifier les textes et images générés par des IA, en mode « deepfakes » (ou hypertrucages).
Nous avons alors commencé à les recenser, cherchant à identifier leurs points communs pour les identifier plus facilement. Nous étions loin, à l’époque, d’imaginer que nous pourrions en découvrir plus de 1 000 rien qu’en français. Pas plus que notre recension artisanale ne représenterait qu’une (toute petite ?) partie d’une véritable pollution médiatique.
La majorité de ces sites GenAI semble émaner de professionnels du SEO, qui rachètent des noms de domaine ayant expiré pour profiter de leur référencement et trafic entrant préexistants. Traditionnellement, ils s’en servent pour produire des articles à la chaîne, soit pour démultiplier le nombre de pages vues, et donc les revenus publicitaires générés par de la publicité, soit pour vendre des liens et articles sponsorisés qui ont pour principal objet d’améliorer le référencement des sites Web de leurs clients, plus que d’informer leurs lecteurs.
Nombre d’entre eux recouraient jusque-là à des « travailleurs du clic », recrutés dans des pays d’Afrique francophone ou à Madagascar, pour disposer d’une main-d’œuvre à bas coût.
Depuis le lancement de ChatGPT et de ses avatars, ils semblent de plus en plus les remplacer par des IA capables de générer, traduire ou plagier des dizaines, voire des centaines d’articles par jour, à un tarif bien moindre ou quasi-nul (nous y reviendrons).
Aucun d’entre eux ou presque ne précise qu’ils ont été générés et illustrés par des « générateurs de baratin », « perroquets stochastiques » qui se contentent d’estimer la probabilité qu’une suite de mots puisse constituer un contenu plausible en réponse à un « prompt ». Ces logiciels ne comprennent pas les écrits et dessins qu’ils « génèrent », ce qui explique qu’ils puissent « halluciner » (ou « confabuler ») des faits et informations.
Des risques de mésinformation et de contrefaçon « assistées par l’IA »
Les conclusions de la mission de l’Arcom sur l’IA, rendues publiques mi-octobre, qualifient ces « médias synthétiques » de médias « du 3ᵉ type », aux côtés des médias éditorialisés (essentiellement humains) et des médias algorithmiques (plateformes en ligne).
Or, déplorait l’Arcom, en confiant à des algorithmes la génération des contenus qu’ils diffusent, « de manière relativement désincarnée » (sans véritables auteurs ou journalistes) et « avec un contrôle humain faible voire inexistant », ces médias ne peuvent proposer qu’une « qualité diminuée par l’IA ». Ce qui soulève plusieurs questions :
« économiques : ces services peuvent venir phagocyter le marché historique des médias éditorialisés ;
qualitatives : la production de contenus à la volée, parfois sans véritable contrôle humain, augmente le risque de mésinformation ou de désinformation ;
juridiques : les médias synthétiques peuvent représenter une forme « contrefaçon assistée par l’IA », tout en profitant d’une limite du régime de responsabilité de jure. »
L’Arcom relevait à ce titre que si « la France et l’Europe ne sont pas un « far west » de l’IA », au vu des règlementations nationales ou internationales en place ou en cours d’adoption, tel n’est pas le cas de ces médias « synthétiques » :
« Les médias synthétiques s’approprient fréquemment les contenus produits par les médias traditionnels puis les reformatent ou les reformulent afin de les rediffuser auprès de leurs propres utilisateurs – à des fins lucratives voire malintentionnées. »
À compter d’août 2026, les contenus GenAI devront être identifiables
Le Règlement européen sur l’IA demande en outre que des « solutions techniques » soient mises en œuvre pour s’assurer du respect du droit d’auteur par les modèles d’IA. Il en va aussi de la traçabilité des contenus générés synthétiquement, à la fois pour permettre la rémunération des auteurs originaux, mais aussi pour assurer la vérification de l’information.
L’Arcom relevait également « un besoin d’harmonisation des différentes technologies proposées pour le suivi des contenus authentiques / synthétiques ». L’AI Act, entré en vigueur le 1ᵉʳ août 2024, mais applicable à partir du 2 août 2026, exige en effet que « les fournisseurs d’IA, y compris de systèmes d’IA à usage général, qui génèrent des contenus de synthèse de type audio, image, vidéo ou texte, veillent à ce que les sorties des systèmes d’IA soient marquées dans un format lisible par machine et identifiables comme ayant été générées ou manipulées par une IA » :
« Il convient d’exiger que les fournisseurs de ces systèmes intègrent des solutions techniques permettant le marquage dans un format lisible par machine et la détection du fait que les sorties ont été générées ou manipulées par un système d’IA, et non par un être humain. »
En outre, souligne l’AI Act, « il convient d’envisager une obligation d’information similaire en ce qui concerne le texte généré ou manipulé par l’IA dans la mesure où celui-ci est publié dans le but d’informer le public sur des questions d’intérêt public, à moins que le contenu généré par l’IA n’ait fait l’objet d’un processus d’examen humain ou de contrôle éditorial et qu’une personne physique ou morale assume la responsabilité éditoriale pour la publication du contenu ».
La mission proposait dès lors que l’Arcom entame des travaux complémentaires dans le but de :
mieux mesurer l’impact potentiel des médias synthétiques, notamment sur le plan économique et en termes de revenus publicitaires ;
étudier au travers d’une analyse pluridisciplinaire comment les textes en vigueur s’appliquent à ces nouveaux services et évaluer les éventuelles limites des régimes de responsabilités qui s’imposent à eux.
Google ne distingue pas les articles journalistiques des contenus GenAI
« Lorsque nous classons un contenu, nous nous concentrons sur sa qualité et non sur la manière dont il a été produit », avait rétorqué un porte-parole de Google à 404 Media. L’entreprise ajoutait que ses systèmes de classement Google News « visent à récompenser le contenu original qui démontre des éléments tels que l’expertise et la fiabilité ».
En février 2023, Google avait en effet annoncé vouloir « récompenser les contenus de haute qualité, quelle que soit la façon dont ils sont produits », et donc même s’ils étaient GenAI.
Le moteur de recherche y rappelait que « l’automatisation est utilisée depuis longtemps pour générer des contenus utiles comme les résultats sportifs, les prévisions météorologiques et les transcriptions ». Il estimait en outre que « l’IA peut permettre de développer de nouveaux niveaux d’expression et de créativité et d’aider les utilisateurs à créer des contenus de qualité pour le Web ».
Google y fournissait même des « conseils pour les créateurs qui envisagent d’utiliser la génération par IA ». « Quelle que soit la façon dont le contenu est créé, les personnes souhaitant réussir sur la recherche Google doivent chercher à produire des contenus originaux, de haute qualité et people-first, présentant les qualités de l’E-E-A-T », indiquait l’entreprise.
Cet acronyme désigne « l’expertise, l’expérience, la légitimité et la fiabilité ». Des valeurs cardinales mises en avant par le moteur de recherche pour y être bien référencé, et que cherchent précisément à déjouer les professionnels du « black hat SEO », notamment pour parvenir à y indexer leurs sites GenAI.
En réponse à la question « Dois-je ajouter des mentions concernant l’IA ou l’automatisation à mon contenu ? », la FAQ indique que « les mentions liées à l’IA ou à l’automatisation sont utiles pour les contenus pour lesquels quelqu’un pourrait se demander comment ce contenu a été créé ». Elle conseille d’en « ajouter là où le lecteur pourrait raisonnablement s’y attendre ». Ce que ne font quasiment aucun des 1 000 sites GenAI que nous avons identifiés.
« Le contenu généré automatiquement et produit principalement à des fins de classement est considéré comme du spam, et nous prenons les mesures qui s’imposent en vertu de nos règles », avait pourtant précisé le porte-parole de Google à 404 Media.
Les réponses de Google
Contacté mi-octobre, et relancé depuis (plusieurs fois), Google a fini par répondre à CheckNews… fin janvier. Nous rétorquant que « plusieurs sites que vous nous avez partagés n’apparaissent plus dans Google Actualités » (sans préciser lesquels), le service de presse du moteur de recherche rappelle que les éditeurs peuvent y figurer s’ils se conforment aux règles de Google Actualités. Ce qui inclut « la transparence sur la propriété du site et l’identité des auteurs ». En outre, « des mesures sont prises lorsque ces politiques sont enfreintes, pouvant aller jusqu’au retrait des sites ».
Arguant du fait que « les internautes qui consultent votre site souhaitent savoir qui écrit et publie vos contenus », ces règles exigent que les sources d’actualités sur Google comportent notamment :
« Des dates et des signatures claires.
Des informations sur les auteurs, la publication et l’éditeur.
Des informations sur l’entreprise ou le réseau à l’origine de la source.
Des coordonnées. »
Or, si les éditeurs de plus des trois quarts des sites GenAI identifiés fournissent effectivement les noms et coordonnées de leurs responsables légaux, la quasi-totalité d’entre eux mentent, en attribuant à des auteurs fictifs les articles qu’ils publient. Quitte, pour certains, à les doter de vrais-faux profils sur LinkedIn ou X.com.
Google se targue en outre de disposer de « politiques robustes en matière de spam, régulièrement mises à jour pour mieux lutter contre les nouvelles pratiques abusives qui conduisent à l’apparition de contenus non originaux et de faible qualité dans le moteur de recherche » :
« Les systèmes de Google permettent de maintenir le moteur de recherche exempte de spam à 99 %, et Google continue de les affiner et de les améliorer au fur et à mesure que le Web évolue. »
Google nous explique aussi avoir « investi de façon conséquente dans des équipes d’experts et des technologies de pointe pour prévenir les abus et appliquer nos règles » :
« Pour vous donner une idée de l’ampleur, en 2023, nous avons bloqué ou restreint la diffusion d’annonces sur plus de 2,1 milliards de pages d’éditeurs, contre 1,5 milliard de pages en 2022, et nous avons pris des mesures d’application au niveau du site sur plus de 395 000 sites d’éditeurs, contre 143 000 en 2022. »
Google nous précise enfin avoir lancé, « plus tôt cette année », une « nouvelle politique » proscrivant l’ « utilisation abusive de contenus à grande échelle », à savoir le fait de « générer de grandes quantités de contenus non originaux qui présentent peu ou pas d’intérêt pour les utilisateurs […] dans le but principal de manipuler le classement dans la recherche Google et non d’aider les utilisateurs ».
Sont notamment visés l’utilisation d’outils d’IA générative (ou outils similaires) et la création de plusieurs sites « dans le but de masquer la nature des contenus à grande échelle ». Nous avons pourtant identifié plus de 50 éditeurs administrant (au moins) cinq sites GenAI, et trois plus de 40 (au moins), plusieurs d’entre eux apparaissant régulièrement sur Discover.
La responsabilité de Google dans les dérives de la presse sur Internet
Dans un billet intitulé « Trop c’est trop ! Marre de ces sites 100% fake, 100% IA » publié sur LinkedIn, le journaliste Mathieu Cartier déplore ainsi d’avoir découvert, via Google Discover, qu’un site avait copié-collé l’une des photos publiées sur son site transitionvelo.com, sans autorisation. L’auteur de l’article plagié, « un certain Emile Faucher, « journaliste captivé par l’ingéniosité entrepreneuriale et les solutions innovantes » », s’y présente comme « diplômé d’une grande école de journalisme à Lille ».
Mathieu Cartier a d’abord cru avoir affaire à l’un de « ces sites qui n’ont pour objectif que de générer du clic et de l’affichage publicitaire avec des contenus volés à d’autres et des titres putaclics ». Il a depuis compris que le site avait probablement été généré par IA (il fait effectivement partie des 1 000 sites GenAI de notre base de données). « Quelle tristesse de voir que ce genre de sites existent et que Google, aveugle, leur donne suffisamment d’intérêt pour les mettre en avant dans sa section Discover », déplore Mathieu Cartier :
« On ne peut plus faire comme si de rien n’était et il faut pointer du doigt la responsabilité de Google dans les dérives de la presse sur Internet, poussant jusqu’à des sites réputés, que l’on aime lire, qui emploient des journalistes talentueux, tomber dans le piège du putaclic parce qu’une partie de plus en plus grande de leur audience dépend de Discover. »
Des sites qui, pour lui, « n’auraient (peut-être) jamais été aussi loin dans ces habitudes et lignes éditoriales si de faux sites sans journalistes ni contenus propres, et surtout sans aucune image à construire ou sauver, n’avaient été ainsi encouragés » :
« Le pire ? Penser que ce genre de stratégies puisse être rentables. Se dire que des sites construits sur le travail des autres (eh oui, chatGPT n’invente rien qui n’ait déjà été publié ailleurs) puisse avoir un intérêt économique, quand des gens qui investissent compétences, temps, sueur et argent pour créer des contenus pertinents, enrichis, incarnés peuvent avoir du mal à exister dans la jungle d’Internet. »
Il n’en estime pas moins qu’il faut « garder espoir », « alerter sur ces pratiques » et « expliquer aux jeunes l’importance de la presse, du journalisme, des faits, de la vérité et du débat argumenté, quand bien même ils font – eux-mêmes – faire leurs devoirs à leurs smartphones » :
« Le combat est mal engagé mais il n’est pas perdu, alors – passé le coup de colère – ne nous résignons pas. »
Nous ne saurions mieux dire, vu l’ampleur de ce que nous avons découvert lors de cette enquête au long cours. Dans les jours à venir, nous avons prévu de revenir plus particulièrement sur :
les sites GenAI reposant sur du plagiat, mais néanmoins indexés dans Google Actualités/Discover,
les sites GenAI plagiant et parasitant la presse quotidienne régionale (PQR),
les sites GenAI prodiguant des « conseils » et « recommandations » de santé,
les « hallucinations » et « infox » relayées par ces articles GenAI,
les dizaines de générateurs d’articles GenAI, optimisés pour Google Actualités/Discover, développés et commercialisés par des professionnels du SEO, qui se vantent de ne pas être identifiables par les détecteurs de contenus GenAI,
le fait que Google (en anglais) a de son côté été capable de désindexer 1 500 sites GenAI.
L’autorité française chargée de la protection des données publie un premier bilan de son action en 2024 et communique sur le doublement du nombre de sanctions prises par rapport à l’année précédente. Pourtant, ce chiffre est loin d’être énorme.
87, c’est le nombre de sanctions que la CNIL affiche avoir prises pendant l’année 2024. L’autorité française de la protection des données a calculé qu’au total, elle avait récolté un montant de 55 212 400 euros à travers ces décisions.
En détaillant un peu ces données, la CNIL explique avoir donné « 72 amendes (dont 14 avec injonctions sous astreinte), 8 décisions de liquidation d’astreinte (c’est-à-dire le paiement d’une somme en raison du non-respect d’un ordre donné par la CNIL dans sa décision de sanction) et 4 rappels à l’ordre ».
Mais l’autorité a décidé seulement 12 fois de rendre ces décisions publiques. Parmi celles-ci, on se rappelle, par exemple, du scraping sauvage de LinkedIn par Kaspr, qui a écopé d’une amende de 240 000 euros. Ou encore de la sanction contre Orange, à qui la CNIL a infligé « une amende de 50 millions d’euros, notamment pour avoir affiché des publicités entre les courriels des utilisateurs de son service de messagerie électronique, sans leur consentement ».
La CNIL explique avoir notamment ciblé la prospection commerciale dans ses décisions. Elle « a ainsi rappelé à plusieurs occasions que les organismes qui utilisent à des fins de prospection commerciale électronique des données personnelles transmises par des partenaires primo-collectants (qui organisent des jeux-concours par exemple) ou des courtiers en données doivent s’assurer que les conditions dans lesquelles les données ont été collectées sont conformes au RGPD (si nécessaire, avec le consentement de la personne et après la fourniture d’une information claire et concise) ».
Elle ajoute avoir « rappelé qu’un fournisseur de messagerie électronique qui insère des publicités entre les courriels reçus par ses utilisateurs dans leur boite de réception doit préalablement recueillir leur consentement ».
De 21 sanctions en 2022 à 87 en 2024
L’autorité se félicite d’avoir rendu plusieurs décisions marquantes en matière d’anonymisation des données de santé. Elle rappelle que même ainsi traitées, elles « restent des données personnelles auxquelles la législation s’applique ».
Mais si la CNIL met en avant que « le nombre total de sanctions prononcées est passé de 21 en 2022 à 42 en 2023 puis 87 en 2024 », celui-ci reste encore assez faible en comparaison, par exemple, du nombre de décisions que prend son homologue espagnole, l’Agencia Española de Protección de Datos (AEPD). Si celle-ci n’a pas encore communiqué sur ces chiffres de l’année dernière, elle avait pris 367 sanctions en 2023, et même 378 en 2022.
L’autorité déclare néanmoins qu’elle est passée 69 fois par sa procédure de sanction simplifiée, mise en place en 2022. « Soit près de trois fois plus qu’en 2023 », s’enorgueillit-elle, puisqu’elle ne l’avait utilisée que 24 fois à l’époque.
180 mises en demeure en 2024
La CNIL a aussi prononcé 180 mises en demeure, « décision de la présidente de la CNIL ordonnant à un organisme de se mettre en conformité dans un délai fixé », comme elle le précise.
On peut se rappeler que l’autorité annonçait encore en décembre une nouvelle salve de mises en demeure sur les bannières de cookies trompeuses, sans pour autant donner aucune indication sur la suite des événements. Pourtant, en juillet 2024, elle constatait, comme tout internaute peut le faire, que les dark patterns étaient partout.
Parmi ces 180 mises en demeures, l’autorité cite l’accès au dossier patient informatisé : « la CNIL a mis en demeure plusieurs établissements de santé de prendre les mesures permettant d’assurer la sécurité du dossier patient informatisé, rappelant que les données des patients ne doivent être accessibles qu’aux personnes justifiant du besoin d’en connaître ».
Nous avons expérimenté encore récemment le dépôt d’une plainte à la CNIL pour l’envoi en clair par la Scam d’un mot de passe, sans que rien ne bouge.
Google a publié mardi la version remaniée de la déclaration qui encadre ses grands principes éthiques et moraux autour de l’intelligence artificielle. L’engagement selon lequel les IA développées par Google ne doivent pas servir à la création d’armes disparait de cette nouvelle révision. La société justifie ce changement par une approche basée sur la gestion du risque, grâce à un « framework » dédié.
Inaugurée en 2018 et mise à jour, depuis, sur une base annuelle, la déclaration de Google relative à ses grands principes en matière d’IA affirmait explicitement depuis sa création que les outils maison ne devaient pas servir à la conception d’armes ou de technologies susceptibles de causer un préjudice général.
Mardi, le moteur de recherche est revenu sur cette promesse. Il a en effet mis en ligne une nouvelle révision de ses « AI Principles », dans laquelle il n’est plus fait mention des applications de l’IA que la société s’engage à ne pas poursuivre.
Limiter les risques, sans interdire les applications
Google et sa maison mère, Alphabet, se disent bien sûr toujours particulièrement soucieux des questions morales et éthiques soulevées par l’IA, mais la rhétorique n’est plus la même. « Nous pensons que notre approche de l’IA doit être à la fois audacieuse et responsable », écrit la société, qui met en avant l’importance de préserver « la sécurité, la sûreté et la confidentialité des utilisateurs ».
En la matière, Google s’engage par exemple à mettre en œuvre « une conception, des tests, une surveillance et des mesures de protection rigoureux pour atténuer les résultats imprévus ou nuisibles et éviter les préjugés injustes ». Rien n’est dit en revanche d’éventuelles lignes rouges.
La précédente version des IA Principles (ici datée de 2023, via Archive.org), se montre nettement plus précise. En complément de ses principes généraux, Google s’engageait ainsi à ne pas concevoir ou déployer d’IA dans des domaines d’application susceptibles de causer un préjudice à des tiers.
Elle interdisait par ailleurs l’IA au service des « armes ou autres technologies dont le but principal ou la mise en œuvre est de causer ou de faciliter directement des blessures à des personnes ». Google disait par ailleurs se refuser à développer l’IA pour des applications qui « collectent ou utilisent des informations à des fins de surveillance, en violation des normes internationalement acceptées ».
Capture d’écran de la page AI Principles de Google en juin 2023 via Archive.org
Cette décision intervient quelques jours après que Donald Trump, nouveau président des États-Unis, a révoqué un décret relatif à la sécurité des systèmes IA. Signé par son prédécesseur, Joe Biden, le texte obligeait les développeurs à partager les résultats de leurs tests de sécurité avec le gouvernement avant la mise sur le marché de leurs produits, dès lors que ces derniers étaient susceptibles de soulever un risque lié à la sécurité nationale, à l’économie ou à la santé publique.
Officiellement, ces nouveaux principes n’ont rien à voir avec la politique. C’est du moins ce que sous-entendent Demis Hassabis, CEO de Google DeepMind, et James Manyika, vice-président senior en charge de la recherche, dans un billet de blog qui accompagne à la fois la mise en ligne de ces nouveaux principes, et la publication du sixième rapport annuel de Google sur l’IA responsable.
Ils commencent par rappeler que le paysage de l’IA a changé dans des proportions telles qu’une évolution des principes associés s’impose. Ils y expliquent ensuite comment les travaux nourris des équipes de Google sur la gouvernance de l’IA les a amenées à changer d’approche sur le sujet de la gestion des risques, notamment en élaborant un ensemble de protocoles dédiés, le « Frontier Safety Framework », censé permettre de prévenir les risques associés à l’IA. Le document adopte une approche plus technique des principes dont se revendique Google.
Un ensemble d’outils pour prévenir les risques
Initialement publié en mai 2024, ce FSF est depuis le 4 février amendé sous forme d’une version 2.0 (PDF). Il se présente comme un cadre, construit autour de « niveaux de capacité critiques » qui, s’ils sont atteints dans une IA, doivent déclencher des mesures spécifiques d’analyse de risque.
Google classe ces niveaux selon deux cas de figure. D’abord, le mésusage, soit une IA détournée de sa finalité première pour une application engendrant du risque comme, par exemple, la création d’une arme chimique ou l’orchestration d’une attaque cyber. Le FSF envisage ensuite le « risque d’alignement trompeur », qui intervient quand les capacités d’une IA sont susceptibles de dépasser le cadre de ce pourquoi elle est censée fonctionner de façon fiable.
Sur la base de ces deux familles de risque, le FSF envisage un ensemble de réponses et de procédures (dont beaucoup restent à concevoir), placées sous la responsabilité d’une gouvernance réunissant les principales instances internes de Google impliquées dans la conformité, l’éthique et l’IA. L’approche se veut donc plus technique, mais elle se révèle nettement moins explicite qu’une simple déclaration affichée noir sur blanc.
Google et Meta, même combat
Google entretient de longue date des rapports contestés avec les industriels de l’armement et du renseignement. En 2018, alors que la société venait d’abandonner sa devise historique « Don’t be evil », elle avait d’ailleurs dû gérer un conflit interne lié au lancement d’un programme d’intelligence artificielle conçu pour le Pentagone. Trois ans après ce projet Maven finalement abandonné, Google avait de nouveau manifesté des velléités de se positionner comme le partenaire de choix de la Défense états-unienne.
« Meta veut jouer son rôle pour soutenir la sûreté, la sécurité et la prospérité économique de l’Amérique, ainsi que de ses alliés les plus proches. L’adoption généralisée des modèles d’IA open source américains sert à la fois les intérêts économiques et sécuritaires », justifiait alors Nick Clegg, président des affaires internationales de Meta.
La nouvelle approche de Google en matière de gestion des risques rejoint d’ailleurs celle que prône dorénavant Meta. La firme dirigée par Mark Zuckerberg a en effet annoncé le 3 février qu’elle allait encadrer ses propres travaux en matière d’IA à l’aide d’un ensemble de protocoles dédiés, baptisé cette fois Frontier AI Framework. Le fonctionnement semble similaire à celui adopté par Google : identifier des risques potentiels, mettre en place des routines de détection ou de prévention, pour en dernier recours décider ou non d’intervenir. Quitte à ce qu’il soit parfois trop tard ?
Dans un billet publié hier soir, Microsoft proposer d’amender l’API Notifications pour lui ajouter des capacités liées aux appels audios et vidéos. Cette API joue un rôle important aujourd’hui, puisque c’est par elle qu’un site web peut demander la permission d’émettre des notifications. Si l’internaute accepte, le site peut alors prévenir de certains évènements, selon le service fourni.
Dans le cas de la visioconférence cependant, ces notifications sont limitées, car essentiellement statiques. Un service de communication peut par exemple prévenir d’un appel, mais cliquer sur la notification ne pourra qu’envoyer vers le site concerné, où seront les boutons d’actions tels que « Répondre » et « Refuser ».
Microsoft propose donc de modifier l’API standardisée pour y inclure plusieurs nouvelles capacités : autoriser la personnalisation permettant à un service de se distinguer d’un autre, permettre l’ajout de boutons personnalisés utilisables pour répondre ou rejeter un appel, ajouter une sonnerie personnalisée, obtenir une priorité plus élevée que les autres notifications (si la plateforme l’autorise).
Ces fonctions seraient présentes en fonction de scénarios comme « incoming-call », définissant alors un périmètre d’action et doté d’une plus grande priorité, pour s’assurer que la notification est immédiate. La possibilité d’attacher une sonnerie personnalisée, dont beaucoup pourraient abuser, requiert également une étape supplémentaire : que le site web ait été installé sous forme de PWA (ce qui exclut d’emblée Firefox).
Dans son billet, Microsoft donne la marche à suivre pour tester la fonction. Elle consiste surtout à lancer Edge avec le flag « msedge.exe –enable-features=IncomingCallNotifications » depuis la ligne de commande, puis à se rendre sur une page spécifique. Après avoir autorisé les notifications, on peut effectivement voir ce que la réception d’un appel donnerait. En installant le site en PWA, la notification est effectivement accompagnée d’une sonnerie. On note que les labels des boutons disposent déjà d’une traduction.
Comme le note Neowin, cet ajout permettrait aux navigateurs d’obtenir les mêmes capacités qu’Android et iOS sur la gestion des appels.
AMD boucle son exercice 2024 sur une croissance annuelle de 14 %, portée principalement par la demande sur le marché des centres de données, mais aussi par le succès commercial des processeurs Ryzen sur la fin de l’année. Pour 2025, la firme ambitionne sans surprise de capitaliser sur les développements liés à l’intelligence artificielle. Elle prévoit pour ce faire d’anticiper le lancement de ses puces Instinct MI350.
Sa croissance n’a rien à voir avec celle du grand concurrent sur le marché du GPU, NVIDIA, mais AMD peut tout de même se targuer d’avoir bouclé son exercice fiscal 2024 sur un chiffre d’affaires de 25,8 milliards de dollars, en hausse de 14 % sur un an. Présentés mardi soir, ces résultats financiers découlent notamment d’un quatrième trimestre aux performances exceptionnelles : AMD enregistre ainsi 7,7 milliards de dollars de chiffre d’affaires sur les trois derniers mois de l’année, en hausse de 24 % sur un an.
+ 94 % pour les composants destinés au datacenter
Sur le trimestre comme sur l’année, c’est la division datacenter qui génère l’essentiel de la croissance. En 2024, elle représente ainsi 12,6 milliards de dollars de chiffre d’affaires, en croissance de 94 % par rapport à l’année précédente. « Le chiffre d’affaires annuel de la division datacenter a presque doublé grâce à l’accélération de l’adoption des processeurs EPYC, et aux plus de 5 milliards de dollars de chiffre d’affaires générés par les accélérateurs AMD Instinct », se réjouit Lisa Su, CEO d’AMD, dans un communiqué.
Le marché des centres de données constitue, de nouveau et sans surprise, le principal levier de croissance identifié pour 2025 dans la mesure où tous les grands acteurs du logiciel, des services en ligne ou de l’infrastructure rivalisent de projets d’investissements. Sur ce volet, AMD se félicite d’avoir signé en 2024 des contrats de premier plan avec Meta, Microsoft ou IBM, et anticipe une accélération des livraisons en 2025.
Les accélérateurs Instinct MI350 sont en avance
Chez AMD comme chez NVIDIA, le marché ne dépend toutefois pas uniquement de la demande, mais aussi et surtout des capacités d’approvisionnement. Sur ce point, Lisa Su s’est voulue rassurante. Lors d’un échange (audio) avec les analystes financiers, elle a affirmé mardi que la production des MI250X – dernière génération en date de ses accélérateurs dédiés au calcul haute performance et à l’IA – avait décollé conformément aux attentes sur le quatrième trimestre.
AMD profite de l’occasion pour évoquer sa future architecture CDNA 4, dont les premiers représentants, les accélérateurs Instinct MI350, étaient initialement attendus pour le deuxième semestre 2025. « En se basant sur les progrès réalisés sur les préséries et sur l’accueil enthousiaste des clients, nous prévoyons maintenant de livrer les premiers échantillons à nos principaux clients au cours de ce trimestre, et de passer en production de masse aux alentours du milieu de l’année », a annoncé Lisa Su.
AMD affiche également des performances en hausse sur la division « Client », qui réunit ses principales gammes de CPU et APU. Sur l’année, la branche réalise un chiffre d’affaires de 7,1 milliards de dollars, en hausse de 52 % sur un an, avec une croissance tirée majoritairement par les CPU Ryzen.
AMD indique que plus de 150 plateformes estampillées Ryzen AI (en référence à ses dernières générations de processeurs) seront disponibles cette année, et se félicite tout particulièrement de son partenariat renforcé avec Dell.
Rappelons que la marque a lancé toute une nouvelle gamme de processeurs visant à la fois les PC fixes et les portables à l’occasion du CES de Las Vegas.
Les cartes graphiques Radeon RX 9070 pour début mars
D’aucuns s’étaient toutefois alarmés, au moment du CES, du silence assourdissant entourant les cartes graphiques Radeon RX 9070 et leur architecture RDNA 4, attendues comme une réponse à la génération des GeForce RTX 50×0 Blackwell chez NVIDIA. AMD devrait finalement procéder à leur annonce officielle fin février, pour un lancement commercial programmé courant mars, a dévoilé mardi Lisa Su. Elle reconnait que ce retard a porté préjudice aux ventes de GPU dédiés, qui accusent un recul (non précisé) sur l’année.
Il ne faut cependant pas s’attendre à des Radeon RX 9070 concurrentes du très haut de gamme incarné par la GeForce RTX 5090. « Notre objectif avec cette génération est de nous adresser au segment le plus important en volume du marché des passionnés », révèle la dirigeante. La bataille devrait donc se jouer sur le terrain du rapport performances/prix plus que sur celui des performances brutes.
100 millions de consoles équipées d’une puce AMD
Chasse gardée d’AMD, le segment des designs semi-personnalisés destinés aux fabricants de console a lui aussi reculé en 2024. Sur sa division gaming (qui réunit cartes graphiques dédiées et activités graphiques pour les fabricants de console), AMD accuse ainsi un recul de 58 % sur un an, avec un chiffre d’affaires qui s’établit à 2,6 milliards de dollars. Sur le marché des consoles, AMD se félicite toutefois d’avoir franchi le cap symbolique des 100 millions de consoles équipées. La répartition entre Sony et Microsoft n’est pas précisée, mais Sony indiquait en novembre dernier avoir vendu 65,5 millions de PS5 à l’échelle mondiale, à l’occasion du lancement de la PS5 Pro.
Dernier volet du catalogue AMD, le segment dédié à l’embarqué réalise quant à lui 3,6 milliards de dollars de chiffre d’affaires sur l’année. Une baisse de 33 % sur un an, essentiellement due, selon la société, à des clients qui « normalisent » leurs stocks.
France Travail (ex-Pôle Emploi) et la start-up Mistral AI annoncent avoir conclu un partenariat après plusieurs mois de tests d’outils d’intelligence artificielle générative.
Deux outils doivent aider conseillers et candidats, d’après l’AFP : ChatFT doit fournir de l’assistance à la rédaction, et MatchFT assister les conseillers dans leur communication avec les candidats, notamment en permettant de contacter par SMS « les candidats présélectionnés sur une offre afin de les questionner sur leur intérêt pour l’offre, et les éventuels pré-requis (accès au lieu de travail, disponibilité, intérêt et capacité à réaliser les tâches prévues) ».
Fondée en 2023 par Arthur Mensch, Guillaume Lample et Timothée Lacroix et valorisée plus de 6 milliards d’euros, Mistral AI a été largement financée par de grands noms états-uniens, dont Microsoft, IBM, Salesforce, Nvidia ou les fonds Andreessen Horowitz et Lightspeed Ventures Partners. Des acteurs coréens comme Samsung siègent aussi aux côtés de ses quelques investisseurs français.
User/Chimera – Clarote & AI4Media – Better Images of AI
Ce week-end, sur Twitch, nous avons eu un bel exemple de « fail collectif ». D’un côté, un influenceur qui demande à sa communauté de partager leur RIB (ou celui d’un proche) pour obtenir de l’argent. De l’autre, des internautes qui envoient leurs informations bancaires en direct.
Nasdas est un influenceur bien connu sur les réseaux sociaux (9 millions d’abonnés sur Snapchat) car il a pour habitude de redistribuer une partie de ses revenus à sa communauté. Dimanche 2 février, la situation a dérapé, comme le rapporte BFM Tech & Co citant l’influenceur :
« J’ai mon application bancaire. J’ai un peu plus de 28 000 euros à l’intérieur. Je dois donner 10 000 euros. Comment faire ? Soit, on m’envoie des RIB dans les commentaires, soit des Paypal et je fais les virements en live ».
Il ratisse large dans sa communication : « on choisira parmi les nouveaux followers. Envoie un message, envoie ton RIB, celui de ta maman, ton oncle, qui tu veux ». La suite, on s’en doute : des RIB ont été envoyés par dizaines dans les commentaires, sur un live accessible à tous. Ils sont parfois accompagnés de messages et d’autres informations personnelles. Un véritable « trésor » pour des personnes malintentionnées.
Envoyer un RIB n’est pas sans conséquences
Plus besoin de fuites de données, les internautes envoient eux-mêmes des informations bancaires en espérant obtenir des fonds au passage… Du point de vue de cybersécurité, cela comporte des risques réels, comme nous l’expliquions récemment.
Si la Banque de France rappelle que « communiquer son RIB n’est pas risqué en soi », elle ajoute bien rapidement que, « comme pour tout document contenant des informations personnelles, il convient de bien identifier la personne à laquelle vous communiquez un RIB. Un escroc pourrait utiliser ces informations de manière malveillante (ex : usurpation d’identité) ».
Fin octobre, la CNIL a publié un guide pour vous protéger en cas de fuite de votre IBAN (qui se trouve sur votre RIB)… des recommandations également valables si vous partagez vos données bancaires de manière publique, comme c’est le cas ici :
« Cet identifiant peut dans certains cas permettre à un pirate d’émettre des ordres de prélèvement illégitimes qui ciblent les IBAN obtenus frauduleusement. Le pirate peut aussi, plus directement, usurper l’IBAN d’une autre personne en les communiquant lors de la création d’un mandat de prélèvement dans le cadre d’une souscription à un service ».
« Surveillez régulièrement les opérations sur votre compte bancaire et faites opposition si nécessaire […] Vérifiez la liste des créanciers autorisés », rappelait la CNIL. En cas de doute, n’hésitez pas à contacter votre conseiller bancaire.
« De profondes interrogations chez les juristes »
Mais ce qui pourrait passer au premier abord comme une « bonne action » ne dispense pas de respecter les règles.
Alexandre Archambault, avocat spécialisé dans le droit du numérique, nous explique que les modalités de l’épisode « ne manquent pas de susciter de profondes interrogations chez les juristes au regard des grands principes du RGPD ».
Les demandes de l’influenceur et les réponses des internautes fournissent un double exemple de ce qu’il ne faut pas faire.
Nasdas multiplie les dérapages
Nasdas n’en est pas à son coup d’essai. En juin dernier, il proposait à sa communauté de récupérer 100 000 euros (par lots de 80 à 2 500 euros) via une application de paiement en ligne : Laymoon. « Le jeu concours avait finalement été annulé face aux tollés des internautes. En effet, il fallait débourser au minimum 17 euros pour accéder à la plateforme », expliquent nos confrères.
En 2022, l’influenceur « avait volontairement diffusé dans une story son numéro de carte bleue, sur laquelle se trouvaient près de 16 000 euros […] Plusieurs sites, dont Amazon, avaient alors été submergés. Ils avaient considéré l’utilisation massive de cette carte de crédit comme « frauduleuse ». Les comptes ayant utilisé ce moyen de paiement avaient été temporairement bloqués », ajoute BFM Tech & Co.
Mozilla vient de dégainer coup sur coup Thunderbird 135 et la première bêta de Firefox 136. Un renouvellement rapide pour le client e-mail, puisque la dernière version date de la semaine dernière. Firefox 136 s’annonce de son côté comme une version importante.
Le rythme est très rapide pour Thunderbird. Alors que la version 134 est sortie le 27 janvier, la 135 est apparue hier soir. Comme la précédente, il ne s’agit pas d’une version mise en avant, le site ne proposant par défaut que la mouture ESR (Extended Support Release), actuellement estampillée 128.6.0.
La 135, elle, est simplement une « Release » que l’on peut récupérer depuis cette page, en modifiant le canal de distribution dans les menus. L’équipe de développement ne la recommande pas, la considérant presque comme une préversion. À moins de vouloir spécifiquement certaines nouveautés, il est conseillé de rester sur le canal ESR.
Nombreuses corrections, améliorations et binaires XZ
Mais qu’apporte cette version 135 ? Pour l’essentiel une longue liste de corrections et de petites améliorations. Il semble que Thunderbird 134 ait amené bon nombre de problèmes, corrigés dans cette révision, comme on peut le voir dans les notes de version.
Dans les améliorations, commençons par noter l’utilisation de XZ pour les binaires Linux. Comme pour Firefox, les gains sont notables sur la compression et surtout les performances lors de l’installation et de la mise à jour.
Thunderbird 135 permet également de spécifier un cookieStoreId lors de la création d’un espace, d’ignorer les sous-clés ou signatures non prises en charge lors de l’importation de clés OpenPGP conformes, ou encore d’utiliser le même code OAuth2 que le courrier pour les carnets d’adresses et des calendriers CardDAV.
Firefox 136 : accélération vidéo et onglets verticaux
Ainsi, sur Linux, Firefox 136 sait exploiter les GPU AMD pour le décodage matériel. Un support attendu de longue date. Autre arrivée, cette fois sur macOS : le décodage matériel pour les contenus HEVC. Là encore, Firefox rattrape la concurrence.
Firefox 136 introduit également pour la première fois les onglets verticaux, ici aussi une promesse de longue date. Ils ne sont pas activés par défaut. Pour les utiliser, il faut se rendre dans les paramètres du navigateur, onglet Général et chercher la ligne « Browser Layout ». La section n’est pas encore traduite. Il suffit ensuite de cliquer sur « Vertical tabs » et de regarder l’interface du navigateur évoluer, la barre latérale étant forcément activée dans ce cas.
Le fonctionnement est, dans les grandes lignes, identique aux autres navigateurs proposant cette disposition. Cet affichage peut notamment avoir un grand intérêt sur les ordinateurs portables, où la place verticale peut vite manquer. On gagne alors en surface d’affichage et en confort de lecture. On note cependant qu’en thème sombre, la barre d’adresse, très sombre, se confond pratiquement avec le bord de la fenêtre. Cela rend les déplacements de cette dernière hasardeux si l’on ne fait pas attention où l’on clique.
Et un peu sous le capot aussi
Firefox 136 renforce également son comportement HTTPS-First, ajoute la même compression LZMA sur le binaire macOS que pour Linux, désactive les bannières de cookies par défaut en navigation privée, ajoute une option pour afficher les termes de recherche sur les pages de résultats, ou encore ajoute le support de Codemirror 6 pour les développeurs.
Signalons aussi une évolution sous le capot pour la version macOS. Un nouveau mécanisme permet de déplacer certaines tâches en arrière-plan vers des cœurs moins puissants de la puce. Ces cœurs étant plus économes en énergie, la navigation devrait consommer moins et donc permettre une utilisation nomade plus longue.
Dans la nuit du 16 au 17 janvier dernier, SpaceX a raté son septième lancement test de Starship avec le propulseur Super Heavy. Perdant le contrôle du deuxième étage de sa fusée, l’entreprise d’Elon Musk n’a pas pu empêcher l’explosion de sa fusée dont des débris ont atterri sur les Îles Britanniques habitées de Turques-et-Caïques.
« Le succès est incertain, mais le divertissement est garanti ! » twittait Elon Musk alors que la fusée Starship avait échoué son septième lancement de test. SpaceX a perdu le contrôle du deuxième étage de sa fusée très rapidement alors que l’objectif de la mission était, entre autres, de tester une « mise à jour en bloc » de celui-ci.
Si le CEO de SpaceX qualifie cette explosion de « divertissement », ce n’est sans doute pas le mot qu’auraient choisi les habitants des îles de Turques-et-Caïques.
Aucun blessé, mais de nombreux débris
Ce territoire britannique d’outre-mer des Caraïbes situé au sud-est des Bahamas a vu de très près l’explosion du deuxième étage de StarShip. Et comme l’explique CNN, même si on ne dénombre aucun blessé, ses habitants doivent maintenant faire face aux retombées des débris.
Interrogée par nos confrères, Lori Kaine, une résidente de l’île, affirme n’avoir « jamais vu de telles couleurs dans le ciel », mais depuis, elle ramasse des débris de la fusée. Elle a retrouvé un câble dans son allée, des tuiles hexagonales brisées sur la chaussée (sans doute des éléments du bouclier thermique comme le suppose CNN). Elle a aussi retrouvé la plage à côté de chez elle, jonchée de débris.
Selon Alizee Zimmermann, responsable de l’association de protection des récifs Turks and Caicos Reef Fund, des épaves ont été retrouvées sur toutes les plages de la ville de Providenciales, mais aussi sur celles de Caïques du Sud et de l’Ouest. Elle a expliqué à CNN qu’ « il y a des débris aussi petits qu’un tiers d’ongle et aussi gros qu’une voiture éparpillés un peu partout ».
Alizee Zimmermann espère une évaluation officielle incluant des tests sur les eaux et une réflexion sur l’utilisation de drones pour chasser les gros débris en mer qui pourraient avoir un impact sur les écosystèmes sensibles.
Collecte et sécurisation des débris organisées par les autorités
Le 17 janvier dernier, la Federal Aviation Administration a « demandé à SpaceX de mener une enquête sur la perte du véhicule Starship lors des opérations de lancement le 16 janvier ». L’autorité américaine ajoutait qu’ « aucun dommage corporel n’a été signalé, et la FAA travaille avec SpaceX et les autorités compétentes pour confirmer les rapports faisant état de dommages matériels sur les îles Turques-et-Caïques ».
Selon le journal local Turks and Caicos Weekly News, le gouvernement des Turques-et-Caïques organise la collecte et la sécurisation des débris tombés au sol, en collaboration avec les autorités américaines et britanniques. Et une équipe de l’Air Accidents Investigation Branch (AAIB), l’organisme britannique chargé des enquêtes sur les accidents aériens, est au sol et travaille avec des représentants de SpaceX pour mettre en œuvre leur récupération.
La FAA toujours sur le coup, malgré l’investiture de Donald Trump
Samedi 1ᵉʳ février, ArsTechnica a interrogé la FAA sur le sujet. Selon nos confrères, l’autorité américaine n’a pas changé d’avis sur sa demande d’enquête alors qu’entre temps, Donald Trump a été officiellement investi et Elon Musk est très actif à la tête du DOGE.
Un porte-parole a répondu à ArsTechnica : « La FAA a demandé à SpaceX de mener une enquête sur l’accident du Starship Super Heavy Flight 7 sous la supervision de la FAA. Sur la base des conclusions de l’enquête concernant les causes profondes et les actions correctives, la FAA peut exiger d’une entreprise qu’elle modifie sa licence ».
Rappelons que SpaceX n’est pas la seule à avoir une gestion hasardeuse d’éventuels débris de fusées. Depuis des années, certaines fusées chinoises sont lancées sans préoccupation des dégâts, comme en 2020, quand des débris de la fusée Long March 5B seraient tombés en Afrique. Ou encore, en 2022, lorsque le premier étage d’une même fusée s’est désintégré dans l’atmosphère au-dessus de l’océan Indien.
Quid des responsabilités ?
Rappelons enfin que la Convention de 1972 sur la responsabilité internationale pour les dommages causés par les objets spatiaux a été ratifiée par plusieurs pays, sous l’égide des Nations Unies.
Dans son article II, elle prévoit qu’un « État de lancement a la responsabilité absolue de verser réparation pour le dommage causé par son objet spatial à la surface de la Terre ou aux aéronefs en vol ».
Dans son article I, elle prend soin de définir les termes utilisés. « Dommage » désigne ainsi « la perte de vies humaines, les lésions corporelles ou autres atteintes à la santé, ou la perte de biens d’État ou de personnes, physiques ou morales, ou de biens d’organisations internationales intergouvernementales, ou les dommages causés auxdits biens », tandis que « lancement » correspond aussi bien à un lancement réussi qu’à une tentative (échouée).
Récemment, le projet FreeDesktop.org a annoncé avoir besoin d’un nouvel hébergeur en urgence. Equinix, chez qui le projet était stocké, a mis fin au stockage gracieux qu’il fournissait depuis plus de cinq ans. La société veut en effet se débarrasser de ses offres bare metal et n’octroie donc plus de crédits gratuits dans ce domaine.
FreeDesktop.org n’est pas le seul projet touché par cette décision. La distribution Alpine Linux se cherche également un nouvel hébergeur, pour les mêmes raisons.
« Nous sommes profondément reconnaissants à Equinix Metal (anciennement Packet.net) pour leur soutien de longue date, qui a été essentiel à l’écosystème d’Alpine Linux. Cependant, avec l’abandon par Equinix de son service d’hébergement bare metal, ce soutien critique prendra bientôt fin. Leurs contributions ont été inestimables, et nous les remercions d’avoir aidé Alpine Linux à rester fiable et efficace », indique le projet dans un billet.
De quoi cette distribution, axée sur la sécurité, a-t-elle besoin ? D’une bande passante de 800 To par mois, de deux serveurs (chacun avec 50 Go d’espace disque et 16 Go de RAM au minimum) agissant comme des runners d’intégration continue pour les architectures x86_64 et x86, ainsi que d’une « development box », un serveur dédié à l’environnement de développement pour les contributeurs et mainteneurs.
Alpine cherche un espace de colocation et des serveurs bare metal près des Pays-Bas. Si ce n’est vraiment pas possible, l’équipe peut envisager des machines virtuelles.
À Ars Technica, Carlo Landmeter, membre du conseil d’Alpine, a indiqué que la distribution « est devenue populaire sans que la plupart des utilisateurs le sachent ». Actuellement, la situation provoque l’arrivée de quelques dons. Plusieurs entreprises auraient tendu la main, mais il ne s’agirait encore que d’un « début », selon Landmeter.
Nos confrères ont mis à jour leur article. Après la publication de la version d’origine, ils indiquent avoir été contactés par Jason Donenfeld, fondateur de WireGuard. Le célèbre client VPN se cherche lui aussi un nouvel hébergement… pour les mêmes raisons. Il est à la recherche de dons et d’offres d’hébergement.
L’Agence de cybersécurité et de sécurité des infrastructures met en garde contre quatre failles déjà corrigées, mais encore activement exploitées. Deux remontent à 2018 et soulèvent l’éternelle question des mises à jour.
Outre-Atlantique, la Cybersecurity and Infrastructure Security Agency (CISA) vient d’ajouter quatre failles de sécurité à son catalogue Known Exploited Vulnerabilities (KEV). Il s’agit donc de failles pour lesquelles l’Agence de cybersécurité a des « preuves d’une exploitation active », avec les dangers que cela comporte.
Les voici, avec leur score CVSS (Système commun de notation des vulnérabilités) permettant de juger du niveau de gravité sur 10 :
CVE-2024-29059 (CVSS de 7.5) : vulnérabilité dans le framework Microsoft .NET
CVE-2018-9276 (CVSS de 7.2) : vulnérabilité dans Paessler PRTG Network Monitor
CVE-2018-19410 (CVSS de 9,8) : vulnérabilité dans Paessler PRTG Network Monitor
Deux failles de… 2018
Si vous avez l’habitude des numérotations CVE (Common Vulnerabilities and Exposures), vous avez certainement compris que les deux premières failles datent de l’année dernière (septembre et mars respectivement), tandis que les deux autres ont déjà près de sept ans.
Malgré leur grand âge, « ces vulnérabilités sont des vecteurs d’attaque fréquents pour les pirates et posent des risques importants de cybersécurité », rappelle la CISA. L’Agence laisse jusqu’au 25 février aux entités de la Federal Civilian Executive Branch (FCEB) pour se mettre à jour. Mais c’est aussi un rappel important pour tout un chacun. Le CISA ne donne par contre aucun détail sur la manière dont elles sont exploitées.
Depuis le début de cette année, 19 failles ont été ajoutées au catalogue Known Exploited Vulnerabilities. La liste complète compte plus de 1 200 failles dont l’exploitation était donc avérée au moment de leur ajout au KEV. La première remonte à 2021.
Heartbleed : 10 ans plus tard, toujours des serveurs vulnérables
Y voir arriver des failles plus de six ans après leur découverte et surtout six ans après la publication des mises à jour est inquiétant. Cela prouve, s’il en était besoin, que des règles aussi élémentaires qu’appliquer des mises à jour ne sont pas toujours respectées.
Il y a quelques mois, lors d’un audit de sécurité, l’entreprise Securitum expliquait avoir trouvé deux serveurs publiquement accessibles encore vulnérables à cette brèche béante de sécurité. Elle permet pour rappel d’accéder à des données stockées dans la mémoire du serveur. Dix ans plus tard, des serveurs sont donc toujours vulnérables.
On parle là d’une faille qui a fait les gros titres pendant des jours, alors on imagine malheureusement bien ce qui peut arriver avec d’autres vulnérabilités, ayant moins de visibilité.
L’édition 2024 était, sans aucune surprise, marquée par l’intelligence artificielle à toutes les sauces, notamment avec Copilot. Cette année devrait être dans la même lignée.
Pour le moment, Microsoft n’a donné aucun détails supplémentaires.
Depuis quelques jours, l’Ademe est au centre d’une tempête. Elle travaillerait sur une tarification progressive des forfaits téléphonique en fonction de la quantité de data fournie. Elle aurait même envisagé de légiférer. C’est pourtant faux.
Même si la source n’est pas toujours indiquée, tout est parti d’un article du Parisien sur le « grand bluff des opérateurs sur les forfaits mobiles ». Le sujet portait sur la quantité toujours plus importante de data fournie dans les forfaits et la guerre des prix entre les opérateurs. L’article rappelait pourtant les derniers chiffres de l’Arcep : la consommation moyenne de data en France est de 17 Go par mois. À quoi pouvaient donc bien servir les forfaits de plusieurs centaines de gigaoctets ?
Les usages varient bien sûr, mais le problème était ailleurs. « L’Ademe va donc plancher sur la tarification progressive des forfaits pour, in fine, envisager un projet de loi », indiquait le Parisien. Une phrase légèrement modifiée par la suite, pour devenir : « L’Ademe va donc plancher sur la tarification progressive et, si les résultats sont pertinents, un projet de loi pourrait être envisagé ».
La polémique a enflé rapidement. Le 2 février, même Xavier Niel a réagi sur X. Citant un tweet de Frandroid qui assurait qu’un « projet de loi se prépare », il indiquait simplement « Non ».
« Nous rassemblons des données »
Nous avons contacté Roland Marion, directeur de l’économie circulaire à l’Ademe. Interrogé sur l’idée d’un projet de loi, il se montre très clair : « Non, c’est faux. L’Ademe n’a pas ce pouvoir. Nous rassemblons des données, nous éditons des rapports, parfois avec l’Arcep. Mais nous ne pouvons pas proposer de lois. Nous mettons simplement à disposition les données recueillies. Les politiques peuvent venir y piocher ».
L’Agence de l’environnement et de la maîtrise de l’énergie ne travaille-t-elle pas sur une tarification progressive des forfaits ? « Oui et non », nous répond Roland Marion. « Nous réfléchissons à ce sujet comme nous le faisons sur d’autres. À une époque par exemple, nous réfléchissions à une tarification progressive de l’électricité en fonction des usages. La discussion a permis de voir que ce n’était pas possible ».
Et dans le cas des forfaits mobiles ? « Nous y réfléchissons. C’est une discussion ouverte, un sujet d’étude. Mais nous savons déjà que les usages peuvent varier largement. Quelqu’un qui a un forfait 150 Go ne signifie pas qu’il va forcément les utiliser. Peut-être que cette personne a un gros forfait parce que c’est son seul moyen d’accéder à internet ».
Des propos en écho à ceux de Sylvain Waserman, PDG de l’Ademe et ancien vice-président de l’Assemblée nationale pendant presque cinq ans (il connait donc bien le parcours législatif). Il s’est exprimé sur LinkedIn, rappelant les trois missions de l’Agence : « L’Ademe mène des études et recherches, publie des avis techniques, propose des guides de sensibilisation à destination du grand public avec des trucs et astuces ». Plus loin, il conclut, agacé : « À bon entendeur ! Décidément, il ne nous sera rien épargné, mais on le savait déjà… ».
Des sujets plus pressants
Comme nous l’a indiqué Roland Marion, il existe des marges de manœuvre beaucoup plus importantes sur le numérique pour réduire l’empreinte carbone. « La data cellulaire, effectivement, moins on en consomme, mieux c’est. Notre recommandation, que nous répétons depuis des années, est de basculer sur une connexion Wi-Fi dès que possible. Son impact sur l’environnement est dix fois moins important qu’une connexion cellulaire », explique le responsable.
« Mais notre action sur le numérique se concentre surtout sur les recommandations liées à la fabrication des terminaux et les datacenters », ajoute-t-il. « On parle beaucoup d’IA aussi maintenant. On tente d’expliquer que son utilisation a un impact environnemental conséquent et qu’il vaut mieux, quand c’est possible, l’éviter ».
Mozilla vient de publier Firefox 135, la dernière révision de son navigateur vedette. Comme prévu, cette nouvelle mouture signe la disparition du bouton lié au signal Do Not Track DNT).
« Si vous souhaitez demander aux sites Web de respecter votre vie privée, vous pouvez utiliser le paramètre « Demander aux sites Web de ne pas vendre ni partager mes données ». Cette option s’appuie sur le contrôle global de confidentialité (GPC) », précise à ce sujet la fondation Mozilla.
Comme le réglage lié à DNT dans les versions précédentes, l’option Global Privacy Control se trouve dans les paramètres de vie privée de Firefox. Apparue dans Firefox 120, elle fonctionne comme un mécanisme « Ne pas vendre » et se veut juridiquement contraignante pour les sites, alors que le DNT était simplement volontaire.
Firefox 135 est l’occasion pour Mozilla de déployer plus largement la version rafraichie de la page d’accueil qui s’affiche à l’ouverture d’un nouvel onglet. Proposée aux États-Unis et au Canada à partir de Firefox 134, elle est désormais censée s’afficher dans toutes les régions où Firefox propose la suggestion d’articles, dont la France.
La fonctionnalité fait cependant l’objet d’un déploiement progressif, ce qui peut expliquer que la nouvelle mise en page ne soit pas immédiatement visible chez tous les internautes. Elle introduit notamment un logo repositionné à gauche, pour mieux valoriser le champ de recherche, et des suggestions d’articles sur quatre colonnes.
L’option « Copier le lien sans pistage », introduite elle aussi avec Firefox 120, se voit renommée « Copier le lien nettoyé » pour plus de clarté. Son fonctionnement (supprimer les paramètres de suivi publicitaire ou d’attribution du clic de l’URL du lien) est cependant inchangé.
Comme prévu, Firefox passe au format XZ pour les binaires Linux, préféré au BZ2 en raison de meilleures performances.
Firefox 135 inaugure aussi la prise en charge du chinois simplifié, du japonais et du coréen pour les langues source de son module de traduction, tandis qu’il est désormais possible de traduire le contenu d’une page vers le russe. Mozilla accélère par ailleurs le déploiement de la fonctionnalité de remplissage automatique des informations de carte de paiement, ainsi que celui de son interface dédiée à l’utilisation d’un chatbot IA.
Introduite avec Firefox 133, cette dernière permet pour mémoire de se connecter à un chatbot (ChatGPT, Claude, Gemini, Le Chat, etc.) et de le garder sous les yeux grâce à l’intégration dans un panneau latéral du navigateur.
Sur le plan de la sécurité, Firefox 135 introduit de nouvelles protections contre les abus liés à l’API dédiée à l’historique de navigation, et corrige douze failles, d’une gravité qui s’échelonne de « modérée » à « élevée ».
Le téléchargement est comme toujours proposé depuis le site de Mozilla, tandis que la mise à jour peut s’obtenir sans attendre le déploiement automatique à partir de l’onglet À propos des paramètres.
En plein renforcement de ses liens avec l’administration états-unienne, OpenAI a annoncé sa participation à un « programme de sécurité nucléaire ».
Open AI a conclu un accord avec les Laboratoires Nationaux du département de l’Énergie des États-Unis pour utiliser ses modèles d’intelligence artificielle (IA) dans un « programme détaillé de sécurité nucléaire ». En pratique, rapporte CNBC, 15 000 scientifiques travaillant au sein de l’une de ces institutions auront accès aux modèles o1 du constructeur.
Directeur d’Open AI, Sam Altman a expliqué lors d’un événement organisé à Washington et intitulé « Construire pour gagner : économie de l’IA », que le partenariat permettrait de se « concentrer sur la réduction des risques d’une guerre nucléaire et sur la sécurisation de matériel et d’armes nucléaires partout sur la planète ».
Domaine sensible pour modèle halluciné
Fuites de données sensibles, production de fausses informations assenées dans des formulations pleines d’aplomb, voire textes sans queues ni têtes… Le projet soulève de nombreuses questions dans la mesure où les modèles d’OpenAI ont démontré de nombreuses failles au fil des mois.
Des ordinateurs dédiés à la défense nationale, connectés à ce que certains présentent comme de nouvelles formes d’intelligence… Comme l’ironise Futurism, cela ressemble fort au scénario de Terminator. Mais au-delà des cauchemars de science-fiction, le partenariat tout juste annoncé s’inscrit dans un travail de long terme d’OpenAI pour renforcer ses liens avec le gouvernement des États-Unis.
Le 28 janvier, OpenAI rendait ainsi publique la plateforme ChatGPT Gov, un service mettant l’accent sur la cybersécurité pour faciliter l’accès des agences gouvernementales à ses produits. Une semaine plus tôt, la société faisait aussi partie des leaders du projet à 500 milliards de dollars Stargate, annoncé en grande pompe par le nouveau Président du pays… et suscitant rapidement l’ire du patron de xAI Elon Musk.
Nouvelle levée de fonds
Plus largement, l’entreprise tisse des liens avec des gouvernements répartis partout sur la planète, de l’armée israélienne à l’État japonais. Softbank et OpenAI organisaient en effet ce 3 février un événement réunissant plus de 500 sociétés japonaises représentantes de toutes sortes d’industrie. Le but, selon Nikkei : créer ensemble l’infrastructure d’IA du pays.
Softbank est très proche des intérêts d’OpenAI : il en est aussi financeur. Le 30 janvier, le Wall Street Journal rapportait le projet d’un nouveau tour de financement de 30 milliards de dollars mené par la holding japonaise. L’opération porterait la valorisation d’OpenAI, qui n’a pas prévu d’être rentable avant 2029, à 300 milliards de dollars.
Des chercheurs de Google ont découvert à l’automne dernier une faille dans les processeurs EPYC d’AMD, des générations Zen 1 à 4 (séries 7001 à 9004). Elle a été communiquée à AMD le 25 septembre, provoquant l’émission de correctifs le 17 décembre. Les détails de la faille, assez limités, n’ont été publiés qu’hier avec les chercheurs, suite à un accord avec AMD.
Pour exploiter la faille, il faut disposer des privilèges d’administrateur local sur un serveur, donc au ring 0 depuis l’extérieur d’une machine virtuelle. Il est alors possible de charger des correctifs malveillants du microcode dans le ou les processeurs concernés.
Droit de regard sur les machines virtuelles
« Cette vulnérabilité pourrait être utilisée par un adversaire pour compromettre des charges de travail informatiques confidentielles protégées par la dernière version d’AMD Secure Encrypted Virtualization, SEV-SNP ou pour compromettre la Dynamic Root of Trust Measurement », indiquent les chercheurs.
Bien que l’exploitation requière des privilèges locaux importants, la sévérité de la faille est considérée comme haute (score CVSS 3.1 de 7,2 sur 10). Son exploitation peut, en effet, conduire à l’installation de logiciels malveillants obtenant des capacités de visibilité dans les machines virtuelles, dont une partie de la sécurité repose sur le tandem matériel SEV-SNP au sein des processeurs.
Mauvaise vérification
SEV, pour Secure Encrypted Virtualization, est une technologie cruciale chez AMD. Elle génère une clé unique de chiffrement pour chaque machine virtuelle. Elle permet d’isoler les machines et l’hyperviseur les uns des autres.
SNP, pour Secure Nested Paging (pagination imbriquée sécurisée), ajoute des fonctions pour contrôler l’intégrité de la mémoire, renforçant encore l’isolation des machines virtuelles et devant les protéger d’attaques basées sur l’hyperviseur. Les deux technologies renforcent également les protections contre les attaques par canal latéral.
La vulnérabilité signalée par les chercheurs permet de jeter à bas ces défenses. Estampillée CVE-2024-56161, la faille réside dans l’utilisation d’une fonction de hachage non sécurisée pour valider les signatures dans les mises à jour du microcode. De là, un pirate peut faire passer des vessies pour des lanternes. Les machines virtuelles chiffrées perdent alors leur intégrité selon le code envoyé dans les processeurs.
La mise à jour déployée depuis décembre
Dans son bulletin, AMD indique qu’une mesure d’atténuation a été fournie pour la faille. Elle passe par une mise à jour du microcode et demande donc un arrêt du serveur, même si certains processeurs sont capables d’un chargement à chaud.
Il faut également déployer une nouvelle version du firmware SEV sur certaines plateformes, afin qu’elles puissent prendre en compte l’attestation SEV-SNP. Cette dernière permet à une instance de prouver son identité et son état. Une mise à jour du BIOS et un redémarrage du système sont nécessaires pour permettre l’attestation de l’atténuation. « Un invité confidentiel peut vérifier que l’atténuation a été activée sur la plate-forme cible grâce au rapport d’attestation SEV-SNP », précise AMD.
Les chercheurs (Josh Eads, Kristoffer Janke, Eduardo Nava, Tavis Ormandy et Matteo Rizzo) ont été remerciés par AMD. Ils notent cependant qu’ils ont fait une exception à la règle habituelle de révélation des failles de sécurité chez Google, notamment la période de 90 jours. Il s’est écoulé en effet 131 jours entre la publication des premières informations et la communication à AMD, et 45 jours depuis la diffusion des correctifs.
Pour les mêmes raisons, et compte tenu « de l’importance de la chaine d’approvisionnement et de la coordination nécessaire pour résoudre ce problème », aucun détail supplémentaire ne sera donné avant le 5 mars.
Précisons enfin que ce n’est pas la première fois qu’une faille de sécurité touche SEV ou SNP chez AMD. En 2023, une attaque baptisée CacheWarp avait nécessité également une mise à jour du microcode. Exploitée, elle pouvait permettre l’infiltration d’un code malveillant dans les machines virtuelles chiffrées.
Ni Google ni AMD ne parlent du cas des processeurs Epyc de 5ᵉ génération, avec l’architecture Zen 5.