Durant les deux derniers jours, de nombreuses annonces ont eu lieu dans le monde de l’intelligence artificielle. Alors que s’ouvre en France le sommet sur l’IA, plusieurs entreprises ont lancé de nouveaux produits, dont Mistral, GitHub, OpenAI, Google et Kyutai. Passage en revue.
On commence par Mistral, qui vient de lancer son application mobile pour Le Chat, son assistant maison. L’application est disponible pour iOS/iPadOS (15.1 minimum) et Android (7.0 minimum) et est traduite dans de nombreuses langues, dont le français bien sûr.
Les performances comme argument
Le lancement de ces applications mobiles était attendu. L’entreprise française doit lutter dans un marché à la concurrence féroce. Continuer à proposer une simple version web devenait donc problématique.
« Alimenté par les modèles Mistral les plus performants et à la latence la plus faible, ainsi que par les moteurs d’inférence les plus rapides de la planète, le Chat raisonne, réfléchit et répond plus rapidement que n’importe quel autre assistant de chat, jusqu’à environ 1000 mots par seconde. Nous appelons cette fonctionnalité Flash Answers, et elle est actuellement disponible en avant-première pour tous les utilisateurs », annonce ainsi tout de go Mistral dans son communiqué.
La société met donc en avant ses performances pour faire la différence. Difficile pour l’instant de juger réellement d’un potentiel écart avec des données chiffrées, mais d’après nos propres constatations, Le Chat s’est avéré particulièrement rapide, avec une grande réactivité.
Autre superlatif, Le Chat bénéficierait du « meilleur traitement des téléchargements au monde », renvoyant aux capacités de l’assistant sur tout ce qui touche à la reconnaissance de documents (OCR) et à leur analyse. Le Chat serait également à la pointe dans la génération d’images, la fonction étant alimentée par le modèle Flux Ultra de Black Forest Labs, présenté comme le plus performant. Dans le communiqué, l’entreprise n’hésite pas à se comparer à ChatGPT et Grok.
Mistral n’indique pas directement quels modèles sont utilisés pour son assistant. On sait en revanche que l’entreprise développe les siens propres, comme son modèle génératif Mistral Large, ou son modèle multimodal Pixtral. Quand la version Large de ce dernier est sortie en novembre, le communiqué mentionnait que l’un des moyens de le tester était justement Le Chat. Des améliorations pour ce dernier avaient été annoncées également il y a quelques mois. Dans l’annonce d’hier, c’est à nouveau le cas. À noter que Mistral Large et Pixtral sont tous deux présents dans Amazon Bedrock, Azure AI Studio et Google Vertex AI.
Plusieurs moyens de se différencier
Mais en dehors du délicat terrain des performances, où les percées sont vite oubliées, comment Mistral compte-t-elle se différencier ? L’entreprise dispose de plusieurs arguments. D’abord sur les prix, puisque l’entreprise profite de l’occasion pour introduire un forfait Pro, à 14,99 dollars/euros par mois.
Pour ce prix, la formule donne un accès illimité aux modèles les plus performances proposés, même si l’on ne sait pas lesquels. Mistral évoque également un « accès étendu aux réponses Flash », ce qui signifie une limite plus haute, mais une limite quand même. On note aussi la possibilité de désactiver le partage de ses informations et la présence d’un support dédié.
Mistral pourrait cependant avoir une carte à jouer sur la capacité de son assistant à tourner localement. L’offre Enterprise permet en effet de déployer Le Chat sur site, dans un environnement dédié et avec des outils personnalisés, pour exploiter si besoin les propres données de l’entreprise, sans communication avec les serveurs de Mistral. Le fonctionnement de l’assistant peut également se baser sur des modèles personnalisés. Cette capacité vient d’apparaitre, mais uniquement en accès anticipé pour l’instant.
Enfin, Mistral compte proposer bientôt des agents multi-étapes, nouveau grand axe de développement chez la concurrence également. Objectif, connecter ses contenus et systèmes avec des agents capables d’automatiser « les parties ennuyeuses de votre travail ». L’entreprise n’en dit pas plus pour l’instant, mais elle aura fort à faire. Les agents sont l’une des fonctions les plus mises en avant depuis l’année dernière, notamment chez Microsoft. La conférence Build 2024 revenait ainsi régulièrement sur cette thématique.
GitHub améliore son Copilot
Le Copilot de GitHub est devenu rapidement le produit phare de l’entreprise, rachetée par Microsoft. La filiale vient d’annoncer plusieurs évolutions importantes pour son assistant, dont… un mode agent. La nouvelle fonction doit permettre à Copilot d’itérer sur son propre code et de corriger automatiquement ses erreurs.
Le lancement de ce mode agent est une réponse du berger à bergère. GitHub a largement popularisé le concept d’assistant dans le développement, mais se retrouve menacé par de jeunes entreprises aux grandes ambitions, dont Bolt, Cursor ou encore Replit. GitHub imagine donc un monde où les développeurs seront bientôt rejoints par des équipes d’agents IA toujours plus intelligents, qui agiront comme autant de « pair-développeurs » pour prendre en charge les tâches quotidiennes.
Ce mode agent, plus autonome, cherche à analyser les exigences de la tâche complète avant de générer du code. Il peut, selon GitHub, « déduire » d’éventuelles tâches supplémentaires qui n’ont pas été spécifiées par les développeurs humains, mais qui lui semblent requises. Il va ensuite itérer sur le code produit et le résultat de ce dernier, jusqu’à ce que toutes les tâches « déduites » soient accomplies.
Et GitHub va encore plus loin. Selon l’entreprise, son mode agent est capable de reconnaitre automatiquement ses propres erreurs, peut corriger les problèmes identifiés sans intervention des développeurs, surveille les erreurs pendant l’exécution et fournit des corrections, et peut suggérer et exécuter les commandes nécessaires dans le terminal. Les nouveautés peuvent être testées en passant par la version Insiders de Visual Studio Code.
GitHub évoque également l’avenir en indiquant qu’à terme, son projet Padawan permettra d’aboutir à un agent totalement autonome, à qui on pourra confier une liste de tâches de développement. Plus précisément, on pourra confier à Padawan un problème, l’agent s’occupant alors d’en définir toutes les étapes intermédiaires et les solutions allant avec. La fonction doit arriver d’ici la fin de l’année, sans plus de précisions.
OpenAI ouvre sa recherche ChatGPT à tout le monde
Parallèlement, OpenAI vient d’ouvrir sa recherche ChatGPT à tout le monde, sans plus nécessiter de compte. Initialement, la fonction était apparue en octobre dernier pour les personnes payant un abonnement. Deux mois plus tard, elle a été étendue à l’ensemble des utilisateurs, mais en exigeant un compte. Désormais, le champ est libre pour partir plus frontalement à l’assaut de Google et des autres moteurs de recherche.
Cette ouverture aura attendu que plusieurs séries d’améliorations viennent enrichir le service. La dernière salve date de décembre, quand la recherche est devenue accessible à tous les détenteurs de comptes. OpenAI a alors ajouté diverses capacités, dont surtout l’affichage des cartes et d’informations liées, comme les points d’intérêt. Ce type de fonction progresse rapidement, Perplexity ayant par exemple fait de même récemment. Après tout, si ChatGPT et ses concurrents veulent concurrencer pleinement les moteurs de recherche, autant en reprendre tous les attributs.
Parallèlement, Microsoft a annoncé hier soir la disponibilité dans Azure OpenAI Service des préversions de GPT-4o-Mini-Realtime-Preview et GPT-4o-Mini-Audio-Preview. Le premier modèle est destiné aux interactions vocales en temps réel. Il se destine clairement aux chatbots, particulièrement ceux tournés vers la clientèle. Ce modèle doit permettre des échanges naturels avec la voix, permettant selon Microsoft une plus grande rapidité dans les questions/réponses. Le second modèle est plus général et se destine aux interactions audios au sens large. Il ne permet pas de faire plus que GPT-4o, mais peut le faire pour « une fraction de prix », selon l’éditeur.
Quand les deux modèles seront disponibles en versions finales, ils seront intégrés aux API Realtime et Chat Completion fournies par Azure OpenAI. Microsoft ne tarit pas d’éloges sur ces capacités, qui pourraient jouer un rôle dans tout ce qui touche à la génération vocale, aussi bien dans les jeux vidéo que les podcasts, en passant par le cinéma.
Google : du raisonnement et à nouveau des agents
Chez Google également la semaine a été chargée. Mercredi, la société a publié une série d’annonces sur ses modèles Gemini 2.0, dont une version expérimentale de son très attendu Gemini 2.0 Pro, qui prendra logiquement la succession de l’actuelle version 1.5 Pro. Cette préversion est disponible dans Vertex AI et Google AI Studio, et arrivera bientôt dans l’application mobile Gemini pour les détenteurs d’un compte Advanced.
Gemini 2.0 Pro prendra la relève en tant que modèle phare, avec une fenêtre de contexte de 2 milliards de jetons, ce qui correspond à peu près à 1,5 milliard de mots. Le modèle peut également « utiliser des outils tels que la recherche Google et l’exécution de code », précise l’éditeur. Dans son annonce, Google fournit un tableau réunissant différents benchmarks de ses modèles, et où Gemini 2.0 Pro arrive bien sûr en tête.
Parallèlement, Google a mis son modèle Gemini 2.0 Flash à la disposition du grand public. Annoncé initialement en décembre, il est désormais disponible depuis l’application Gemini, ainsi que dans Vertex AI et Google AI Studio.
Et puisque l’on parle de Flash, Google donne des nouvelles de deux variantes. D’abord, Gemini 2.0 Flash-Lite, une version qui se veut économique. Disponible, elle aussi, dans Google AI Studio et Vertex AI, elle doit donner le change dans un contexte largement bousculé par le modèle chinois DeepSeek. Flash-Lite garde la même fenêtre contextuelle d’un million de jetons et accepte les entrées multimodales. Selon Google, il préserve les performances de la version 1.5, tout en donnant de meilleurs résultats.
Quant à Gemini 2.0 Flash Thinking Experimental, un modèle de raisonnement disponible uniquement dans AI Studio jusqu’à présent, il arrivera bientôt dans l’application Gemini. Google n’indique cependant aucune date.
Kyutai revient avec une technologie de traduction simultanée
Kyutai, présenté comme un laboratoire en IA open-science à but non lucratif et fondé par Xavier Niel, Rodolphe Saadé et Eric Schmidt fin 2023, revient avec une nouvelle technologie. Dans un communiqué hier, Iliad annonce ainsi Hibiki, une technologie présentée comme capable d’assurer une traduction simultanée préservant la voix du locuteur. Hibiki pourrait « adapter son rythme au contenu sémantique du discours source ». La traduction orale se ferait en temps réel.
Toujours selon Iliad, Hibiki n’a pour l’instant été entrainé que pour traduire du français vers l’anglais. Il pourrait être déployé facilement dans le cloud et se montrerait assez efficace pour une « utilisation en temps réel sur mobile ».
Enfin, toujours chez iliad, un plan d’investissement a été annoncé ce soir : « OpCore [le nouveau nom depuis juin 2023 de Scaleway Datacenter, NDLR], la filiale qui opère les 13 datacenters du Groupe, va investir 2,5 milliards d’euros afin de renforcer sa position de leader européen du datacenter hyperscale dédié notamment aux ressources de calcul IA ». Une annonce dans la continuité de celle de décembre 2024 quand iliad annonçait vouloir devenir « un leader européen du data center hyperscale ».
Dans la même veine, « le Groupe a aussi investi dans la plus grande capacité de calcul commercialisable en Europe pour l’IA. Ce sont ainsi près de 5 000 GPUs dernière génération qui sont mis à la disposition des entreprises pour entraîner et utiliser leurs modèles ». Parmi les partenaires il y a Mistral AI, H et Photoroom. Là encore, c’est la continuité d’une annonce de 2023.
Le parquet de Paris confirme vendredi l’ouverture d’une enquête sur X, chargée de déterminer si et comment les algorithmes qui régissent l’affichage des messages sur le réseau social ont pu fausser le fonctionnement de son système de traitement automatisé de données.
Révélée en milieu d’après-midi par France Info, l’ouverture de cette enquête fait suite à un signalement déposé par le député (Ensemble) Eric Bothorel, le 12 janvier dernier.
L’intéressé l’avait lui-même signalé via son compte X jeudi. « Je vois passer plusieurs publications qui évoquent « les auteurs du fonctionnement faussé de l’algorithme de recommandation du STAD du réseau X ». J’ai saisi par courrier simple le parquet cyber J3 à ce sujet le 12 Janvier dernier ».
« Le parquet de Paris a reçu ce signalement de député en date du 12 janvier 2025, dénonçant des algorithmes biaisés dans le fonctionnement de X comme susceptibles d’avoir faussé le fonctionnement d’un système de traitement automatisé de données », confirme à Next le parquet de Paris.
Il ajoute : « les magistrats et assistants spécialisés de la section de lutte contre la cybercriminalité saisis l’analysent et procèdent aux premières vérifications techniques ».
L’enquête sera selon toute vraisemblance confiée aux personnels de la section J3, spécialisée dans les sujets cyber, et notamment compétente pour les infractions qui relèvent de l’atteinte à un système de traitement automatisé de données (STAD).
X n’a pour l’instant pas réagi à l’annonce de l’ouverture de cette enquête. En 2022, le réseau social (qui s’appelait encore Twitter) avait obtenu la relaxe dans une affaire judiciaire en arguant du fait que la société de droit français Twitter France n’était pas responsable des traitements réalisés par sa maison mère, Twitter International, basée en Irlande.
Hier s’est ouvert à Paris le Sommet pour l’action sur l’IA. Que faut-il en attendre de cet événement dont le nom est souvent réduit à « Sommet sur l’IA » ? Quels sont ses objectifs ? De premières actions concrètes ont déjà été annoncées. On vous explique.
Dégrossissons les contours du Sommet pour l’action sur l’IA. Dans une interview à Maddyness, la représentante du président de la République Anne Bouverot explique que ce Sommet est « un mélange de Vivatech et de Choose France, et un objet diplomatique ».
Diplomatique, car le Sommet doit permettre de « mettre en lumière notre écosystème français et de montrer que le développement de l’IA ne se limite pas aux États-Unis ou à la Chine », quand il n’est pas réduit à une guerre entre OpenAI et DeepSeek.
#FranceIA (2017), Stratégie nationale sur l’IA (2018), Sommet sur l’IA (2025)
Ce Sommet est présenté par le gouvernement comme « une troisième étape » dans la stratégie intelligence artificielle de la France, lancée en 2017 avec le plan de bataille #FranceIA. En 2018, nous avons aussi eu une « stratégie nationale de recherche en intelligence artificielle », après un rapport de Cédric Villani.
L’Europe n’est pas en reste avec l’AI Act qui est entré en vigueur 1ᵉʳ août 2024. Une première étape a été franchie le 2 février avec l’interdiction dans l’Union européenne des systèmes d’IA présentant des « risques inacceptables ». D’autres sont à suivre cette année et en 2026.
Renforcer l’action internationale, au service de « l’intérêt général »
Revenons au Sommet. On trouve une première ligne directrice sur le site de l’Élysée : « Pendant près d’une semaine, à partir du 6 février 2025, Paris accueillera de nombreux évènements visant à renforcer l’action internationale en faveur d’une intelligence artificielle au service de l’intérêt général ».
Cinq thèmes jugés essentiels sont abordés : l’IA au service de l’intérêt public, l’avenir du travail, l’innovation et la culture, l’IA de confiance et enfin la gouvernance mondiale de l’IA. La France n’est pas seule aux commandes : cet événement est « co-présidé par la France et l’Inde », rappelle l’Agence Française de développement.
Deux journées scientifiques et un week-end culturel
Hier et aujourd’hui se déroulent des journées scientifiques avec de nombreuses conférences. Ces deux jours sont organisés par l’Institut Polytechnique de Paris, sur son campus. Il s’agit de préparer le terrain avec des « discussions sur les transformations engendrées par l’IA » et des présentations de travaux de recherche.
Pour embarquer le grand public, ce week-end des rencontres culturelles dédiées à l’IA seront organisées : « les participants, tous âges confondus, pourront s’immerger dans les différentes approches de l’IA : par la pratique, par les débats contradictoires, par la découverte d’œuvres et par des échanges avec les artistes ».
L’Élysée revient sur deux facettes de l’IA, décrite comme « une formidable source d’appui aux créateurs », qui « soulève en même temps des questionnements importants sur des sujets comme le droit d’auteur et la rémunération des artistes ». Il y a également une troisième voie (au moins) à explorer : la pollution d’articles GenAI dans des médias en français, comme le montre notre enquête.
Quoi qu’il en soit, il reste des places gratuites à certaines conférences de samedi à la Bibliothèque nationale de France. Samedi et dimanche, la Conciergerie propose un parcours artistique baptisé Machina sapiens dont le but est de « cartographier les enjeux de l’IA générative et de son impact sur la société à travers une vingtaine d’œuvres d’artistes français et internationaux ». Sur son site, la Conciergerie indique que le parcours est « gratuit sans réservation », de 9h30 à 18 h.
Vous pouvez aussi ré(écouter) notre podcast Algorithmique et lire nos différents tutos pour apprendre et tester soi-même le fonctionnement de l’intelligence artificielle et de son entrainement.
Lundi des conférences, mardi des discussions avec les chefs d’État
La semaine prochaine, deux gros morceaux sont attendus : « Le Sommet débutera le 10 février au Grand Palais avec un forum qui réunira d’importants acteurs mondiaux de l’IA (gouvernements, entreprises, chercheurs, artistes, acteurs de la société civile, journalistes) » Puis ce sera au tour du « Sommet des chefs d’État se déroulera quant à lui le 11 février, au Grand Palais ».
Lundi sera la journée de « rencontres et discussions entre participants du monde entier » avec des sujets comme l’avenir du travail, l’IA de confiance, le développement des enfants, la gouvernance, les données, les bonnes pratiques… Voici le programme (chargé de cette journée) :
La longue liste des personnalités attendues
Mardi, durant la session plénière, des chefs d’État et de gouvernement ainsi que des personnalités internationales « échangeront sur les grandes actions communes à mettre en œuvre en matière d’IA ». Reste à voir ce qui en sortira.
L’AFP dresse une liste des invités de marque : Premier ministre indien, vice-président américain, vice-Premier ministre chinois, présidente de la Commission européenne, secrétaire général des Nations Unies, directrice générale de l’OMC, secrétaire général de l’OCDE, directeur de l’Agence internationale de l’énergie.
Les patrons de la tech aussi font le déplacement : Sam Altman (OpenAI), Sundar Pichai (Alphabet/Google), Demis Hassabis (DeepMind), Brad Smith (Microsoft), Dario Amodei (Anthropic). Le cas de certaines personnalités reste en suspend, notamment Liang Wenfeng (DeepSeek) et Elon Musk (X). Les français seront évidemment bien représentés avec Xavier Niel (Iliad) et Rodolphe Saadé (CMA CGM) qui ont tous les deux lancé Kyutai, ainsi que « les patrons d’Airbus, Thales et EDF ».
Des conversations plus que des résolutions de problématiques
Anne Bouverot apporte un élément de réponse dans son interview à Maddyness. À la question « n’avez-vous pas peur que l’effet de ce sommet soit un peu comme les effets des COP Climat : beaucoup d’engagements, mais peu ou pas d’impact concret ? », elle reconnait que la portée sera très certainement limitée :
« Notre objectif, ici, n’est donc pas de résoudre l’ensemble des problématiques liées au développement de l’intelligence artificielle, mais plutôt de garantir que des conversations aient lieu, que des initiatives soient lancées, et qu’elles trouvent ensuite des cadres où elles pourront être suivies ».
L’une des dernières décisions de Google devrait alimenter les discussions. En effet, l’engagement selon lequel les IA développées par l’entreprise ne doivent pas servir à la création d’armes a été enlevée de sa déclaration encadrant ses grands principes éthiques et moraux. La société justifie ce changement par une approche basée sur la gestion du risque, grâce à un « framework » dédié.
En parallèle de cette session plénière, une centaine d’évènements sont prévus pour les acteurs de la société civile et les entreprises. Il est question de l’IA et la démocratie, de l’impact environnemental, de la manipulation de l’information, de la cybersécurité, etc.
La CNIL, l’ANSSI, la DGCCRF et la DGE seront présents à Station F mardi pour le Business Day. Son but : « pour sensibiliser les entreprises et startups aux obligations du règlement IA dont l’entrée en application s’opère graduellement depuis l’été 2024 ». Le programme est bien chargé. L’événement est complet, mais il sera possible de le regarder sur YouTube.
Des annonces tous azimuts
Vous l’avez certainement remarqué, avant même l’ouverture de ce Sommet, les annonces fusent de tous les côtés, aussi bien avec des annonces de produits chez les principaux acteurs (nous y reviendrons dans une actualité dédiée), des investissements, des tribunes où chacun donne son avis, des annonces du gouvernement sur les datacenters, etc. Impossible de les citer toutes, mais faisons tout de même une rapide recension :
Sur X, Guillaume Rozier (Conseiller du président de la République) revient sur les premières annonces de l’État autour de l’Intelligence Artificielle. « D’ici un an tous les agents publics bénéficieront de l’IA, notamment au travers d’un agent conversationnel souverain ». Il affirme que l’État « déploiera plus largement les meilleures technologies IA souveraines, proposées par des startups françaises, ou disponibles en open source ».
Deux « livrables » : une cartographie de l’INA et une fondation
Hier, l’INA a mis en ligne un des « livrables » de ce sommet de l’IA : une « cartographie des enjeux et usages de l’IA pour le journalisme ». Elle propose des pistes de réflexion sur les usages et les outils IA pour le journalisme, une analyse des enjeux et enfin une grille d’évaluation de son intérêt.
Du côté des tribunes, Le Monde en a publié plusieurs ces derniers jours. La première d’une vingtaine d’organisations intitulée « L’intelligence artificielle accélère le désastre écologique, renforce les injustices et aggrave la concentration des pouvoirs ». La seconde d’une centaine d’ONG : « L’IA telle qu’elle est développée alimente un système d’exploitation global ».
Elles demandent respectivement de « résister au déploiement massif de l’IA, au nom des droits humains, sociaux et environnementaux » et de « placer les droits humains et la justice environnementale au cœur de la régulation de l’intelligence artificielle ».
Dans La Nouvelle République, on retrouve une autre tribune de l’Alliance de la presse d’information générale, de la FNPS, du Geste, du SEPM et du Spiil : « Trois conditions pour garantir la fiabilité de l’information et préserver la démocratie à l’heure de l’IA générative ».
« Les services d’intelligence artificielle générative s’imposent à une vitesse fulgurante dans la recherche d’informations, répondant de plus en plus directement aux usagers, sans renvoyer à la source. Ce faisant, ils se substituent aux médias, mais sans leur cadre déontologique », peut-on lire dans cette tribune. Et là encore, ce n’est pas notre enquête qui dira le contraire.
Wikimedia France relaie aussi une tribune du think tank Renaissance numérique avec 43 signataires (dont Wikimédia France) : « Gouvernance mondiale de l’IA : passer à l’action avec la société civile ». Elle demande de mettre en place « d’urgence trois mesures concrètes pour renforcer et faciliter l’implication de la société civile dans la gouvernance de l’IA, pendant et surtout après le sommet : Encourager des processus de sélection plus ouverts et transparents […] Imposer un devoir de réponse aux contributions […] Faciliter le financement. »
Près de dix ans après son lancement en France, la NVIDIA Shield reçoit cette semaine une mise à jour logicielle. Son environnement, basé sur Android TV passe en version 9.2 avec quelques corrections de bugs, bien sûr, mais aussi des nouveautés fonctionnelles.
La principale d’entre elles consiste en la prise en charge du format de son AURO-3D, censé offrir une spatialisation améliorée des effets sonores, sous réserve de connecter la petite console, via HDMI, à un décodeur compatible.
NVIDIA annonce par ailleurs l’introduction du contrôle parental en langue française, une mise à jour des composants dédiés à la lecture de vidéos 4K protégées par DRM et une fonction, encore en bêta, de synchronisation des images à la fréquence d’affichage de la TV.
La mise à jour Shield Experience 9.2 permet par ailleurs à NVIDIA de corriger une vingtaine de bugs, dont des saccades susceptibles d’intervenir en sortie de veille, un problème qui empêchait le transfert de gros fichiers via le réseau, un crash au démarrage de l’application GeForce Now, ou des défauts de compatibilité avec certains casques sans fil Bluetooth. Cette nouvelle version, qui pèse environ 1 Go, est actuellement déployée par NVIDIA, mais si la notification correspondante n’est pas encore arrivée, il est possible de forcer la mise à jour via le menu paramètres.
La dernière mise à jour (hors hotfix) remontait à novembre 2022.
Le Premier ministre a annoncé jeudi, en prélude au Sommet pour l’action sur l’IA, l’identification de 35 sites industriels « clés en main » dédiés à la création de datacenters. Quelques heures plus tard, l’Élysée a révélé un projet d’investissement porté par les Émirats arabes unis, qui doit conduire à la création d’un immense datacenter adossé à un campus dédié à l’IA.
Installé en septembre 2023 par Élisabeth Borne, le comité interministériel de l’intelligence artificielle s’est réuni jeudi matin, en préambule au Sommet pour l’action sur l’IA, qui doit réunir le gratin mondial du secteur à Paris. Présidée par François Bayrou à Matignon, la rencontre a permis au gouvernement de livrer les principaux éléments de sa feuille de route en matière de soutien à l’IA.
35 sites fléchés en priorité à des projets de datacenter
Le Premier ministre a notamment annoncé à cette occasion l’identification de 35 sites industriels considérés comme particulièrement propices à l’installation de centres de données, à la fois pour leur accès à l’énergie, pour leur surface foncière et pour leur disponibilité.
« Partout en France, des Hauts-de-France à la région Provence-Alpes-Côte d’Azur, 35 sites ont été identifiés pour accueillir des centres de données, qui irriguent toute la filière IA en données. Notre pays a l’avantage considérable de pouvoir leur garantir l’accès à une énergie fiable, décarbonée et abondante », écrit le Premier ministre dans un rapport transmis par Matignon à la rédaction à l’issue de ce comité.
L’emplacement exact de ces 35 sites n’a pas été communiqué. Matignon indique en revanche qu’ils représentent des surfaces allant de « 18 à 150 hectares et plus », pour une surface totale de l’ordre de 1 200 hectares, et des possibilités en matière de raccordement électriques qui pourraient atteindre un total de 1 GW à horizon 2027.
Des procédures administratives accélérées
Aux éventuels porteurs de projet intéressés, le comité interministériel promet le soutien d’une équipe dédiée et, surtout, la perspective de procédures administratives raccourcies. Les sites concernés devraient en effet bénéficier du régime accéléré prévu par la loi sur l’Industrie verte. Pour un vrai choc de simplification, le gouvernement devra cependant en repasser par la loi.
Les centres de données ne sont en effet pas encore éligibles au statut de « Projet d’Intérêt National Majeur » (PINM). Or c’est lui qui permet aux grands projets industriels d’obtenir des dérogations en matière de protection des espèces, des adaptations des règles d’urbanisme locales ou un raccordement prioritaire aux infrastructures RTE.
Le comité annonce à ce niveau qu’il proposera d’exclure les projets de datacenters du champ de la commission nationale du débat public (qui prévoit un long temps d’échange entre le porteur de projet et les populations). « Enfin, les procédures contentieuses contre les projets de centres de données seront simplifiées, avec à la suppression du double degré de juridiction. Un gain de 9 à 18 mois est attendu à ce titre ».
L’annonce anticipée de ces futures facilités n’a rien d’un hasard : le gouvernement souhaite profiter de l’exposition offerte par le Sommet sur l’IA pour attirer l’attention des industriels du secteur, et accélérer le dépôt de nouveaux projets.
Un datacenter de 1 GW cofinancé par les Émirats Arabes Unis
En fin de journée, l’Élysée a embrayé avec une nouvelle annonce, nettement plus spectaculaire. La France et les Émirats arabes unis ont, en effet, conclu un accord dans le cadre duquel les fonds émirati participeront aux investissements nécessaires à la création d’un « campus de 1 GW dédié à l’intelligence artificielle en France ».
D’après l’Élysée, le projet représenterait une enveloppe globale de 30 à 50 milliards d’euros, amenés par « un consortium de champions franco-émiratis ». Le projet, d’une envergure inédite dans l’Hexagone, mêlerait à la fois des infrastructures informatiques, avec un immense datacenter, mais aussi des écoles, des centres de formation, des laboratoires, etc.
Où sera installé ce campus, et quand verra-t-il le jour ? « Une annonce sur la première tranche d’investissement sera faite lors du Sommet Choose France 2025 », se contente d’indiquer la présidence de la République, faisant référence à l’événement annuel, organisé au mois de mai, lors duquel l’Élysée réunit de grands acteurs économiques pour favoriser leurs investissements en France.
L’accord conclu entre la France et les Émirats « comprend des investissements dans l’IA française et émiratie, l’acquisition de puces de pointe, des centres de données, le développement de talents, ainsi que la mise en place d’ambassades virtuelles de données pour permettre la mise en place d’infrastructures souveraines d’IA et de cloud dans les deux pays », déclare encore l’Élysée.
À partir du 1ᵉʳ novembre, les heures creuses vont changer pour 11 millions de foyers. Le but est de s’adapter aux changements de modes de consommations (notamment télétravail) et à l’augmentation de la production photovoltaïque. Plus de 13 millions de clients auront deux périodes distinctes pendant la journée, avec de possibles différences entre l’hiver et l’été.
La Commission de régulation de l’énergie (CRE) vient de publier ses projets de décision sur le tarif d’utilisation des réseaux publics d’électricité (alias le TURPE). Le « TURPE 7 » entrera en vigueur le 1ᵉʳ aout, mais la hausse a pour rappel été « anticipée » à ce 1ᵉʳ février pour se « fondre » dans la baisse des coûts de l’électricité.
Si le TURPE 7 reconduit globalement la structure tarifaire du TURPE 6, la CRE explique que des changements sont à prévoir sur les heures creuses :
« La CRE, lors des différentes consultations, a proposé de revoir le placement des heures creuses pour bénéficier de la production photovoltaïque abondante et peu chère en après-midi et notamment en été. Cette proposition a été accueillie très favorablement par une grande majorité des acteurs. Elle sera mise en œuvre progressivement à compter de l’automne 2025 ».
Deux plages horaires, avec 8 h creuses par jour
La Commission rappelle que les heures creuses/pleines (HP/HC) ont été introduits dès les années 60 après la mise en service des premières centrales nucléaires. Le dispositif a ensuite été étendu dans les années 70 - 80. La journée est ainsi divisée en deux plages horaires : « 16 heures « pleines » et 8 heures « creuses » (consécutives ou non), avec deux prix différents ».
Rappelons que les plages d’heures creuses sont fixées par le Gestionnaire du Réseau de Distribution d’électricité (Enedis) ou les Entreprises Locales de Distribution (ELD). Elles peuvent varier d’un client à l’autre, mais vous ne pouvez pas les choisir ni demander à les modifier. Les heures creuses existent aussi bien pour les tarifs réglementés que les autres.
La CRE donne quelques exemples des changements qui pourront être mis en place pour différents types de foyers.
Des heures creuses plus propices entre 11 h et 17 h
La répartition 16/8 ne changera pas, affirme la CRE. Par contre les plages horaires vont bouger cette année : « L’objectif est de mettre en adéquation ces heures creuses avec les enjeux du réseau et de l’équilibre offre-demande ». La période entre 11 h et 17 h est désormais « plus propice qu’avant pour consommer l’électricité, en particulier en été ». À contrario, les heures creuses en début de matinée et de soirée ne sont « plus opportunes », du changement est donc au programme.
La Commission explique qu’une partie des « heures mal placées » (celles de 7 h à 11 h ou de 17 h à 23 h) vont ainsi être déplacées « vers des créneaux où l’énergie est abondante et peu chère », principalement l’après-midi entre 11 h et 17 h.
Pour s’adapter au mieux à la saisonnalité de la production d’électricité via le photovoltaïque, les pages horaires pourront être différentes en été (du 1ᵉʳ avril au 31 octobre, précise la CRE). Il sera possible d’avoir des heures creuses uniquement la nuit en hiver et jusqu’à 3 heures creuses pendant la journée en été. Dans tous les cas, les clients « conserveront un minimum de cinq heures creuses consécutives au cœur de la nuit ».
11 millions de foyers concernés, mais pas ceux avec Tempo
La CRE dénombre 14,5 millions de foyers avec un contrat HP/HC. 11 millions « vont connaitre une évolution dans le placement de leurs heures creuses, au moins », ce qui veut aussi dire que pour 3,5 millions de foyers rien ne change. Sur ces 3,5 millions, 2,1 millions ont déjà les heures creuses sur deux périodes pendant la journée tandis que les 1,4 million restant n’ont des heures creuses que la nuit.
Dans sa foire aux questions, la CRE précise bien que les changements ne concernent que les clients avec une offre « heures pleines / heures creuses ». Ceux avec une formule « heures super creuses », « semaine/week-end », une part d’indexation sur un prix de marché ainsi que les clients Tempo ne seront pas concernés.
Changements entre novembre 2025 et fin 2027
Les changements vont se faire progressivement entre novembre 2025 et… la fin d’année 2027. Les clients seront prévenus au moins un mois avant la date effective du changement par les fournisseurs d’électricité (qui eux ont l’information six mois avant).
Suite aux changements de tarifs et des taxes en place au 1ᵉʳ février, nous avons mis à jour notre comparatif d’une vingtaine d’offres. N’hésitez pas à le consulter et à le copier sur votre compte pour l’adapter en fonction de vos usages et de votre consommation.
Un rappel utile pour finir : vous pouvez changer de fournisseur sans frais. Les offres sont sans engagement et nous pouvez alterner entre les tarifs réglementés et les offres de marché comme bon vous semble.
Nouvelle mouture importante pour la suite bureautique libre, avec de nombreuses améliorations à la clé. LibreOffice 25.2 prend notamment en charge le format OpenDocument 1.4 et intègre une nouvelle fonction capable de supprimer toutes les informations personnelles dans les métadonnées d’un document. Par exemple, tout ce qui touche aux auteurs, aux horodatages (heures de modification et commentaires notamment), nom et configuration de l’imprimante ou encore les modifications de suivi.
Cette version 25.2 introduit également plusieurs options liées au thème, dont une sélection du thème indépendante du système ou de l’environnement de bureau. Il est également possible de choisir la couleur des caractères non imprimables ou encore celle de l’arrière-plan des commentaires. Toujours dans la catégorie personnalisation, LibreOffice permet maintenance de faire bouger les limites des objets indépendamment des marques de formatage.
Certains ajouts étaient en outre attendus de longue date. Sous macOS, LibreOffice 25.2 prend ainsi en charge Quick Look, pour visualiser rapidement un document depuis le Finder. Si un certificat de sécurité a été configuré par défaut, il peut désormais servir à signer automatiquement tous les documents.
Outre ces améliorations générales, chaque application de la suite a ses propres nouveautés. Writer dispose – enfin ! – d’un niveau de zoom par défaut personnalisable pour tous les documents. Autre outil bien pratique, la possibilité de supprimer tout ce qui se trouve dans un certain type de contenu (à l’exception des titres). Calc reçoit un nouvel outil pour gérer les doublons, des améliorations pour la recherche dans les fonctions ou encore une meilleure interopérabilité avec les fichiers XSLX.
On peut consulter la liste complète (et touffue) des nouveautés depuis cette page. Le téléchargement se fait comme d’habitude depuis le site officiel. Les personnes ayant déjà la suite installée recevront une notification les invitant à effectuer la mise à jour.
Le DOGE d’Elon Musk continue de prendre la main sur de nombreux outils informatique des agences américaines. Certains de ses membres ont pu s’immiscer dans les données de Medicare et Medicaid, les services de santé des États-Unis. Son immixtion dans les systèmes du Trésor a été l’objet d’une passe d’armes juridique, mais deux de ses employés devraient garder un accès en lecture seule.
C’est un véritable sprint qu’ont enclenché Elon Musk et son département DOGE, officiellement chargé de « l’efficacité gouvernementale ». Ils mettent la main sur le plus de données possible à propos des utilisateurs des différentes agences américaines, avant que d’éventuels contre-pouvoirs viennent leur mettre des bâtons dans les roues.
Jusqu’à présent et depuis l’investiture de Donald Trump le 20 janvier dernier, la voie est libre pour eux. Des manifestations anti-Trump et anti-Musk commencent tout de même à avoir lieu dans les 50 États, avec des messages comme « rejetons le fascisme » ou « l’oligarchie », « défendons notre démocratie », « Musk n’a pas été élu ». Les agents du DOGE ont pu accéder au système informatique du Trésor américain, aux ressources humaines fédérales, aux services informatiques fédéraux ou encore à ceux de l’agence américaine qui étudie l’atmosphère et les océans (NOAA) ou du système de connexion gouvernemental login.gov.
Medicare et Medicaid, un réservoir de données sensibles
Ils ont encore accédé à d’autres services publics cette semaine. Des agents du DOGE ont pu, selon le Wall Street Journal, accéder aux locaux des services de Medicare et Medicaid, le système d’assurance-santé public américain et le programme qui permet de fournir une assurance maladie aux personnes à très faibles revenus et ressources.
Selon les sources de nos confrères, le DOGE s’intéresse, comme pour les autres agences, aux systèmes informatiques de ces deux services de santé, rassemblés sous la responsabilité de l’Agence Fédérale du département américain de la Santé et des Services sociaux (Centers for Medicare & Medicaid Services, CMS). Ils seraient notamment à l’affût de ce qu’ils considèrent comme de la fraude ou du gaspillage.
Le CMS « est le centre névralgique d’une grande partie de l’économie complexe des soins de santé du pays, avec des dépenses d’environ 1 500 milliards de dollars pour l’exercice 2024, soit environ 22 % du total fédéral », souligne le Wall Street Journal. L’agence rassemble 6 710 employés, dont de nombreux vétérans qui y travaillent depuis des décennies.
Au journal américain, un responsable du CMS explique que « deux vétérans seniors dirigent la coordination avec le DOGE ». Les responsables seraient dans un esprit de collaboration avec le DOGE pour l’instant, dans une recherche de plus grande efficacité.
Selon le Wall Street Journal, les personnels du DOGE ont accédé en lecture seule à un logiciel qui permet notamment de gérer les contrats du CMS. Ils n’ont pas encore accédé aux bases de données contenant des informations personnelles sur la santé des bénéficiaires de Medicare ou de Medicaid, ni au système HIGLAS. Ce dernier standardise et centralise les fonctions de comptabilité financière fédérale pour tous les programmes de CMS.
Deux agents du DOGE ont toujours accès au Trésor
Du côté de l’accès aux données du Trésor américain, Ars Technica explique qu’une plainte [PDF] a été déposée lundi 3 février, par une association de retraités et des syndicats contre l’accès donné au DOGE à des informations personnelles et financières.
Mais selon notre consœur, Ashley Belanger, ces organisations auraient signé un accord [PDF] avec le ministère de la Justice (Department of justice, DOJ). Selon ses termes, le Trésor « ne donnera accès à aucun enregistrement de paiement ou système d’enregistrement de paiement géré par ou au sein du Bureau du service fiscal » aux employés du DOGE, sauf à deux d’entre eux, Tom Krause et Marko Elez. Comme l’explique Bloomberg, le premier était directeur général de Cloud Software Group (le groupe de Citrix et de Tibco). Le second est un ingénieur qui a travaillé dans les entreprises d’Elon Musk, SpaceX et X. L’accord doit encore être approuvé par le juge chargé de l’affaire.
Peur des menaces
Mais, selon le Washington Post, les agents du DOGE ont déjà eu accès à des dossiers concernant des millions d’employés fédéraux, « y compris des fonctionnaires du Trésor et du département d’État occupant des postes de sécurité sensibles ». Les sources du journal ont peur que ces informations soient utilisées de façon abusive pour menacer de représailles des fonctionnaires qui ne seraient pas jugés assez loyaux envers Donald Trump et le nouveau gouvernement.
Les données viendraient notamment de l’Office of Personnel Management (OPM, l’agence des ressources humaines des employés fédéraux américains), le DOGE ayant accédé à ses locaux et ses logiciels, comme nous l’indiquions. Le Washington Post raconte que des agents du DOGE auraient traité des responsables de l’OPM d’ « idiots » lors de réunions entre les deux services.
Pendant le Sommet sur l’IA, Next replonge dans les épisodes de son podcast Algorithmique
Du 6 au 11 février se tient à Paris le Sommet pour l’action sur l’intelligence artificielle, occasion d’une variété de moments d’échanges entre scientifiques, sociétés civiles, chefs d’État – dont le vice-président américain J.D. Vance, le vice-premier ministre chinois Ding Xuexiang, la présidente de la Commission européenne Ursula von der Leyen ou encore le premier ministre indien Narendra Modi – et patrons d’entreprises de la tech.
Mais de quoi on parle, au juste, lorsqu’on évoque l’intelligence artificielle ? Pour en comprendre les principaux enjeux, Next vous propose d’écouter ou réécouter les six épisodes de son podcast Algorithmique.
Sans nous vanter (quoique si, il faut qu’on apprenne à le faire si on veut convaincre plus de gens de s’abonner à Next), les auditeurs de ce podcast l’ont qualifié de « clair, pédagogique, avec des interlocuteurs de grande qualité » ou encore d’« excellente facture ». Il nous a même attiré des « merci » et des « re merci », auxquels nous répondons : avec grand plaisir ! Abonnez-vous, c’est votre soutien qui nous permet de créer ce genre de projet !
Six épisodes
Avec l’aide de l’informaticien et philosophe Jean-Gabriel Ganascia et de la docteure en IA Amélie Cordier, on se plonge d’abord dans une tentative de définition des contours historiques, éthiques, et même pratiques, de la discipline.
Vient ensuite l’enjeu des biais sociaux, qui revient régulièrement dans les conversations (souvenez-vous de ces résultats repérés dans Stable Diffusion ou ChatGPT). Avec la spécialiste des sciences de l’éducation et ancienne informaticienne Isabelle Collet et la chercheuse en intelligence artificielle Raziye Buse Çetin, on s’attaque à la manière dont ceux-ci s’infiltrent dans l’IA et sur certaines des pistes qui permettent d’y remédier.
À ce point de la réflexion vient la nécessité de se pencher sur des cas concrets. Valérie, chargée du numérique au collectif Changer de Cap, et Camille Lextray, créatrice de contenu, racontent ici comment des systèmes algorithmique défectueux influencent la vie de gens. La première détaille les difficultés des bénéficiaires d’aides de la Caisse d’Allocation Familiale (CAF) lorsqu’ils se retrouvent accusés à tort, et automatiquement, d’avoir reçu des paiements indus. À sa suite, l’autrice de Briser la chaîne (Leduc, 2024) retrace le combat qu’elle a mené en justice pour tenter de rendre le pouvoir sur les mécaniques de modération d’Instagram.
Un autre effet concret de l’IA est celui que ces produits, cette industrie, ont sur la planète. Pour mieux les envisager, Next rencontre dans ce quatrième épisode le sociologue des sciences et des techniques Clément Marquet et la professeure en informatique Anne-Laure Ligozat, tous deux spécialistes des enjeux environnementaux du numérique… et par extension, de l’IA.
En parallèle de ces constats, les travaux d’encadrement et de régulation sont allés bon train, que ce soit au sein des entreprises, avec divers engagements éthiques, ou dans les parlements. En Europe, l’aboutissement le plus emblématique aura été le règlement sur l’IA, qui a commencé d’entrer en vigueur ce mois-ci. Dans l’épisode 5 d’Algorithmique, le sociologue Bilel Benbouzid et la juriste spécialiste de la gouvernance de l’intelligence artificielle Imane Bello nous fournissent les boussoles pour se repérer dans les débats.
On ne saurait terminer un tel tour d’horizon sans s’interroger sur le rôle des citoyens. C’est pourquoi, pour clore cette première saison, Algorithmique a tendu le micro à Théo Alves da Costa, co-président de Data for Good, à Karl Pineau, co-président de Designers éthiques, et à Valentin Hacault, en charge des formations chez Latitudes. Le but : explorer ce que, concrètement, techniciens et non-spécialistes de la tech peuvent faire pour s’emparer du vaste sujet de débats qu’est l’intelligence artificielle.
Algorithmique a convaincu Framasoft, Dans Les Algorithmes, l’April qui les a tous retranscrits, ou encore #Règle30. À notre avis, cela signifie qu’il a toutes ses chances de vous intéresser aussi.
En plus, si vous vous abonnez à Algorithmique sur votre plateforme de podcast favorite, vous y verrez automatiquement notre prochaine série audio apparaître… d’ici quelques semaines.
Vous avez déjà tout écouté ? Dans ce cas, vous connaissez la musique : parlez-en, faites connaître le podcast autour de vous ! Vous nous aideriez beaucoup !
Après les Box 5G, la 5G StandAlone (5G SA ou 5G+) débarque dans un premier forfait de téléphonie mobile, dans la gamme « pro ». Les avantages sont nombreux pour Orange et proviennent en grande partie des fonctionnalités de la 5G SA. Explications.
Dans un communiqué de presse, Orange annonce « une offre inédite 5G + avec une bande passante dédiée pour ses clients professionnels ». Qu’est-ce que cela veut dire au-delà du discours bien rodé des équipes marketing ?
Nous avons déjà expliqué ce qu’est la 5G+ d’Orange : c’est le nom commercial de la 5G StandAlone (ou 5G SA). Pour rappel, la 5G utilisait à son lancement et durant ces dernières années un cœur de réseau 4G pour fonctionner, d’où son appellation technique de 5G Non StandAlone.
Orange remet donc le couvert aujourd’hui avec son forfait Performance série spéciale 5G+. Passons rapidement sur ses caractéristiques qui n’ont rien de particulier : 350 Go de data, appels et SMS/MMS illimités pour 79 euros HT par mois, sans engagement.
Orange reprend les poncifs habituels de la 5G : hausse des débits et baisse de la latence. Mais la 5G+ apporte aussi des nouveautés intéressantes, notamment la technologie la technologie VoNR (Voice over New Radio). Ainsi, la « connexion data est maintenue en 5G lors d’un appel voix ». Avant, la data repassait en 4G lors d’un appel avec VoLTE et en 3G dans le cas contraire.
Orange met aussi en avant « une sécurisation accrue des données sensibles grâce au chiffrement natif des identifiants IMSI et à l’authentification renforcée des utilisateurs sur le réseau ». Nous avons voulu télécharger la fiche tarifaire et la description du service indiqués sur cette page afin d’avoir de plus amples informations, mais les liens sont cassés.
Orange met en avant des débits de 1,5 Gb/s… inférieurs à ceux de la 5G
Comme chez Free, la 5G SA est uniquement disponible sur la bande des 3,5 GHz, dont le « déploiement [est] en cours ». Le débit maximum annoncé par Orange est de 1,5 Gb/s en téléchargement avec l’agrégation de la bande des 700 Mhz en 4G, et de 200 Mb/s en émission.
Selon le propre site d’Orange, la 5G+ fait donc moins bien que la 5G en débit théorique. En effet, en 5G le débit maximum théorique en réception est de 2,1 Gbit/s selon Orange. En émission, c’est la même chose avec 200 Mb/s dans les deux cas.
Cette quoi cette « bande passante dédiée » ? Du slicing…
Orange revient à plusieurs reprises sur la notion de bande « prioritaire » : « Au travers d’une bande passante dédiée Premium, le client bénéficie d’une qualité de service différenciée sur le réseau mobile Orange. Ainsi, même en cas de forte utilisation du réseau mobile, ses débits sont préservés ».
« Lors des évènements : Pour les services de billetterie ou les solutions de paiement, la bande passante dédiée permet une connexion stable et assure la fluidité des opérations », ajoute l’opérateur en guise d’exemple.
Là encore, il s’agit d’une dénomination commerciale d’une technologie bien connue de la 5G : le network-slicing. Elle permet de découper le réseau en « en plusieurs sous-réseaux, que l’on appelle des tranches, ou “slices” en anglais », explique Orange.
Les usagers sur une tranche sont d’une certaine manière isolés de ceux d’une autre tranche. Les clients d’un forfait 5G+ peuvent ainsi profiter d’une tranche rien que pour eux eux en 5G SA, tandis que les autres se partagent une autre tranche. Une surcharge sur la seconde tranche ne devrait pas avoir d’impact sur la première.
Sur cette page dédiée au network-slicing, Orange rappelle que « tout ceci était déjà possible avec la 4G d’un point de vue technique », mais la 5G apporte « une vraie valeur ajoutée » grâce « à une architecture réseau virtualisée ». SFR d’ailleurs, proposait pendant un temps des forfaits 4G avec « internet mobile prioritaire ». Ils permettaient, « en cas d’affluence » d’avoir un « débit généralement plus rapide que celui des utilisateurs du réseau SFR non détenteurs du service ». C’était il y a maintenant 10 ans, en 2015.
Orange ne précise pas quand de nouveaux forfaits 5G+ seront disponibles ni si cette technologie sera proposé au grand public dans un proche avenir.
Plus de mille sites découverts en quelques mois, et sans doute beaucoup d’autres, encore dissimulés ou en gestation. L’enquête au long cours publiée cette semaine par Next révèle que le phénomène des contenus bas de gamme générés par IA a déjà pris des proportions significatives sur le Web francophone. Si beaucoup de ces sites automatisés grâce à l’intelligence artificielle ne servent que des intérêts bassement mercantiles, leur prolifération soulève de réelles questions économiques, sociales et politiques.
Au départ, il y avait quelques articles trop mal écrits pour être honnêtes qui passaient de journaliste en journaliste : « Haha, regarde ces c*ns, ils n’ont même pas pensé à enlever les éléments de prise en compte du prompt ». Début 2025, la blague a depuis longtemps viré au comique de répétition. Du genre bien lourd, le comique.
Après tout, pourquoi pas ? Depuis la sortie de ChatGPT, en novembre 2022, la plupart des rédactions s’interrogent – avec plus ou moins de bonne volonté – sur la façon d’intégrer les possibilités offertes par l’intelligence artificielle générative dans leurs pratiques. Toutes celles qui communiquent publiquement sur leurs travaux convergent vers une même approche : l’utilisation de l’IA n’est pas exclue, et peut même se révéler souhaitable, dès lors qu’elle est encadrée par un humain, et que ses productions sont supervisées (comme chez les développeurs d’ailleurs, ainsi que nous l’expliquait Marie-Alice Blette). Chez Next aussi, on l’utilise (notre comparateur d’offres d‘électricité par exemple) : c’est une bonne aide, mais ce n’est pas elle qui est aux commandes.
L’armada de sites générés par IA dont il est question dans notre enquête ne répond pas à ce prérequis. Tous ces sites ont précisément été détectés parce que certains de leurs articles présentent des « artefacts » qui témoignent d’une génération automatisée sans réelle supervision : hallucinations flagrantes, sites capables de publier plusieurs centaines de nouveaux articles par jour, citations déformées, contresens manifestes, etc.
Dans la suite de notre enquête, nous vous montrerons qu’il suffit d’une poignée d’heures et de quelques lignes de code pour créer un site GenAI. Nous verrons aussi comment beaucoup de ces sites servent les intérêts de professionnels du référencement, qui les utilisent pour créer des univers sémantiques et des renvois de liens, éventuellement vendus à des tiers, pour doper la visibilité de business bien réels cette fois.
Souvent, il suffit de quelques clés de lecture pour détecter un site manifestement alimenté par une IA sans supervision. Mais il arrive aussi que l’exercice se révèle plus délicat. Par exemple, quand le site en question se dissimule derrière une marque média qui a eu, un temps, pignon sur rue. Ou quand les contenus produits à peu de frais s’intercalent entre des articles éditoriaux écrits par des humains. Le milieu des « éditeurs assistés par IA » monte d’ailleurs rapidement en compétences, notamment parce qu’il faut prévenir les éventuels outils de détection que pourrait mettre en place Google…
Après tout, pourquoi pas ? Des éditeurs ou des agences Web bricolent des sites grâce aux outils du moment, ils automatisaient déjà la production de contenus bien avant ChatGPT et ça leur permet de gagner leur vie : tant mieux pour eux ?
« Well, that escalated quickly »
Le problème, c’est que ces contenus générés par IA ne s’embarrassent souvent ni de véracité, ni de légalité. Plusieurs des sites identifiés dans le cadre de notre enquête plagient ainsi, de façon peu discrète, les médias qui leur servent de source. L’automatisation leur permet de le faire à une échelle industrielle, à peu de frais.
Dans une tribune parue jeudi, les grandes organisations professionnelles du monde des médias appellent le gouvernement à profiter du sommet sur l’IA, organisé cette semaine à Paris, pour « garantir la fiabilité de l’information à l’heure de l’IA Générative ». Ils demandent pour ce faire que les grands acteurs de l’IA respectent le choix des éditeurs quant à l’utilisation de leurs contenus, que la traçabilité des sources soit garantie et que les droits d’exploitation des contenus soient acquittés.
En attendant que les grands noms de l’IA acceptent, ou non, de se plier à d’éventuelles règles à ce sujet, il existe un préjudice plus immédiat, qui nous affecte tous : la pollution.
Elle attaque déjà directement les médias. Outre l’utilisation indue de leur propriété intellectuelle, ceux-ci courent ainsi le risque de voir une partie de leurs audiences, et donc de leur modèle économique, phagocytée par ces nouveaux venus automatisés.
Sur certains sujets, elle menace aussi les individus. Souvenez-vous de l’IA qui suggérait de mettre de la colle sur une pizza ou dans un sandwich. Imaginez maintenant que des sites, dédiés à la santé par exemple, multiplient les conseils à plus ou moins bon escient sur la base d’informations mal digérées, uniquement parce que la niche se révèle lucrative sur le plan publicitaire ?
Cette pollution fait enfin peser un risque social et sociétal, dont l’existence a été avérée à de multiples reprises ces derniers mois : la capacité à produire rapidement, massivement et à peu de frais des sites ayant l’apparence de médias légitimes a déjà ouvert la voie à des campagnes de manipulation de l’opinion.
Elle revêt cependant une importance cruciale en ces temps où l’actualité se révèle particulièrement outrancière. Impossible ici de ne pas faire allusion aux déclarations récentes de Donald Trump qui, en seulement quelques jours, a manifesté sa volonté de prendre le contrôle du détroit de Panama, du Groenland, du Canada et de la bande de Gaza. Dans le monde entier, les médias crient au délire, et soupèsent pourtant très sérieusement la faisabilité des différents projets. La bande de Gaza en nouvelle Riviera du Moyen-Orient, l’hypothèse vous parait-elle plausible ?
Ce n’est peut-être pas la bonne question à se poser, comme nous le rappelle un certain Steve Bannon, figure emblématique des milieux conservateurs populistes nationaux et ancien « conseiller stratégique » de Donald Trump. Le 31 janvier dernier, il se goberge, au micro du New York Times. Pour lui, les discours récents de Trump sont la mise en pratique, enfin aboutie, du mode opératoire qu’il préconisait au président des États-Unis lors de son premier mandat : « The real opposition is the media. And the way to deal with them is to flood the zone with shit ».
En termes fleuris, il expliquait alors à Trump qu’il ne fallait pas redouter le camp démocrate, mais les médias, et que le meilleur moyen de se débarrasser de ces derniers était – pardonnez ma vulgarité, qui n’est que le reflet de celle de Bannon – de les inonder de merde… Autrement dit, de générer du bruit. Tellement de bruit que l’on finit par créer un phénomène d’assourdissement ou de sidération permettant soit d’occulter les vrais problèmes, soit de concentrer l’attention de ses adversaires sur les sujets de son choix.
Quel plus bel outil que l’IA pour nourrir cet objectif ? On assiste aujourd’hui à un croisement entre performances des outils grand public, accessibilité financière et tensions politiques exacerbées qui laisse augurer d’innombrables usages malveillants.
Éduquer, informer, créer de la confiance
Signer avec OpenAI pour toucher des droits voisins sur l’entraînement des grands modèles de langage, c’est bien, mais ça n’empêchera pas une agence Web, une agence d’influence ou un simple geek dans son coin de copier-coller des articles, ou un flux RSS, et de l’injecter dans une série de grands modèles de langage pour obtenir une infinité de réécritures de moins en moins détectables, et éventuellement orientées.
On entend depuis des années que les médias doivent cultiver leur image de marque, et le lien direct avec leur lectorat, pour limiter la dépendance aux moteurs de recherche ou aux réseaux sociaux, et ainsi tenter de préserver leur modèle économique. La GenAI souligne et renforce encore le caractère impérieux de cette relation de confiance entre médias et lecteurs, parce qu’elle permet d’amplifier, à peu de frais et à grande échelle, le bruit ambiant. J’évoque l’argument économique, parce qu’il fait généralement mouche assez facilement, mais l’enjeu dépasse de loin la question des équilibres financiers : il ramène à la place que doivent occuper les médias d’information dans la société.
Quand Jean-Marc a débuté son enquête, il y a près d’un an, il aurait été facile de publier rapidement un petit tour d’horizon témoignant d’un épiphénomène. Pourtant, il a soutenu, mordicus, que le sujet méritait d’aller plus en profondeur, convaincu qu’il ne s’agissait pas que de « cinq gus dans un garage », comme disait une ancienne ministre. En dépit de notre modeste équipe (six journalistes, un dessinateur), Next a fait le choix de suivre son intuition, parce que nous pressentions que cette enquête allait se révéler nécessaire.
Le Sommet qui s’ouvre à Paris dira si et comment politiques et industriels de l’IA parviennent à converger vers un cadre commun. En attendant et sans parti pris, il nous semble important d’informer et de sensibiliser le plus largement possible, parce que le sujet touche à des valeurs qui nous sont chères. C’est la raison pour laquelle nous avons souhaité donner une dimension collaborative à cette enquête, en partageant nos trouvailles avec d’autres médias, dont Libération. C’est aussi la raison pour laquelle nous avons développé une extension dédiée, dont on espère qu’elle aidera le grand public à prendre conscience de la nécessité de systématiquement vérifier la qualité de la source d’une information.
Le Kremlin a annoncé avoir relevé de ses fonctions le directeur général de l’agence spatiale russe Roscosmos, Yury Borisov. Dans un autre message publié sur son site officiel russe, Moscou explique que c’est Dmitry Bakanov qui le remplace.
Cet été, le premier directeur général adjoint de l’agence, Andreï Elchaninov, cité par l’agence de presse Interfax déclarait que « le refus des contrats par des Etats hostiles (occidentaux, ndlr) a coûté 180 milliards de roubles à Roscosmos ». Rappelons que, suite à l’invasion de l’Ukraine par la Russie, la coopération spatiale a été arrêté entre les occidentaux et le pays dirigé par Vladimir Poutine.
La décision était attendue de pied ferme, elle est désormais là : la fibre Sosh passe d’un débit symétrique de 400 Mb/s à 1 Gb/s en téléchargement et 800 Mb/s en envoi.
Cette hausse des débits est automatique pour les nouveaux clients. Pour les personnes déjà abonnées, elle sera répercutée par vagues à compter du 10 février, la transition devant s’étaler jusqu’à la mi-avril, précise Sosh dans son annonce, tout juste publiée. Un e-mail sera envoyé pour prévenir que le compte a été mis à jour avec les nouveaux débits.
Dans sa communication, Sosh n’hésite pas à en faire des caisses. En plus d’évoquer une vitesse améliorée et une plus grande facilité lors des connexions multiples à la même connexion, le fournisseur d’accès va jusqu’à parler d’une latence réduite et d’une meilleure stabilité de la connexion.
« Dites adieu aux moments de suspense où l’image se fige pendant que vous regardez votre série préférée. Avec ce nouveau débit, profitez d’un streaming plus fluide et sans coupure ! », déclare ainsi Sosh. Pas certain qu’un streaming soit coupé par une connexion à 400 Mb/s, très au-delà des prérequis. Voici par exemple les vitesses de connexion recommandées par Netflix selon la qualité souhaitée :
En outre, même s’il s’agit bien sûr d’une très bonne nouvelle pour les abonnés (d’autant que le tarif ne change pas), Sosh ne fait que s’aligner sur la concurrence. RED et Bouygues proposent déjà des offres fibre 1 Gb/s ou même plus. Chez le premier, le débit 1 Gb/s est ainsi symétrique pour un tarif de 23,99 euros. À ce tarif, Bouygues propose même son offre B&YOU PureFibre avec des débits allant jusqu’à 8 Gb/s en téléchargement et 1 Gb/s en envoi. La box fournie est équipée en Wi-Fi 6E, là où Sosh et RED ne proposent encore que du Wi-Fi 5.
Amnesty International, la Ligue des droits de l’homme, Vox Public, Féministes contre le cyberharcèlement et une centaine d’autres organisations non gouvernementales appellent, à l’occasion du Sommet pour l’action sur l’IA, à mettre les droits humains et la justice environnementale au centre de travaux de régulation de l’intelligence artificielle.
« Telle qu’elle est développée » écrivent-ils dans une tribune parue dans Le Monde, l’IA « aggrave les inégalités, détruit la planète et alimente un système d’exploitation global ».
Hanna Barakat + AIxDESIGN & Archival Images of AI / Better Images of AI / Frontier Models 1 / CC-BY 4.0
« Se concentrer uniquement sur d’éventuels futurs risques existentiels à venir de l’IA est un leurre », argumentent-elles encore. Elles citent les effets « très concrets » sur les populations les plus vulnérables qu’ont eu les dysfonctionnements des systèmes algorithmiques utilisés dans diversservicespublics européens, les algorithmes de prédiction de risque de récidive surcatégorisant les personnes noires aux États-Unis, ou encore les systèmes automatisés utilisés par l’armée israélienne pour sélectionner des cibles gazaouies.
Les associations signataires rappellent qu’en parallèle du développement de ces outils, les émissions des grands acteurs de la tech ont augmenté, tirées par l’explosion de l’intelligence artificielle générative, tandis que les activités d’extraction se perpétuent avant tout dans les pays du Sud.
« Nos gouvernements ne cessent de parler de souveraineté de l’IA, mais les défis posés par ces systèmes transcendent les frontières » affirment les associations. Elles appellent à permettre à chacun de « pouvoir choisir la direction de ses développements, quitte à les refuser s’ils ne correspondent pas à notre projet de société ».
Next a identifié plus de 1 000 sites d’information utilisant plus ou moins massivement l’intelligence artificielle pour générer des articles censés avoir été écrits par des journalistes, soulevant des questions quant à la qualité des informations. Pour vous donner un maximum de cartes en mains, nous vous proposons une extension pour Chrome et Firefox permettant d’être alertés lorsque vous visitez un tel site.
Mise à jour du 8 février 10h30 : l’extension a été validée par les équipes du Chrome Web Store, elle est désormais disponible pour Chrome et les navigatgeurs Chromium. Le lien a été ajouté dans l’actualité.
Article original du 6 février 9h47 : Dans une très longue enquête, notre journaliste Jean-Marc Manach explique comment il a découvert plus de 1 000 sites d’information francophones utilisant l’intelligence artificielle pour publier et/ou traduire des articles.
Preuve s’il en est besoin de l’ampleur du phénomène, on en retrouve même dans Google Actualités. Nous y reviendrons dans les jours à venir, avec d’autres articles consacrés aux « hallucinations » et « infox » relayées par ces articles GenAI, ceux reposant sur du plagiat, ou parasitant la presse régionale.
Nous avons décidé de développer une extension maison pour navigateur avec l’aide d’une IA (Claude.ai) et d’un développeur de chez moji (Hezirel, sur son temps libre, merci à lui !). Son but : vous prévenir lorsque vous visitez un site de notre liste de surveillance.
Le fonctionnement est on ne peut plus simple : l’extension tourne en tâche de fond et affiche un pop-up en cas d’alerte, avec le message suivant : « D’après les constatations (humaines) de Next.ink, des articles de ce site semblent avoir été (en tout ou partie) générés par IA ».
Détection sur le domaine
La détection se fait sur la base du nom de domaine, pas de chaque page individuellement. Un signalement ne veut donc pas forcément dire que l’article en question est généré à l’aide d’une IA, mais qu’on en retrouve sur ce nom de domaine.
En cliquant sur le bouton de l’extension, vous retrouverez la grille de lecture (liste non cumulative, ni exhaustive) nous ayant permis de détecter les sites d’info contenant des articles qui semblent avoir été (en tout ou partie) générés par IA :
Ils ont recours à des expressions, patterns ou hallucinations typiques des contenus GenAI,
sont signés de journalistes qui n’existent pas et/ou dont l’hyperproductivité est inhumaine,
ne sont que des traductions et/ou paraphrases d’autres articles (mais sans les mentionner),
ont recours à des images générées par IA ne correspondant pas aux critères journalistiques,
alignent des poncifs lénifiants ou moralisants plutôt que de présenter et recouper des faits,
ont été publiés sur un site sans mention légale (ou fictive) et sans directeur de publication,
usurpent la réputation de « noms de domaine expirés » pour cibler Google News & Discover,
s’apparentent plus à des contenus optimisés pour le SEO qu’à des articles journalistiques.
Suivez un des liens ci-dessous, ajoutez l’extension à votre navigateur et c’est terminé. L’extension tourne en tâche de fond. Elle est disponible sur les boutiques officielles de Chrome (compatible avec les navigateurs basés sur Chromium) et Firefox.
Depuis le début de notre enquête (il y a plusieurs mois) et face à l’ampleur du phénomène, l’idée d’une extension pour les navigateurs s’est imposée. Avec plusieurs centaines de sites référencés, on ne peut pas vérifier manuellement la liste chaque fois que l’on visite un nouveau site.
J’ai quelques connaissances en développement, je comprends donc bien la logique algorithmique. Je suis aussi capable de suivre le déroulement d’un programme, d’adapter et vérifier le code (sur du code simple comme c’est le cas ici). À l’époque de l’IA générative, je me suis donc appuyé sur cette dernière pour développer les grandes lignes de ce projet. Claude.ai a été mis à contribution et, en une soirée à peine, j’avais déjà une première version de l’extension fonctionnelle.
Nous l’avons améliorée au fil du temps, avec notamment la possibilité de nous signaler des sites. Il suffit de cliquer sur l’icône pour faire apparaitre un menu avec l’URL du site prérempli (libre à vous de la modifier), un menu pour la catégorie et un champ description (deux champs optionnels). Cliquez sur « Signaler ce site » et ces informations seront ensuite récupérées par un serveur et stockées dans une base de données que nous pouvons consulter.
Aucune autre information n’est envoyée, mais vous pouvez ajouter des précisions et/ou un email dans le champ description si besoin. Avec Hezirel, nous avons travaillé à obfusquer la base de données des URL et optimiser le code (en partant de ce que j’ai produit avec Claude.ai, il a donc fait ce qu’il a pu dans un temps contraint), pour arriver à la version proposée actuellement.
Flock s’est occupé des petites icônes, mais avec des images de 128 x 128 pixels au maximum, son talent ne pouvait guère s’exprimer. Cette extension est donc le fruit d’un travail d’équipe, mais vous pouvez quand même apprécier le Go Go gadget-au-chapeau en tête d’article.
Des bugs peuvent arriver (et arriveront surement), n’hésitez donc pas à nous les signaler. Même chose si vous avez des idées de fonctionnalités intéressantes à ajouter. Nous lirons vos retours et vos commentaires avec intérêt.
L’accès anticipé permet à des éditeurs ou même à des développeurs indépendants de publier un jeu sur Steam avant qu’il soit terminé. Le mécanisme permet le financement du reste du projet, mais obéit – normalement – à certaines règles, dont une fréquence correcte dans les mises à jour et les communications aux joueurs.
Mais à l’instar des campagnes de financement participatif, il y a des ratés. Certains éditeurs abandonnent leurs projets ou considèrent que leur devoir est rempli, occasionnant colère et frustration chez les joueurs.
Steam a donc décidé de prendre un peu plus le problème en main. Désormais, quand la page d’un jeu est inactive depuis trop longtemps, un message est ajouté pour prévenir les joueurs.
Sur la fiche de BattleBit Remastered par exemple, on peut lire : « Remarque : la dernière mise à jour a été publiée par l’équipe de développement il y a 13 mois. Les informations et le calendrier présentés ici peuvent être obsolètes ».
Même chose sur la fiche de Cavern Kings, la dernière mise à jour datant de 8 ans. À la décharge de l’éditeur (VINE), il est précisé plus bas dans la fiche que le développement a effectivement été abandonné, mais l’avertissement de Steam est autrement visible. Le message apparait en effet dans une couleur orangée qui tranche avec le fond bleu nuit du site, à l’intérieur du cadre signalant qu’il s’agit d’un accès anticipé.
Steam n’a pas encore communiqué officiellement sur ces ajouts, mais Eurogamer et PC Gamer ont signalé que la fonction avait d’abord été repérée par SteamDB. Ce dernier propose d’ailleurs une extension pour navigateur permettant d’afficher automatiquement la dernière date de mise à jour pour un jeu en allant sur sa fiche).
On ne sait pas précisément au bout de combien de temps d’inactivité le message s’affiche, même s’il semble que la période minimale soit d’un an. Il est possible que Steam soit en train de tester cet avertissement pour récoler des retours.
Next a identifié plus de 1 000 sites web d’information francophones faisant croire que leurs articles sont écrits par des journalistes ou des experts en la matière. Ils sont en fait générés et/ou traduitspar des IA, sans le mentionner. Au moins une centaine reposent sur du plagiat, et près de 150 étaient mentionnés comme sources sur Wikipédia. Vu l’ampleur du problème, nous avons proposé au service de fact-checking CheckNews de Libération de nous aider à enquêter sur ce qui s’apparente à une véritable « pollution » numérique et médiatique. Premier volet de notre enquête.
La société NewsGuard évalue « tous les sites d’information et d’actualité (plus de 7 500 sites) dont les contenus représentent 95 % de l’engagement avec l’actualité en ligne aux États-Unis, au Royaume-Uni, au Canada, en France, en Allemagne et en Italie ».
Son observatoire de suivi de la mésinformation facilitée par l’IA répertorie par ailleurs 1 150 « sites d’actualité non fiables générés par l’IA » (GenAI ou « UAINS », pour « Unreliable AI-generated News Sites » en anglais), contre seulement 49 lorsqu’elle avait commencé à les recenser, en mai 2023.
NewsGuard souligne que « ces sites portent généralement des noms génériques […] qui ressemblent pour le lecteur à des sites d’actualité classiques » :
« Dans de nombreux cas, le modèle économique de ces sites repose sur la publicité programmatique – des publicités placées de manière algorithmique par les sociétés d’ad-tech sans se soucier de la nature ou de la qualité des sites. Par conséquent, des grandes marques soutiennent ces sites involontairement. »
Or, leurs articles « contiennent parfois de fausses affirmations, telles que des infox sur la mort de célébrités, des événements fabriqués de toutes pièces et des articles présentant des événements anciens comme s’ils venaient de se produire ».
Accessible sur abonnement, sa liste de sites GenAI, établie par près de 15 fact-checkers, concerne 16 langues. Contactée par CheckNews, la société précise que sa base de données ne contiendrait qu’une vingtaine de sites en français.
Next en a de son côté identifié plus de 1 000, rien qu’en français. Et nous avons de bonnes raisons de penser qu’il en existerait plusieurs milliers, au vu du nombre de professionnels qui ont industrialisé la production de sites d’informations générés par IA. Nous avons en effet identifié une centaine de ces pros de l’info GenAI, sans pouvoir mesurer combien de dizaines (voire de centaines) d’autres se seraient lancés dans ce douteux (mais lucratif) « business ».
Signe de l’ampleur du problème et de son inflation, cette sous-estimation (tant dans les chiffres de NewsGuard que les nôtres) semble indiquer que nous serions débordés par le phénomène, qui s’apparente à une véritable « pollution » numérique et médiatique.
Une pollution quasi invisible, puisque personne ou presque ne semblait l’avoir identifiée jusque-là. En tout cas, pas à ce point.
Une « forme hybride de plagiat » facilitée, voire générée par IA
Mi-octobre, Olivier Marino, directeur adjoint des rédactions du groupe Nice Matin, déplorait sur LinkedIn une « forme hybride de plagiat » facilitée, voire générée par l’IA. Un « média d’information et d’actualité », situé lui aussi dans le Var, publie en effet des articles « sur des histoires où nous étions parfois le seul média présent ». Ce média reprend à son compte les informations recueillies par les journalistes de Nice Matin, mais « sans source, ni lien ».
L’analyse d’un échantillon de 46 articles, effectuée par une start-up spécialisée dans la détection de contenus générés par IA, « a pu déterminer que 32 d’entre eux avaient été – selon son outil – générés via de l’IA reprenant les informations de Var-matin, mais aussi d’autres médias locaux ».
En réponse, 60 millions de consommateurs, « média sans publicité commerciale et ne vivant que de ses ventes », déplorait que ses articles étaient « très rapidement plagiés et republiés depuis des années sur des sites web truffés de pub et en accès gratuit ». Surtout ses essais comparatifs, « particulièrement coûteux à réaliser, dont l’intégralité des résultats est souvent ainsi diffusée gratuitement » :
« Jusque-là, il s’agissait surtout de réécritures « manuelles » sur les sites web de « vrais » groupes de presse (notamment un dont le nom commence par « Re »). Mais on commence à voir désormais des reprises de nos articles par des sites inconnus au bataillon, vraisemblablement rédigées par de pures IA, et très très bien classés chez Google. La presse locale est donc loin d’être la seule concernée. »
Nous avons alors répondu que nous nous apprêtions à publier une enquête à ce sujet, « ayant identifié plus de 100 sites en français se faisant passer pour des sites d’informations reposant sur le travail de journalistes, mais qui sont en fait générés par des IA, dont près de 30 reposent sur du plagiat (majoritairement d’articles étrangers, traduits en français) ».
Compte tenu du nombre d’acteurs impliqués, de médias parasités voire plagiés, et des nombreuses questions (déontologiques, juridiques, légales, médiatiques, financières, notamment) que cette prolifération de sites d’info GenAI soulève, nous avons depuis proposé au service CheckNews de fact-checking de Libération d’enquêter avec nous à ce sujet (voir leur enquête).
De 100 à plus de 1 000 sites GenAI en quelques mois seulement
Le phénomène s’est, en effet, révélé d’une ampleur nettement supérieure à ce que nous anticipions. Fin octobre (soit 15 jours après notre commentaire sur LinkedIn), lorsque nous avons contacté Libé, notre recension était passée à 270 sites d’info GenAI. Le cap des 500 a été franchi à la veille de Noël, celui des 800 mi-janvier.
Entamée il y a près d’un an, notre enquête nous a depuis permis d’en identifier plus de 1 000, soit près de 750 de plus en seulement trois mois, dont une centaine au moins relevant du plagiat (nous y reviendrons dans un prochain article). Ce n’est pas tant que le phénomène serait en pleine expansion (une bonne partie de ces sites existent depuis des mois, voire des années), mais parce que nous avons affiné nos méthodes de détection.
La consultation des 28 pages de réponses, sur Google Actualités, à la requête « je suis désolé, mais je ne peux pas » (l’un des messages d’erreur bien connus liés à ChatGPT et ses avatars) était éloquente. Nous y avons découvert une quinzaine de sites d’infos GenAI qui, eux-mêmes, nous ont permis d’en identifier près de 250 autres, liés d’une manière ou d’une autre à leurs éditeurs respectifs. Ce, en moins d’une journée.
Nous revenons plus en détails sur les tactiques et procédures permettant de reconnaître les sites GenAI dans un second article dédié. Nous ne saurions par ailleurs que trop vous conseiller d’installer l’extension pour navigateur que nous avons développée afin d’alerter ses utilisateurs lorsqu’ils consultent un site dont les articles ont été, en tout ou partie, générés par IA.
S’il était prévisible que des pirates de l’info se saisissent des IA génératives pour développer de tels médias, il est par contre incompréhensible que la plupart de ces sites, référencés depuis des mois ou des années sur Google Actualités, n’en aient toujours pas été exclus, plus de deux ans après le lancement de ChatGPT puis de ses avatars.
Le SEO est-il mort ?
En janvier 2023, deux mois seulement après le lancement de ChatGPT, nous écrivions en effet que la démocratisation des intelligences artificielles génératives allait « faciliter la production d’éléments textuels assez banals, surtout destinées à booster son référencement sur Google ». Cela posait de « nouveaux risques » en matière d’accès à l’information.
Un an plus tard, le SEO est toujours là, mais l’IA a changé la donne : par son intermédiaire, des éditeurs inondent Google Actualités de prétendus sites d’information et d’articles GenAI.
Non contents de piller à bas coûts les articles de médias rémunérant leurs journalistes, ils privent leurs rédactions des revenus publicitaires qu’ils auraient pu engendrer si les internautes avaient lu les articles originaux, et non leurs plagiats générés par IA.
Une centaine de pros du SEO responsables des 3/4 de ces 1 000 sites GenAI
Une bonne partie de ces 1 000 sites sont répertoriés par Google Actualités ou cherchent à l’être (soulignant, comme s’il s’agissait d’une caution, qu’ils y ont été « approuvés »). Pourtant, leurs articles se bornent à utiliser des IA pour identifier, traduire en français, voire copier-coller de façon automatisée des articles émanant de journalistes. Ces derniers ne sont jamais mentionnés, et leurs sources quasiment jamais citées.
Non content d’induire leurs lecteurs en erreur en leur faisant croire que les informations relayées ont été vérifiées par des journalistes, ces sites GenAI vont jusqu’à relayer des informations « hallucinées » par leurs IA, donc erronées. Nous y reviendrons, dans un article à paraître sur ces « hallucinations ».
Nous avons aussi identifié environ 90 (auto-)entreprises responsables de plus des trois quarts de ces sites, dont l’écrasante majorité émanent de professionnels du SEO. Plus de 50 d’entre elles administrent au moins cinq sites GenAI, plus de 30 dix sites ou plus, 10 plus de 20, cinq plus de 30 et deux plus de 90 (au moins).
Y figurent aussi cinq entreprises se présentant comme des médias ou groupes de presse, supposées employer des journalistes (nous y reviendrons également). De nombreux sites prodiguent des conseils en matière de high-tech, de finance (notamment en termes de « cryptoactifs », d’assurance-vie, retraite ou d’ETF), de démarches administratives, de bien-être et même de santé, jusqu’à prodiguer des… « avis médicaux » (nous y reviendrons aussi).
Environ 250 sites GenAI (soit le quart de ceux que nous avons identifiés) ne fournissent, a contrario, aucune mention légale permettant d’identifier leurs responsables, en violation de la loi. Dans certains cas, ils mentionnent même des informations fictives.
S’il est impossible de savoir combien de médias sont générés par des IA, ces 1 000 et quelques sites GenAI ne sont vraisemblablement que la partie émergée de l’iceberg de ces faussaires qui polluent le web en général, et Google Actualités en particulier.
Près de 50 % des sites GenAI étaient mentionnés dans Wikipédia
Plusieurs de ces sites apparaissent régulièrement sur Discover, l’IA de Google qui met en avant des articles d’actualité sur l’application Google mobile. À tel point qu’il arrive que deux des 15 - 20 articles qui y sont mis en avant chaque jour renvoient à des sites GenAI, contribuant à alimenter le robinet à pollution (nous y reviendrons).
Plus inquiétant : sur les 327 sites que nous avions partagés en novembre avec un administrateur et une contributrice émérite de Wikipédia, tous deux habitués à y détecter les « faux nez », 14 avaient déjà été identifiés lors des enquêtes menées à l’été 2022 sur les caviardages orchestrés par la société Avisa Partners sur l’encyclopédie collaborative, et 150 étaient mentionnés dans l’encyclopédie, soit plus de la moitié.
À lui seul, ce chiffre montre que les contenus GenAI ne sont pas forcément « bas de gamme », puisqu’ils parviennent à induire en erreur des contributeurs de Wikipédia. La vérification d’un échantillon aléatoire de contributions mentionnant ces sites GenAI a d’ailleurs permis de constater que les ajouts avaient, dans la majeure partie des cas, été faits « de bonne foi ».
Plus inquiétant : les deux fact-checkers de Wikipédia ont découvert que ces mentions étaient « souvent l’œuvre de contributeurs expérimentés, voire très expérimentés, y compris lorsqu’il s’agit de sites de très mauvaise qualité (pas d’auteurs, pas de mentions légales, traduction automatique manifeste, etc.) ».
Après avoir examiné chacun des 150 sites, ils avaient pu confirmer que 105 recouraient à l’IA pour la rédaction de textes, et 65 au plagiat (avec ou sans traduction, ou reformulation par IA). Les deux fact-checkers de l’encyclopédie en fournissent le compte-rendu détaillé, avec la liste des 148 sites examinés.
81 n’avaient en outre pas de mentions légales, ou des mentions mensongères, avec des auteurs fictifs. 51 avaient été « vampirisés » après le rachat de leur nom de domaine (et alors qu’ils constituaient jusque-là des sources acceptables), 18 ayant été utilisés pour effectuer des « modifications promotionnelles » sur l’encyclopédie, et 7 pour y faire du spam.
Nous leur avons depuis transmis à la liste des 1 066 sites GenAI identifiés à ce jour : 443 sont mentionnés comme « sources » et notes de bas de page sur Wikipédia, soit plus de 40 % du total. La liste de ces noms de domaine va désormais permettre aux contributeurs de l’encyclopédie de vérifier combien peuvent légitimement continuer à y figurer, ou pas (nous y reviendrons).
Une extension web pour identifier les sites (en tout ou partie) GenAI
Nous avons aussi découvert que 29 de ces 1 000 sites GenAI figurent dans le classement SimilarWeb des 1 000 sites d’éditeurs d’actualités et médias les plus visités en France. 17 figurent même dans le Top 500 et 3 dans le Top 100. 19 d’entre eux font aussi partie de la centaine de sites reposant en tout ou partie sur du plagiat (nous y reviendrons).
« La capacité de générer en masse de tels contenus est un désastre pour notre système informationnel », déplorait Ioana Manolescu, chercheuse en informatique à Inria et professeure à l’école Polytechnique, dans une enquête du Figaro consacrée à la « pollution numérique » constituée par la déferlante de contenus visuels (images et vidéos) GenAI :
« Un terme est en train de s’imposer pour les désigner : le « AI Slop », slop étant dans la langue anglaise un terme désignant la bouillie industrielle donnée aux cochons. »
« Le slop peut disparaître si les internautes expriment un fort rejet », soulignait-elle. Elle espérait que, à l’instar de ce qui s’est passé pour le spam, les acteurs de la Tech’ allaient travailler de concert pour développer des solutions de filtrage.
Afin d’aider les internautes à éviter ces pièges, Next a développé une extension web (pour Firefox et les navigateurs basés sur Chromium) affichant un message d’alerte sur les sites dont les articles nous semblent avoir, en tout ou partie, été générés par IA.
L’extension permet également à ses utilisateurs de nous envoyer, d’un simple clic, les sites GenAI, de désinformation ou frauduleux que ses utilisateurs auraient identifiés, pour que nous puissions « crowdsourcer » la mise à jour de notre base de données.
En revanche, nous avons ne rendons pas publique l’intégralité de la liste de ces sites, pas plus que celle des entreprises, pour plusieurs raisons. Nous ne voulons pas, d’une part, que cette base de données puisse aider ceux qui voudraient améliorer leurs générateurs d’articles automatisés, et qui se targuent de ne pas être reconnus comme GenAI (nous y reviendrons).
Nous ne voulons pas non plus faire de « name and shame » et mettre sur le même plan des auto-entrepreneurs SEO ayant créé quelques sites de façon opportuniste et les entreprises (y compris individuelles) en ayant créé plusieurs dizaines.
Nous allons toutefois, au fil des nombreux articles que nous allons publier dans les jours à venir au sujet de cette enquête, mentionner quelques sites et entreprises particulièrement emblématiques des problèmes que pose cette pollution.
Des IA pour remplacer les « travailleurs du clic » sous-payés
Tout a commencé lorsque, début 2024, nous avons reçu des « Google Alerts » nous renvoyant à des articles, répertoriés sur Google Actualités, mais émanant de médias inconnus. Ces articles cumulaient plusieurs artefacts et traits caractéristiques des contenus GenAI.
Suite au lancement de ChatGPT et de plusieurs autres IA génératives, nous avions consacré deux articles aux techniques, tactiques et procédures (TTP) pour identifier les textes et images générés par des IA, en mode « deepfakes » (ou hypertrucages).
Nous avons alors commencé à les recenser, cherchant à identifier leurs points communs pour les identifier plus facilement. Nous étions loin, à l’époque, d’imaginer que nous pourrions en découvrir plus de 1 000 rien qu’en français. Pas plus que notre recension artisanale ne représenterait qu’une (toute petite ?) partie d’une véritable pollution médiatique.
La majorité de ces sites GenAI semble émaner de professionnels du SEO, qui rachètent des noms de domaine ayant expiré pour profiter de leur référencement et trafic entrant préexistants. Traditionnellement, ils s’en servent pour produire des articles à la chaîne, soit pour démultiplier le nombre de pages vues, et donc les revenus publicitaires générés par de la publicité, soit pour vendre des liens et articles sponsorisés qui ont pour principal objet d’améliorer le référencement des sites Web de leurs clients, plus que d’informer leurs lecteurs.
Nombre d’entre eux recouraient jusque-là à des « travailleurs du clic », recrutés dans des pays d’Afrique francophone ou à Madagascar, pour disposer d’une main-d’œuvre à bas coût.
Depuis le lancement de ChatGPT et de ses avatars, ils semblent de plus en plus les remplacer par des IA capables de générer, traduire ou plagier des dizaines, voire des centaines d’articles par jour, à un tarif bien moindre ou quasi-nul (nous y reviendrons).
Aucun d’entre eux ou presque ne précise qu’ils ont été générés et illustrés par des « générateurs de baratin », « perroquets stochastiques » qui se contentent d’estimer la probabilité qu’une suite de mots puisse constituer un contenu plausible en réponse à un « prompt ». Ces logiciels ne comprennent pas les écrits et dessins qu’ils « génèrent », ce qui explique qu’ils puissent « halluciner » (ou « confabuler ») des faits et informations.
Des risques de mésinformation et de contrefaçon « assistées par l’IA »
Les conclusions de la mission de l’Arcom sur l’IA, rendues publiques mi-octobre, qualifient ces « médias synthétiques » de médias « du 3ᵉ type », aux côtés des médias éditorialisés (essentiellement humains) et des médias algorithmiques (plateformes en ligne).
Or, déplorait l’Arcom, en confiant à des algorithmes la génération des contenus qu’ils diffusent, « de manière relativement désincarnée » (sans véritables auteurs ou journalistes) et « avec un contrôle humain faible voire inexistant », ces médias ne peuvent proposer qu’une « qualité diminuée par l’IA ». Ce qui soulève plusieurs questions :
« économiques : ces services peuvent venir phagocyter le marché historique des médias éditorialisés ;
qualitatives : la production de contenus à la volée, parfois sans véritable contrôle humain, augmente le risque de mésinformation ou de désinformation ;
juridiques : les médias synthétiques peuvent représenter une forme « contrefaçon assistée par l’IA », tout en profitant d’une limite du régime de responsabilité de jure. »
L’Arcom relevait à ce titre que si « la France et l’Europe ne sont pas un « far west » de l’IA », au vu des règlementations nationales ou internationales en place ou en cours d’adoption, tel n’est pas le cas de ces médias « synthétiques » :
« Les médias synthétiques s’approprient fréquemment les contenus produits par les médias traditionnels puis les reformatent ou les reformulent afin de les rediffuser auprès de leurs propres utilisateurs – à des fins lucratives voire malintentionnées. »
À compter d’août 2026, les contenus GenAI devront être identifiables
Le Règlement européen sur l’IA demande en outre que des « solutions techniques » soient mises en œuvre pour s’assurer du respect du droit d’auteur par les modèles d’IA. Il en va aussi de la traçabilité des contenus générés synthétiquement, à la fois pour permettre la rémunération des auteurs originaux, mais aussi pour assurer la vérification de l’information.
L’Arcom relevait également « un besoin d’harmonisation des différentes technologies proposées pour le suivi des contenus authentiques / synthétiques ». L’AI Act, entré en vigueur le 1ᵉʳ août 2024, mais applicable à partir du 2 août 2026, exige en effet que « les fournisseurs d’IA, y compris de systèmes d’IA à usage général, qui génèrent des contenus de synthèse de type audio, image, vidéo ou texte, veillent à ce que les sorties des systèmes d’IA soient marquées dans un format lisible par machine et identifiables comme ayant été générées ou manipulées par une IA » :
« Il convient d’exiger que les fournisseurs de ces systèmes intègrent des solutions techniques permettant le marquage dans un format lisible par machine et la détection du fait que les sorties ont été générées ou manipulées par un système d’IA, et non par un être humain. »
En outre, souligne l’AI Act, « il convient d’envisager une obligation d’information similaire en ce qui concerne le texte généré ou manipulé par l’IA dans la mesure où celui-ci est publié dans le but d’informer le public sur des questions d’intérêt public, à moins que le contenu généré par l’IA n’ait fait l’objet d’un processus d’examen humain ou de contrôle éditorial et qu’une personne physique ou morale assume la responsabilité éditoriale pour la publication du contenu ».
La mission proposait dès lors que l’Arcom entame des travaux complémentaires dans le but de :
mieux mesurer l’impact potentiel des médias synthétiques, notamment sur le plan économique et en termes de revenus publicitaires ;
étudier au travers d’une analyse pluridisciplinaire comment les textes en vigueur s’appliquent à ces nouveaux services et évaluer les éventuelles limites des régimes de responsabilités qui s’imposent à eux.
Google ne distingue pas les articles journalistiques des contenus GenAI
« Lorsque nous classons un contenu, nous nous concentrons sur sa qualité et non sur la manière dont il a été produit », avait rétorqué un porte-parole de Google à 404 Media. L’entreprise ajoutait que ses systèmes de classement Google News « visent à récompenser le contenu original qui démontre des éléments tels que l’expertise et la fiabilité ».
En février 2023, Google avait en effet annoncé vouloir « récompenser les contenus de haute qualité, quelle que soit la façon dont ils sont produits », et donc même s’ils étaient GenAI.
Le moteur de recherche y rappelait que « l’automatisation est utilisée depuis longtemps pour générer des contenus utiles comme les résultats sportifs, les prévisions météorologiques et les transcriptions ». Il estimait en outre que « l’IA peut permettre de développer de nouveaux niveaux d’expression et de créativité et d’aider les utilisateurs à créer des contenus de qualité pour le Web ».
Google y fournissait même des « conseils pour les créateurs qui envisagent d’utiliser la génération par IA ». « Quelle que soit la façon dont le contenu est créé, les personnes souhaitant réussir sur la recherche Google doivent chercher à produire des contenus originaux, de haute qualité et people-first, présentant les qualités de l’E-E-A-T », indiquait l’entreprise.
Cet acronyme désigne « l’expertise, l’expérience, la légitimité et la fiabilité ». Des valeurs cardinales mises en avant par le moteur de recherche pour y être bien référencé, et que cherchent précisément à déjouer les professionnels du « black hat SEO », notamment pour parvenir à y indexer leurs sites GenAI.
En réponse à la question « Dois-je ajouter des mentions concernant l’IA ou l’automatisation à mon contenu ? », la FAQ indique que « les mentions liées à l’IA ou à l’automatisation sont utiles pour les contenus pour lesquels quelqu’un pourrait se demander comment ce contenu a été créé ». Elle conseille d’en « ajouter là où le lecteur pourrait raisonnablement s’y attendre ». Ce que ne font quasiment aucun des 1 000 sites GenAI que nous avons identifiés.
« Le contenu généré automatiquement et produit principalement à des fins de classement est considéré comme du spam, et nous prenons les mesures qui s’imposent en vertu de nos règles », avait pourtant précisé le porte-parole de Google à 404 Media.
Les réponses de Google
Contacté mi-octobre, et relancé depuis (plusieurs fois), Google a fini par répondre à CheckNews… fin janvier. Nous rétorquant que « plusieurs sites que vous nous avez partagés n’apparaissent plus dans Google Actualités » (sans préciser lesquels), le service de presse du moteur de recherche rappelle que les éditeurs peuvent y figurer s’ils se conforment aux règles de Google Actualités. Ce qui inclut « la transparence sur la propriété du site et l’identité des auteurs ». En outre, « des mesures sont prises lorsque ces politiques sont enfreintes, pouvant aller jusqu’au retrait des sites ».
Arguant du fait que « les internautes qui consultent votre site souhaitent savoir qui écrit et publie vos contenus », ces règles exigent que les sources d’actualités sur Google comportent notamment :
« Des dates et des signatures claires.
Des informations sur les auteurs, la publication et l’éditeur.
Des informations sur l’entreprise ou le réseau à l’origine de la source.
Des coordonnées. »
Or, si les éditeurs de plus des trois quarts des sites GenAI identifiés fournissent effectivement les noms et coordonnées de leurs responsables légaux, la quasi-totalité d’entre eux mentent, en attribuant à des auteurs fictifs les articles qu’ils publient. Quitte, pour certains, à les doter de vrais-faux profils sur LinkedIn ou X.com.
Google se targue en outre de disposer de « politiques robustes en matière de spam, régulièrement mises à jour pour mieux lutter contre les nouvelles pratiques abusives qui conduisent à l’apparition de contenus non originaux et de faible qualité dans le moteur de recherche » :
« Les systèmes de Google permettent de maintenir le moteur de recherche exempte de spam à 99 %, et Google continue de les affiner et de les améliorer au fur et à mesure que le Web évolue. »
Google nous explique aussi avoir « investi de façon conséquente dans des équipes d’experts et des technologies de pointe pour prévenir les abus et appliquer nos règles » :
« Pour vous donner une idée de l’ampleur, en 2023, nous avons bloqué ou restreint la diffusion d’annonces sur plus de 2,1 milliards de pages d’éditeurs, contre 1,5 milliard de pages en 2022, et nous avons pris des mesures d’application au niveau du site sur plus de 395 000 sites d’éditeurs, contre 143 000 en 2022. »
Google nous précise enfin avoir lancé, « plus tôt cette année », une « nouvelle politique » proscrivant l’ « utilisation abusive de contenus à grande échelle », à savoir le fait de « générer de grandes quantités de contenus non originaux qui présentent peu ou pas d’intérêt pour les utilisateurs […] dans le but principal de manipuler le classement dans la recherche Google et non d’aider les utilisateurs ».
Sont notamment visés l’utilisation d’outils d’IA générative (ou outils similaires) et la création de plusieurs sites « dans le but de masquer la nature des contenus à grande échelle ». Nous avons pourtant identifié plus de 50 éditeurs administrant (au moins) cinq sites GenAI, et trois plus de 40 (au moins), plusieurs d’entre eux apparaissant régulièrement sur Discover.
La responsabilité de Google dans les dérives de la presse sur Internet
Dans un billet intitulé « Trop c’est trop ! Marre de ces sites 100% fake, 100% IA » publié sur LinkedIn, le journaliste Mathieu Cartier déplore ainsi d’avoir découvert, via Google Discover, qu’un site avait copié-collé l’une des photos publiées sur son site transitionvelo.com, sans autorisation. L’auteur de l’article plagié, « un certain Emile Faucher, « journaliste captivé par l’ingéniosité entrepreneuriale et les solutions innovantes » », s’y présente comme « diplômé d’une grande école de journalisme à Lille ».
Mathieu Cartier a d’abord cru avoir affaire à l’un de « ces sites qui n’ont pour objectif que de générer du clic et de l’affichage publicitaire avec des contenus volés à d’autres et des titres putaclics ». Il a depuis compris que le site avait probablement été généré par IA (il fait effectivement partie des 1 000 sites GenAI de notre base de données). « Quelle tristesse de voir que ce genre de sites existent et que Google, aveugle, leur donne suffisamment d’intérêt pour les mettre en avant dans sa section Discover », déplore Mathieu Cartier :
« On ne peut plus faire comme si de rien n’était et il faut pointer du doigt la responsabilité de Google dans les dérives de la presse sur Internet, poussant jusqu’à des sites réputés, que l’on aime lire, qui emploient des journalistes talentueux, tomber dans le piège du putaclic parce qu’une partie de plus en plus grande de leur audience dépend de Discover. »
Des sites qui, pour lui, « n’auraient (peut-être) jamais été aussi loin dans ces habitudes et lignes éditoriales si de faux sites sans journalistes ni contenus propres, et surtout sans aucune image à construire ou sauver, n’avaient été ainsi encouragés » :
« Le pire ? Penser que ce genre de stratégies puisse être rentables. Se dire que des sites construits sur le travail des autres (eh oui, chatGPT n’invente rien qui n’ait déjà été publié ailleurs) puisse avoir un intérêt économique, quand des gens qui investissent compétences, temps, sueur et argent pour créer des contenus pertinents, enrichis, incarnés peuvent avoir du mal à exister dans la jungle d’Internet. »
Il n’en estime pas moins qu’il faut « garder espoir », « alerter sur ces pratiques » et « expliquer aux jeunes l’importance de la presse, du journalisme, des faits, de la vérité et du débat argumenté, quand bien même ils font – eux-mêmes – faire leurs devoirs à leurs smartphones » :
« Le combat est mal engagé mais il n’est pas perdu, alors – passé le coup de colère – ne nous résignons pas. »
Nous ne saurions mieux dire, vu l’ampleur de ce que nous avons découvert lors de cette enquête au long cours. Dans les jours à venir, nous avons prévu de revenir plus particulièrement sur :
les sites GenAI reposant sur du plagiat, mais néanmoins indexés dans Google Actualités/Discover,
les sites GenAI plagiant et parasitant la presse quotidienne régionale (PQR),
les sites GenAI prodiguant des « conseils » et « recommandations » de santé,
les « hallucinations » et « infox » relayées par ces articles GenAI,
les dizaines de générateurs d’articles GenAI, optimisés pour Google Actualités/Discover, développés et commercialisés par des professionnels du SEO, qui se vantent de ne pas être identifiables par les détecteurs de contenus GenAI,
le fait que Google (en anglais) a de son côté été capable de désindexer 1 500 sites GenAI.
L’autorité française chargée de la protection des données publie un premier bilan de son action en 2024 et communique sur le doublement du nombre de sanctions prises par rapport à l’année précédente. Pourtant, ce chiffre est loin d’être énorme.
87, c’est le nombre de sanctions que la CNIL affiche avoir prises pendant l’année 2024. L’autorité française de la protection des données a calculé qu’au total, elle avait récolté un montant de 55 212 400 euros à travers ces décisions.
En détaillant un peu ces données, la CNIL explique avoir donné « 72 amendes (dont 14 avec injonctions sous astreinte), 8 décisions de liquidation d’astreinte (c’est-à-dire le paiement d’une somme en raison du non-respect d’un ordre donné par la CNIL dans sa décision de sanction) et 4 rappels à l’ordre ».
Mais l’autorité a décidé seulement 12 fois de rendre ces décisions publiques. Parmi celles-ci, on se rappelle, par exemple, du scraping sauvage de LinkedIn par Kaspr, qui a écopé d’une amende de 240 000 euros. Ou encore de la sanction contre Orange, à qui la CNIL a infligé « une amende de 50 millions d’euros, notamment pour avoir affiché des publicités entre les courriels des utilisateurs de son service de messagerie électronique, sans leur consentement ».
La CNIL explique avoir notamment ciblé la prospection commerciale dans ses décisions. Elle « a ainsi rappelé à plusieurs occasions que les organismes qui utilisent à des fins de prospection commerciale électronique des données personnelles transmises par des partenaires primo-collectants (qui organisent des jeux-concours par exemple) ou des courtiers en données doivent s’assurer que les conditions dans lesquelles les données ont été collectées sont conformes au RGPD (si nécessaire, avec le consentement de la personne et après la fourniture d’une information claire et concise) ».
Elle ajoute avoir « rappelé qu’un fournisseur de messagerie électronique qui insère des publicités entre les courriels reçus par ses utilisateurs dans leur boite de réception doit préalablement recueillir leur consentement ».
De 21 sanctions en 2022 à 87 en 2024
L’autorité se félicite d’avoir rendu plusieurs décisions marquantes en matière d’anonymisation des données de santé. Elle rappelle que même ainsi traitées, elles « restent des données personnelles auxquelles la législation s’applique ».
Mais si la CNIL met en avant que « le nombre total de sanctions prononcées est passé de 21 en 2022 à 42 en 2023 puis 87 en 2024 », celui-ci reste encore assez faible en comparaison, par exemple, du nombre de décisions que prend son homologue espagnole, l’Agencia Española de Protección de Datos (AEPD). Si celle-ci n’a pas encore communiqué sur ces chiffres de l’année dernière, elle avait pris 367 sanctions en 2023, et même 378 en 2022.
L’autorité déclare néanmoins qu’elle est passée 69 fois par sa procédure de sanction simplifiée, mise en place en 2022. « Soit près de trois fois plus qu’en 2023 », s’enorgueillit-elle, puisqu’elle ne l’avait utilisée que 24 fois à l’époque.
180 mises en demeure en 2024
La CNIL a aussi prononcé 180 mises en demeure, « décision de la présidente de la CNIL ordonnant à un organisme de se mettre en conformité dans un délai fixé », comme elle le précise.
On peut se rappeler que l’autorité annonçait encore en décembre une nouvelle salve de mises en demeure sur les bannières de cookies trompeuses, sans pour autant donner aucune indication sur la suite des événements. Pourtant, en juillet 2024, elle constatait, comme tout internaute peut le faire, que les dark patterns étaient partout.
Parmi ces 180 mises en demeures, l’autorité cite l’accès au dossier patient informatisé : « la CNIL a mis en demeure plusieurs établissements de santé de prendre les mesures permettant d’assurer la sécurité du dossier patient informatisé, rappelant que les données des patients ne doivent être accessibles qu’aux personnes justifiant du besoin d’en connaître ».
Nous avons expérimenté encore récemment le dépôt d’une plainte à la CNIL pour l’envoi en clair par la Scam d’un mot de passe, sans que rien ne bouge.
Google a publié mardi la version remaniée de la déclaration qui encadre ses grands principes éthiques et moraux autour de l’intelligence artificielle. L’engagement selon lequel les IA développées par Google ne doivent pas servir à la création d’armes disparait de cette nouvelle révision. La société justifie ce changement par une approche basée sur la gestion du risque, grâce à un « framework » dédié.
Inaugurée en 2018 et mise à jour, depuis, sur une base annuelle, la déclaration de Google relative à ses grands principes en matière d’IA affirmait explicitement depuis sa création que les outils maison ne devaient pas servir à la conception d’armes ou de technologies susceptibles de causer un préjudice général.
Mardi, le moteur de recherche est revenu sur cette promesse. Il a en effet mis en ligne une nouvelle révision de ses « AI Principles », dans laquelle il n’est plus fait mention des applications de l’IA que la société s’engage à ne pas poursuivre.
Limiter les risques, sans interdire les applications
Google et sa maison mère, Alphabet, se disent bien sûr toujours particulièrement soucieux des questions morales et éthiques soulevées par l’IA, mais la rhétorique n’est plus la même. « Nous pensons que notre approche de l’IA doit être à la fois audacieuse et responsable », écrit la société, qui met en avant l’importance de préserver « la sécurité, la sûreté et la confidentialité des utilisateurs ».
En la matière, Google s’engage par exemple à mettre en œuvre « une conception, des tests, une surveillance et des mesures de protection rigoureux pour atténuer les résultats imprévus ou nuisibles et éviter les préjugés injustes ». Rien n’est dit en revanche d’éventuelles lignes rouges.
La précédente version des IA Principles (ici datée de 2023, via Archive.org), se montre nettement plus précise. En complément de ses principes généraux, Google s’engageait ainsi à ne pas concevoir ou déployer d’IA dans des domaines d’application susceptibles de causer un préjudice à des tiers.
Elle interdisait par ailleurs l’IA au service des « armes ou autres technologies dont le but principal ou la mise en œuvre est de causer ou de faciliter directement des blessures à des personnes ». Google disait par ailleurs se refuser à développer l’IA pour des applications qui « collectent ou utilisent des informations à des fins de surveillance, en violation des normes internationalement acceptées ».
Capture d’écran de la page AI Principles de Google en juin 2023 via Archive.org
Cette décision intervient quelques jours après que Donald Trump, nouveau président des États-Unis, a révoqué un décret relatif à la sécurité des systèmes IA. Signé par son prédécesseur, Joe Biden, le texte obligeait les développeurs à partager les résultats de leurs tests de sécurité avec le gouvernement avant la mise sur le marché de leurs produits, dès lors que ces derniers étaient susceptibles de soulever un risque lié à la sécurité nationale, à l’économie ou à la santé publique.
Officiellement, ces nouveaux principes n’ont rien à voir avec la politique. C’est du moins ce que sous-entendent Demis Hassabis, CEO de Google DeepMind, et James Manyika, vice-président senior en charge de la recherche, dans un billet de blog qui accompagne à la fois la mise en ligne de ces nouveaux principes, et la publication du sixième rapport annuel de Google sur l’IA responsable.
Ils commencent par rappeler que le paysage de l’IA a changé dans des proportions telles qu’une évolution des principes associés s’impose. Ils y expliquent ensuite comment les travaux nourris des équipes de Google sur la gouvernance de l’IA les a amenées à changer d’approche sur le sujet de la gestion des risques, notamment en élaborant un ensemble de protocoles dédiés, le « Frontier Safety Framework », censé permettre de prévenir les risques associés à l’IA. Le document adopte une approche plus technique des principes dont se revendique Google.
Un ensemble d’outils pour prévenir les risques
Initialement publié en mai 2024, ce FSF est depuis le 4 février amendé sous forme d’une version 2.0 (PDF). Il se présente comme un cadre, construit autour de « niveaux de capacité critiques » qui, s’ils sont atteints dans une IA, doivent déclencher des mesures spécifiques d’analyse de risque.
Google classe ces niveaux selon deux cas de figure. D’abord, le mésusage, soit une IA détournée de sa finalité première pour une application engendrant du risque comme, par exemple, la création d’une arme chimique ou l’orchestration d’une attaque cyber. Le FSF envisage ensuite le « risque d’alignement trompeur », qui intervient quand les capacités d’une IA sont susceptibles de dépasser le cadre de ce pourquoi elle est censée fonctionner de façon fiable.
Sur la base de ces deux familles de risque, le FSF envisage un ensemble de réponses et de procédures (dont beaucoup restent à concevoir), placées sous la responsabilité d’une gouvernance réunissant les principales instances internes de Google impliquées dans la conformité, l’éthique et l’IA. L’approche se veut donc plus technique, mais elle se révèle nettement moins explicite qu’une simple déclaration affichée noir sur blanc.
Google et Meta, même combat
Google entretient de longue date des rapports contestés avec les industriels de l’armement et du renseignement. En 2018, alors que la société venait d’abandonner sa devise historique « Don’t be evil », elle avait d’ailleurs dû gérer un conflit interne lié au lancement d’un programme d’intelligence artificielle conçu pour le Pentagone. Trois ans après ce projet Maven finalement abandonné, Google avait de nouveau manifesté des velléités de se positionner comme le partenaire de choix de la Défense états-unienne.
« Meta veut jouer son rôle pour soutenir la sûreté, la sécurité et la prospérité économique de l’Amérique, ainsi que de ses alliés les plus proches. L’adoption généralisée des modèles d’IA open source américains sert à la fois les intérêts économiques et sécuritaires », justifiait alors Nick Clegg, président des affaires internationales de Meta.
La nouvelle approche de Google en matière de gestion des risques rejoint d’ailleurs celle que prône dorénavant Meta. La firme dirigée par Mark Zuckerberg a en effet annoncé le 3 février qu’elle allait encadrer ses propres travaux en matière d’IA à l’aide d’un ensemble de protocoles dédiés, baptisé cette fois Frontier AI Framework. Le fonctionnement semble similaire à celui adopté par Google : identifier des risques potentiels, mettre en place des routines de détection ou de prévention, pour en dernier recours décider ou non d’intervenir. Quitte à ce qu’il soit parfois trop tard ?
Dans un billet publié hier soir, Microsoft proposer d’amender l’API Notifications pour lui ajouter des capacités liées aux appels audios et vidéos. Cette API joue un rôle important aujourd’hui, puisque c’est par elle qu’un site web peut demander la permission d’émettre des notifications. Si l’internaute accepte, le site peut alors prévenir de certains évènements, selon le service fourni.
Dans le cas de la visioconférence cependant, ces notifications sont limitées, car essentiellement statiques. Un service de communication peut par exemple prévenir d’un appel, mais cliquer sur la notification ne pourra qu’envoyer vers le site concerné, où seront les boutons d’actions tels que « Répondre » et « Refuser ».
Microsoft propose donc de modifier l’API standardisée pour y inclure plusieurs nouvelles capacités : autoriser la personnalisation permettant à un service de se distinguer d’un autre, permettre l’ajout de boutons personnalisés utilisables pour répondre ou rejeter un appel, ajouter une sonnerie personnalisée, obtenir une priorité plus élevée que les autres notifications (si la plateforme l’autorise).
Ces fonctions seraient présentes en fonction de scénarios comme « incoming-call », définissant alors un périmètre d’action et doté d’une plus grande priorité, pour s’assurer que la notification est immédiate. La possibilité d’attacher une sonnerie personnalisée, dont beaucoup pourraient abuser, requiert également une étape supplémentaire : que le site web ait été installé sous forme de PWA (ce qui exclut d’emblée Firefox).
Dans son billet, Microsoft donne la marche à suivre pour tester la fonction. Elle consiste surtout à lancer Edge avec le flag « msedge.exe –enable-features=IncomingCallNotifications » depuis la ligne de commande, puis à se rendre sur une page spécifique. Après avoir autorisé les notifications, on peut effectivement voir ce que la réception d’un appel donnerait. En installant le site en PWA, la notification est effectivement accompagnée d’une sonnerie. On note que les labels des boutons disposent déjà d’une traduction.
Comme le note Neowin, cet ajout permettrait aux navigateurs d’obtenir les mêmes capacités qu’Android et iOS sur la gestion des appels.
AMD boucle son exercice 2024 sur une croissance annuelle de 14 %, portée principalement par la demande sur le marché des centres de données, mais aussi par le succès commercial des processeurs Ryzen sur la fin de l’année. Pour 2025, la firme ambitionne sans surprise de capitaliser sur les développements liés à l’intelligence artificielle. Elle prévoit pour ce faire d’anticiper le lancement de ses puces Instinct MI350.
Sa croissance n’a rien à voir avec celle du grand concurrent sur le marché du GPU, NVIDIA, mais AMD peut tout de même se targuer d’avoir bouclé son exercice fiscal 2024 sur un chiffre d’affaires de 25,8 milliards de dollars, en hausse de 14 % sur un an. Présentés mardi soir, ces résultats financiers découlent notamment d’un quatrième trimestre aux performances exceptionnelles : AMD enregistre ainsi 7,7 milliards de dollars de chiffre d’affaires sur les trois derniers mois de l’année, en hausse de 24 % sur un an.
+ 94 % pour les composants destinés au datacenter
Sur le trimestre comme sur l’année, c’est la division datacenter qui génère l’essentiel de la croissance. En 2024, elle représente ainsi 12,6 milliards de dollars de chiffre d’affaires, en croissance de 94 % par rapport à l’année précédente. « Le chiffre d’affaires annuel de la division datacenter a presque doublé grâce à l’accélération de l’adoption des processeurs EPYC, et aux plus de 5 milliards de dollars de chiffre d’affaires générés par les accélérateurs AMD Instinct », se réjouit Lisa Su, CEO d’AMD, dans un communiqué.
Le marché des centres de données constitue, de nouveau et sans surprise, le principal levier de croissance identifié pour 2025 dans la mesure où tous les grands acteurs du logiciel, des services en ligne ou de l’infrastructure rivalisent de projets d’investissements. Sur ce volet, AMD se félicite d’avoir signé en 2024 des contrats de premier plan avec Meta, Microsoft ou IBM, et anticipe une accélération des livraisons en 2025.
Les accélérateurs Instinct MI350 sont en avance
Chez AMD comme chez NVIDIA, le marché ne dépend toutefois pas uniquement de la demande, mais aussi et surtout des capacités d’approvisionnement. Sur ce point, Lisa Su s’est voulue rassurante. Lors d’un échange (audio) avec les analystes financiers, elle a affirmé mardi que la production des MI250X – dernière génération en date de ses accélérateurs dédiés au calcul haute performance et à l’IA – avait décollé conformément aux attentes sur le quatrième trimestre.
AMD profite de l’occasion pour évoquer sa future architecture CDNA 4, dont les premiers représentants, les accélérateurs Instinct MI350, étaient initialement attendus pour le deuxième semestre 2025. « En se basant sur les progrès réalisés sur les préséries et sur l’accueil enthousiaste des clients, nous prévoyons maintenant de livrer les premiers échantillons à nos principaux clients au cours de ce trimestre, et de passer en production de masse aux alentours du milieu de l’année », a annoncé Lisa Su.
AMD affiche également des performances en hausse sur la division « Client », qui réunit ses principales gammes de CPU et APU. Sur l’année, la branche réalise un chiffre d’affaires de 7,1 milliards de dollars, en hausse de 52 % sur un an, avec une croissance tirée majoritairement par les CPU Ryzen.
AMD indique que plus de 150 plateformes estampillées Ryzen AI (en référence à ses dernières générations de processeurs) seront disponibles cette année, et se félicite tout particulièrement de son partenariat renforcé avec Dell.
Rappelons que la marque a lancé toute une nouvelle gamme de processeurs visant à la fois les PC fixes et les portables à l’occasion du CES de Las Vegas.
Les cartes graphiques Radeon RX 9070 pour début mars
D’aucuns s’étaient toutefois alarmés, au moment du CES, du silence assourdissant entourant les cartes graphiques Radeon RX 9070 et leur architecture RDNA 4, attendues comme une réponse à la génération des GeForce RTX 50×0 Blackwell chez NVIDIA. AMD devrait finalement procéder à leur annonce officielle fin février, pour un lancement commercial programmé courant mars, a dévoilé mardi Lisa Su. Elle reconnait que ce retard a porté préjudice aux ventes de GPU dédiés, qui accusent un recul (non précisé) sur l’année.
Il ne faut cependant pas s’attendre à des Radeon RX 9070 concurrentes du très haut de gamme incarné par la GeForce RTX 5090. « Notre objectif avec cette génération est de nous adresser au segment le plus important en volume du marché des passionnés », révèle la dirigeante. La bataille devrait donc se jouer sur le terrain du rapport performances/prix plus que sur celui des performances brutes.
100 millions de consoles équipées d’une puce AMD
Chasse gardée d’AMD, le segment des designs semi-personnalisés destinés aux fabricants de console a lui aussi reculé en 2024. Sur sa division gaming (qui réunit cartes graphiques dédiées et activités graphiques pour les fabricants de console), AMD accuse ainsi un recul de 58 % sur un an, avec un chiffre d’affaires qui s’établit à 2,6 milliards de dollars. Sur le marché des consoles, AMD se félicite toutefois d’avoir franchi le cap symbolique des 100 millions de consoles équipées. La répartition entre Sony et Microsoft n’est pas précisée, mais Sony indiquait en novembre dernier avoir vendu 65,5 millions de PS5 à l’échelle mondiale, à l’occasion du lancement de la PS5 Pro.
Dernier volet du catalogue AMD, le segment dédié à l’embarqué réalise quant à lui 3,6 milliards de dollars de chiffre d’affaires sur l’année. Une baisse de 33 % sur un an, essentiellement due, selon la société, à des clients qui « normalisent » leurs stocks.
France Travail (ex-Pôle Emploi) et la start-up Mistral AI annoncent avoir conclu un partenariat après plusieurs mois de tests d’outils d’intelligence artificielle générative.
Deux outils doivent aider conseillers et candidats, d’après l’AFP : ChatFT doit fournir de l’assistance à la rédaction, et MatchFT assister les conseillers dans leur communication avec les candidats, notamment en permettant de contacter par SMS « les candidats présélectionnés sur une offre afin de les questionner sur leur intérêt pour l’offre, et les éventuels pré-requis (accès au lieu de travail, disponibilité, intérêt et capacité à réaliser les tâches prévues) ».
Fondée en 2023 par Arthur Mensch, Guillaume Lample et Timothée Lacroix et valorisée plus de 6 milliards d’euros, Mistral AI a été largement financée par de grands noms états-uniens, dont Microsoft, IBM, Salesforce, Nvidia ou les fonds Andreessen Horowitz et Lightspeed Ventures Partners. Des acteurs coréens comme Samsung siègent aussi aux côtés de ses quelques investisseurs français.
User/Chimera – Clarote & AI4Media – Better Images of AI
Ce week-end, sur Twitch, nous avons eu un bel exemple de « fail collectif ». D’un côté, un influenceur qui demande à sa communauté de partager leur RIB (ou celui d’un proche) pour obtenir de l’argent. De l’autre, des internautes qui envoient leurs informations bancaires en direct.
Nasdas est un influenceur bien connu sur les réseaux sociaux (9 millions d’abonnés sur Snapchat) car il a pour habitude de redistribuer une partie de ses revenus à sa communauté. Dimanche 2 février, la situation a dérapé, comme le rapporte BFM Tech & Co citant l’influenceur :
« J’ai mon application bancaire. J’ai un peu plus de 28 000 euros à l’intérieur. Je dois donner 10 000 euros. Comment faire ? Soit, on m’envoie des RIB dans les commentaires, soit des Paypal et je fais les virements en live ».
Il ratisse large dans sa communication : « on choisira parmi les nouveaux followers. Envoie un message, envoie ton RIB, celui de ta maman, ton oncle, qui tu veux ». La suite, on s’en doute : des RIB ont été envoyés par dizaines dans les commentaires, sur un live accessible à tous. Ils sont parfois accompagnés de messages et d’autres informations personnelles. Un véritable « trésor » pour des personnes malintentionnées.
Envoyer un RIB n’est pas sans conséquences
Plus besoin de fuites de données, les internautes envoient eux-mêmes des informations bancaires en espérant obtenir des fonds au passage… Du point de vue de cybersécurité, cela comporte des risques réels, comme nous l’expliquions récemment.
Si la Banque de France rappelle que « communiquer son RIB n’est pas risqué en soi », elle ajoute bien rapidement que, « comme pour tout document contenant des informations personnelles, il convient de bien identifier la personne à laquelle vous communiquez un RIB. Un escroc pourrait utiliser ces informations de manière malveillante (ex : usurpation d’identité) ».
Fin octobre, la CNIL a publié un guide pour vous protéger en cas de fuite de votre IBAN (qui se trouve sur votre RIB)… des recommandations également valables si vous partagez vos données bancaires de manière publique, comme c’est le cas ici :
« Cet identifiant peut dans certains cas permettre à un pirate d’émettre des ordres de prélèvement illégitimes qui ciblent les IBAN obtenus frauduleusement. Le pirate peut aussi, plus directement, usurper l’IBAN d’une autre personne en les communiquant lors de la création d’un mandat de prélèvement dans le cadre d’une souscription à un service ».
« Surveillez régulièrement les opérations sur votre compte bancaire et faites opposition si nécessaire […] Vérifiez la liste des créanciers autorisés », rappelait la CNIL. En cas de doute, n’hésitez pas à contacter votre conseiller bancaire.
« De profondes interrogations chez les juristes »
Mais ce qui pourrait passer au premier abord comme une « bonne action » ne dispense pas de respecter les règles.
Alexandre Archambault, avocat spécialisé dans le droit du numérique, nous explique que les modalités de l’épisode « ne manquent pas de susciter de profondes interrogations chez les juristes au regard des grands principes du RGPD ».
Les demandes de l’influenceur et les réponses des internautes fournissent un double exemple de ce qu’il ne faut pas faire.
Nasdas multiplie les dérapages
Nasdas n’en est pas à son coup d’essai. En juin dernier, il proposait à sa communauté de récupérer 100 000 euros (par lots de 80 à 2 500 euros) via une application de paiement en ligne : Laymoon. « Le jeu concours avait finalement été annulé face aux tollés des internautes. En effet, il fallait débourser au minimum 17 euros pour accéder à la plateforme », expliquent nos confrères.
En 2022, l’influenceur « avait volontairement diffusé dans une story son numéro de carte bleue, sur laquelle se trouvaient près de 16 000 euros […] Plusieurs sites, dont Amazon, avaient alors été submergés. Ils avaient considéré l’utilisation massive de cette carte de crédit comme « frauduleuse ». Les comptes ayant utilisé ce moyen de paiement avaient été temporairement bloqués », ajoute BFM Tech & Co.
Mozilla vient de dégainer coup sur coup Thunderbird 135 et la première bêta de Firefox 136. Un renouvellement rapide pour le client e-mail, puisque la dernière version date de la semaine dernière. Firefox 136 s’annonce de son côté comme une version importante.
Le rythme est très rapide pour Thunderbird. Alors que la version 134 est sortie le 27 janvier, la 135 est apparue hier soir. Comme la précédente, il ne s’agit pas d’une version mise en avant, le site ne proposant par défaut que la mouture ESR (Extended Support Release), actuellement estampillée 128.6.0.
La 135, elle, est simplement une « Release » que l’on peut récupérer depuis cette page, en modifiant le canal de distribution dans les menus. L’équipe de développement ne la recommande pas, la considérant presque comme une préversion. À moins de vouloir spécifiquement certaines nouveautés, il est conseillé de rester sur le canal ESR.
Nombreuses corrections, améliorations et binaires XZ
Mais qu’apporte cette version 135 ? Pour l’essentiel une longue liste de corrections et de petites améliorations. Il semble que Thunderbird 134 ait amené bon nombre de problèmes, corrigés dans cette révision, comme on peut le voir dans les notes de version.
Dans les améliorations, commençons par noter l’utilisation de XZ pour les binaires Linux. Comme pour Firefox, les gains sont notables sur la compression et surtout les performances lors de l’installation et de la mise à jour.
Thunderbird 135 permet également de spécifier un cookieStoreId lors de la création d’un espace, d’ignorer les sous-clés ou signatures non prises en charge lors de l’importation de clés OpenPGP conformes, ou encore d’utiliser le même code OAuth2 que le courrier pour les carnets d’adresses et des calendriers CardDAV.
Firefox 136 : accélération vidéo et onglets verticaux
Ainsi, sur Linux, Firefox 136 sait exploiter les GPU AMD pour le décodage matériel. Un support attendu de longue date. Autre arrivée, cette fois sur macOS : le décodage matériel pour les contenus HEVC. Là encore, Firefox rattrape la concurrence.
Firefox 136 introduit également pour la première fois les onglets verticaux, ici aussi une promesse de longue date. Ils ne sont pas activés par défaut. Pour les utiliser, il faut se rendre dans les paramètres du navigateur, onglet Général et chercher la ligne « Browser Layout ». La section n’est pas encore traduite. Il suffit ensuite de cliquer sur « Vertical tabs » et de regarder l’interface du navigateur évoluer, la barre latérale étant forcément activée dans ce cas.
Le fonctionnement est, dans les grandes lignes, identique aux autres navigateurs proposant cette disposition. Cet affichage peut notamment avoir un grand intérêt sur les ordinateurs portables, où la place verticale peut vite manquer. On gagne alors en surface d’affichage et en confort de lecture. On note cependant qu’en thème sombre, la barre d’adresse, très sombre, se confond pratiquement avec le bord de la fenêtre. Cela rend les déplacements de cette dernière hasardeux si l’on ne fait pas attention où l’on clique.
Et un peu sous le capot aussi
Firefox 136 renforce également son comportement HTTPS-First, ajoute la même compression LZMA sur le binaire macOS que pour Linux, désactive les bannières de cookies par défaut en navigation privée, ajoute une option pour afficher les termes de recherche sur les pages de résultats, ou encore ajoute le support de Codemirror 6 pour les développeurs.
Signalons aussi une évolution sous le capot pour la version macOS. Un nouveau mécanisme permet de déplacer certaines tâches en arrière-plan vers des cœurs moins puissants de la puce. Ces cœurs étant plus économes en énergie, la navigation devrait consommer moins et donc permettre une utilisation nomade plus longue.
Dans la nuit du 16 au 17 janvier dernier, SpaceX a raté son septième lancement test de Starship avec le propulseur Super Heavy. Perdant le contrôle du deuxième étage de sa fusée, l’entreprise d’Elon Musk n’a pas pu empêcher l’explosion de sa fusée dont des débris ont atterri sur les Îles Britanniques habitées de Turques-et-Caïques.
« Le succès est incertain, mais le divertissement est garanti ! » twittait Elon Musk alors que la fusée Starship avait échoué son septième lancement de test. SpaceX a perdu le contrôle du deuxième étage de sa fusée très rapidement alors que l’objectif de la mission était, entre autres, de tester une « mise à jour en bloc » de celui-ci.
Si le CEO de SpaceX qualifie cette explosion de « divertissement », ce n’est sans doute pas le mot qu’auraient choisi les habitants des îles de Turques-et-Caïques.
Aucun blessé, mais de nombreux débris
Ce territoire britannique d’outre-mer des Caraïbes situé au sud-est des Bahamas a vu de très près l’explosion du deuxième étage de StarShip. Et comme l’explique CNN, même si on ne dénombre aucun blessé, ses habitants doivent maintenant faire face aux retombées des débris.
Interrogée par nos confrères, Lori Kaine, une résidente de l’île, affirme n’avoir « jamais vu de telles couleurs dans le ciel », mais depuis, elle ramasse des débris de la fusée. Elle a retrouvé un câble dans son allée, des tuiles hexagonales brisées sur la chaussée (sans doute des éléments du bouclier thermique comme le suppose CNN). Elle a aussi retrouvé la plage à côté de chez elle, jonchée de débris.
Selon Alizee Zimmermann, responsable de l’association de protection des récifs Turks and Caicos Reef Fund, des épaves ont été retrouvées sur toutes les plages de la ville de Providenciales, mais aussi sur celles de Caïques du Sud et de l’Ouest. Elle a expliqué à CNN qu’ « il y a des débris aussi petits qu’un tiers d’ongle et aussi gros qu’une voiture éparpillés un peu partout ».
Alizee Zimmermann espère une évaluation officielle incluant des tests sur les eaux et une réflexion sur l’utilisation de drones pour chasser les gros débris en mer qui pourraient avoir un impact sur les écosystèmes sensibles.
Collecte et sécurisation des débris organisées par les autorités
Le 17 janvier dernier, la Federal Aviation Administration a « demandé à SpaceX de mener une enquête sur la perte du véhicule Starship lors des opérations de lancement le 16 janvier ». L’autorité américaine ajoutait qu’ « aucun dommage corporel n’a été signalé, et la FAA travaille avec SpaceX et les autorités compétentes pour confirmer les rapports faisant état de dommages matériels sur les îles Turques-et-Caïques ».
Selon le journal local Turks and Caicos Weekly News, le gouvernement des Turques-et-Caïques organise la collecte et la sécurisation des débris tombés au sol, en collaboration avec les autorités américaines et britanniques. Et une équipe de l’Air Accidents Investigation Branch (AAIB), l’organisme britannique chargé des enquêtes sur les accidents aériens, est au sol et travaille avec des représentants de SpaceX pour mettre en œuvre leur récupération.
La FAA toujours sur le coup, malgré l’investiture de Donald Trump
Samedi 1ᵉʳ février, ArsTechnica a interrogé la FAA sur le sujet. Selon nos confrères, l’autorité américaine n’a pas changé d’avis sur sa demande d’enquête alors qu’entre temps, Donald Trump a été officiellement investi et Elon Musk est très actif à la tête du DOGE.
Un porte-parole a répondu à ArsTechnica : « La FAA a demandé à SpaceX de mener une enquête sur l’accident du Starship Super Heavy Flight 7 sous la supervision de la FAA. Sur la base des conclusions de l’enquête concernant les causes profondes et les actions correctives, la FAA peut exiger d’une entreprise qu’elle modifie sa licence ».
Rappelons que SpaceX n’est pas la seule à avoir une gestion hasardeuse d’éventuels débris de fusées. Depuis des années, certaines fusées chinoises sont lancées sans préoccupation des dégâts, comme en 2020, quand des débris de la fusée Long March 5B seraient tombés en Afrique. Ou encore, en 2022, lorsque le premier étage d’une même fusée s’est désintégré dans l’atmosphère au-dessus de l’océan Indien.
Quid des responsabilités ?
Rappelons enfin que la Convention de 1972 sur la responsabilité internationale pour les dommages causés par les objets spatiaux a été ratifiée par plusieurs pays, sous l’égide des Nations Unies.
Dans son article II, elle prévoit qu’un « État de lancement a la responsabilité absolue de verser réparation pour le dommage causé par son objet spatial à la surface de la Terre ou aux aéronefs en vol ».
Dans son article I, elle prend soin de définir les termes utilisés. « Dommage » désigne ainsi « la perte de vies humaines, les lésions corporelles ou autres atteintes à la santé, ou la perte de biens d’État ou de personnes, physiques ou morales, ou de biens d’organisations internationales intergouvernementales, ou les dommages causés auxdits biens », tandis que « lancement » correspond aussi bien à un lancement réussi qu’à une tentative (échouée).
Récemment, le projet FreeDesktop.org a annoncé avoir besoin d’un nouvel hébergeur en urgence. Equinix, chez qui le projet était stocké, a mis fin au stockage gracieux qu’il fournissait depuis plus de cinq ans. La société veut en effet se débarrasser de ses offres bare metal et n’octroie donc plus de crédits gratuits dans ce domaine.
FreeDesktop.org n’est pas le seul projet touché par cette décision. La distribution Alpine Linux se cherche également un nouvel hébergeur, pour les mêmes raisons.
« Nous sommes profondément reconnaissants à Equinix Metal (anciennement Packet.net) pour leur soutien de longue date, qui a été essentiel à l’écosystème d’Alpine Linux. Cependant, avec l’abandon par Equinix de son service d’hébergement bare metal, ce soutien critique prendra bientôt fin. Leurs contributions ont été inestimables, et nous les remercions d’avoir aidé Alpine Linux à rester fiable et efficace », indique le projet dans un billet.
De quoi cette distribution, axée sur la sécurité, a-t-elle besoin ? D’une bande passante de 800 To par mois, de deux serveurs (chacun avec 50 Go d’espace disque et 16 Go de RAM au minimum) agissant comme des runners d’intégration continue pour les architectures x86_64 et x86, ainsi que d’une « development box », un serveur dédié à l’environnement de développement pour les contributeurs et mainteneurs.
Alpine cherche un espace de colocation et des serveurs bare metal près des Pays-Bas. Si ce n’est vraiment pas possible, l’équipe peut envisager des machines virtuelles.
À Ars Technica, Carlo Landmeter, membre du conseil d’Alpine, a indiqué que la distribution « est devenue populaire sans que la plupart des utilisateurs le sachent ». Actuellement, la situation provoque l’arrivée de quelques dons. Plusieurs entreprises auraient tendu la main, mais il ne s’agirait encore que d’un « début », selon Landmeter.
Nos confrères ont mis à jour leur article. Après la publication de la version d’origine, ils indiquent avoir été contactés par Jason Donenfeld, fondateur de WireGuard. Le célèbre client VPN se cherche lui aussi un nouvel hébergement… pour les mêmes raisons. Il est à la recherche de dons et d’offres d’hébergement.
L’Agence de cybersécurité et de sécurité des infrastructures met en garde contre quatre failles déjà corrigées, mais encore activement exploitées. Deux remontent à 2018 et soulèvent l’éternelle question des mises à jour.
Outre-Atlantique, la Cybersecurity and Infrastructure Security Agency (CISA) vient d’ajouter quatre failles de sécurité à son catalogue Known Exploited Vulnerabilities (KEV). Il s’agit donc de failles pour lesquelles l’Agence de cybersécurité a des « preuves d’une exploitation active », avec les dangers que cela comporte.
Les voici, avec leur score CVSS (Système commun de notation des vulnérabilités) permettant de juger du niveau de gravité sur 10 :
CVE-2024-29059 (CVSS de 7.5) : vulnérabilité dans le framework Microsoft .NET
CVE-2018-9276 (CVSS de 7.2) : vulnérabilité dans Paessler PRTG Network Monitor
CVE-2018-19410 (CVSS de 9,8) : vulnérabilité dans Paessler PRTG Network Monitor
Deux failles de… 2018
Si vous avez l’habitude des numérotations CVE (Common Vulnerabilities and Exposures), vous avez certainement compris que les deux premières failles datent de l’année dernière (septembre et mars respectivement), tandis que les deux autres ont déjà près de sept ans.
Malgré leur grand âge, « ces vulnérabilités sont des vecteurs d’attaque fréquents pour les pirates et posent des risques importants de cybersécurité », rappelle la CISA. L’Agence laisse jusqu’au 25 février aux entités de la Federal Civilian Executive Branch (FCEB) pour se mettre à jour. Mais c’est aussi un rappel important pour tout un chacun. Le CISA ne donne par contre aucun détail sur la manière dont elles sont exploitées.
Depuis le début de cette année, 19 failles ont été ajoutées au catalogue Known Exploited Vulnerabilities. La liste complète compte plus de 1 200 failles dont l’exploitation était donc avérée au moment de leur ajout au KEV. La première remonte à 2021.
Heartbleed : 10 ans plus tard, toujours des serveurs vulnérables
Y voir arriver des failles plus de six ans après leur découverte et surtout six ans après la publication des mises à jour est inquiétant. Cela prouve, s’il en était besoin, que des règles aussi élémentaires qu’appliquer des mises à jour ne sont pas toujours respectées.
Il y a quelques mois, lors d’un audit de sécurité, l’entreprise Securitum expliquait avoir trouvé deux serveurs publiquement accessibles encore vulnérables à cette brèche béante de sécurité. Elle permet pour rappel d’accéder à des données stockées dans la mémoire du serveur. Dix ans plus tard, des serveurs sont donc toujours vulnérables.
On parle là d’une faille qui a fait les gros titres pendant des jours, alors on imagine malheureusement bien ce qui peut arriver avec d’autres vulnérabilités, ayant moins de visibilité.
L’édition 2024 était, sans aucune surprise, marquée par l’intelligence artificielle à toutes les sauces, notamment avec Copilot. Cette année devrait être dans la même lignée.
Pour le moment, Microsoft n’a donné aucun détails supplémentaires.
Depuis quelques jours, l’Ademe est au centre d’une tempête. Elle travaillerait sur une tarification progressive des forfaits téléphonique en fonction de la quantité de data fournie. Elle aurait même envisagé de légiférer. C’est pourtant faux.
Même si la source n’est pas toujours indiquée, tout est parti d’un article du Parisien sur le « grand bluff des opérateurs sur les forfaits mobiles ». Le sujet portait sur la quantité toujours plus importante de data fournie dans les forfaits et la guerre des prix entre les opérateurs. L’article rappelait pourtant les derniers chiffres de l’Arcep : la consommation moyenne de data en France est de 17 Go par mois. À quoi pouvaient donc bien servir les forfaits de plusieurs centaines de gigaoctets ?
Les usages varient bien sûr, mais le problème était ailleurs. « L’Ademe va donc plancher sur la tarification progressive des forfaits pour, in fine, envisager un projet de loi », indiquait le Parisien. Une phrase légèrement modifiée par la suite, pour devenir : « L’Ademe va donc plancher sur la tarification progressive et, si les résultats sont pertinents, un projet de loi pourrait être envisagé ».
La polémique a enflé rapidement. Le 2 février, même Xavier Niel a réagi sur X. Citant un tweet de Frandroid qui assurait qu’un « projet de loi se prépare », il indiquait simplement « Non ».
« Nous rassemblons des données »
Nous avons contacté Roland Marion, directeur de l’économie circulaire à l’Ademe. Interrogé sur l’idée d’un projet de loi, il se montre très clair : « Non, c’est faux. L’Ademe n’a pas ce pouvoir. Nous rassemblons des données, nous éditons des rapports, parfois avec l’Arcep. Mais nous ne pouvons pas proposer de lois. Nous mettons simplement à disposition les données recueillies. Les politiques peuvent venir y piocher ».
L’Agence de l’environnement et de la maîtrise de l’énergie ne travaille-t-elle pas sur une tarification progressive des forfaits ? « Oui et non », nous répond Roland Marion. « Nous réfléchissons à ce sujet comme nous le faisons sur d’autres. À une époque par exemple, nous réfléchissions à une tarification progressive de l’électricité en fonction des usages. La discussion a permis de voir que ce n’était pas possible ».
Et dans le cas des forfaits mobiles ? « Nous y réfléchissons. C’est une discussion ouverte, un sujet d’étude. Mais nous savons déjà que les usages peuvent varier largement. Quelqu’un qui a un forfait 150 Go ne signifie pas qu’il va forcément les utiliser. Peut-être que cette personne a un gros forfait parce que c’est son seul moyen d’accéder à internet ».
Des propos en écho à ceux de Sylvain Waserman, PDG de l’Ademe et ancien vice-président de l’Assemblée nationale pendant presque cinq ans (il connait donc bien le parcours législatif). Il s’est exprimé sur LinkedIn, rappelant les trois missions de l’Agence : « L’Ademe mène des études et recherches, publie des avis techniques, propose des guides de sensibilisation à destination du grand public avec des trucs et astuces ». Plus loin, il conclut, agacé : « À bon entendeur ! Décidément, il ne nous sera rien épargné, mais on le savait déjà… ».
Des sujets plus pressants
Comme nous l’a indiqué Roland Marion, il existe des marges de manœuvre beaucoup plus importantes sur le numérique pour réduire l’empreinte carbone. « La data cellulaire, effectivement, moins on en consomme, mieux c’est. Notre recommandation, que nous répétons depuis des années, est de basculer sur une connexion Wi-Fi dès que possible. Son impact sur l’environnement est dix fois moins important qu’une connexion cellulaire », explique le responsable.
« Mais notre action sur le numérique se concentre surtout sur les recommandations liées à la fabrication des terminaux et les datacenters », ajoute-t-il. « On parle beaucoup d’IA aussi maintenant. On tente d’expliquer que son utilisation a un impact environnemental conséquent et qu’il vaut mieux, quand c’est possible, l’éviter ».
Mozilla vient de publier Firefox 135, la dernière révision de son navigateur vedette. Comme prévu, cette nouvelle mouture signe la disparition du bouton lié au signal Do Not Track DNT).
« Si vous souhaitez demander aux sites Web de respecter votre vie privée, vous pouvez utiliser le paramètre « Demander aux sites Web de ne pas vendre ni partager mes données ». Cette option s’appuie sur le contrôle global de confidentialité (GPC) », précise à ce sujet la fondation Mozilla.
Comme le réglage lié à DNT dans les versions précédentes, l’option Global Privacy Control se trouve dans les paramètres de vie privée de Firefox. Apparue dans Firefox 120, elle fonctionne comme un mécanisme « Ne pas vendre » et se veut juridiquement contraignante pour les sites, alors que le DNT était simplement volontaire.
Firefox 135 est l’occasion pour Mozilla de déployer plus largement la version rafraichie de la page d’accueil qui s’affiche à l’ouverture d’un nouvel onglet. Proposée aux États-Unis et au Canada à partir de Firefox 134, elle est désormais censée s’afficher dans toutes les régions où Firefox propose la suggestion d’articles, dont la France.
La fonctionnalité fait cependant l’objet d’un déploiement progressif, ce qui peut expliquer que la nouvelle mise en page ne soit pas immédiatement visible chez tous les internautes. Elle introduit notamment un logo repositionné à gauche, pour mieux valoriser le champ de recherche, et des suggestions d’articles sur quatre colonnes.
L’option « Copier le lien sans pistage », introduite elle aussi avec Firefox 120, se voit renommée « Copier le lien nettoyé » pour plus de clarté. Son fonctionnement (supprimer les paramètres de suivi publicitaire ou d’attribution du clic de l’URL du lien) est cependant inchangé.
Comme prévu, Firefox passe au format XZ pour les binaires Linux, préféré au BZ2 en raison de meilleures performances.
Firefox 135 inaugure aussi la prise en charge du chinois simplifié, du japonais et du coréen pour les langues source de son module de traduction, tandis qu’il est désormais possible de traduire le contenu d’une page vers le russe. Mozilla accélère par ailleurs le déploiement de la fonctionnalité de remplissage automatique des informations de carte de paiement, ainsi que celui de son interface dédiée à l’utilisation d’un chatbot IA.
Introduite avec Firefox 133, cette dernière permet pour mémoire de se connecter à un chatbot (ChatGPT, Claude, Gemini, Le Chat, etc.) et de le garder sous les yeux grâce à l’intégration dans un panneau latéral du navigateur.
Sur le plan de la sécurité, Firefox 135 introduit de nouvelles protections contre les abus liés à l’API dédiée à l’historique de navigation, et corrige douze failles, d’une gravité qui s’échelonne de « modérée » à « élevée ».
Le téléchargement est comme toujours proposé depuis le site de Mozilla, tandis que la mise à jour peut s’obtenir sans attendre le déploiement automatique à partir de l’onglet À propos des paramètres.
En plein renforcement de ses liens avec l’administration états-unienne, OpenAI a annoncé sa participation à un « programme de sécurité nucléaire ».
Open AI a conclu un accord avec les Laboratoires Nationaux du département de l’Énergie des États-Unis pour utiliser ses modèles d’intelligence artificielle (IA) dans un « programme détaillé de sécurité nucléaire ». En pratique, rapporte CNBC, 15 000 scientifiques travaillant au sein de l’une de ces institutions auront accès aux modèles o1 du constructeur.
Directeur d’Open AI, Sam Altman a expliqué lors d’un événement organisé à Washington et intitulé « Construire pour gagner : économie de l’IA », que le partenariat permettrait de se « concentrer sur la réduction des risques d’une guerre nucléaire et sur la sécurisation de matériel et d’armes nucléaires partout sur la planète ».
Domaine sensible pour modèle halluciné
Fuites de données sensibles, production de fausses informations assenées dans des formulations pleines d’aplomb, voire textes sans queues ni têtes… Le projet soulève de nombreuses questions dans la mesure où les modèles d’OpenAI ont démontré de nombreuses failles au fil des mois.
Des ordinateurs dédiés à la défense nationale, connectés à ce que certains présentent comme de nouvelles formes d’intelligence… Comme l’ironise Futurism, cela ressemble fort au scénario de Terminator. Mais au-delà des cauchemars de science-fiction, le partenariat tout juste annoncé s’inscrit dans un travail de long terme d’OpenAI pour renforcer ses liens avec le gouvernement des États-Unis.
Le 28 janvier, OpenAI rendait ainsi publique la plateforme ChatGPT Gov, un service mettant l’accent sur la cybersécurité pour faciliter l’accès des agences gouvernementales à ses produits. Une semaine plus tôt, la société faisait aussi partie des leaders du projet à 500 milliards de dollars Stargate, annoncé en grande pompe par le nouveau Président du pays… et suscitant rapidement l’ire du patron de xAI Elon Musk.
Nouvelle levée de fonds
Plus largement, l’entreprise tisse des liens avec des gouvernements répartis partout sur la planète, de l’armée israélienne à l’État japonais. Softbank et OpenAI organisaient en effet ce 3 février un événement réunissant plus de 500 sociétés japonaises représentantes de toutes sortes d’industrie. Le but, selon Nikkei : créer ensemble l’infrastructure d’IA du pays.
Softbank est très proche des intérêts d’OpenAI : il en est aussi financeur. Le 30 janvier, le Wall Street Journal rapportait le projet d’un nouveau tour de financement de 30 milliards de dollars mené par la holding japonaise. L’opération porterait la valorisation d’OpenAI, qui n’a pas prévu d’être rentable avant 2029, à 300 milliards de dollars.
Des chercheurs de Google ont découvert à l’automne dernier une faille dans les processeurs EPYC d’AMD, des générations Zen 1 à 4 (séries 7001 à 9004). Elle a été communiquée à AMD le 25 septembre, provoquant l’émission de correctifs le 17 décembre. Les détails de la faille, assez limités, n’ont été publiés qu’hier avec les chercheurs, suite à un accord avec AMD.
Pour exploiter la faille, il faut disposer des privilèges d’administrateur local sur un serveur, donc au ring 0 depuis l’extérieur d’une machine virtuelle. Il est alors possible de charger des correctifs malveillants du microcode dans le ou les processeurs concernés.
Droit de regard sur les machines virtuelles
« Cette vulnérabilité pourrait être utilisée par un adversaire pour compromettre des charges de travail informatiques confidentielles protégées par la dernière version d’AMD Secure Encrypted Virtualization, SEV-SNP ou pour compromettre la Dynamic Root of Trust Measurement », indiquent les chercheurs.
Bien que l’exploitation requière des privilèges locaux importants, la sévérité de la faille est considérée comme haute (score CVSS 3.1 de 7,2 sur 10). Son exploitation peut, en effet, conduire à l’installation de logiciels malveillants obtenant des capacités de visibilité dans les machines virtuelles, dont une partie de la sécurité repose sur le tandem matériel SEV-SNP au sein des processeurs.
Mauvaise vérification
SEV, pour Secure Encrypted Virtualization, est une technologie cruciale chez AMD. Elle génère une clé unique de chiffrement pour chaque machine virtuelle. Elle permet d’isoler les machines et l’hyperviseur les uns des autres.
SNP, pour Secure Nested Paging (pagination imbriquée sécurisée), ajoute des fonctions pour contrôler l’intégrité de la mémoire, renforçant encore l’isolation des machines virtuelles et devant les protéger d’attaques basées sur l’hyperviseur. Les deux technologies renforcent également les protections contre les attaques par canal latéral.
La vulnérabilité signalée par les chercheurs permet de jeter à bas ces défenses. Estampillée CVE-2024-56161, la faille réside dans l’utilisation d’une fonction de hachage non sécurisée pour valider les signatures dans les mises à jour du microcode. De là, un pirate peut faire passer des vessies pour des lanternes. Les machines virtuelles chiffrées perdent alors leur intégrité selon le code envoyé dans les processeurs.
La mise à jour déployée depuis décembre
Dans son bulletin, AMD indique qu’une mesure d’atténuation a été fournie pour la faille. Elle passe par une mise à jour du microcode et demande donc un arrêt du serveur, même si certains processeurs sont capables d’un chargement à chaud.
Il faut également déployer une nouvelle version du firmware SEV sur certaines plateformes, afin qu’elles puissent prendre en compte l’attestation SEV-SNP. Cette dernière permet à une instance de prouver son identité et son état. Une mise à jour du BIOS et un redémarrage du système sont nécessaires pour permettre l’attestation de l’atténuation. « Un invité confidentiel peut vérifier que l’atténuation a été activée sur la plate-forme cible grâce au rapport d’attestation SEV-SNP », précise AMD.
Les chercheurs (Josh Eads, Kristoffer Janke, Eduardo Nava, Tavis Ormandy et Matteo Rizzo) ont été remerciés par AMD. Ils notent cependant qu’ils ont fait une exception à la règle habituelle de révélation des failles de sécurité chez Google, notamment la période de 90 jours. Il s’est écoulé en effet 131 jours entre la publication des premières informations et la communication à AMD, et 45 jours depuis la diffusion des correctifs.
Pour les mêmes raisons, et compte tenu « de l’importance de la chaine d’approvisionnement et de la coordination nécessaire pour résoudre ce problème », aucun détail supplémentaire ne sera donné avant le 5 mars.
Précisons enfin que ce n’est pas la première fois qu’une faille de sécurité touche SEV ou SNP chez AMD. En 2023, une attaque baptisée CacheWarp avait nécessité également une mise à jour du microcode. Exploitée, elle pouvait permettre l’infiltration d’un code malveillant dans les machines virtuelles chiffrées.
Ni Google ni AMD ne parlent du cas des processeurs Epyc de 5ᵉ génération, avec l’architecture Zen 5.
Des millions de Français victimes d’une fuite de données chez EDF et Conforama ? Pas si vite… S’il est tentant de céder aux sirènes alarmistes, la réalité semble bien différente, au moins chez EDF qui « dément toute fuite de données massive ». Le pirate aurait utilisé une attaque par bourrage d’identifiants pour récupérer des données. Explications.
Les fuites de données se multiplient au fils des semaines, c’est un fait indéniable. Mais il y a toujours la possibilité que certains surfent sur la vague pour se faire mousser. C’est le cas cette semaine avec des « fuites » chez EDF et Conforama. L’information a rapidement circulé, avec comme unique source une publication sur un forum bien connu des pirates.
Aie confiance, crois en moi, que je puisse…
Problème, aucune confirmation ne permettait d’étayer les propos du pirate : EDF et Conforama n’ont pas communiqué auprès de leurs clients, alors que c’est normalement une obligation en cas de violation des données personnelles. Généralement, on trouve des copies des emails rapidement sur les réseaux sociaux.
Cela n’empêche pas certains experts et médias de partir bille en tête en se basant sur les seules déclarations du pirate, parfois avec du conditionnel… mais pas toujours. Le pirate a multiplié les publications sur le forum (neuf en quelques jours à peine), avec des échantillons pour appuyer ses dires. La situation semble être tout autre.
EDF et Conforama : 15,6 millions de clients… ou pas !
C’est de nouveau sur un célèbre forum de pirates que l’affaire débute : des données sont mises en vente par Varun. Il propose « la base de données EDF Prime énergie. C’est une aide financière pour des travaux de rénovation énergétique. Elle contient plus de 6,3 millions de personnes », avec un échantillon en exemple.
On y retrouve de nombreuses informations avec emails, numéros de téléphones et même une copie de la demande d’aide. Il y a également des indications sur la tranche des « revenus de mon ménage » qui peuvent être inférieurs aux plafonds d’un tableau A ou B, une information utilisée pour calculer le montant des aides.
Dans une autre publication, le pirate propose aussi des données de clients Conforama : « Il y a plus de 9,3 millions de personnes dont j’ai réussi à gratter des informations, notamment nom, prénom, email, date de naissance, numéro de téléphone, facture et plein d’autres informations ».
Le pirate « on fire » : Pont-de-Claix, Freedom Electronics, Webixa… ou pas ?
Varun affirme aussi avoir récupéré et mis en vente les données des clients E.Leclerc Énergie le 28 janvier, soit un jour après l’annonce de la fuite d’E.Leclerc à ses clients. Dans une mise à jour, Varun précise que les données ont été vendues et qu’il ne procédera pas à de nouvelles ventes. Un bon moyen de se donner de la « crédibilité » puisqu’aucune publication auparavant ne revendiquait la mise en vente des données d’E.Leclerc.
Sur le forum spécialisé, on retrouve d’autres publications dans les derniers jours. Il affirme aussi avoir mis la main sur la « base de données de la ville française Pont-de-Claix », sur celle de freedomelectronics.net, du The Norwegian Training Center à Manille (Philippines), de Tidtang Studio à Bangkok (Thaïlande) et de Webixa en Pologne.
Le pirate « a tout simplement menti »
Hier, aucune publication sur les réseaux sociaux ou communication officielle permettait de confirmer les dires de Varun. En fouillant un peu, une source nous a mis en garde sur cette fuite, ou plus exactement elle a exprimé des doutes quant à sa véracité.
Aujourd’hui, les masques tombent. Dès ce matin, Clubic battait en brèche les affirmations du pirate : « Le hacker « Varun » […] a tout simplement menti. Il a juste procédé à du recyclage de données issues d’une précédente fuite ».
« Nous avons appris de source sûre, lundi soir, que le hacker a en fait procédé à ce que l’on appelle du « credential stuffing » » (ou bourrage d’identifiant en français), explique notre confrère. Cette technique, rappelle la CNIL, « consiste à réaliser, à l’aide de logiciels ou de façon manuelle, des tentatives d’authentification massives sur des sites et services web à partir de couples identifiants/mots de passe (généralement, une adresse électronique et un mot de passe) ».
Le principe est simple : des données ayant fuité sur un site sont réutilisées sur un autre service. Si vous avez réutilisé un même mot de passe, le pirate peut accéder à votre compte. Selon Clubic, Varun aurait utilisé des données de la fuite (confirmée) de LDLC.
EDF : des « connexions illicites », pas de fuites massives
Ce midi, c’était au tour de BFM Tech & Co de revenir sur cette affaire. Selon nos confrères, EDF « dément, mais fait tout de même état de « connexions illicites » à l’une de ses plateformes », Prime Energie en l’occurrence. Quoi qu’il en soit, la société « dément toute fuite de données massive », après une enquête interne.
Elle reconnait par contre, « une centaine de connexions illicites » en réutilisant des identifiants concernés par de précédentes fuites. Raison pour laquelle le site Prime Energie EDF est « suspendu » depuis le 3 février. « Les pirates n’ont accès qu’à des documents « en nombre limité » », précise BFM Tech & Co. Documents qui peuvent servir d’échantillons pour faire croire à une fuite massive.
Quelques minutes plus tard, Numerama confirme, là encore avec un retour d’EDF : « il n’y a pas de signaux indiquant une vaste fuite de données… ». Le reste de l’histoire est la même que celle de nos autres confrères.
Rappel des précédents épisodes
Cette affaire rappelle encore une fois l’importance de prendre le temps de confirmer et recouper des informations. Et, s’il en était besoin, de ne pas prendre pour argent comptant des publications d’un pirate sur un forum.
Dans le cas d’Aides, de RED by SFR et de Free, des IBAN étaient aussi dans la liste des données récupérées par les pirates et donc disponibles sur Internet. Il faut pour rappel surveiller ses comptes pour vérifier la présence de prélèvements douteux, comme indiqué dans notre dossier.
OpenAI a annoncé une nouvelle fonctionnalité dans ChatGPT dont le nom est deep research. Celle-ci doit permettre à ses utilisateurs d’obtenir une synthèse de centaines de sources en ligne dans un rapport compréhensible. L’entreprise signale elle-même que son système peut « parfois halluciner des faits dans les réponses ou faire des déductions erronées ».
Toujours plus profond. En tout cas, le nom de la nouvelle fonctionnalité insérée dans ChatGPT par OpenAI, Deep research, semble être une réaction à l’arrivée tonitruante de DeepSeek sur le marché grand public de l’IA générative.
L’entreprise de Sam Altman a donc annoncé la disponibilité de Deep research pour les utilisateurs Pro de ChatGPT. Ceux qui ont un compte Plus ou Team devraient y avoir accès prochainement.
Selon l’entreprise, cette fonctionnalité permet de « trouver, analyser et synthétiser des centaines de sources en ligne pour créer un rapport complet au niveau d’un analyste de recherche ». OpenAI explique qu’elle utilise une version de son modèle o3 qui devrait sortir bientôt et qui est « optimisé pour la navigation sur le web et l’analyse de données, il s’appuie sur le raisonnement pour rechercher, interpréter et analyser des quantités massives de textes, d’images et de PDF sur Internet, en pivotant si nécessaire en réaction aux informations qu’il rencontre ».
Une réponse après 5 à 30 minutes
Pour l’utiliser, les utilisateurs Pro ont juste à appuyer sur le bouton « Deep research »… et attendre de 5 à 30 minutes avant d’avoir leur réponse. Une notification leur est envoyée lorsque le résultat est disponible.
Pour les experts même si le système hallucine parfois, selon OpenAI
OpenAI présente son outil comme étant créé pour « les personnes qui effectuent un travail intensif dans des domaines tels que la finance, la science, la politique et l’ingénierie et qui ont besoin de recherches approfondies, précises et fiables ».
Pourtant, l’entreprise explique dans la partie « Limitations » de son billet que son nouvel outil « peut parfois halluciner des faits dans les réponses ou faire des déductions incorrectes », même si elle affirme (sans publier aucun chiffre) que Deep research hallucinerait « à un taux nettement inférieur à celui des modèles existants de ChatGPT ».
OpenAI explique aussi que Deep research peut avoir « des difficultés à distinguer les informations faisant autorité des rumeurs et montre actuellement des faiblesses dans l’étalonnage de la confiance, ne parvenant souvent pas à exprimer l’incertitude de manière précise ». Bref, il reste à espérer que les experts en finance, en recherche en politique ou en ingénierie qui l’utilisent feront une vérification du rapport que la fonctionnalité leur renvoie.
De manière moins dangereuse, OpenAI suggère aussi que Deep research « peut également s’avérer utile pour les acheteurs avisés qui recherchent des recommandations hyper personnalisées pour des achats qui nécessitent généralement des recherches approfondies, comme les voitures, les appareils électroménagers et les meubles ». Sam Altman a publié un message en ce sens, il avait étonnement besoin d’acheter une vieille voiture au Japon quand la fonctionnalité est sortie.
100 requêtes par mois maximum
L’entreprise limite actuellement l’utilisation de Deep research a 100 requêtes par mois pour les utilisateurs Pro. OpenAI explique qu’elle est « très gourmande en calcul » sans s’appesantir plus sur le sujet.
D’autre part, OpenAI explique avoir rendu disponible la version « mini » de son modèle o3. Cette version est la première que peuvent utiliser ses clients dans ChatGPT et via son API. L’entreprise avait annoncé le modèle o3 en décembre dernier sans que personne puisse s’en servir. Elle affirme que son modèle est plus puissant et plus rapide que les précédents « tout en conservant le faible coût et la latence réduite d’o1-mini ».
La Commission passe en mode « détective holistique »
Les plateformes d’e-commerce Temu et Shein sont plus que jamais dans le collimateur de la Commission européenne et d’associations de consommateurs. Temu est déjà sous le coup d’une procédure formelle, Shein devrait suivre demain. La Commission prépare de son côté un projet avec une approche holistique sur les grandes plateformes de commerce en ligne.
Depuis plusieurs mois, différentes instances européennes s’intéressent de près à la plateforme d’ecommerce Temu. Le BEUC (bureau européen des unions de consommateurs) tirait la sonnette d’alarme en mai dernier, affirmant que Temu « ne protège pas les consommateurs en enfreignant le Digital Services Act ».
Temu sous pression, la Commission européenne enquête
Fin octobre, la Commission européenne ouvrait une « procédure formelle à l’encontre de Temu au titre de la législation sur les services numériques » (DSA). Elle enquête sur des domaines « liés à la vente de produits illicites, à la conception potentiellement addictive du service, aux systèmes utilisés pour recommander des achats aux utilisateurs, ainsi qu’à l’accès aux données pour les chercheurs ».
Le BEUC est revenu à la charge cette semaine, dénonçant « des trous béants dans la sécurité des produits vendus sur Temu ». En cause, des « petites pièces de jouets pour enfants et de produits pour bébés trop facilement détachables pouvant provoquer une suffocation », des listes d’ingrédients incorrects dans les cosmétiques, des « radiateurs électriques extrêmement dangereux », etc.
« Un point d’entrée pour des produits illégaux »
Pour Agustín Reyna (directeur général du BEUC), Temu est « un point d’entrée pour des produits illégaux qui n’ont pas leur place sur nos marchés ». Le Bureau européen des unions de consommateurs demande donc à la Commission de terminer son enquête au plus vite et « de prendre des mesures dissuasives et efficaces contre Temu dans l’intérêt des consommateurs et des entreprises » qui respectent les règles de l’Union.
Le BEUC demande aussi la mise en place d’un « plan d’action ambitieux et vaste pour l’e-commerce visant à résoudre les problèmes auxquels les consommateurs sont confrontés sur les marketplaces, y compris des règles claires en matière de responsabilité ». La Commission devrait le présenter demain, nous allons y revenir.
Une enquête devrait aussi s’ouvrir contre Shein
Une autre plateforme est dans le collimateur de la Commission européenne : Shein. Selon l’AFP, « l’UE s’apprête à ouvrir une enquête contre la plateforme chinoise ». L’annonce devrait être faite demain selon deux sources de nos confrères.
« Shein est considéré comme un emblème des dérives sociales et environnementales de la mode à petits prix. Mais l’entreprise a promis de collaborer avec toutes les parties prenantes pour répondre aux préoccupations exprimées », rappelle l’AFP.
Shein (comme Temu) est pour rappel une très grande plateforme au titre du règlement sur les services numériques (DSA). Elle compte « plus de 45 millions d’utilisateurs réguliers par mois dans l’Union européenne », selon ses propres chiffres transmis à la Commission en avril 2024.
La Commission européenne passerait en mode « holistique »
Selon Euractiv, la Commission européenne devrait « adopter une approche « holistique » à l’égard de Temu et Shein ». Le projet, consulté par nos confrères et qui devrait être publié demain, prévoirait des « modifications structurelles des règles douanières de l’UE, l’application de la législation européenne existante en matière de protection des consommateurs et l’adoption de règles environnementales ».
Sur les questions douanières, la Commission souhaiterait « fournir des ressources supplémentaires aux autorités douanières nationales afin qu’elles puissent examiner les petits envois ». L’intelligence artificielle devrait aussi être utilisée afin de vérifier les envois de marchandises, avec la mise en place d’une « nouvelle autorité de l’UE pour traiter les données douanières dans le cadre d’un système informatique unique », toujours selon le projet consulté par Euractiv.
La montée en puissance de Temu et Shein en Europe
Pour se rendre compte de la montée en puissance de Temu et Shein, on peut se tourner vers… La Poste. Plus précisément, l’audition de Philippe Wahl (PDG de la Poste depuis 2013) par la Commission des affaires économiques.
Il y parlait de la « montée des plateformes chinoises Temu et Shein, qui représentent 22 % de nos colis en Europe. C’était moins de 5 % il y a cinq ans, 1 % de plus qu’Amazon qui est […] le premier client mais aussi le premier concurrent de la Poste ». Amazon, Shein et Temu représentent ainsi 43 % des colis acheminés par la Poste en Europe.
Dans un communiqué, la CNIL explique que sa formation restreinte a prononcé une amende de 40 000 euros à une société intervenant dans le secteur immobilier.
Elle « avait installé sur les ordinateurs de certains de ses salariés un logiciel de suivi de leur activité dans le cadre du télétravail » via le logiciel Time Doctor. Elle « avait également recours à un système de vidéosurveillance dans ses locaux [aussi bien espace de travail que de pause, ndlr] pour la prévention des atteintes aux biens (vols) ».
La CNIL a procédé à des contrôles suite à des plaintes. Le résultat est accablant : « la société filmait en permanence ses salariés, en captant l’image et le son, […] mesurait leur temps de travail et évaluait leur performance de manière très précise par le biais du logiciel installé sur leurs ordinateurs ».
Concernant la mesure du temps de travail, « le logiciel détectait automatiquement, tout au long de la journée, si le salarié n’effectuait aucune frappe sur le clavier ou mouvement de souris sur une durée paramétrée de 3 à 15 minutes. Ces temps « d’inactivité » comptabilisés, à défaut d’être justifiés par les salariés ou rattrapés, pouvaient faire l’objet d’une retenue sur salaire par la société ».
La Commission rappelle que ne pas utiliser son ordinateur peut aussi correspondre à du temps de travail effectif, avec des réunions ou appels téléphoniques par exemple. « Un tel dispositif ne permet pas un décompte fiable des heures de travail, contrairement à sa finalité annoncée. En outre, l’atteinte portée par le dispositif, ainsi paramétré, aux droits des salariés était, en tout état de cause, disproportionnée. Par conséquent, ces traitements ne reposent sur aucune base légale ».
La condamnation a été rendue publique, notamment afin de faire passer le message et « d’informer toute personne soumise à de tels dispositifs ». Compte tenu de sa petite taille et du retrait immédiat du logiciel lors du contrôle, le nom de la société n’a pas été dévoilé. Quant à l’amende, elle est jugée par la CNIL « dissuasive mais proportionnée ».
La délibération avec les explications et justifications de l’entreprise se trouve par là.
Opera lance à nouveau un navigateur. Nommé Air, il vient occuper un créneau très particulier, que l’éditeur commençait à explorer avec son navigateur classique : le bien-être. Opera Air se targue d’être ainsi le premier butineur orienté pleine conscience et se dote d’outils dans cette optique.
Si les anciens d’Opera ont créé Vivaldi quand l’ancien navigateur a été totalement remanié pour passer sur une base Chromium, l’éditeur ne peut pas être accusé de se tourner les pouces. Le navigateur classique s’est à nouveau doté d’un nombre croissant d’outils, Opera ayant très vite investi dans le champ de l’IA avec sa propre Aria. Parallèlement, la société a lancé Opera GX, dédié aux joueurs, avec de nombreux réglages pour régler finement les ressources consommées.
Opera Air est le petit nouveau. Il s’agit, dans les grandes lignes, d’une version modifiée d’Opera (classique) pour lui faire adopter une interface présentée comme plus reposante et des outils orientés pleine conscience.
Des Boosts et des sons
Les deux fonctions phares d’Opera Air sont opposées. La première – et la plus visible – est le panneau des Boosts. « Élevez votre état mental avec des battements binauraux. Stimulez différentes ondes cérébrales grâce à la musique et au son », s’enthousiasme ainsi Opera. C’est quoi ce bazar ?
Un Boost est un ensemble de trois sons : une fréquence plus ou moins grave, un son et une musique. La fréquence sert de support et est à rapprocher des (très) nombreuses vidéos que l’on trouve sur YouTube pour « doper la concentration », faciliter l’endormissement, etc. La fréquence diffère selon l’effet souhaité. Le son change également selon le Boost choisi. Il peut s’agir de gouttes de pluie, de vent, de vagues, du crépitement du feu, dans la majorité des sons « naturels ». La musique, enfin, fournit un accompagnement sans accrocher l’attention. Sans parole, elle est à rapprocher du type de piste que nous évoquions dans notre article sur les faux artistes dans Spotify.
Opera Air propose une vingtaine de Boosts. Ils portent des noms évocateurs tels que « Stimulation de la Créativité », « Calme concentré », « Soulagement du stress », « Pensée analytique » ou encore « Concentration maximale ». Chacun joue sur les trois paramètres évoqués plus haut. Quand un Boost est lancé, il dure 30 minutes. On peut le contrôler depuis l’icône de fleur dans la barre latérale. Notez que l’on peut faire varier le volume de chaque élément selon les préférences. Même chose pour le temps, que l’on peut faire baisser à 15 min ou au contraire l’étendre en boucle infinie.
L’idée est intéressante et plaira sans doute à une partie des internautes. L’efficacité de ces ambiances – surtout des sons binauraux – dépendra de chaque personne, car elle n’a pas été vraiment prouvée scientifiquement, comme l’ont rappelé diversessources ces dernières années.
L’ensemble reste assez sympathique pour être utilisé dans la navigation quotidienne, selon les goûts. À noter qu’Opera Air recommande fortement d’utiliser un casque pour l’écoute des Boosts. Ces derniers fonctionnent même quand le navigateur est en arrière-plan.
Invitations à la pause
L’autre grande fonction d’Opera Air, ce sont les invitations à faire une pause. Le navigateur recommande en effet de faire une halte toutes les 60 à 90 min. Par défaut, une notification va apparaître toutes les 60 min pour vous y encourager. Ce temps peut être modifié pour un intervalle compris entre 45 et 180 min.
Quand la notification apparait ou que l’on veut faire soi-même une pause en cliquant sur les trois petits traits parallèles dans la barre latérale (sous la fleur des Boosts), un panneau s’ouvre. On peut choisir entre quatre activités, chacune avec son descriptif. : respiration, exercice du cou, méditation et examen complet du corps.
Chaque activité dispose de quatre variantes selon l’effet que l’on veut obtenir ou le temps dont on dispose. Elle est également accompagnée d’une voix (choix entre Emma et Alex) pour guider l’internaute, mais disponible uniquement en anglais (des sous-titres sont automatiquement affichés). L’activité s’interrompt automatiquement dès que le navigateur n’est plus au premier plan, invitant alors à reprendre lorsque l’on est de retour. Le temps de l’activité va de 3 à 15 min selon ce que l’on a choisi.
Là encore, sans être révolutionnaire, l’idée est sympathique. Elle devrait plaire aux personnes ne sachant pas s’arrêter, le navigateur intervenant pour rappeler l’importance des pauses. Si la fonction invite volontiers à la pleine conscience, elle parlera moins aux internautes qui préfèrent se lever régulièrement pour faire quelques exercices et se dégourdir les jambes. Mais rien n’empêche d’alterner.
Contrairement aux Boosts, Opera Air ne fait pas de recommandation particulière sur le port d’un casque.
Et le reste ?
Il s’agit des deux plus grandes fonctions d’Opera Air. Si elles ne vous tentent pas, il vaut mieux passer votre chemin.
À moins que l’interface, rendue assez minimaliste, vous interpelle. Les thèmes fournis s’orientent vers le verre givré, teinté selon l’image de fond choisie. On reste cependant sur les grands classiques d’Opera en matière de disposition des éléments, avec l’éternelle barre latérale à gauche pour épingler des fonctions (messageries, réseaux sociaux, téléchargements, historique, favoris, extensions…).
Alors oui, Opera Air affiche également chaque jour une nouvelle citation orientée vers le bien-être et la relaxation (« On ne peut pas arrêter les vagues, mais on peut apprendre à surfer » aujourd’hui), mais ce n’est pas ça qui devrait convaincre si les Boosts et les pauses ne vous attirent pas. Autant utiliser la version classique d’Opera, qui possède déjà toutes les autres fonctions. À noter d’ailleurs que dans le canal Dev, Opera teste l’intégration de Discord, Slack et Bluesky dans la barre latérale, de même qu’un nouveau lecteur de musique et plusieurs nouveaux thèmes dynamiques.
Le navigateur vient tout juste d’être rendu disponible. Bien que la page mentionne « Accès anticipé », il s’agit d’une version stable, nous a assuré Opera. Sur Mac, nous avons tout de même rencontré des ralentissements importants au premier lancement, avec un taux d’occupation très important pendant la configuration initiale. Une fois le navigateur redémarré, tout allait bien. Sur Windows, pas de problème majeur rencontré.
Précisons enfin que si vous installez Opera Air, pensez à cliquer sur « Avancé ». Opera a la fâcheuse habitude d’activer par défaut différentes options de télémétrie et de traitements liés à personnalisation des publicités.
AltStore, éditeur d’un store applicatif non officiel dont l’accès est possible sur iPhone en Europe en raison du DMA, s’est félicité lundi du lancement de Hot Tub, une application présentée comme « la première app porno au monde approuvée par Apple ». La marque américaine n’a que fort peu goûté le raccourci, qu’elle estime mensonger.
« L’iPhone fête ses 18 ans cette année, ce qui signifie qu’il est enfin assez vieux pour accueillir des applications plus ~matures~… », se réjouit le compte Mastodon dédié à AltStore, avant d’annoncer la sortie de « Hot Tub par c1d3r, la première application pornographique au monde approuvée par Apple ».
Une app porno sur iPhone… uniquement en Europe
L’annonce a de quoi surprendre. Depuis 2008 et l’ouverture de l’iPhone aux applications tierces (via la création de l’App Store), Apple a toujours prôné et appliqué un refus strict des logiciels ou contenus à caractère pornographique. Steve Jobs écrivait même en 2010, dans un échange de mails qui avait défrayé la chronique, que l’iPad, lancé cette année-là, devait aider à se « libérer du porno ».
En Europe, les velléités de contrôle de l’entreprise américaine sur l’environnement logiciel de l’iPhone se heurtent toutefois au Digital Markets Act (DMA). Cette réglementation européenne, entrée en vigueur le 6 mars 2024, ambitionne pour mémoire de lutter contre les pratiques anticoncurrentielles des géants du numérique.
Sur le terrain précis du mobile, le DMA impose notamment à Apple d’autoriser la distribution de magasins applicatifs alternatifs à son App Store. Or ces magasins alternatifs sont libres d’avoir une approche différente en matière d’accès aux contenus ou applications pornographiques.
Apple ne disparait cependant pas totalement de l’équation. La distribution d’une application sur un store non officiel suppose en effet de passer par un processus de validation orchestré par Apple. Cette étape, dite de « notarisation », vise notamment à certifier que le logiciel ne présente aucun risque de sécurité majeur. Le processus et les guidelines associées, bien documentés, sont toutefois nettement moins contraignants que la validation d’une application destinée à l’App Store.
C’est vraisemblablement parce que Hot Tub a passé avec succès ce processus de notarisation qu’AltStore se permet de qualifier l’application de « approuvée par Apple ».
« Pour tout le reste, il y a toujours l’Internet ouvert »
L’entreprise américaine estime de son côté le raccourci mensonger, et maintient sa position historique sur l’accès au porno via ses stores applicatifs. « Nous sommes profondément préoccupés par les risques de sécurité que les applications pornographiques hardcore de ce type créent pour les utilisateurs de l’UE, en particulier les enfants. Cette application et d’autres similaires vont saper la confiance des consommateurs dans un écosystème que nous avons travaillé depuis plus de dix ans pour en faire le meilleur au monde », écrit Apple dans un communiqué envoyé à quelques médias américains.
La critique vis-à-vis de la politique européenne n’est pas dissimulée. Face à ces demandes, Apple se retranche historiquement derrière un principe qu’elle rappelle dès l’introduction de ses guidelines de validation pour l’App Store.
« Pour tout le reste, il y a toujours l’Internet ouvert. Si le modèle et les directives de l’App Store ou les marchés d’applications alternatifs et la notarisation pour les applications iOS et iPadOS ne conviennent pas à votre application ou à votre idée commerciale, ce n’est pas grave, nous proposons également Safari pour une expérience Web exceptionnelle ».
De son côté, l’éditeur de Hot Tub savoure le succès de son coup médiatique. Sur sa page d’accueil, il se targue ainsi de reprises par des médias de premier plan… oubliant de préciser qu’aucun de ces médias ne s’intéresse au contenu de son application.
Donald Trump a déclaré lundi 3 février vouloir négocier un « accord » avec l’Ukraine pour que celle-ci lui fournisse une « garantie » sur l’obtention de terres rares en échange de l’aide des États-Unis.
En octobre 2024, le président ukrainien Volodymyr Zelensky avait déjà proposé aux partenaires du pays de s’entendre sur une « exploitation commune des ressources stratégiques » de l’Ukraine.
Parmi elles, d’après Le Figaro, de l’uranium, du titane, du lithium et du graphite.