↩ Accueil

Vue normale

☕️ Copyright : NVIDIA a contacté Anna’s Archive pour entrainer ses IA sur des millions de livres

20 janvier 2026 à 10:07

NVIDIA serait entrée en contact avec les responsables de la « bibliothèque clandestine » Anna’s Archive selon des documents d’un procès en cours contre l’entreprise.

En mars 2024, NVIDIA a été attaquée par cinq auteurs de livres pour violation du copyright pour avoir entrainé ses modèles sur une compilation de livres dans laquelle apparaissent leurs textes.

Notamment, ces auteurs pointaient l’utilisation de « bibliothèques clandestines » comme Anna’s Archive.

Dans un texte ajouté au dossier, les avocats des auteurs citent plusieurs documents internes à NVIDIA montrant que l’entreprise a contacté le projet Anna’s Archive. « À la recherche désespérée de livres, NVIDIA a contacté Anna’s Archive, la plus grande et la plus effrontée des bibliothèques clandestines encore existantes, afin d’acquérir ses millions de documents piratés et “d’inclure Anna’s Archive dans les données de pré-entraînement de nos LLM” », rapporte TorrentFreak. L’entreprise a contacté les responsables de la bibliothèque clandestine pour obtenir un « accès à de grands volumes de jeux de données uniques et de haute qualité » en éclaircissant si besoin était leur demande avec la précision « c’est-à-dire des livres ».

livre dématérialisé

« Comme Anna’s Archive facturait des dizaines de milliers de dollars pour un “accès haut débit” à ses collections piratées voir https://annas-archive.org/llm, NVIDIA a cherché à savoir à quoi ressemblerait un “accès haut débit” à ces données », explique le document associé à la plainte [PDF].

Toujours selon les avocats des auteurs, l’équipe de management de NVIDIA aurait donné le feu vert à cette utilisation alors qu’Anna’s Archive avait bien précisé la nature illégale de ses collections.

French response : quand la diplomatie française colle à l’ambiance de X

19 janvier 2026 à 17:12
Tweet clash diplomacy
French response : quand la diplomatie française colle à l’ambiance de X

La diplomatie française a intensifié son utilisation du compte French response pour ne pas laisser passer les attaques étrangères sur le réseau social d’Elon Musk. Ce compte réagit aussi aux attaques politiques du milliardaire états-unien comme du CEO de Telegram Pavel Durov.

« Ne rien céder dans la bataille des récits », c’est ainsi que Jean-Noël Barrot présentait le compte X French Response géré par la diplomatie française le 9 janvier pour les vœux aux ambassadrices et aux ambassadeurs.

Deux jours plus tard, ce compte répondait à Elon Musk sur son propre réseau avec une photo du CEO de X faisant un salut nazi lors de l’investiture de Donald Trump. Le milliardaire d’extrême droite avait précédemment provoqué son audience en demandant « Pourquoi le gouvernement britannique est-il si fasciste ? ».

En ce début d’année important géostratégiquement parlant, le ministre de l’Europe et des affaires étrangères met en avant la stratégie lancée début septembre par son ministère pour contrer les discours étrangers critiquant la position de la France.

« Une posture franche, teintée d’humour, de dérision »

Pris via le prisme principal des manipulations de l’information venues de l’étranger, cette nouvelle communication du Quai d’Orsay se voit comme « une posture franche, teintée d’humour, de dérision, parfois d’autodérision, qui conduit à la viralité sur les réseaux sociaux, qui permet d’augmenter l’impact du message que nous voulons porter », a aussi assumé Jean-Noël Barrot devant les ambassadrices et les ambassadeurs du pays.

Car, si ce compte se permet de répondre à Elon Musk ou à Pavel Durov en pointant la prolifération de contenus pédocriminels sur Telegram pour contrer ses critiques contre la politique de l’Union européenne en la matière, il concentre surtout ses réponses vers des comptes russes et états-uniens diffusant la propagande de leurs pays respectifs, souvent avec les codes utilisés sur le réseau social X.

« Telegram lutte de longue date contre les détournements de sa plateforme, notamment la diffusion de contenus pédocriminels, via des équipes de modération spécialisées et des signalements émanant d’ONG internationales. Depuis 2018, ce dispositif s’est renforcé avec l’introduction de scans automatisés par empreinte numérique des contenus médias publiés sur la plateforme publique, ainsi que la publication de rapports de transparence quotidiens », a souhaité affirmer Telegram suite à cet article.

Ainsi, le compte du Quai d’Orsay répondait en octobre à Sputnik Afrika en remettant en question l’éthique de ses journalistes avec un mème. Comme nous l’expliquions à ses débuts, le compte a commencé en réfutant des propos du secrétaire d’État étasunien, Marco Rubio, en proposant un « factchecking » affirmant que « la reconnaissance de l’État palestinien n’a pas entraîné l’échec des négociations sur les otages ».

Plus direct encore depuis le début d’année

Plus récemment, French Response a pris des allures encore plus directement diplomatiques en réinterprétant ironiquement des photos utilisées par le département de la Sécurité intérieure américain pour illustrer la « panique » qui aurait envahi les leaders européens suite aux velléités répétées de Donald Trump de s’emparer du Groenland.

Pour le compte de la diplomatie française, « l’Europe ne panique pas, l’Europe vérifie juste que ses tempes ne se dégarnissent pas ». Ce dimanche, French Response lançait un « Make Dmitry Mannered Again (MDMA) » à un Dmitry Medvedev qui affirmait « Make America Great Again (MAGA)= Make Danmark Small Again (MDSA)= Make Europe Poor Again (MEPA). Avez-vous enfin compris, bande d’imbéciles ? ».

La France est donc entrée pleinement dans le jeu de la petite phrase publiée sur X pour faire rire et sourire les utilisateurs du réseau d’Elon Musk.

« J’étais circonspect, car cela revient à abaisser le débat public à du “tweet clash”, mais French Response a su reprendre tous les codes de la jeunesse, et tape juste », affirme le journaliste et consultant en lutte contre la désinformation Nicolas Hénin au Monde.

Dans son discours aux ambassadrices et ambassadeurs, Jean-Noël Barrot leur a promis : « vous verrez qu’aucune fausse information n’émane de ce compte ». Mais est-ce possible de jouer avec ces règles dans la cour d’un réseau dirigé par une des cibles de French Response et dont l’IA officielle est un superdiffuseur de désinformation et qui génère des messages antisémites et dénude des femmes sur demande ?

On peut se demander quel est réellement le but de ce compte. Toujours aux ambassadrices et ambassadeurs, le ministre explique qu’il a « une vertu, qui est de riposter lorsque des contenus portant atteinte à notre image sont diffusés. Mais “French Response” a aussi une vertu d’inhibition, parce que nos adversaires savent désormais que s’ils portent atteinte à notre image, ils peuvent être ridiculisés par “French Response ” ».

Cette diplomatie numérique se limite par contre pour l’instant au réseau social d’Elon Musk. Le ministère ne revendique pour l’instant pas de compte du même genre sur des réseaux sociaux comme TikTok, Instagram ou BlueSky sur lesquels il devrait sans doute adapter son discours à des environnements plus policés.

☕️ HubEE, le hub d’échange de l’État piraté, au moins 160 000 documents volés

19 janvier 2026 à 09:31

La plateforme d’échange de fichiers de l’État, HubEE, a subi une attaque le 9 janvier dernier. Le pirate a pu s’introduire dans le système et a eu accès à au moins 70 000 dossiers contenant au total 160 000 documents.

Ce vendredi 16 janvier, la direction interministérielle du numérique (DINUM) a communiqué sur le sujet, expliquant avoir mis en place le jour de l’attaque des « mesures conservatoires » pour « bloquer l’attaquant » ainsi que des mécanismes d’authentification et de surveillance des flux pour pouvoir ensuite rétablir le service à partir du 12 janvier.

La DINUM explique que certains documents qu’a pu obtenir le pirate contenaient des données personnelles sans donner de précision sur leur nature ni sur le nombre de documents concernés. « À ce jour, les données exfiltrées n’ont pas été publiées et la DINUM a mis en place une veille active », explique-t-elle.

La Direction de l’information légale et administrative avait envoyé, au cours de la semaine dernière, un email à certains utilisateurs expliquant qu’ « un des sous-traitants de http://Service-public.gouv.fr a rencontré un incident de sécurité entre le 4 et le 9 janvier ». Ce message ajoutait que « cet incident de sécurité a occasionné la divulgation d’une partie de vos données personnelles renseignées lors d’une démarche en ligne que vous avez réalisée sur notre site. Il peut s’agir de vos données d’identification et le cas échéant de pièces justificatives produites à l’appui de votre demande ».

Elle précisait ensuite sur X que « Service.public.gouv.fr n’a pas été victime de cyberattaque. Le site est fonctionnel et son intégrité est totalement préservée. Les démarches en ligne opérées via le site (8,2 millions gérées en 2025) transitent par une plateforme technique d’échanges entre administrations. C’est sur cette plateforme que certaines données nécessaires aux démarches en ligne ont été détournées. Des mesures immédiates ont permis de juguler I’intrusion ».

Mais ce sont, selon l’information publiée par la Dinum vendredi, plutôt des données en possession de quatre directions ministérielles qui seraient concernées : la direction de l’information légale et administrative (DILA), la direction générale de la cohésion sociale (DGCS), la direction générale de la Santé (DGS) et la caisse nationale des allocations familiales (CNAF).

Wikimedia signe avec les majors de l’IA générative pour son programme Enterprise

16 janvier 2026 à 14:49
À table avec une longue cuillère ?
Wikimedia signe avec les majors de l’IA générative pour son programme Enterprise

Alors que Wikipédia fête ses 25 ans, la fondation Wikimedia en profite pour mettre en avant son programme « Enterprise » et les accords qu’elle vient de signer avec des entreprises majeures de l’IA générative telles qu’Amazon, Meta, Microsoft, Mistral AI ou Perplexity. Des accords qui lui permettent de canaliser le nombre énorme de requêtes effectuées par les bots crawlers d’IA générative sur ses infrastructures.

Hier, Wikipédia fêtait ses 25 ans. « Avec des milliards de visites mensuelles et un nombre toujours croissant d’organisations qui s’appuient sur les connaissances gratuites et vérifiées de Wikipédia, cette plateforme est devenue partie intégrante de l’architecture de l’ensemble de l’Internet », déclarait à cette occasion Maryana Iskander, directrice générale de la Fondation Wikimédia.

Le lendemain de cet anniversaire, cette même fondation annonce avoir conclu des accords avec les entreprises d’IA générative Amazon, Meta, Microsoft, Mistral AI et Perplexity pour son programme « Wikimedia Enterprise ».

Une saturation des infrastructures de Wikimédia qui demande un changement d’utilisation

Depuis le début des modèles de langage, le contenu de Wikipédia est crucial pour leur entrainement. L’encyclopédie participative permet à toutes ces entreprises de s’appuyer sur d’importantes masses de données créées par des humains. Elle est à la fois une source énorme d’exemples d’écriture et d’informations mises à jour régulièrement couvrant un spectre encyclopédique.

L’adoption par Wikipédia de la licence Creative Commons by-sa en 2009 rend les choses encore plus simples pour la réutilisation de ses contenus (la question de la citation des auteurs dans les outils d’IA générative se pose néanmoins). Ainsi, en 2020, GPT-3 d’OpenAI s’appuyait déjà sur trois milliards de tokens venant de la version anglophone de l’encyclopédie.

Mais depuis, les modèles de langage sont sortis des laboratoires et les entreprises en mettent de nouveaux sur le marché toutes les semaines. De plus, l’utilisation généralisée du RAG (ou génération à enrichissement contextuel en français), technique qui permet d’optimiser leur réponse sans relancer un processus d’entrainement, augmente considérablement le nombre de requêtes envoyées aux sites qui peuvent rafraichir les informations contenues dans le modèle. Ces requêtes envoyées par les robots crawlers des entreprises d’IA saturent régulièrement les infrastructures de certains sites. Et Wikipédia en fait évidemment partie.

En avril 2025, la fondation Wikimedia tirait un signal d’alarme : « Notre infrastructure est conçue pour supporter des pics soudains de trafic d’origine humaine lors d’événements très intéressants, mais le volume de trafic généré par les robots scrapeurs est sans précédent et présente des risques et des coûts croissants », expliquait-elle. Surtout que certaines entreprises d’IA générative ne respectent pas les fichiers robots.txt qui sont censés permettre de donner des instructions aux robots crawlers comme leur interdire l’accès.

Plusieurs API et une volonté d’utiliser le programme pour mieux gérer les citations

Le programme Enterprise permet à la fondation de rediriger les entreprises d’IA vers des API qui gèrent mieux leurs accès au contenu. Elle en propose plusieurs : l’API On-demand renvoie la version la plus récente pour une demande d’article spécifique, l’API Snapshot fournit Wikipédia sous forme de fichier téléchargeable pour chaque langue, mis à jour toutes les heures, et l’API Realtime diffuse les mises à jour dès qu’elles se produisent.

En octobre dernier, la fondation expliquait que l’encyclopédie perdait 8 % de pages vues par les humains en un an et mettait ça sur le compte de l’IA. À cette occasion, elle s’émeuvait d’un risque d’une baisse de la participation au projet. Car si les internautes ne savent pas que les contenus générés par IA sont tirés en grande partie de Wikipédia et qu’ils ne la consultent plus, il est possible qu’ils ne voient plus l’intérêt d’y participer. La fondation expliquait à ce moment-là que son programme « Enterprise » devait pousser aussi les entreprises d’IA à attribuer correctement les contenus.

« Wikipédia est un élément essentiel du travail de ces entreprises technologiques, qui doivent trouver comment le soutenir financièrement », explique Lane Becker, président de Wikimedia Enterprise à Reuters. « Il nous a fallu un certain temps pour comprendre quelles étaient les fonctionnalités et les caractéristiques à proposer si nous voulions faire passer ces entreprises de notre plateforme gratuite à une plateforme commerciale… mais tous nos grands partenaires technologiques comprennent vraiment la nécessité de s’engager à soutenir le travail de Wikipédia », ajoute-t-il.

La fondation précise que ce ne sont pas les premiers accords dans ce sens avec d’importantes entreprises du monde de l’IA générative. Ainsi, Google, Ecosia, Nomic, Pleias, ProRata et Reef Media étaient déjà entrées dans son programme Enterprise.

Mais avec les cinq nouveaux accords, la fondation Wikimédia se lie économiquement de plus en plus avec ce milieu. Si leurs montants prennent une place significative dans son budget, des dents pourraient grincer au sein de la communauté Wikipédia. Rappelons que l’IA est un sujet sensible qui s’est un peu enflammé quand la fondation a voulu utiliser l’IA générative pour créer des résumés automatiques d’articles de l’encyclopédie.

☕️ La distribution Tails 7.4 permet maintenant de garder les réglages de langues

16 janvier 2026 à 08:57

La distribution Linux Tails, spécialisée dans la sécurité, a été mise à jour jeudi. Arrivant un mois après la 7.3.1, cette nouvelle version contient des évolutions de paquets telles que le passage de Tor Browser à la version 15.0.4, Thunderbird en version 140.6.0 ou le noyau Linux dans sa version 6.12.63.

Une des nouveautés les plus visibles pour l’utilisateur, c’est la possibilité de garder ses réglages de langues, de disposition de clavier et de format d’affichage des dates et heures entre deux utilisations de la distribution live.

En effet, l’équipe de Tails explique avoir mis en place une option pour enregistrer ces options si l’utilisateur l’active. Ainsi, on peut plus facilement saisir le mot de passe de notre stockage persistant, si on le veut. Attention, le billet annonçant la nouvelle version précise que ces options sont stockées de manière non chiffrée.

L’équipe de Tails précise aussi qu’ « avec la transition en cours de BitTorrent v1 vers v2, les fichiers BitTorrent v1 que nous avons fournis jusqu’à présent peuvent devenir un problème de sécurité ». Elle a donc choisi de ne plus utiliser le protocole BitTorrent pour distribuer sa distribution : « Nous ne pensons pas que la mise à jour vers BitTorrent v2 justifie les coûts supplémentaires liés à la migration et à la maintenance ».

Santé : le ministère met en place une stratégie pour lutter contre la désinformation en ligne

15 janvier 2026 à 12:53
Et la santé surtout !
Santé : le ministère met en place une stratégie pour lutter contre la désinformation en ligne

Alors que la pandémie de Covid-19 a marqué un accroissement de la circulation de fausses informations en santé, notamment via les réseaux sociaux, la ministre de la Santé, Stéphanie Rist, lance une stratégie pour « y répondre de manière concrète, durable et collective ».

Des outils de diffusion d’informations et de riposte contre la désinformation, la constitution d’un « observatoire de la désinformation en santé » et la mise en place d’outils de mesure de la perception des citoyens… La ministre de la Santé, Stéphanie Rist, semble vouloir agir contre la désinformation en santé dont la circulation s’est fortement accrue depuis le début de la pandémie de Covid-19.

Elle vient de lancer une « stratégie nationale contre la désinformation en santé » en s’appuyant sur le rapport que lui ont remis lundi 12 janvier Mathieu Molimard, Dominique Costagliolia et Hervé de Maisonneuve.

« La parole publique en santé est trop dispersée, trop lente face à la viralité »

Dans leur texte [PDF], les trois médecins rapporteurs affirment que la plupart des acteurs qu’ils ont interrogés « décrivent une augmentation de la désinformation en santé, alimentée par une littératie scientifique déficiente, un esprit critique insuffisant, la viralité numérique, la perte de repères scientifiques et la diffusion organisée de contenus trompeurs ». Des journalistes scientifiques, des organismes de santé, des politiques ou même des plateformes de réseaux sociaux comme Meta ou YouTube (le rapport note le « seul refus explicite d’entretien » de la part de la plateforme X/Twitter) ont été auditionnés.

Pour les auteurs, « si notre système scientifique, pris dans son ensemble, est solide, la parole publique en santé est trop dispersée, trop lente face à la viralité ». Et la désinformation touche « tous les domaines » de la santé : « vaccination, cancer, alimentation, santé mentale, santé des femmes, pratiques de soins non conventionnelles ou risques environnementaux ».

Les profils des acteurs de la désinformation en santé en France sont « variés » : influenceurs, groupes militants, professionnels de santé ou scientifiques dévoyés… « Les industriels, qu’ils commercialisent des produits de santé ou des produits impactant la santé, peuvent aussi être à l’origine de désinformation en santé », expliquent-ils. Et les trois médecins constatent que « la détection et la réponse à la désinformation restent inorganisées ».

Écoute et riposte prévues par le ministère

C’est à ce problème que veut remédier Stéphanie Rist. Sa stratégie se déploie sur trois axes. De l’écoute et des consultations citoyennes, d’abord, avec l’exploration des perceptions et logiques de croyance et un baromètre national sur la question. Mais aussi l’observation en ligne « dans la durée des attitudes et pratiques des citoyens face à la désinformation en santé » et la volonté de « recueillir leurs réactions en temps réel et tester des hypothèses de communication ». Un « comité » composé de 27 citoyens a aussi été mis en place. Il doit remettre un avis à la fin du mois de janvier ou début février.

La ministre explique travailler à la mise en place d’un « Observatoire de la désinformation en santé » dont elle ne donne pour l’instant pas la composition. Celui-ci doit « être l’acteur essentiel de l’identification et de la compréhension des phénomènes de désinformation en santé ».

Concernant la riposte sur le numérique, un dispositif d’« infovigilance en santé » doit être lancé à partir de fin janvier. En s’appuyant sur de la veille et de la détection de fausses informations en santé, il est censé conduire à la mise en place d’outils de diffusion d’informations et de riposte sur ces sujets adaptés aux plateformes comme TikTok et YouTube Shorts, avec comme « site de référence » l’espace « décryptages » du site sante.fr (et non Santé.fr comme écrit dans le rapport). Espérons qu’un effort de modernisation du site soit prévu avant le lancement de la campagne.

Enfin, pour « bâtir un socle de confiance propice à l’information en santé », le ministère élabore des « kits pédagogiques sur l’information en santé à destination des enseignants et enfants ». Il veut aussi intégrer plus la désinformation en santé au sein des programmes de recherche. Il aurait été d’ailleurs intéressant que, pour le rapport sur lequel il s’appuie, le ministère ne sollicite pas seulement le regard de médecins mais aussi celui de chercheuses et chercheurs en sciences de l’information et en sociologie.

☕️ Un rapport de police britannique invente un match de foot et rejette la faute sur Copilot

15 janvier 2026 à 10:46

Le responsable de la police du comté britannique des Midlands de l’Ouest, Craig Guildford, a reconnu une erreur dans un rapport concernant l’interdiction de stade de supporters du club de foot lors d’un match de Ligue Europa.

En effet, pour le match d’Aston Villa contre le Maccabi Tel-Aviv qui se jouait en octobre dernier, la police locale l’avait classé « à haut risque » et s’était prononcée pour l’interdiction aux supporters visiteurs d’assister au match. Dans son communiqué de presse, pas d’erreur, mais dans son rapport remis aux autorités pour justifier sa position, elle évoquait un match entre West Ham et le Maccabi Tel Aviv qui n’a jamais eu lieu.

Depuis la date du match, les critiques pleuvent sur cette décision, notamment de la part du Premier ministre britannique Keir Starmer et du gouvernement israélien. Lundi dernier, Craig Guildford a envoyé une lettre [PDF] à Karen Bradley, membre du Parlement britannique et responsable du Home Affairs Select Committee de la Chambre des communes.

« Vendredi après-midi, j’ai pris conscience que le résultat erroné concernant le match West Ham contre Maccabi Tel Aviv était dû à l’utilisation de Microsoft Co Pilot », s’y explique-t-il après avoir nié en décembre s’être appuyé sur l’IA pour préparer le rapport, remarque The Verge. Il avait aussi imputé le problème à une erreur dans les résultats du moteur de recherche de Google.

illustration d'une personne manipulée comme une marionnette par une IA

Pour la ministre de l’Intérieur britannique, Shabana Mahmood, c’en est trop. Selon l’AFP, celle-ci a affirmé : Craig Guildford « n’a plus ma confiance » devant la Chambre des communes après avoir commandé un rapport indépendant dont les conclusions sont « accablantes », selon elle. L’agence de presse explique qu’elle n’a pas le pouvoir de le démettre de ses fonctions mais qu’elle a annoncé que son gouvernement allait rétablir cette possibilité.

❌