↩ Accueil

Vue normale

Reçu aujourd’hui — 13 novembre 2025

☕️ Face au New York Times, OpenAI doit présenter 20 millions de logs anonymisés d’ici demain

13 novembre 2025 à 09:51

Dans le procès qui oppose le New York Times à OpenAI, le journal a demandé cet été de pouvoir analyser les logs de l’utilisation de ChatGPT afin de trouver d’éventuelles preuves de violation de copyright.

Ce vendredi 7 novembre, la juge Ona Wang a informé [PDF] les deux parties qu’ « OpenAI est tenu de fournir les 20 millions de logs de ChatGPT anonymisés aux plaignants avant le 14 novembre 2025 ou dans les 7 jours suivant la fin du processus d’anonymisation ».

Façade du bâtiment du New York Times
Photo de Jakayla Toney sur Unsplash

Comme le raconte Reuters, l’entreprise de Sam Altman a répondu [PDF] ce mercredi en se plaignant que « pour être clair : toute personne dans le monde ayant utilisé ChatGPT au cours des trois dernières années doit désormais faire face à la possibilité que ses conversations personnelles soient transmises au Times afin que celui-ci puisse les passer au crible à sa guise dans le cadre d’une enquête spéculative ».

De leur côté, les avocats du journal ont expliqué [PDF] qu’OpenAI a eu trois mois pour anonymiser les données, que l’un des représentants d’OpenAI a reconnu que le processus permettra « d’effacer du contenu les catégories d’informations personnelles identifiables et autres informations (par exemple, les mots de passe ou autres informations sensibles) comme les données utilisateur ». Le journal fait aussi remarquer qu’il doit respecter une ordonnance spéciale protégeant ces données lors de l’inspection de ces logs.

L’entreprise de Sam Altman fait aussi une comparaison avec des affaires ayant impliqué Google en affirmant que « les tribunaux n’autorisent pas les plaignants qui poursuivent Google à fouiller dans les emails privés de dizaines de millions d’utilisateurs Gmail, quelle que soit leur pertinence. Et ce n’est pas non plus ainsi que devrait fonctionner la divulgation dans le cas des outils d’IA générative »

Mais la juge a expliqué qu’ « OpenAI n’a pas expliqué pourquoi les droits à la vie privée de ses consommateurs ne sont pas suffisamment protégés par : (1) l’ordonnance de protection existante dans ce litige multidistrict ou (2) la dépersonnalisation exhaustive par OpenAI de l’ensemble des 20 millions de logs ChatGPT des consommateurs ». Elle semble estimer que les conversations des utilisateurs avec un chatbot ne peuvent pas être considérées comme des conversations privées au même titre que des échanges de courriers ou d’e-mails entre deux personnes réelles.

☕️ Face au New York Times, OpenAI doit présenter 20 millions de logs anonymisés d’ici demain

13 novembre 2025 à 09:51

Dans le procès qui oppose le New York Times à OpenAI, le journal a demandé cet été de pouvoir analyser les logs de l’utilisation de ChatGPT afin de trouver d’éventuelles preuves de violation de copyright.

Ce vendredi 7 novembre, la juge Ona Wang a informé [PDF] les deux parties qu’ « OpenAI est tenu de fournir les 20 millions de logs de ChatGPT anonymisés aux plaignants avant le 14 novembre 2025 ou dans les 7 jours suivant la fin du processus d’anonymisation ».

Façade du bâtiment du New York Times
Photo de Jakayla Toney sur Unsplash

Comme le raconte Reuters, l’entreprise de Sam Altman a répondu [PDF] ce mercredi en se plaignant que « pour être clair : toute personne dans le monde ayant utilisé ChatGPT au cours des trois dernières années doit désormais faire face à la possibilité que ses conversations personnelles soient transmises au Times afin que celui-ci puisse les passer au crible à sa guise dans le cadre d’une enquête spéculative ».

De leur côté, les avocats du journal ont expliqué [PDF] qu’OpenAI a eu trois mois pour anonymiser les données, que l’un des représentants d’OpenAI a reconnu que le processus permettra « d’effacer du contenu les catégories d’informations personnelles identifiables et autres informations (par exemple, les mots de passe ou autres informations sensibles) comme les données utilisateur ». Le journal fait aussi remarquer qu’il doit respecter une ordonnance spéciale protégeant ces données lors de l’inspection de ces logs.

L’entreprise de Sam Altman fait aussi une comparaison avec des affaires ayant impliqué Google en affirmant que « les tribunaux n’autorisent pas les plaignants qui poursuivent Google à fouiller dans les emails privés de dizaines de millions d’utilisateurs Gmail, quelle que soit leur pertinence. Et ce n’est pas non plus ainsi que devrait fonctionner la divulgation dans le cas des outils d’IA générative »

Mais la juge a expliqué qu’ « OpenAI n’a pas expliqué pourquoi les droits à la vie privée de ses consommateurs ne sont pas suffisamment protégés par : (1) l’ordonnance de protection existante dans ce litige multidistrict ou (2) la dépersonnalisation exhaustive par OpenAI de l’ensemble des 20 millions de logs ChatGPT des consommateurs ». Elle semble estimer que les conversations des utilisateurs avec un chatbot ne peuvent pas être considérées comme des conversations privées au même titre que des échanges de courriers ou d’e-mails entre deux personnes réelles.

Reçu hier — 12 novembre 2025

☕️ OpenAI condamnée en Allemagne pour l’utilisation de paroles de chansons dans GPT-4 et 4o

12 novembre 2025 à 15:58

L’un des tribunaux régionaux de Munich s’est prononcé ce mardi 11 novembre en faveur du lobby de l’industrie musicale allemande GEMA dans une affaire l’opposant à OpenAI.

Le jugement concerne l’utilisation des paroles de chansons de neuf auteurs allemands connus, dont « Atemlos » de Kristina Bach et le fameux « Wie schön, dass du geboren bist » de Rolf Zuckowski.

La cour donne raison à la GEMA, autant sur « la mémorisation dans les modèles linguistiques » des paroles que leur reproduction dans les résultats du chatbot : les deux, selon elle, constituent des atteintes des droits d’exploitation du copyright. Ces utilisations « ne sont couvertes par aucune limitation [du copyright] et notamment pas par la limitation relative à la fouille de données et de textes », commente le tribunal dans son communiqué.

« La chambre estime que les paroles litigieuses sont reproduites dans les modèles linguistiques 4 et 4o », explique-t-il.

Le tribunal considère qu’une « perception indirecte » de la mémorisation dans les modèles linguistiques est un indice suffisant pour la démontrer en se fondant sur la jurisprudence de la Cour de justice de l’Union européenne (CJUE). En l’occurence, le fait que ChatGPT a « rendu accessibles au public les paroles des chansons » est considéré comme une preuve indirecte de cette mémorisation en plus d’être une preuve directe de leur reproduction dans ses résultats.

« Nous sommes en désaccord avec la décision, et nous étudions les prochaines démarches possibles », a déclaré OpenAI à l’AFP. L’entreprise souligne également que le jugement ne concernerait que les textes qui figurent dans la plainte de la GEMA.

C’est « une victoire historique pour la GEMA », selon le cabinet d’avocats qui l’accompagne. « C’est la première fois qu’un tribunal allemand confirme que les entreprises d’IA ne peuvent pas utiliser des contenus protégés par le copyright ». « Cette décision rendue à Munich apporte une sécurité juridique aux professionnels de la création, aux éditeurs de musique et aux plateformes dans toute l’Europe, et elle est susceptible de créer un précédent dont l’impact s’étendra bien au-delà des frontières allemandes », ajoutent les représentants du lobby musical allemand.

Le tribunal n’a pas donné les détails des dédommagements que devra verser OpenAI.

Affaiblissement du RGPD : l’Allemagne l’inspire, la France y est opposée « à ce stade »

12 novembre 2025 à 14:08
Quick and dirty
Affaiblissement du RGPD : l’Allemagne l’inspire, la France y est opposée « à ce stade »

La Commission européenne a proposé d’affaiblir rapidement le RGPD au profit des entreprises d’IA. Les pays membres semblent vouloir une discussion plus longue sur le sujet, même si l’Allemagne inspire la proposition de la Commission.

Une petite bombe a été lâchée la semaine dernière avec la fuite d’un brouillon de la Commission européenne de la loi « omnibus numérique » prévoyant d’affaiblir le RGPD au profit des entreprises d’IA. Elle doit officiellement le présenter le 19 novembre prochain et le texte peut encore changer d’ici là.

L’association noyb de Max Schrems, qui y est totalement opposée, a publié [PDF] les positions de neuf pays sur la « simplification » du RGPD rendues avant la fuite du brouillon.

L’Allemagne pour des changements en profondeur… mais avec des discussions en amont

L’Allemagne plaidait pour une vaste révision du règlement mais sans que la loi « omnibus numérique » qui doit entrer en discussion d’ici peu en soit le vecteur le plus significatif. Berlin considère que les discussions autour du sujet méritent du temps.

« Afin d’ajuster l’équilibre entre les droits fondamentaux des personnes concernées et les droits fondamentaux des citoyens et des entreprises à traiter des données à caractère personnel (notamment la liberté d’information, la liberté des sciences, la liberté d’exercer une activité commerciale), toute modification du RGPD, tout en garantissant un niveau adéquat de protection des données et en préservant les principes fondamentaux du RGPD, devrait être examinée avec soin et mise en œuvre de manière ciblée, précise et fondée sur les risques », affirmait l’Allemagne.

Mais, pour noyb, « il semble que la Commission se soit simplement « emparée » » de cette position non-officielle de l’Allemagne pour établir sa proposition d’un affaiblissement du RGPD exprimée dans le brouillon de l’ « omnibus numérique » , « étant donné que de nombreux changements apportés au projet semblent être une copie conforme des demandes formulées dans la lettre allemande qui a fuité », affirme l’association de Max Schrems.

La France et sept autres pays de l’UE pour des changements à la marge

De leurs côtés, les huit autres pays qui se sont exprimés (la République tchèque, l’Estonie, l’Autriche, la Pologne, la Slovénie, la Finlande, la Suède et la France) ne pressent pas pour un changement majeur du texte. Si aucun d’entre eux ne nie le besoin de clarification de certains points dans le règlement européen, notamment pour faciliter la mise en conformité des entreprises, une bonne partie d’entre eux souligne, à l’instar de la République tchèque, la nécessité que cela reste « compatible avec la protection effective des droits fondamentaux ».

Prague voit surtout des modifications à la marge comme la possibilité pour les responsables du traitement de ne pas « déployer des efforts disproportionnés » pour fournir des informations lorsqu’une personne lui demande, comme l’article 15 du règlement le prévoit, si certaines de ses données à caractère personnel sont ou ne sont pas traitées. La Suède propose aussi des changements à la marge comme un relèvement du seuil pour lequel les entreprises doivent notifier la violation de données personnelles.

Quant à la France, elle jugeait qu’ « à ce stade, les retours des parties prenantes collectés par la Commission ont montré qu’elles ne souhaitaient pas d’une réouverture du RGPD » et que « les autorités françaises se sont également exprimées en ce sens et maintiennent cette position ». Comme les sept autres pays, elle estimait que « pour atteindre un équilibre optimal entre les enjeux d’innovation et la protection des libertés fondamentales, les efforts de mise en œuvre du texte doivent se poursuivre ». Par contre, Paris appelle « le CEPD [Contrôleur européen de la protection des données] et les autorités de protection des données à mener rapidement des consultations des acteurs sur les sujets prioritaires que sont l’articulation du RGPD avec le règlement sur l’intelligence artificielle (RIA), la pseudonymisation et l’anonymisation, dans les semaines qui viennent ». La France estime qu’ « il s’agit d’une attente très forte pour que les besoins concrets puissent être exprimés en amont de la finalisation du premier jet des lignes directrices sur ces sujets ».

De son côté, Max Schrems réitère ses critiques sur le projet : « Le brouillon n’est pas seulement extrême, il est également très mal rédigé. Il n’aide pas les « petites entreprises », comme promis, mais profite à nouveau principalement aux « grandes entreprises technologiques » ». noyb s’est joint à l’Edri et à l’organisation irlandaise Irish Council for Civil Liberties pour envoyer une lettre ouverte [PDF] à la Vice-présidente exécutive de la Commission européenne à la Souveraineté technologique, à la Sécurité et à la Démocratie, Henna Virkkunen. Dans ce texte, les trois associations affirment que les changements « considérables » prévus par le brouillon « priveraient non seulement les citoyens de leurs droits, mais compromettraient également la compétitivité européenne ».

☕️ Yann LeCun va quitter Meta en désaccord sur la stratégie de R&D de l’entreprise

12 novembre 2025 à 09:40

Douze ans après son arrivée au sein de ce qui s’appelait à l’époque Facebook, le chercheur français Yann LeCun s’apprête à quitter l’entreprise de Mark Zuckerberg, devenue depuis Meta.

Arrivé en 2013 pour créer et diriger le laboratoire de recherche et développement de l’entreprise Facebook Artificial Intelligence Research (FAIR), le chercheur a amené à Facebook puis Meta ses connaissances sur le deep learning dont il est l’un des pionniers. Ainsi, le FAIR a permis à Facebook d’être l’un des premiers réseaux sociaux à intégrer des systèmes d’intelligence artificielle, notamment pour la reconnaissance faciale.

Mais la récente reprise en main des recrutements sur l’IA par Mark Zuckerberg semble avoir donné une direction que le Français ne veut pas suivre. En effet, depuis cet été le CEO de Meta a redirigé toutes les forces de R&D dans la création d’un laboratoire dédié à la « superintelligence » en s’appuyant sur les modèles génératifs dérivés des LLM. Il a débauché des spécialistes chez Apple, Anthropic, OpenAI ou Scale AI et misé sur Alexandr Wang pour la direction de la R&D. Mark Zuckerberg veut pousser ses chercheurs à creuser cette voie et sortir plus de modèles qui doivent alimenter en IA plus rapidement les produits de Meta.

Ce choix, selon le Financial Times, aurait poussé Yann LeCun à quitter l’entreprise en vue de fonder sa propre startup. En effet, s’il soutient que les LLM sont « utiles », il pense qu’ils ne seront jamais capables ni de raisonner ni de planifier comme les humains. Il pousse donc, au sein du laboratoire de Meta, le travail sur ce que les chercheurs en IA appellent les « world models », des modèles capables de conceptualiser un monde, comme l’ont proposé en 2018 les chercheurs David Ha et Jürgen Schmidhuber. Ceci permettrait d’intégrer de véritables robots dans le monde réel.

Ainsi, Meta a travaillé sur plusieurs séries d’architectures : JEPA, V-JEPA, DINO-WM et PLDM. Mais ceux-ci en sont encore aux débuts de la recherche sur le sujet et subissent des critiques. Par exemple, tout en admettant que V-JEPA 2 « marque une avancée » sur des tâches de manipulation de bras robotiques, des chercheurs doutent de ses capacités sur « des tâches plus diverses (par exemple, préparer le petit-déjeuner) ou adaptées à des environnements plus complexes avec des dépendances à long terme (par exemple, l’alpinisme) ».

Le chercheur français semble vouloir continuer dans cette voie en montant sa propre startup.

Reçu avant avant-hier

La Commission européenne prévoit d’affaiblir le RGPD au profit des entreprises d’IA

10 novembre 2025 à 14:15
RGP quoi ?
La Commission européenne prévoit d’affaiblir le RGPD au profit des entreprises d’IA

Un brouillon de la loi « omnibus numérique » qui doit être présentée en décembre prochain révèle que Bruxelles veut modifier en profondeur le RGPD pour aider l’industrie de l’IA à se développer en Europe. Le texte prévoit aussi d’alléger la gestion des bannières de cookies et d’imposer un mécanisme à la « do not track », avec la possibilité pour les médias de passer outre.

En fin de semaine dernière, plusieurs médias européens ont obtenu un brouillon de la loi « omnibus numérique » que prévoit de présenter la Commission européenne dans les prochaines semaines. Alors qu’elle présentait son texte comme une « simplification » des textes, l’analyse de ce document montre que le projet va beaucoup plus loin et fait dire au responsable de l’association noyb, Max Schrems, que « ces changements sont extrêmes et ont des répercussions considérables ».

Comme l’indique le média allemand Netzpolitik, la Commission a en fait séparé sa proposition en deux textes : l’un sur la « simplification » de différents textes sur le numérique déjà en application [PDF], l’autre est plus spécifiquement sur l’IA et affiche la volonté de « simplifier » l’AI act [PDF], alors que celui-ci commence tout juste à s’appliquer progressivement jusqu’à devenir pleinement effectif à partir du 2 aout 2027.

Une volonté de laisser tranquille l’industrie de l’IA en Europe

La refonte prévue par ce texte des lois protégeant les données au sein de l’Union européenne est clairement prévue pour laisser la voie libre aux entreprises d’IA générative dans le but affiché de les aider à rester compétitives sur la scène internationale. Elle pourrait permettre aussi à des entreprises comme Meta de lancer sur le marché européen des produits comme ses lunettes connectées boostées à l’IA avec un peu moins de risques de se faire attraper par la patrouille.

Dans une réaction publiée sur LinkedIn, le responsable de l’association noyb, Max Schrems, a publié le texte de ce brouillon accompagné des commentaires de noyb [PDF].

L’entrainement des IA comme un « intérêt légitime »

En question dans ces « simplifications » du RGPD, notamment, la volonté de prendre en compte l’entrainement des IA comme un « intérêt légitime ». Ainsi le texte affirme qu’ « une IA fiable est essentielle pour assurer la croissance économique et soutenir l’innovation avec des résultats bénéfiques pour la société ».

La Commission fait le constat que « le développement et l’utilisation de systèmes d’IA et des modèles sous-jacents, tels que les grands modèles de langage et les modèles de génération de vidéo, reposent sur des données, y compris des données à caractère personnel, à différentes étapes du cycle de vie de l’IA, telles que les phases d’entrainement, de test et de validation, et peuvent dans certains cas être conservées dans le système ou le modèle d’IA ». Elle en conclut que « le traitement des données à caractère personnel dans ce contexte peut donc être effectué à des fins d’intérêt légitime au sens de l’article 6 » du RGPD.

Des critiques des fondateurs du RGPD

Sur ce sujet, noyb considère que la Commission s’engage dans une « pente glissante » : « si l’on estime qu’il existe un intérêt légitime à « scraper l’intégralité d’Internet » et toute autre donnée d’entraînement disponible, à quelque fin que ce soit, sans le consentement des utilisateurs, il n’y a guère d’autres traitements qui ne relèveraient pas d’un « intérêt légitime » », commente l’association.

« Celui qui a rédigé ce projet avait une vision étroite de la (prétendue) « course à l’IA » et a tout simplement « balayé » le RGPD de nombreuses façons qui porteront préjudice à des personnes dans des centaines d’autres domaines (minorités, suivi en ligne, personnes souffrant de problèmes de santé, etc.) », a réagi Max Schrems dans son post sur LinkedIn.

« Il ne restera plus rien de la protection des données, car l’IA est omniprésente », considère de la même façon Paul Nemitz, ancien directeur du département juridique de la Commission européenne et un des fondateurs du RGPD.

« Est-ce la fin de la protection des données et de la vie privée telles que nous les avons inscrites dans le traité de l’UE et la charte des droits fondamentaux ? », s’est interrogé un autre des artisans du règlement européen, l’ancien eurodéputé Jan Philipp Albrecht cité par Politico. « La Commission doit être pleinement consciente que cela porte gravement atteinte aux normes européennes », ajoute-t-il.

Le respect d’un « do not track » obligatoire, sauf pour les médias

Le brouillon de la loi « omnibus numérique » prévoit aussi de simplifier l’utilisation des bandeaux de consentement aux cookies. Comme nous l’avions évoqué en septembre dernier, la Commission veut réduire l’affichage des bandeaux qui inondent le web. Elle envisage de mettre en place une automatisation de la réponse, à la manière d’un « do not track » très peu pris en compte actuellement, que l’utilisateur pourrait paramétrer soit dans son navigateur soit dans son système d’exploitation.

Les responsables des sites internet auraient l’obligation de prendre en compte ce mécanisme. Mais les rédacteurs y mettent une exception pour les sites de médias, comme le relève le site Heise. Ainsi, le texte indique que « compte tenu de l’importance du journalisme indépendant dans une société démocratique et afin de ne pas compromettre sa base économique, les fournisseurs de services de médias ne devraient pas être tenus de respecter les indications lisibles par machine relatives aux choix des personnes concernées ».

Cela permettrait aux médias de passer outre le consentement des utilisateurs et leur garantir la pérennité de leurs revenus provenant des publicités ciblées.

Le FBI cherche à obtenir l’identité du responsable d’Archive.today

7 novembre 2025 à 17:21
Police de l'Internet : vous avez vos papiers ?
Le FBI cherche à obtenir l’identité du responsable d’Archive.today

Le service de renseignement états-unien est à la recherche de la personne responsable d’un des sites d’archivage en ligne les plus connus, Archive.today, aussi connu par son autre nom de domaine archive.is. Le FBI a envoyé une injonction au bureau d’enregistrement Tucows pour récupérer les données personnelles associées.

Le 31 octobre dernier, Archive.today a posté sur X un lien vers une injonction faite au bureau d’enregistrement de son nom de domaine Tucows. Celle-ci demande au registrar canadien (un des plus importants dans le monde) de transmettre toutes les données relatives au client qui détient archive.today.

Archive.today, connu aussi sous le domaine archive.is ou archive.ph, c’est l’un des sites d’archivage du web les plus connus. Il existe depuis 2012 et on peut y accéder via différents noms de domaine du même genre, avec même un .onion utilisable via le protocole Tor.

Mais, contrairement à Internet Archive, dont la Wayback Machine propose d’accéder aux archives du web depuis 2001, Archive.today n’est pas une organisation à but non lucratif ayant pignon sur rue.

Utilisé pour passer outre les Paywalls

Le site permet à un utilisateur d’archiver une page qui pourra ensuite être consultée par d’autres. Ce mécanisme est massivement utilisé par des internautes pour passer outre les paywalls des différents médias. Sur sa page de FAQ, on peut y lire qu’il utilise Apache Hadoop et Apache Accumulo et que « toutes les données sont stockées sur HDFS, le contenu textuel est dupliqué trois fois entre les serveurs de différents centres de données et les images sont dupliquées deux fois ». Et selon cette même page, « tous les datacenters sont situés en Europe » (peut-être chez OVH). Mais aucune mention légale n’apparait concernant le responsable du site.

Comme le remarque le média allemand Heise, les pages de l’injonction faite par le FBI à Tucows ne permettent pas de savoir pourquoi le service de renseignement états-unien cherche à connaître l’identité du responsable du site. Le tweet posté par le compte d’Archive.today sur X accompagne le lien d’un simple « canary », faisant référence à l’utilisation du petit oiseau jaune dans les mines pour détecter le coup de grisou avant qu’il n’effondre les fondations souterraines.

Un « outil fragile » qui est « condamné à mourir »

La connaissance d’une telle injonction est le signal que le FBI enquête. Mais il n’en dit pas beaucoup plus sur le sujet. Est-ce l’enjeu de la sauvegarde massive de contenus d’éditeurs de médias états-uniens ? Est-ce celle de contenus problématiques ? Le FBI enquête-t-il sur les sources de financement du site ? Il est difficile de savoir quelle est la raison exacte.

Si personne n’a jamais revendiqué la responsabilité du site, en 2023, le blogueur Janni Patokallio a publié un billet sur le site dans lequel il cite le nom de la première personne ayant enregistré le domaine archive.is en 2012. « Même si nous ne connaissons ni son visage ni son nom, nous avons désormais une assez bonne idée du fonctionnement du site : il s’agit d’une œuvre passionnée menée par une seule personne, un Russe doté d’un talent considérable et d’un accès à l’Europe », concluait-il de ses recherches.

Comme le faisait remarquer Janni Patokallio, le créateur d’Archive Today est pleinement conscient que le site est un « outil fragile » qui est « condamné à mourir » un jour.

☕️ Meta lance Vibes en Europe

7 novembre 2025 à 12:33

L’entreprise de Mark Zuckerberg explique dans un communiqué publié jeudi 6 novembre que la nouvelle version de son application Meta AI disponible en Europe contient maintenant le fameux flux Vibes.

Meta avait annoncé l’arrivée de cette fonctionnalité fin septembre, mais elle n’était pas encore disponible en Europe. OpenAI lui avait rapidement emboité le pas en sortant aux États-Unis son application Sora.

Avec Vibes et Sora, les deux entreprises se sont lancées dans une course à une nouvelle sorte de flux sur le même principe que TikTok mais ne contenant que des contenus générés par IA.

Selon Meta, « Vibes est un espace dédié à la création, au remixage et au partage de vidéos courtes générées par l’IA, qui vous permet de vous exprimer de manière nouvelle et innovante ».

De son côté, Sora ne reste officiellement disponible pour l’instant qu’au Canada, en Corée du Sud, au Japon, aux États-Unis, au Viêt Nam, en Thaïlande et à Taiwan.

Sanctions US : YouTube a supprimé 700 vidéos d’ONG palestiniennes en lien avec la CPI

7 novembre 2025 à 11:53
Broadcast Yourself, mais pas à Gaza
Sanctions US : YouTube a supprimé 700 vidéos d’ONG palestiniennes en lien avec la CPI

YouTube a supprimé les comptes de trois ONG palestiniennes début octobre, et par la même occasion plus de 700 vidéos sur les conséquences de l’invasion de Gaza par Israël. Cela fait suite aux sanctions décidées par Donald Trump contre la Cour pénale internationale, les trois ONG l’ayant aidée dans ses enquêtes.

Début octobre, YouTube a supprimé, sans les prévenir, les chaines de trois organisations non gouvernementales, le Centre Al-Mezan pour les droits humains, Al-Haq et le Centre palestinien pour les droits humains. Selon The Intercept qui a révélé cette suppression, plus de 700 vidéos ont disparu avec ces trois chaines, compilant des heures d’images documentant la situation à Gaza et les suspicions de crimes de guerre d’Israël sur lesquels la Cour pénale internationale devra se prononcer.

Toutes les vidéos ne sont pas perdues. Ainsi, par exemple, on peut voir sur la Wayback Machine d’Internet Archive la vidéo d’une analyse sur la mort de la journaliste américano-palestinienne d’Al Jazeera, Shireen Abu Akleh. On peut aussi retrouver cette vidéo sur la page Vimeo de l’ONG. Mais ces plateformes pourraient elles aussi être contraintes par les États-Unis de supprimer ces contenus.

YouTube suit des sanctions ciblées prononcées par Marco Rubio

Car YouTube (dont la maison mère est Google) a suivi la décision de sanctions prises par l’administration Trump envers ces trois ONG. « Google s’engage à respecter les sanctions applicables et les lois en matière de conformité commerciale », a affirmé YouTube dans un communiqué envoyé en réponse à The Intercept.

Comme plusieurs juges de la Cour pénale internationale visés nommément par l’administration Trump, les trois ONG ont été l’objet d’une décision du secrétaire d’État américain, Marco Rubio début septembre.

« Ces entités ont directement participé aux efforts déployés par la Cour pénale internationale (CPI) pour enquêter, arrêter, détenir ou poursuivre des ressortissants israéliens, sans le consentement d’Israël », affirmait Marco Rubio dans un communiqué annonçant la désignation du Centre Al-Mezan pour les droits humains, d’Al-Haq et du Centre palestinien pour les droits humains. Le secrétaire d’État américain n’évoque aucune autre raison que leurs liens avec l’autorité judiciaire internationale pour justifier cette désignation.

La CPI sanctionnée depuis février

Rappelons qu’en février dernier, Donald Trump a publié un décret imposant « des sanctions à l’encontre de la Cour pénale internationale » en réaction à l’émission des mandats d’arrêt à l’encontre de Benyamin Nétanyahou et de l’ancien ministre israélien de la Défense Yoav Gallant. C’est sur la base de ce décret que s’appuie Marco Rubio pour sanctionner les trois ONG accusées de collaborer avec la CPI.

Selon The Intercept, c’est la première fois que les États-Unis prennent de telles sanctions contre des ONG qui accumulent des informations pour d’éventuelles poursuites en justice.

« Je suis très choquée que YouTube fasse preuve d’un tel manque de courage », explique à The Intercept la responsable de l’association états-unienne Democracy for the Arab World Now, Sarah Leah Whitson. « Il est vraiment difficile d’imaginer un argument sérieux selon lequel le partage d’informations provenant de ces organisations palestiniennes de défense des droits humains violerait d’une manière ou d’une autre les sanctions. Il est décevant et assez surprenant que YouTube cède à cette désignation arbitraire de ces organisations palestiniennes et décide désormais de les censurer. »

☕️ ChatGPT « coach pour suicide » ? 7 plaintes l’accusent de manipulation émotionnelle

7 novembre 2025 à 09:55

Ce jeudi 6 novembre, OpenAI a été citée dans sept plaintes déposées devant des cours de justice californiennes. L’organisation Social Media Victims Law Center (SMVLC) explique avoir déposé ces plaintes dans des cas concernant 6 adultes et un adolescent de 17 ans.

OpenAI et Sam Altman y sont accusés d’accident mortel, de suicide assisté, d’homicide involontaire et de négligence.

Concernant l’adolescent, la plainte affirme que « le produit ChatGPT, défectueux et intrinsèquement dangereux, a provoqué une dépendance, une dépression et, finalement, lui a conseillé la manière la plus efficace de faire un nœud coulant en lui indiquant combien de temps il pourrait « vivre sans respirer » », explique l’Associated Press. Les avocats y écrivent que « la mort d’Amaurie n’était ni un accident ni une coïncidence, mais plutôt la conséquence prévisible de la décision délibérée d’OpenAI et de Samuel Altman de réduire les tests de sécurité et de précipiter la mise sur le marché de ChatGPT ».

CNN raconte les 70 pages d’échanges entre un adulte de 23 ans et ChatGPT qui l’a accompagné jusqu’à son suicide le 25 juillet dernier. SMVLC donne des informations sur les autres cas dans son communiqué.

Ce ne sont pas les premières plaintes sur le sujet. En août dernier, on apprenait qu’OpenAI était poursuivi en justice après le suicide d’un adolescent. Mais le créateur de ChatGPT n’est pas le seul à être pointé du doigt. La FTC a ouvert une enquête sur les conséquences des chatbots de Google, Meta, Instagram, OpenAI, Snap, xAI et CharacterAI sur les mineurs en septembre dernier.

Il y a un an, le New York Times se demandait si on pouvait « blâmer l’intelligence artificielle pour le suicide d’un adolescent » dans une affaire impliquant CharacterAI.

☕️ De l’IA dans Tinder pour analyser les données et photos des utilisateurs

6 novembre 2025 à 09:01

Match Group, géant des applications de rencontres, a expliqué aux investisseurs qu’il allait utiliser l’IA pour traiter les données de ses utilisateurs et leur proposer une nouvelle fonctionnalité. Celle-ci, nommée Chemistry, explique TechCrunch, s’appuiera sur des questions posées aux utilisateurs et sur leurs photos (avec leur permission) pour proposer des « matchs » qui se voudront plus affinés.

Chemistry est déjà testée en Nouvelle-Zélande et en Australie et doit, selon le CEO de Match Group, Spencer Rascoff, devenir le « pilier majeur de l’expérience produit de Tinder en 2026 ».

Tinder utilise déjà l’IA générative pour la modération des discussions privées : l’application demande à l’utilisateur s’il est sûr de vouloir envoyer un message étiqueté comme potentiellement offensant par le système. L’application propose aussi d’aider l’utilisateur à choisir les photos à mettre en avant.

Match Group semble vouloir relancer son application phare avec l’IA alors que le groupe a indiqué que les revenus de Tinder avaient baissé de 3 % au troisième trimestre comparé à celui de l’année dernière et qu’elle voit son nombre d’utilisateurs payants baisser de 7 %.

La bataille des éditeurs de presse face à Common Crawl continue

5 novembre 2025 à 14:33
Common or paywalled ?
La bataille des éditeurs de presse face à Common Crawl continue

Alors que Common Crawl fournit des téraoctets de données d’entrainement aux entreprises d’IA générative, l’organisation est accusée de récupérer des contenus placés derrière des paywalls. La presse, en France ou ailleurs, essaye de bloquer l’aspiration de ses contenus via des procédures judiciaires, mais la plupart des paywalls laissent des trous pour jouer le jeu de l’indexation dans les moteurs de recherche.

La base de données Common Crawl est sous le feu des critiques de la presse parce qu’elle fournit aux entreprises d’IA générative comme OpenAI, Google, Anthropic, Nvidia, Meta ou Amazon énormément de contenus pour l’entrainement de leurs modèles.

La plupart des grands modèles de langage s’appuient, depuis leurs origines, sur cette base de données. Celle-ci regroupe des téraoctets de textes moissonnés sur le web. Tous les mois, une nouvelle archive est publiée par Common Crawl, gérée par une structure à but non lucratif.

Ainsi, le lot d’octobre 2025 contient 2,6 milliards de pages web, correspondant à 126 téraoctets de données compressées. Si la légalité de ce genre de moissonnage pour la recherche ou pour l’indexation ne fait pas de doute, il y en a plus pour des projets commerciaux d’IA générative, notamment car leurs systèmes peuvent régurgiter les contenus qui sont sous copyright ou sous d’autres régimes de droit d’auteurs.

Des articles sous paywall dans Common Crawl ?

Ce lundi 4 novembre, The Atlantic a publié un article à propos de la base de donnée qui accuse la structure à but non lucratif d’avoir ouvert une porte dérobée (backdoor) pour les entreprises d’IA leur permettant d’entrainer leurs modèles sur les articles de presse sous paywall, et de mentir à ce sujet aux éditeurs de presse.

Notre confrère, Alex Reisner, estime que les archives de Commons Crawl contiennent « des millions d’articles provenant d’organismes de presse du monde entier, notamment The Economist, Los Angeles Times, The Wall Street Journal, The New York Times, The New Yorker, Harper’s et The Atlantic ».

En France, l’Alliance de la presse d’information générale (APIG) et le Syndicat des éditeurs de la presse magazine (SEPM) sont passés à la vitesse supérieure début septembre en mettant en demeure début septembre Common Crawl de retirer les sites de leurs membres de son archivage.

Retrait des articles de 81 éditeurs français

Un mois après, les deux lobbys de la presse ont obtenu le retrait des contenus de 81 éditeurs. Dans une interview au Journal du Net publiée début septembre, Léa Boccara, responsable du pôle juridique et des affaires publiques de l’Alliance, accusait aussi l’organisme à but non lucratif d’archiver des articles payants : « Nous sommes face à un crawling de masse d’articles et d’extraits d’articles, qui contourne les paywalls ». Elle rejoint ainsi les accusations lancées par The Atlantic.

On peut facilement imaginer, comme nos confrères états-uniens l’affirment, que Common Crawl ne se logue pas à chaque site d’information pour aspirer les contenus, mais qu’il contourne les paywalls. Et, en effet, de nombreux systèmes utilisés par la presse pour bloquer l’accès à leurs contenus se contentent de cacher avec du code javascript le texte des articles. Ainsi, alors qu’un navigateur ne l’affichera pas à l’utilisateur lambda d’un navigateur, un crawler peut facilement le récupérer.

Ajoutons qu’une bonne partie des éditeurs de presse savent que, derrière ce genre de « paywall », leurs contenus ne sont que vaguement protégés, ce qui permet de laisser les robots des moteurs de recherche classiques moissonner ces articles, et de mieux les valoriser dans leurs résultats.

Common Crawl réfute

Common Crawl a réagi à l’article de The Atlantic dans un billet publié le même jour. L’organisation réfute les accusations de mensonges envers les éditeurs de presse : « Cela donne une image fausse du fonctionnement de Common Crawl et des valeurs qui guident notre travail ». Elle ajoute : « Nous ne contournons pas les « paywalls », ne nous connectons à aucun site web et n’utilisons aucune méthode visant à contourner les restrictions d’accès ».

Elle affirme avoir toujours eu une approche transparente en publiant le code de son crawling et en le documentant publiquement, en identifiant l’user agent « CCBot » de son bot de crawling, en respectant les robots.txt et en se conformant « aux demandes de retrait et de suppression qui nous sont envoyées de bonne foi ».

Dans l’article de The Atlantic, le responsable de Common Crawl, Rich Skrenta, avait été plus direct, répondant que les éditeurs faisaient une erreur en s’excluant d’eux-mêmes de la « recherche 2.0 ». Il ajoutait : « Vous n’auriez pas dû publier votre contenu sur Internet si vous ne vouliez pas qu’il figure sur Internet ».

Enjeu économique avec des contrats à la clé

Reste que la presse n’engage pas ces démarches pour bloquer entièrement tout accès à leurs articles payants aux entreprises d’IA générative. En effet, comme l’explique l’Alliance de la presse d’information générale il y a là « un enjeu économique majeur » autour d’accords financiers avec ces mêmes entreprises d’IA.

Le Monde et Prisa Media ont, par exemple, dès le début de l’année 2024, signé des contrats avec OpenAI. L’Alliance s’appuie d’ailleurs sur l’exemple des accords noués avec Google sur les droits voisins concernant son moteur de recherche.

Louis Dreyfus, président du directoire du journal, expliquait encore récemment à l’INA que son groupe de presse a « vocation à signer d’autres accords avec d’autres acteurs ». Si Le Monde a aussi signé un contrat avec Perplexity, le responsable du journal explique que celle-ci n’a pas la possibilité d’entrainer de LLM avec ses articles, contrairement à OpenAI.

☕️ TikTok : enquête ouverte en France sur la mise en avant de contenus poussant au suicide

5 novembre 2025 à 08:49

Le parquet de Paris a ouvert une enquête préliminaire sur le fonctionnement de l’algorithme de TikTok, a-t-il annoncé dans un communiqué envoyé à l’AFP.

Cette procédure judiciaire fait suite au signalement du député Arthur Delaporte, président de la commission d’enquête parlementaire « sur les effets psychologiques de TikTok sur les mineurs ». Annonçant la saisie de la procureure de la République de Paris, Laure Beccuau, il avait affirmé le 11 septembre dernier : « Le constat est sans appel : TikTok a délibérément mis en danger la santé, la vie de ses utilisateurs », ajoutant : « Il me semble qu’il y a des infractions qui sont de nature pénale, de complicité active ».

Accablant pour la plateforme chinoise, le rapport des députés proposait 43 recommandations, dont l’interdiction des réseaux sociaux aux moins de 15 ans ainsi qu’un couvre-feu numérique pour les 15 – 18.

TikTok

Selon l’AFP, l’enquête a été confiée à la brigade de lutte contre la cybercriminalité de la préfecture de police de Paris. Elle devra se pencher sur les soupçons de « propagande en faveur de produit, objet ou méthode préconisés comme moyens de se donner la mort », de « fourniture de plateforme en ligne pour permettre une transaction illicite en bande organisée » et d’« altération du fonctionnement d’un système de traitement automatisé de données en bande organisée ».

Selon la procureure, l’enquête concernera « le respect de l’obligation de notification par une plateforme des soupçons d’infractions commises par son intermédiaire », le « fonctionnement de l’algorithme par rapport à la présentation qui en est faite à son utilisateur » et « l’édition de contenus consistant notamment à la promotion du suicide ».

« Nous réfutons fermement les accusations », a réagi la plateforme dans un communiqué envoyé à l’agence de presse. Elle ajoute qu’elle a mis en place « plus de 50 fonctionnalités et paramètres prédéfinis spécialement conçus pour assurer la sécurité et le bien-être des adolescents ».

La question des pensées suicidaires concerne aussi bien les réseaux sociaux que les algorithmes des IA. Fin aout, OpenAI avait été poursuivi en justice après le suicide d’un adolescent. La société avait annoncée dans la foulée la mise en place d’un contrôle parental. Récemment, l’entreprise américaine annonçait que 0,15 % des utilisateurs ont des « conversations qui incluent des indicateurs explicites de planification ou d’intention suicidaire potentielle », soit 1,2 million de personnes tout de même.

☕️ Les studios japonais demandent à OpenAI de ne plus utiliser leurs productions dans Sora

4 novembre 2025 à 09:07

Le lobby japonais Content Overseas Distribution Association (CODA), représentant de nombreux studios d’éditeurs de dessins animés et de jeux vidéo, a envoyé une lettre lundi 27 octobre à OpenAI pour protester contre l’utilisation de nombreuses de leurs productions pour entrainer Sora 2, comme le rapporte Automaton.

« CODA a confirmé qu’une grande partie du contenu produit par Sora 2 ressemble fortement à du contenu ou à des images japonais. CODA a déterminé que cela résulte de l’utilisation de contenu japonais comme données d’apprentissage automatique. Dans les cas où, comme avec Sora 2, des œuvres spécifiques protégées par le droit d’auteur sont reproduites ou générées de manière similaire, CODA considère que l’acte de reproduction pendant le processus d’apprentissage automatique peut constituer une violation du copyright », explique le lobby.

le problème de l'IA générative avec les copyrights

Coda rassemble des studios de dessins animés comme Aniplex, Studio Ghibli, de jeux vidéo comme Bandai Namco et Square Enix, des maisons d’édition de mangas comme Shueisha ou encore le conglomérat Kadokawa.

OpenAI a mis en place un système d’opt-out permettant aux ayants droit de demander que Sora ne génère plus de contenus ressemblant à leurs contenus. Mais CODA affirme que « dans le cadre du système japonais du copyright, une autorisation préalable est généralement requise pour l’utilisation d’œuvres protégées par le copyright, et il n’existe aucun système permettant d’échapper à la responsabilité en cas de violation par le biais d’objections ultérieures ».

Depuis le lancement de Sora, OpenAI ne se cache pas d’utiliser les productions japonaises, allant jusqu’à utiliser le style du réalisateur anti-IA Miyazaki pour la promotion de ses modèles.

Le 10 octobre, Minoru Kiuchi, le ministre japonais chargé de la sécurité économique et de la propriété intellectuelle, expliquait avoir lui aussi demandé à OpenAI d’arrêter d’utiliser les productions japonaises sans le consentement des studios. Le député japonais Akihisa Shiozaki affirmait récemment que « l’IA est en train de dévorer la culture japonaise ».

États-Unis : reconnaissances biométriques sans échappatoire pour les contrôles d’identité

3 novembre 2025 à 17:06
ICEtagram
États-Unis : reconnaissances biométriques sans échappatoire pour les contrôles d’identité

L’ICE, la police de l’immigration états-unienne, utilise une application de reconnaissance faciale pour vérifier l’identité des personnes qu’elle contrôle dans la rue. Selon des documents du département de la Sécurité intérieure des États-Unis, il ne serait pas possible de refuser le scan de son visage.

Les agents de l’ICE, les services d’immigration étatsuniens, ont maintenant à leur disposition une application de reconnaissance faciale. Celle-ci leur permet de vérifier l’identité de personnes qu’ils arrêtent dans la rue sans qu’elles ne puissent refuser. Depuis des mois, plusieurs vidéos circulent sur les réseaux sociaux, montrant que les agents de l’ICE n’hésitent pas à s’en servir pour contrôler des jeunes en vélo, des personnes dans leur voiture ou à pied.

Cet été, 404 Media révélait que les agents de l’ICE pouvaient utiliser via leur smartphone une application dédiée : Mobile Fortify.

Celle-ci permet aux utilisateurs de vérifier l’« identité biométrique en temps réel grâce à la capture d’empreintes digitales sans contact et d’images faciales », deux fonctionnalités directement disponibles sur le smartphone fourni par l’ICE à ses agents, expliquait un email interne de l’ICE qu’ont pu obtenir nos confrères.

Mobile Fortify s’appuie sur la base de données de photos prises aux douanes des États-Unis par la CBP (Customs and Border Protection), l’autre agence de l’immigration états-unienne.

Impossible de refuser

Mais, selon des documents officiels du département de la Sécurité intérieure des États-Unis récemment obtenus par 404 Media, il serait impossible pour les personnes contrôlées de refuser la reconnaissance faciale effectuée par Mobile Fortify. L’agence a donné très peu d’informations sur cette application.

En septembre dernier, explique le Chicago Sun Times, neuf sénateurs démocrates ont écrit [PDF] au directeur de l’ICE pour avoir plus d’informations sur cette application qui « permettrait aux agents de pointer un smartphone vers le visage ou les empreintes digitales d’une personne et de l’identifier grâce à une comparaison biométrique avec plusieurs bases de données fédérales ». Le média de l’Illinois explique d’ailleurs qu’elle n’est qu’une partie d’« un arsenal croissant » d’outils biométriques de vérification d’identité et de statut, citant aussi la reconnaissance de l’iris, l’utilisation de lecteurs de plaques d’immatriculation et la comparaison des empreintes digitales dans les diverses bases de données de police et de services d’immigration.

Les documents obtenus par 404 Media confirment que Mobile Fortify utilise la base de données du « service de vérification des voyageurs » du CBP mais aussi d’autres bases de données pour chercher une correspondance avec le visage de la personne interpelée parmi 200 millions d’images.

Des données stockées pendant 15 ans

Selon l’un des documents, les données de n’importe quelle personne peuvent être collectées : « bien que l’application Mobile Fortify ait pour objectif d’identifier les étrangers susceptibles d’être expulsés des États-Unis, les utilisateurs peuvent l’utiliser pour collecter des informations identifiables sur des individus, indépendamment de leur citoyenneté ou de leur statut d’immigration. Il est concevable qu’une photo prise par un agent à l’aide de l’application mobile Mobile Fortify puisse être celle d’une personne autre qu’un étranger, y compris un citoyen américain ou un résident permanent légal ». D’ailleurs, comme le fait remarquer ArsTechnica, dans cette vidéo où l’agent de l’ICE demande de scanner le visage de la personne, celle-ci affirme être un citoyen américain et avoir déjà montré sa carte d’identité.

Les photos pourront ensuite être utilisées par le CBP pendant des années : « le CBP enregistre les nouvelles photographies et empreintes digitales, prises à l’aide de Mobile Fortify […] et les conserve pendant 15 ans ». Si l’application est censée servir en priorité aux agents de l’ICE, 404 Media note que les documents prévoient que les agents du CBP assignés à des tâches de l’ICE peuvent aussi l’utiliser. Et nos confrères soulignent que des dizaines de milliers d’agents ont été réassignés à l’ICE récemment.

« Les responsables de l’ICE nous ont dit qu’une correspondance biométrique apparente établie par Mobile Fortify constituait une détermination « définitive » du statut d’une personne et qu’un agent de l’ICE pouvait ignorer les preuves de citoyenneté américaine, y compris un certificat de naissance, si l’application indiquait que la personne était un étranger », explique l’élu démocrate à la Chambre des représentants, Bennie G. Thompson interrogé par Arstechnica. Selon lui, cette application est « dangereuse » et constitue une « attaque inconstitutionnelle contre les droits et libertés des Américains ».

« Nous aurions dû interdire l’utilisation de la reconnaissance faciale par le gouvernement lorsque nous en avions l’occasion, car elle est dangereuse, invasive et constitue une menace inhérente aux libertés civiles », s’est lamenté Matthew Guariglia de l’Electronic Frontier Foundation auprès de 404 Media.

☕️ Bluesky : 40 millions d’utilisateurs et un bouton « je n’aime pas » en test

3 novembre 2025 à 11:29

Vendredi 31 octobre, Bluesky a annoncé avoir atteint la barre des 40 millions d’utilisateurs. Le réseau social dirigé par Jay Graber a multiplié par 2,5 son volume d’usagers depuis la mi-novembre 2024. À l’époque, le réseau était notamment porté par l’interdiction de X au Brésil et la réaction d’électeurs démocrates face à la victoire de Donald Trump lors des élections présidentielles aux États-Unis et le soutien d’Elon Musk, patron de X.

Logo de Bluesky

Le réseau semble vouloir drainer un public plus large encore. Dans un billet de blog publié le même jour, Bluesky affirme vouloir « des échanges amusants, authentiques et respectueux qui permettent de nouer des amitiés, et nous prenons des mesures pour y parvenir », alors que le réseau a essuyé récemment des critiques à propos de sa non-modération et de sa prise à la légère de propos anti trans.

Bluesky annonce dans ce billet qu’il va tester un bouton « dislike » (je n’aime pas) qui doit « aider le système à comprendre quels types de publications vous préférez voir moins souvent ». Beaucoup de réseaux sociaux ont déjà testé ce genre de fonctionnalités. Si l’option « je n’aime pas » peut être utilisée contre le harcèlement, on a pu voir sur YouTube des harceleurs la détourner en faisant du « dislike bombing », poussant la plateforme à cacher le nombre de pouces baissés à ses utilisateurs.

Dans ce nouveau système, Bluesky assure que les dislikes doivent « aider système à comprendre les types de publications que vous préférez voir moins souvent ». « Ils peuvent également influencer légèrement le classement des réponses, réduisant ainsi la visibilité des réponses de mauvaise qualité », explique encore la plateforme. « Les mentions « dislike » sont privées et leur signal n’est pas global : elles affectent principalement votre propre expérience et, dans une certaine mesure, celle des autres membres de votre réseau social », précise-t-elle.

❌