©💵©
La startup d’IA générative a accepté d’indemniser les auteurs et autrices des livres qu’elle a utilisés pour entrainer ses modèles après les avoir téléchargés sur des librairies clandestines. La somme totale devra dépasser 1,5 milliard de dollars.
Finalement, la plainte déposée par l’autrice Andrea Bartz ainsi que les auteurs Charles Graeber et Kirk Wallace Johnson en aout 2024 n’ira pas jusqu’au procès. En effet, Anthropic a signé un accord avec leurs avocats concernant l’action collective qu’ils avaient lancé contre l’entreprise qui oblige l’entreprise à verser au moins 1,5 milliard de dollars aux auteurs des livres sur lesquels elle a entrainé les ouvrages.
Ces trois auteurs accusaient Anthropic d’avoir téléchargé des « versions piratées » de leurs travaux, d’en avoir fait des copies et d’avoir « nourri » ses modèles avec. En juin, le juge du district nord de Californie William Alsup avait expliqué que l’entreprise avait le droit d’entrainer ses modèles sur des livres qu’elle avait achetés en version papier, considérant que « l’utilisation pour l’entrainement est incluse dans le fair use ». Mais, concernant ceux qu’Anthropic avait récupérés sur des bibliothèques clandestines en ligne, il indiquait : « Nous aurons un procès sur les copies pirates utilisées pour créer la bibliothèque centrale d’Anthropic et les dommages qui en découlent ».
Ça ne sera donc pas le cas. Anthropic a accepté de mettre en place un fond de compensation des auteurs dont elle a utilisé les œuvres pour entrainer ses modèles sans leur demander l’autorisation. Cela scelle le différend juridique. Ainsi, la startup s’engage, dans l’accord rendu public [PDF], à déposer, en quatre fois, le montant de 1,5 milliard de dollars sur le compte d’un fonds d’indemnisation créé spécialement pour le règlement de cet accord.
3 000 dollars par œuvre
Les avocats de l’entreprise et des auteurs sont encore en train de finaliser la liste des livres qui seront pris en compte. Mais le document explique que, « avec environ 500 000 œuvres dans l’action collective, cela représente un recouvrement brut estimé à 3 000 dollars par œuvre ». Ils ont ajouté que, « si la liste des œuvres dépasse finalement 500 000 œuvres, Anthropic versera alors 3 000 dollars supplémentaires par œuvre ajoutée à la liste des œuvres ».
L’entreprise s’engage aussi à détruire les copies des bases de données LibGen et PiLiMi dans lesquelles elle a récupéré les œuvres (ceci après fermeture de toute action en justice en cours qui en aurait demandé la préservation). En échange, les auteurs qui bénéficieront de l’action collective s’engagent à ne pas attaquer Anthropic sur le sujet pour des actions antérieures au 25 aout 2025. Si l’entreprise continue d’utiliser leurs livres pour entrainer d’autres modèles, ils pourront donc de nouveau déposer plainte.
Un accord « historique »
Les avocats des deux parties qualifient d’« historique » cet accord qui « constituera le plus important recouvrement de Copyright jamais rendu public, dépassant tout autre accord lors d’une action collective en matière de Copyright ou tout autre litige individuel en matière de Copyright ayant fait l’objet d’un jugement définitif ».
Les conseils des auteurs estiment que « cela créera un précédent pour les entreprises d’IA qui paient pour leur utilisation de sites web présumés piratés tels que Library Genesis et Pirate Library Mirror ».
Cet accord est une « étape essentielle pour reconnaître que les entreprises d’IA ne peuvent pas simplement voler le travail créatif des auteurs pour développer leur IA » pour Mary Rasenberger, responsable de l’organisation professionnelle étasunienne Authors Guild qui a réagi dans un communiqué envoyé vendredi à Reuters.
L’accord doit encore attendre d’être approuvé par le juge William Alsup.
Anthropic n’est évidemment pas la seule entreprise d’IA générative à faire face à ce genre d’attaques. Rappelons par exemple les cas d’OpenAI ou de Meta.