IA : La Commission européenne a publié son peu contraignant code de bonne conduite
Il ne les engage en rien légalement

Bruxelles a publié mercredi son code de bonne conduite « pour les intelligences artificielles à usage général (GPAI) ». Issu de la collaboration de 13 experts indépendants, il doit aider l’industrie à se conformer aux obligations de l’AI act.
C’est en trois parties que la Commission a publié son code de bonne conduite « pour les intelligences artificielles à usage général (GPAI) » ce mercredi 8 juillet : un chapitre sur la transparence [PDF], un autre sur le Copyright [PDF] et un dernier sur la sûreté et la sécurité [PDF].
Les intelligences artificielles « à usage général » sont aussi appelés « modèles multimodaux » et sont capables de générer du texte, des images, des vidéos, du code, etc.
Signature volontaire qui n’engage à pas grand chose
Ils ont été rédigés sous la houlette de 13 experts, dont notamment les chercheuses Nuria Oliver (ex Vodafone, Microsoft, Telefónica) et Céline Castets-Renard de l’Université d’Otawa, et les chercheurs Alexander Peukert de l’Université de Francfort et Rishi Bommasani de Stanford.
La signature de ce texte reste à la volonté de chaque entreprise et iEngagement sans trop de frais. La Commission s’en servira par contre comme point de repère et met en avant que cela permettra aux entreprises d’éviter des charges administratives, et d’être plus sûres de ne pas se retrouver dans l’illégalité. Mistral AI a joué le rôle de bon élève européen en annonçant le premier sa signature, affirmant à notre consœur Océane Herrero de Politico que les exigences du code sont « gérables ».
Un formulaire et des engagements peu exigeants sur le respect du copyright et l’encadrement des risques
Le chapitre sur la transparence contient notamment un formulaire standardisé avec toutes les caractéristiques du modèle comme sa licence, une description du processus d’entrainement, des informations sur les données utilisées, la consommation d’énergie, etc.

Le deuxième chapitre, sur le copyright, prévoit que les entreprises s’engagent au respect des lois européennes sur le sujet ainsi que de décrire leur politique pour que cela soit le cas. Elles sont « encouragées » à rendre publique cette politique, mais le document n’engage même pas les signataires à le faire. En signant, les entreprises s’engagent à respecter les bonnes pratiques des robots crawlers (notamment les fichiers robots.txt) et à « atténuer le risque de sorties violant le copyright ».
Enfin, le dernier chapitre se concentre sur les modèles à risque systémique. Les entreprises signataires s’engagent à encadrer leur cycle de vie du développement à la mise en place sur le marché avec les outils de sécurité qui sont maintenant disponibles pour renforcer leur sûreté et leur sécurité.
Mais comme l’ont remarqué nos confrères des Echos, plusieurs choses ont été édulcorées par rapport à la version de travail de mars dernier. Ainsi, des champs sur les performances et limites des modèles ont disparu du premier chapitre. L’exigence de transparence sur les contenus copyrightés utilisés pour l’entrainement n’est plus dans le deuxième. Et pour les modèles à risque systémique, alors que dans la version de travail, le texte engageait les entreprises d’IA à ne pas les utiliser dans des domaines sensibles comme la défense ou les biotechnologies, la version définitive a gommé cette partie.
Le texte accompagne la deuxième phase de l’AI Act qui doit entrer en vigueur le 2 aout prochain, date à laquelle les intelligences artificielles à usage général entrent dans son champ d’application.