For the greater good
Depuis quelques jours, la presse américaine évoque les « OpenAI Files ». Ce regroupement d’informations, essentiellement des témoignages, a été créé par deux ONG pour sensibiliser sur la gouvernance actuelle d’OpenAI. Particulièrement visé, Sam Altman n’est pas jugé digne de mener la course vers l’AGI.
Les « OpenAI Files » ne sont pas une compilation de documents volés, comme l’ont été en leur temps les fameux Pentagon Papers ou, plus récemment, les publications de WikiLeaks et les Panama Papers. Il s’agit d’une bibliothèque regroupant de nombreux témoignages, dont d’anciens employés de l’entreprise.
Ces « dossiers OpenAI », et le site qui les accompagne, ont été créés par deux organisations, Midas Project et Tech Oversight Project, spécialisées dans la surveillance technologique. Ils se veulent « la collection la plus complète à ce jour de préoccupations documentées concernant les pratiques de gouvernance, l’intégrité du leadership et la culture organisationnelle d’OpenAI ».
Que disent ces dossiers ?
Le site contient de nombreuses informations faisant le tour d’une thématique centrale : la gouvernance d’OpenAI et donc l’influence de Sam Altman, son CEO actuel.
On rappelle ainsi qu’OpenAI a été fondée en 2015 en tant qu’organisation à but non lucratif dans un seul but : parvenir à l’AGI (intelligence artificielle générale) et s’assurer qu’elle profite à toute l’humanité. Mais, dès 2019, une filiale à but lucratif est créée pour faciliter les investissements. Elle fonctionne sur la base d’un facteur 100x. Ainsi, chaque dollar investi ne peut rapporter qu’un maximum de 100 dollars. Au-delà, les profits partent à la structure d’origine, qui a en théorie le contrôle sur toutes les décisions. Ce chiffre aurait depuis été abaissé à 20x, puis à « un seul chiffre », selon un article du New York Times en 2021.
Les dossiers dressent un inventaire de tout ce qui s’est passé dans l’entreprise, à travers le prisme d’une AGI qui profiterait véritablement à tout le monde.
Éviction de Sam Altman, le choc de 2023
L’idée de constituer cette base n’est pas neuve. Elle est née en 2023 avec l’épisode rocambolesque de l’éviction de Sam Altman du conseil d’administration et de sa place de CEO. On apprenait peu après que le conseil d’administration lui reprochait un « manque constant de franchise dans ses communications ». Il n’avait donc plus confiance en la capacité d’Altman à diriger et à respecter la mission d’origine.
Mais, comme nous l’avions relaté, tout s’est très vite déréglé. La quasi-totalité des employés (plus de 700 sur 770) a menacé de démissionner pour suivre Altman, où qu’il aille. Dès le lendemain, Microsoft faisait une annonce tonitruante : Sam Altman est embauché pour créer une nouvelle division IA au sein du géant et tous ceux qui le voudront pour l’accompagner. Microsoft est à ce moment, et de très loin, le plus gros investisseur d’OpenAI, avec 13 milliards de dollars et des contrats d’exclusivité.
La pression qui s’exerce alors sur le conseil d’administration devient trop forte. Devant la fronde générale et plutôt que de provoquer l’implosion de l’entreprise, le conseil d’administration se ravise, capitule et fait revenir Sam Altman dans ses attributions. Le nouvel ex-CEO provoque le remaniement complet du conseil. En tout, il se sera écoulé moins de cinq jours.
Les dossiers reviennent sur ces évènements, via notamment les témoignages d’Helen Toner et Tasha McCauley, deux anciennes membres du conseil d’administration. On y retrouve des passages et résumés de leurs déclarations dans divers médias et podcasts. Elles y dénonçaient son manque de transparence et ses mensonges répétés, comme lorsque le conseil a découvert le lancement de ChatGPT sur le compte Twitter d’OpenAI. Altman aurait créé le fonds d’investissement OpenAI Startup Fund sans informer le conseil, masquant un conflit d’intérêt. Il serait également la source d’une atmosphère toxique, de manœuvres d’intimidation et même de tentatives de manipulation du conseil, notamment pour faire renvoyer Helen Toner.
Quatre grands domaines de préoccupation
Sur le site des dossiers, on trouve des informations réparties en quatre onglets, qui représentant autant de domaines de préoccupation : restructuration, intégrité du CEO, transparence & sécurité, et conflits d’intérêt.
Chaque onglet liste plusieurs sujets forts et s’accompagne d’un bouton menant vers une « analyse complète ». Dans les conclusions de l’onglet Restructuration, on peut ainsi lire qu’OpenAI compte supprimer le plafond des bénéfices, que l’entreprise n’est pas sincère dans sa volonté de laisser la structure à but non lucratif en charge des décisions, ou encore qu’elle procèderait à tous ces changements pour rassurer des investisseurs désireux d’apporter des réformes structurelles. Ils auraient notamment demandé des rendements illimités sur les investissements, ce qui couperait tout financement à la structure d’origine. Et pour cause : en septembre 2024, Sam Altman ne cachait plus ses ambitions.
L’intégrité du CEO est pointée du doigt, ou plutôt son absence présumée d’intégrité. Selon les informations recueillies, les cadres supérieurs de chacune des trois entreprises qu’il a dirigées ont tenté de le démettre de ses fonctions. Son comportement à Y Combinator aurait été qualifié de « trompeur et chaotique », avec des accusations d’absentéisme et de course à l’enrichissement personnel. Il aurait menti sur les accords très restrictifs de non-divulgation (NDA) imposés aux salariés et aurait cherché à semer la zizanie dans le conseil d’administration, en faisant notamment courir le bruit qu’un membre cherchait à en évincer un autre.
Ces NDA sont d’ailleurs un argument central dans la partie critiquant la transparence et la sécurité au sein de l’entreprise. Ces documents menaçaient les employés de perdre tous leurs droits acquis s’ils critiquaient l’entreprise, même en cas de démission. Les évaluations de sécurité auraient été bâclées et l’entreprise n’aurait pas respecté ses engagements sur l’écoute de ses employés, surtout quand ils auraient cherché à faire part de leurs préoccupations.
Enfin, les dossiers pointent de nombreux conflits d’intérêt, notamment au sein du « nouveau » conseil d’administration, à commencer par Sam Altman lui-même. Il aurait ainsi répété devant le conseil n’avoir aucun intérêt personnel financier dans OpenAI, mais aurait nettement investi dans plusieurs partenaires de l’entreprise, dont Retro Bioscences et Rewind AI, dont le succès est alimenté en partie par celui d’OpenAI.
L’idéal derrière les OpenAI Files
Les dossiers, en recoupant de nombreux témoignages, cherchent à mettre une certaine forme de pression sur une entreprise accusée d’avoir modifié sa course et ses objectifs. Le remaniement du conseil d’administration, suite au retour de Sam Altman, en serait la preuve éclatante. Parmi les nouveaux arrivants, on pouvait en effet remarquer des personnalités telles que Bret Taylor, ancien co-dirigeant de Salesforce, ou encore Larry Summers, ancien secrétaire au Trésor américain.
Dans le sillage de ces nouvelles nominations, le conseil a diligenté une enquête interne sur le renvoi de Sam Altman. Conclusion : le renvoi n’était pas justifié par des préoccupations concernant la sécurité des produits, la situation financière de l’entreprise ou ses déclarations aux investisseurs. Les déclarations des anciens membres, particulièrement d’Helen Toner, sont réfutées, le conseil ayant exprimé sa « déception » de la voir soulever des sujets qu’il considère comme classés.
Les deux organisations à l’origine de ces OpenAI Files pointent ce qui est désormais décrit comme un conflit philosophique profond au sein de l’entreprise. Sa charte fondatrice contenait des missions de sécurité et d’éthique. Mais tout aurait changé sous l’impulsion d’une course effrénée au développement et à la commercialisation de produits, largement alimentée par Sam Altman. En filigrane, on retrouve la crainte que la pression pour générer des profits ne prenne définitivement le pas sur l’idée d’une IA sûre, éthique et responsable. Cette tension structurelle aurait été illustrée dès 2019 par la création de l’entité à but lucratif.
En mai, alors qu’une partie des documents était déjà publiée, OpenAI a quand même annoncé un changement de gouvernance. Pas question d’entreprise à but lucratif classique, mais une structure capitalistique accompagnée d’une mission d’intérêt public (Public Benefit Corporation, ou PBC). « OpenAI n’est pas une entreprise normale et ne le sera jamais », a alors promis Sam Altman.
À The Verge, Tyler Johnston, directeur du Midas Project, a déclaré : « Nous sommes dans un projet d’archives, où nous montrons comment était OpenAI à l’époque, comment elle est aujourd’hui… Nous mettons simplement ces informations devant le lecteur et lui demandons de tirer ses propres conclusions sur ce qu’il doit en faire ». La mission de surveillance va donc continuer, les changements annoncés le mois dernier étant eux aussi référencés.