« Vol de salaires » : comment la filiale de Scale AI Outlier traite les travailleurs du clic
Aberration

Alors qu’une société comme Scale AI tire largement profit de l’explosion de l’intelligence artificielle générative, le traitement qu’elle réserve aux travailleurs et travailleuses des données interroge.
Au Royaume-Uni, fin 2024, quiconque cherchait de quoi se faire un peu d’argent pouvait se tourner vers le programme d’entraînement de grands modèles de langage Outlier. À une condition près : accepter de n’être payé que 15 dollars de l’heure, soit à peine quelques centimes au-dessus du salaire minimum local.
Seconde condition, que certains travailleurs n’allaient découvrir qu’au fil des tâches : le temps passé à se former pour ces tâches n’était pas payé. Le temps passé à discuter avec les managers, les temps de pause, les réunions, les vacances, rien de tout cela n’était payé. Et si les intéressés tentent de faire des heures supplémentaires, celles-ci sont payées à un taux plus faible – autant de pratiques relativement récurrentes dans l’économie de la plateforme.
Outlier est une filiale de la société Scale AI, spécialiste de l’entraînement des systèmes d’IA dont Meta a racheté 49 % des parts pour 14 milliards de dollars fin juin, et débauché le fondateur Alexandr Wang.
Activités non payées
Que ce soit au Portugal, aux États-Unis, en Allemagne ou en Argentine, la cinquantaine de travailleurs des données interrogés par Algorithm Watch témoignent de pratiques similaires. S’ils incluaient le temps passé en formation, en travail administratif ou en réunion au calcul de leur temps dédié à entraîner des systèmes d’IA, alors le salaire perçu pour leurs tâches d’entraînement serait inférieur aux minimums légaux de chacun de leurs pays.
D’après les sociologues Milagros Miceli et Antonio Casilli, les pratiques consistant à ne pas rémunérer les périodes d’onboarding ou d’heures supplémentaires constituent du « vol de salaires ». D’autant que certains indiquent se retrouver coincés à effectuer des tâches dont le temps de réalisation est indiqué d’une heure, mais qui sont en réalité « trop complexes pour être réalisées en temps et en heure, si bien que la personne réalise bientôt qu’elle dépense bien plus de temps dans cette activité que ce que cette dernière doit leur rapporter ».
De fait, selon une étude menée en 2022 auprès d’employés des pays du sud, près de 34 % du temps alloué aux plateformes d’entrainement de système d’IA n’était pas payé. Auprès de Next, Antonio Casilli qualifiait l’IA d’industrie extractiviste, tant pour ses besoins en ressources matérielles et en énergie que pour le traitement qu’elle réservait aux entraîneurs et modérateurs de ses différents modèles.
Suspension inexpliquées et salaires non versés
Dans certains cas, les travailleurs ne sont même pas payés pour leurs activités, que ce soit à cause de divers bugs technique décrits par la journaliste Karen Hao dans son enquête Empire of AI (Penguin Random House, non traduit), ou pour d’incompréhensibles suspensions de comptes. Auprès d’Algorithm Watch, un travailleur indien explique ainsi y avoir passé cinq heures par jour, pendant trois jours, pour l’équivalent de 20 à 30 dollars.
« Alors que j’attendais le paiement, ils m’ont envoyé un e-mail m’informant que j’avais enfreint leur politique et suspendu mon compte, indique-t-il au média. Lorsque je les ai contactés, je n’ai reçu aucune réponse satisfaisante. Je n’ai pas été payé du tout. » Alors que le patron de Scale AI déclarait en 2023 s’engager pour que les travailleurs de l’IA perçoivent des « salaires décents », les enquêtes s’accumulent qui montrent l’inverse.
Plusieurs affaires judiciaires aux États-Unis
Fondée en 2016 par Alexandr Wang, Scale AI s’est attirée les financements du Founders Fund de Peter Thiel, qui y a versé 100 millions de dollars en 2019, avant d’être suivi par Amazon et Meta. Parmi ses clients, l’entreprise compte Accenture, SAP ou encore Deloitte en Europe, et la plupart des acteurs de l’IA (Meta, OpenAI, Alphabet) aux États-Unis.
Dans la mesure où les pratiques salariales problématiques se multiplient – beaucoup de travailleurs se plaignent aussi de l’absence de régularité des tâches disponibles –, trois plaintes ont été déposées devant des tribunaux californiens contre plusieurs acteurs de l’entraînement de l’IA.
Dans l’une d’elle, déposée en décembre 2024, l’ancien contractuel Steve McKinney accuse Scale AI de « vol de salaire » et de « mauvaise classification des travailleurs ». La plainte comporte par ailleurs une mention de tactiques trompeuses, avec des promesses de salaire horaire de 25 dollars au moment de l’embauche, pour ensuite n’en verser qu’une portion une fois le travail effectué.
Une autre, déposée en janvier 2025, affirme que Scale AI aurait « délibérément refusé de payer des heures supplémentaires » et d’autres indemnités légales. Une troisième, déposée à la fois contre Scale AI, Outlier et HireArt, accuse les différents programmes et sociétés d’avoir mis fin aux emplois de 500 personnes sans respecter la durée légale de préavis.