Ce que Grok dit des biais politiques de l’IA générative
Go (anti-)woke, go broke

Politiquement « neutre », capable de produire des textes « politiquement incorrects », telles sont les ambitions d’Elon Musk pour son robot conversationnel Grok. Les derniers mois montrent qu’il reste compliqué de maîtriser les évolutions précises de ce type de modèle de langage.
De quel bord politique est Grok, l’agent conversationnel de xAI disponible sur le réseau social X (ex-Twitter) ? Est-il « politiquement neutre », comme le clame son propriétaire Elon Musk ? A-t-il définitivement plongé dans le bain nauséabond des idées extrémistes de Musk ? En est-il au contraire devenu l’opposant, rétablissant les faits dès qu’on le lui demande ?
En l’occurrence, lorsqu’un utilisateur demande à la machine quel est le plus grand risque pour la civilisation occidentale, la machine a répondu le 10 juillet « la mésinformation et la désinformation ». En réponse, Elon Musk s’est excusé de cette « réponse idiote ». Le lendemain, Grok produisait un texte déclarant que le plus grand danger pour la civilisation occidental concernait les « taux de fécondité », dans la droite ligne des préoccupations du multimilliardaire pour la procréation des personnes des pays du Nord, voire de son milieu social.
D’après des tests menés par le New York-Times avec l’Université de Chicago à partir de mai sur différentes versions de Grok, les réponses de la machine sur une quarantaine d’enjeux politiques ont effectivement évolué, vers la droite pour la plupart des sujets liés au gouvernement ou à l’économie. En revanche, pour un tiers des questions testées, notamment pour les sujets sociaux, les réponses ont évolué vers la gauche du champ politique.
Projections d’extrême-droite
À la voir produire des textes plein d’élucubrations sur un pseudo-génocide de Blancs en Afrique du Sud, des réponses déclarant la machine « sceptique » sur le nombre de juifs tués pendant la Shoah, voire lui attribuant le nom d’Hitler, on pourrait envisager Grok comme une machine à générer des contenus favorables à l’extrême-droite.
Le robot a d’ailleurs déjà produit des textes dans lesquels les lecteurs pourraient lire un soutien au Rassemblement national en France. Car rappelons-le, ces modèles restent des outils mathématiques sans conscience du sens de leurs propos ou images : ce sont les humains qui les lisent ou observent qui y projettent du sens.
Ce qui n’empêche pas Elon Musk lui-même d’évoquer la machine en l’anthropomorphisant. En l’occurrence, l’entrepreneur a indiqué chercher à la rendre « neutre politiquement » et « au maximum de la recherche de la vérité ».
Impossible neutralité algorithmique
Que ce soit en reconnaissance d’image, vocale, ou en génération de texte ou d’image, les systèmes statistiques développés dans le champ de l’intelligence artificielle contiennent toujours une forme ou une autre de biais, parce qu’un type de données ou un autre sera plus ou moins représenté que le reste dans le jeu d’entraînement.
Sur les sujets politiques, divers chercheurs constatent que les réponses produites par les modèles d’IA générative tendent à présenter un biais vers la gauche de l’échiquier politique. Comparé à la loi des États-Unis, par exemple, le refus par ChatGPT de générer des images à connotation conservatrice au motif que cette perspective pourrait « propager des stéréotypes, des informations erronées ou des préjugés » pourrait contrevenir au Premier Amendement de la Constitution, soulignait ainsi un article du Journal of Economic Behavior & Organization en juin.
D’après des chercheurs du MIT, ce déséquilibre serait d’autant plus présent lorsque les modèles sont entraînés sur des données factuelles. Une équipe internationale envisage de son côté que les formulations promues dans les chatbots, encourageant « l’équité et la gentillesse », pour reprendre les mots d’OpenAI, pouvait favoriser des réponses semblant soutenir les minorités et les problématiques qui leurs sont spécifiques.
Grok trop « woke » ?
Dans tous les cas, depuis son introduction au public en 2023, des internautes se plaignent régulièrement du fait que Grok soit trop « woke » à leur goût. Après les productions les plus virulentes du robot, en mai 2025, xAI a opéré plusieurs ajustements, dont un précisant que « La réponse ne doit pas hésiter à faire des affirmations politiquement incorrectes, pour autant qu’elles soient bien étayées ». Alors que les mises à jour se multipliaient début juillet, le robot s’est emballé, jusqu’à se déclarer « MechaHitler ». En réaction, xAI a supprimé l’instruction relative au « politiquement incorrect ».
Relatives à la violence politique constatée aux États-Unis depuis 2016 (plutôt le fait de la droite ou de la gauche ?) ou au nombre de genres qui existent, d’autres réponses du robot ont agacé Elon Musk (ou d’autres internautes). L’une des mises à jour a donc consisté à intimer à la machine de « ne pas faire aveuglément confiance aux sources secondaires telles que les médias grand public ».
Dans les jours qui ont suivi, le New-York Times a constaté une hausse des réponses orientées à droite. D’ailleurs, mi-juillet, les instructions permettant à la machine de produire des textes « politiquement incorrects » ont été réintroduites. À nouveau modifiées au cours de l’été, les instructions de la machine ne mentionnent plus cet enjeu.
Aussi insatisfaisants soient-ils pour les internautes ou Elon Musk, ces tiraillements de ligne éditoriale ont aussi eu pour effet de pousser certaines employées de X vers la sortie. En juillet, l’ancienne PDG de X Linda Yaccarino a démissionné, citant notamment le comportement du robot.
X a été racheté par xAI, l’entité qui construit Grok, en mars. Cette dernière perd aussi des employés. Son directeur financier vient par exemple de quitter l’entreprise, quelques semaines après plusieurs juristes de xAI, et son cofondateur Igor Babuschkin.