Compassion générée par IA
Les ONG n’échappent pas à la mode de l’utilisation de l’IA pour générer des images. Des chercheurs pointent le problème d’une nouvelle ère du « poverty porn » dans laquelle l’intelligence artificielle serait utilisée pour émouvoir, réduisant les personnes à corps souffrants de façon décontextualisée.
Des chercheurs travaillant dans différentes institutions de médecine à travers le monde tirent le signal d’alarme : avec l’IA, certaines ONG entrent dans une ère nouvelle du « poverty porn ».
Cette technique de communication « utilise la compassion comme catalyseur pour obtenir un gain financier », comme l’explique le magazine The Plaid Zebra. Elle est critiquée et déconseillée dans les diverses recommandations sur la communication éthique des ONG.
Mais, avec l’IA, certains communicants d’ONG ont trouvé le moyen de créer des campagnes de compassion facilement. Plusieurs chercheurs publient dans la revue Global Health de The Lancet un appel à éviter ce « poverty porn » 2.0.
L’ONU comme l’OMS y ont déjà eu recours
Comme ils le rappellent, alors que les budgets du secteur sont en baisse, il est moins cher de générer des images via l’intelligence artificielle que d’embaucher un photographe ou un artiste. Et même des organisations comme l’OMS ou l’ONU y ont recours. « Ces mêmes organisations ne créeraient probablement pas de telles représentations mettant en scène des personnes réelles en raison de leurs politiques éthiques internes », affirment les chercheurs.
Ainsi, ils pointent en exemple des vidéos de la branche néerlandaise de l’ONG Plan International qui lutte pour le droit des enfants. Elles montrent notamment des images de jeunes filles avec un œil au beurre noir. Les chercheurs évoquent aussi une vidéo de l’ONU. L’organisation a supprimé la vidéo de son compte YouTube après avoir été contactée par le Guardian à ce sujet.
« La vidéo en question, qui a été produite il y a plus d’un an à l’aide d’un outil en constante évolution, a été retirée, car nous estimons qu’elle montre une utilisation inappropriée de l’IA et qu’elle peut présenter des risques pour l’intégrité des informations, en mélangeant des images réelles et du contenu artificiel quasi réel », explique l’organisation internationale à nos confrères.
On peut retrouver, sur Internet Archive, la description qui accompagnait la vidéo : « Dans cette vidéo captivante, des reconstitutions réalisées à l’aide de l’intelligence artificielle (IA) donnent vie aux témoignages de survivantes de violences sexuelles liées aux conflits (VSLC) au Burundi, en Bosnie-Herzégovine, en République démocratique du Congo et en Irak ».
Reproductions de clichés de la pauvreté
Mais ce « poverty porn » n’est pas seulement utilisé par les ONG. Ainsi, expliquent les chercheurs, une bonne partie de l’ « industrie mondiale de la santé » utilise ce genre d’images. Entre janvier et juillet 2025, ils ont collecté plus d’une centaine d’images générées par IA sur les réseaux sociaux des organisations de plus petites tailles ou publiées par des gens du milieu « souvent basés dans les pays à faible revenu et à revenu intermédiaire ». Les chercheurs décrivent dans leur texte les images sans les reproduire, pour des raisons éthiques.
« Les images reproduisent la grammaire visuelle de la pauvreté : des enfants avec des assiettes vides, une terre craquelée, des images stéréotypées », explique au Guardian l’un des chercheurs signataires, Arsenii Alenichev.
Celui-ci avertissait dans la même revue scientifique, il y a maintenant deux ans, des biais de Midjourney qui n’arrivait pas à représenter un médecin noir soignant des enfants blancs.
Notre consœur du Guardian, Aisha Down, a remarqué qu’on pouvait trouver ce genre d’images générées par IA très facilement sur des plateformes comme Adobe Stock ou Freepik. Joaquín Abela, CEO de la dernière, rejette la responsabilité de l’utilisation des images sur les personnes qui les achètent et affirme essayer de corriger les biais existant dans d’autres parties de sa plateforme pour assurer l’équilibre entre les genres dans les photos d’avocats et de CEO. Adobe n’a pas répondu au Guardian.