Comment certains générateurs d’art IA sont racistes et sexistes : une enquête approfondie

L’intelligence artificielle (IA) est de plus en plus utilisée pour créer des images, des textes, des sons et d’autres formes d’art. Ces outils sont censés stimuler la créativité humaine et offrir de nouvelles possibilités d’expression. Mais sont-ils vraiment neutres et équitables ? Plusieurs études et expériences ont révélé que certains générateurs d’art IA sont biaisés et reproduisent des stéréotypes racistes et sexistes. Comment cela se produit-il et quelles sont les conséquences pour la société ?

Les générateurs d’art IA apprennent des données toxiques

Les générateurs d’art IA sont basés sur des algorithmes d’apprentissage automatique qui apprennent à partir de grandes quantités de données, souvent collectées sur Internet. Ces données peuvent contenir des images, des textes, des sons ou d’autres informations qui servent de modèles pour la création artistique. Le problème est que ces données ne sont pas toujours représentatives, diverses et équilibrées. Elles peuvent refléter les préjugés, les discriminations et les violences qui existent dans la société humaine. Par exemple, il peut y avoir plus d’images de femmes dans des rôles stéréotypés ou sexualisés, ou plus d’images d’hommes dans des positions de pouvoir ou de leadership. Il peut aussi y avoir plus d’images de personnes blanches que de personnes de couleur, ou plus d’images de personnes occidentales que de personnes d’autres régions du monde.

Voici une vidéo en anglais expliquant ce qu’est l’art IA :

Ces données biaisées influencent la façon dont les générateurs d’art IA perçoivent le monde et les personnes qui le peuplent. Ils peuvent alors produire des images, des textes ou des sons qui renforcent ou amplifient ces biais. Par exemple, un générateur d’art IA peut associer certaines caractéristiques physiques, ethniques ou culturelles à des activités ou des comportements négatifs, tels que la criminalité, la drogue ou la violence. Il peut aussi attribuer certaines qualités ou compétences à un genre plutôt qu’à un autre, tels que l’intelligence, la beauté ou la créativité. Il peut enfin ignorer ou exclure certaines catégories de personnes qui sont minoritaires ou marginalisées dans les données.

Les générateurs d’art IA propagent des stéréotypes racistes et sexistes

Les biais des générateurs d’art IA ne sont pas seulement un problème technique ou éthique. Ils ont aussi un impact social et culturel. En effet, les œuvres produites par ces outils peuvent être diffusées à grande échelle sur Internet ou dans les médias, et influencer l’opinion publique, l’éducation, l’information ou le divertissement. Elles peuvent alors contribuer à renforcer ou à diffuser des stéréotypes racistes et sexistes qui nuisent à l’égalité, à la diversité et à l’inclusion.

Plusieurs exemples illustrent ce phénomène. Un article publié par Geek Insider en 2023 a montré que le générateur d’art IA Jasper.ai produisait systématiquement des images de dealers ou de consommateurs de drogue qui étaient noirs, alors que les images de policiers ou de médecins étaient blancs. Une enquête du Washington Post en 2023 a révélé que le générateur d’art IA Stable Diffusion XL présentait une vision occidentale et stéréotypée du monde, avec des images de maisons typiques pour chaque pays qui ne correspondaient pas à la réalité. Une étude menée par des chercheurs de Johns Hopkins University, Georgia Institute of Technology et University of Washington en 2022 a démontré que le modèle d’IA utilisé par plusieurs robots virtuels affichait des biais de genre et de race, en associant par exemple les femmes à la cuisine ou les hommes à la guerre. Enfin, un document publié par OpenAI en 2023 a admis que son générateur d’art IA DALL-E 3 affichait une tendance vers un point de vue occidental, avec des images qui représentaient de manière disproportionnée des individus qui semblaient blancs, féminins et jeunes.

Comment lutter contre les biais des générateurs d’art IA ?

Face à ce constat alarmant, il est urgent d’agir pour réduire ou éliminer les biais des générateurs d’art IA. Plusieurs pistes sont possibles. La première consiste à améliorer la qualité et la diversité des données utilisées pour entraîner ces outils. Il s’agit de s’assurer que les données représentent fidèlement la variété et la complexité du monde réel, sans exclure ou discriminer certaines personnes ou groupes. Il s’agit aussi de détecter et de supprimer les contenus toxiques, tels que la pornographie, la misogynie, la violence ou le fanatisme. La deuxième piste consiste à renforcer le contrôle et la transparence des générateurs d’art IA. Il s’agit de permettre aux utilisateurs et aux régulateurs de vérifier le fonctionnement et les résultats de ces outils, et de les rendre responsables en cas de biais ou d’erreurs. Il s’agit aussi de sensibiliser et d’éduquer le public sur les risques et les limites de ces technologies, et de promouvoir une utilisation éthique et responsable. La troisième piste consiste à favoriser la participation et la collaboration des personnes concernées par les biais des générateurs d’art IA. Il s’agit d’impliquer les personnes qui sont victimes ou témoins de ces biais dans le processus de conception, de développement et d’évaluation de ces outils. Il s’agit aussi de soutenir les initiatives qui visent à créer des œuvres d’art IA qui célèbrent la diversité, l’égalité et l’inclusion.

Les générateurs d’art IA sont des outils puissants et innovants qui peuvent enrichir la créativité humaine. Mais ils ne sont pas neutres ni équitables. Ils reflètent et amplifient les biais racistes et sexistes qui existent dans la société humaine. Il est donc essentiel de les surveiller, de les corriger et de les réguler pour éviter qu’ils ne nuisent aux droits et à la dignité des personnes.