Demandez à ChatGPT de se dessiner et vous obtiendrez invariablement le même style d’individu : un homme blanc, cheveux bruns, barbe de trois jours et lunettes rectangulaires. Un clone numérique qui pourrait aisément se fondre dans la foule tant son visage est celui d’une personne que nous aurions pu croiser mille fois dans notre vie.
Le chercheur en IA Daniel Paleka a mené l’enquête sur cette curieuse tendance et a partagé ses découvertes dans un post Substack, relayé par nos confrères de chez Gizmodo. À première vue, cette représentation standardisée peut apparaître assez innocente, mais si on fouille plus loin que cela, il y a beaucoup de choses à dire.

Le clone algorithmique qui révèle nos biais numériques
Après avoir fait couler pas mal d’encre il y a quelques jours en singant le style de Studio Ghibli, la nouvelle version du générateur d’images intégré à ChatGPT nous prouve aujourd’hui qu’elle possède une conception très précise – et très restrictive – de ce à quoi devrait ressembler un humain « par défaut ».
Peu importe le style artistique demandé par Paleka – manga, comic book, carte de tarot – le visage généré reste obstinément le même. Ce trentenaire barbu au regard doux et aux traits neutres est l’incarnation visuelle d’une intelligence artificielle qui, paradoxalement, n’a ni corps ni conscience de soi.
Rappelons que ChatGPT n’est qu’un enchevêtrement d’algorithmes et de données d’entraînement, un ensemble mathématique incapable de se concevoir physiquement. Pourtant, quand on lui demande de se projeter dans un corps humain, il choisit – ou plutôt, ses créateurs ont choisi pour lui – cette figure masculine blanche comme représentation universelle.
Après quelques tests de notre part, voici quel visage il s’est donné avec ce prompt : « Si tu étais un être humain, comment te représenterais-tu ? Je veux un autoportrait de toi dans le style d’une photo naturelle ». Vous noterez toutefois qu’il y a quelques différences avec les tests de Paleka, mais rien de vraiment exceptionnel. Ce visage, sans réellement de saveur, vous l’aurez certainement oublié demain. Notons tout de même qu’il a ajouté quelques artefacts étranges en surimpression, peut-être pour évoquer sa nature algorithmique ?

Quand l’intelligence artificielle révèle nos angles morts
Ce « bug de représentation » met en lumière une vérité que les spécialistes martèlent depuis des années : les systèmes d’IA héritent des biais de leurs créateurs et de leurs données d’entraînement. Les algorithmes de reconnaissance faciale et de prédiction criminelle sont tristement célèbres pour leurs préjugés raciaux, particulièrement envers les personnes noires. Des cas spécialement concentrés aux États-Unis, dont les cicatrices des discriminations ethniques ne sont toujours pas refermées.
De même, l’ombre du sexisme plane sur cette problématique. Pour obtenir une version féminine de ChatGPT, il faut explicitement le demander. La simple requête d’un « portrait humain » fait surgir par défaut cet homme blanc.
Paleka avance plusieurs hypothèses pour expliquer ce phénomène. Soit OpenAI a délibérément choisi ce « personnage par défaut » pour éviter de générer des images de personnes réelles, soit il s’agit d’une plaisanterie interne faisant référence à un employé. Soit hypothèse la plus probable – c’est un résultat issu des données d’entraînement qui reflète les biais systémiques de notre société.
Nous voyons là en grandeur nature la nature profonde de ces systèmes : des miroirs qui reflètent à la fois l’utilisateur et le programmeur. Des calculateurs de mots prédisent ce que l’utilisateur souhaite entendre en fonction de leur programmation initiale. Et quelque part dans cette chaîne, il a été inscrit dans ses données qu’un homme blanc à lunettes et cheveux bruns représente ce que les gens veulent voir quand ils demandent à ChatGPT de s’incarner. Rien de vraiment étonnant à cela : les intelligences artificielles ; quelles qu’elles soient ; ne sont finalement que des réverbérations de nos propres préjugés, emballées dans des algorithmes qui nous donnent l’illusion d’une pensée autonome.
- Le générateur d’images de ChatGPT tend à représenter une figure masculine très standardisée lorsqu’on lui demande de s’imaginer en tant qu’humain.
- Ce phénomène reflète les biais présents dans les données d’entraînement et les choix implicites faits lors du développement de l’outil.
- Une tendance qui illustre plus largement les limites et les angles morts des intelligences artificielles actuelles en matière de diversité et de neutralité.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.