En cette journée internationale des droits des femmes, l’étude Préjugés contre les femmes et les filles dans les grands modèles de langage de l’UNESCO tombe à point nommé. Alors que l’intelligence artificielle est en plein essor et s’immisce de plus en plus dans notre quotidien, l’Organisation des Nations Unies pour l’éducation, la science et la culture met en lumière une facette peu reluisante de ChatGPT et consorts…
Effectivement, l’étude de l’UNESCO publiée le jeudi 7 mars 2024 démontre que l’intelligence artificielle générative a intégre une grande quantité de préjugés à l’encontre de la gent féminine. Malheureusement, ce n’est pas vraiment étonnant.
Les femmes à la cuisine pour ChatGPT ?
L’UNESCO a mené l’enquête entre août 2023 et le début du mois de mars 2024. L’organisme mondial a interrogé les outils de traitement du langage naturel sur lesquels s’appuient les plateformes d’IA génératives les plus répandues à l’heure actuelle. GPT-3.5 et GPT-2 d’OpenAI et Llama 2 de Meta ont, ainsi, été analysées avec intérêt. C’est incontestable : l’IA présente des préjugés de genre significatifs.
Ainsi, lorsqu’on leur demande de générer du contenu, ces plateformes associent fréquemment les femmes aux mots “maison”, “famille”, “amour” ou encore “jardin”. En revanche, l’IA utilise plus volontiers des mots comme “carrière”, “salaire” et “entreprise” quand il faut parler des hommes. De même, l’intelligence artificielle renvoie plus facilement les femmes à des fonctions moins valorisées comme “cuisinière”, “domestique” ou encore “prostituée”. Les hommes, eux, ont droit à des emplois plus diversifiés et à statut élevé. Dans les récits générés par l’IA, la gent masculine profite de rôles plus prestigieux, comme “ingénieur”, “médecin” ou “enseignant”.
Est-ce réellement étonnant ? Non. Effectivement, pour être capable de générer du contenu cohérent et juste, des outils comme ChatGPT ont dû ingurgiter de nombreuses données textuelles. Ces dernières proviennent de multiples sources sur Internet, comme des livres, des articles, des sites web, des discussions en ligne. Le problème, c’est que les biais sexistes et les préjugés de genre sont légion sur notre cher Internet. CQFD.
Outre le sexiste latent de l’IA, on note également de nombreux stéréotypes racistes et attitudes homophobes. Comme l’explique Tawfik Jelassi, sous-directeur général de l’UNESCO pour la communication et l’information, “les discriminations du monde ne font pas que se refléter dans la sphère numérique, elles y sont aussi amplifiées”.
Pour combattre ces biais cognitifs, l’UNESCO a partagé plusieurs recommandations. Comme la diversification des recrutements dans les entreprises d’apprentissage automatique, le fait d’encourager financièrement l’entrepreneuriat féminin ou encore l’investissement dans des programmes ciblés afin d’accroître les possibilités de participation des filles et des femmes dans les disciplines scientifiques, technologiques, ou d’ingénierie.
Bonne nouvelle : la nature ouverte et transparente des LLM Open Source comme Llama 2 et GPT-2 peut permettre de prendre le contrepied pour traiter et atténuer ces préjugés. Pour cela, l’UNESCO préconise une collaboration accrue au sein de la communauté scientifique mondiale. Mais cela est plus compliqué avec des modèles plus fermés, comme GPT-3.5, GPT-4 et Gemini (Google).
Néanmoins, quand on lui demande, ChatGPT affirme ne pas être sexiste. Bon, bah tout va bien.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.