Passer au contenu

Le vilain petit secret des générateurs d’images par IA

Des scientifiques ont relevé un fait troublant sur ces technologies.

DALL-E, Stable Diffusion, ou encore Midjourney, ces générateurs d’images se sont rapidement démocratisés et s’imposent comme des outils impressionnants. Ces technologies souffrent toutefois d’une faille qui vient d’être identifiée dans une récente étude menée par des chercheurs de l’Institut indien des sciences de Bangalore basé en Inde.

Des failles liées à la base de données ?

Pour résumer, ces outils ont tendance à proposer une vision du monde très occidentale, voire avant tout américaine. Par exemple, les auteurs ont constaté qu’en demandant à ces IA de dessiner une maison, cette dernière représentera d’emblée une maison américaine typique.

Les scientifiques ont demandé à ces technologies de représenter des mots tels que drapeaux, de mariages et villes. Ils ont ensuite interrogé les participants sur leurs ressentis. La plupart (sauf ceux résidant aux États-Unis) ont estimé que ces productions ne correspondaient pas à leur vie quotidienne.

Cité par Fast Company, un des auteurs s’est dit surpris par l’absence quasi totale de représentation des modèles. Il précise en revanche que l’IA se montre plus perspicace lorsqu’on lui demande de représenter un objet précis venant d’un pays en particulier. Par exemple, l’outil parvient à représenter un peu plus fidèlement une maison indienne ou allemande.

Il reste en tout cas beaucoup de chemin pour rendre les résultats plus personnalisés et moins américanocentrés qu’ils ne le sont actuellement.

“Ces technologies sont présentées comme des changements majeurs. Elles sont présentées comme des outils de créativité, et une grande partie de l’activité économique est censée être libérée. Mais si un artiste indien a beaucoup plus de mal à utiliser ces outils, je pense que c’est un grave problème”, explique le chercheur Danish Pruthi à nos confrères.

L’une des explications de cette faille provient notamment de la base de données avec laquelle ces modèles ont été entraînés. Ils utilisent souvent ImageNet, une collection très riche, mais qui n’en est pas moins critiquée, rappelle Fast Company. Par le passé des accusations de racisme et de sexisme ont été portées sur ses étiquettes. Il faudra donc veiller à l’avenir à ce que les sources soient plus diversifiées.

Pour rappel, ces générateurs d’images ont commencé à se démocratiser au cours de l’été 2022. Par une simple entrée de texte, on peut exprimer visuellement une idée. Bien sûr, ces outils sont impressionnants, mais ils restent faillibles. Nous vous parlions notamment en octobre 2022, de ces failles qui font sourire les internautes. Vous pouvez d’ailleurs toujours relire notre article à ce sujet ici.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech

3 commentaires
3 commentaires
  1. C’est normal puisque l’IA est américaine. Quand on demandera à une IA chinoise ou indienne de dessiner des maisons les maisons dessinées seront chinoises ou indiennes et personne n’y trouvera à redire. Il n’y a aucun “vilain petit secret” la dedans mais peut être une petite “vilaine mauvaise foi” dans ce genre de commentaires. D’ailleurs si on veut une maison ou un mariage chinois on le précise et l’IA le fait ! Encore une fois qui y a t il de “vilain” là dedans ?

    1. Une IA digne de ce nom ne saurait être biaisée par la culture de ses créateurs sans quoi cette IA est bien davantage artificielle qu’intelligente. Les bases de données, fournies, planétaires, ne sont pas le problème, par contre leur initialisation l’est. Nous n’allons tout de même pas perpétuer via l’IA une guerre culturelle des mondes : l’IA se doit d’être universelle en particulier dans le pluralisme des données, du data qui l’alimentent. Je ne dirai pas qu’il s’agisse d’un “vilain petit secret” mais bien plutôt d’une “vilaine petite habitude” que celle de représenter le réel dans le sens de notre vécu, ce qui se conçoit pour l’intelligence humaine mais reste indéfendable pour une IA. Ou alors il s’agira de faire un procès d’intention et envisager une volonté délibérée, sournoise des concepteurs à faire de leur AI baby l’ambassadeur de leur culture voire de leur enracinement occidental : c’est là où les complotistes se lèvent comme un seul imbécile pour crier “oui!” alors que nous n’en savons rien. Quant à la “petite mauvaise foi” de l’auteur d’un article, je perçois surtout le mauvais petit procès d’intention d’un commentateur.

  2. l’IA ne fait reproduire que ce part quoi elle est nourrit…
    et ça n’a rien d’un petit secret, Midjourney planche et communique sur ces biais depuis plusieurs mois et la prochaine version va justement permettre à chacun de réaliser des testes de personnalité pour palier à cela.
    Pour se tenir informer suivez les recap hebdomadaires sur geniart.fr

Les commentaires sont fermés.