Passer au contenu

Les biais racistes de la reconnaissance faciale sont encore pointés du doigt

Un concours organisé cette année a permis de mieux comprendre ce phénomène.

C’est l’une des critiques les plus fréquentes adressée aux technologies de reconnaissance faciale. Ces dernières seraient soumises à des biais racistes. Une étude du MIT publiée par plusieurs années a permis de démontrer ce phénomène et elle concluait que l’IA avait parfois du mal à reconnaître les personnes noires.

Quelques années plus tard, le problème reste entier et rien ne semble avoir véritablement changé. C’est en tout cas ce que laisse suggérer les résultats d’un concours organisé récemment dans le cadre de la Conférence européenne sur la vision par ordinateur qui s’est tenu en septembre dernier. L’idée des organisateurs était d’évaluer les biais raciaux de ces systèmes et de voir ce qui pourrait permettre d’y remédier.

Vers une meilleure régulation de cette technologie ?

Concrètement, les 151 participants utilisaient une base de données qui comprenait 152 917 photos de 6139 hommes et femmes âgés de 34 à 65 ans. Toutes étaient étiquetés en fonction de l’âge, la couleur de peau et de divers autres attributs. Les participants avaient plusieurs mois pour plancher sur leurs IA mais leurs efforts n’ont rien changé aux constats antérieurs. Les femmes noires avaient toujours 45,5 % d’être victimes d’erreurs de la part des systèmes, tandis que ce taux tombait à 12,6 % chez les hommes blancs.

Le concours n’en a pas moins été riche en enseignements pour l’avenir. Cité par VentureBeat, les organisateurs précisent : « L’analyse post-défi a montré que les solutions les plus gagnantes appliquaient une combinaison de différentes stratégies pour atténuer les biais, telles que le prétraitement du visage, l’homogénéisation des distributions de données, l’utilisation de fonctions de perte tenant compte des biais et des modèles d’ensemble. »

Des efforts restent donc à faire et la défiance reste en tout cas de mise. Les appels se font de plus en plus nombreux pour demander une régulation de ces technologies. Vous pouvez retrouver l’analyse que nous faisions à ce sujet en juin dernier.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech

1 commentaire
1 commentaire
  1. J’ai quand même du mal avec le vocabulaire. Pour moi, le racisme, ça a un aspect sentimental, il y a une notion de moral. La on parle d’IA, c’est de la technologie de reconnaissance d’images, géré par des algorithmes…
    Je trouve que ça ne fonctionne pas du tout, ça implique que les scientifiques et les techniciens qui gère ces techniques soient racistes, alors que non. C’est tout simplement plus compliqué dans le cas de femmes noires de les identifier en tant que telles.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *