Connect with us
Bouygues

Actualités

La reconnaissance faciale a toujours des problèmes avec les personnes de couleur et les femmes

La reconnaissance faciale peut-elle être raciste et ou sexiste ? Même s’il n’y a pas de volonté délibérée, c’est en effet l’impression que donnent les résultats d’une étude menée par une chercheuse du MIT. On est toutefois très loin désormais des débuts calamiteux de la reconnaissance faciale grand public ou certaines personnes afro-américaines avaient été confondues avec des gorilles.

Il y a

le

Reconnaissance faciale : Google + la range chez les gorilles

C’est la conclusion d’une étude menée par une chercheuse du MIT. Être un homme à la peau blanche faciliterait grandement le travail de la reconnaissance faciale. Les limites de l’IA sont-elles atteintes ?

Un test mené à grande échelle

Les intelligences artificielles ont encore parfois du mal, mais leurs limites sont aussi parfois le reflet des limites de nos approches humaines. C’est ce que révèle l’étude de Joy Buolamwini, chercheuse au Massachussetts Institute of Technology. Pour ce travail, elle a décidé d’aller aux limites des IA de trois entreprises : IBM, Microsoft et Face ++.

Elles ont donc été confrontées à 1.270 portraits différents mais de personnalités connues dans le monde politique international. Le résultat général est sans appel. Être une personne de couleur noire et/ou une femme complique énormément le travail de l’IA.

Un problème qui n’est pas récent

Pris globalement, les chiffres ne sont pas catastrophiques. Microsoft obtient 93,7% de reconnaissance, Face++ monte à 90% et IBM à 87.9%. Toutefois, les variations commencent au niveau de la couleur de peau. Les IA ont un taux de succès moyens de 95% pour les blancs. IBM de son côté tombe à 77,6% pour les noirs ! Face ++ a du mal de son côté avec les femmes puisque le taux de reconnaissance plafonne à 78,7%.

> Lire aussi :  Tencent mise sur la reconnaissance faciale pour détecter les joueurs trop jeunes

Comment expliquer cette situation ? Pour Joy Buolamwini, les bases de données utilisées pour éduquer les IA sont à l’origine du problème. « Les hommes à la peau claire y sont surreprésentés, et aussi les personnes à la peau claire de manière générale ».

Comme le rappellent nos confrères de Clubic, le phénomène n’est toutefois pas spécialement nouveau. On s’en souvient en 2015, c’est Google qui avait alors été confronté à un problème de ce type quand son service Google Photos confondait alors des personnes noires avec des gorilles.

En 2009, c’est HP qui avait du présenter des excuses. L’entreprise avait développé une Webcam qui pouvait suivre les mouvements du visage, mais elle ne détectait pas les personnes à la peau noire. Dans un autre registre, sémantique cette fois et non plus visuel, on se souvient également du fiasco de l’intelligence artificielle Tay de Microsoft, qui fut rapidement débranchée après avoir publié une volée de tweets racistes.

> Lire aussi :  Social Mapper, quand la reconnaissance faciale devient trop accessible... voire un danger

Bref, le chemin à parcourir semble encore long !

Cliquez pour commenter

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Dernières news

Les bons plans

Les tests