Suivez-nous

Tech

Le détecteur de langage haineux de Google est raciste

L’intelligence artificielle semble de nouveau se retrouver confrontée à ses limites du côté de Google. Un biais pour le moins problématique.

Il y a

le

logo de Google
© Unsplash / Paweł Czerwiński

L’information ne vous surprendra pas. Les intelligences artificielles des géants du web souffrent de nombreux biais, dont certains s’avèrent sexistes ou racistes. Il y a quatre ans, Google Plus avait déjà un sérieux problème en confondant des Afro-Américains avec des gorilles. Plus récemment, d’autres services du géant de Mountain View, comme Google Images ou Google Translate ont été confrontés à d’autres écueils. Cette fois, c’est le détecteur de langage haineux qui se retrouve mis à l’index.

Google face à ses limites

Des scientifiques de l’université de Washington ont découvert que les outils basés sur l’intelligence artificielle de Google souffrent d’un biais alarmant contre les populations noires. Il s’agit d’un outil initialement destiné à protéger les populations qui peuvent être le plus facilement touchées par la haine sur Internet.

Concrètement, un outil initialement destiné à les protéger a finalement eu l’effet contraire. Les scientifiques ont étudié comment des humains ont noté une base de données de 100 000 tweets qui avaient été utilisés par l’algorithme. Le bilan ? Les tweets qui utilisaient « l’argot » des Afro-Américains ont été considérés comme étant du contenu offensant. En conséquence, l’algorithme s’est adapté à ce problème.

Selon l’étude, dans le cas de Perspective, une base de données comprenant 5,4 millions de tweets, les données sont terribles. Ainsi, l’algorithme avait 1,5 à 2 fois plus de chance de classer un tweet publié par des personnes identifiées comme afro-américaines dans la catégorie offensante. Cela signifie que pour un outil de modération de contenu automatisé, ce même biais pourrait ainsi être répété et contribuer à la censure de ces communautés, selon leurs ethnies.

Ce même genre de problèmes avait été observé pour les outils de reconnaissance faciale. Là aussi, l’échantillon test posait problème, principalement composé de personnes blanches. Il y a comme un petit problème de représentativité du côté de la Silicon Valley.

Newsletter 🍋 Inscrivez-vous à la newsletter tout juste sortie du four, rien que pour vous

Cliquez pour commenter

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Les bons plans 🔥

Dernières news

Newsletter 🍋 Inscrivez-vous à la newsletter tout juste sortie du four, rien que pour vous

Les tests