Passer au contenu

L’intelligence artificielle de Microsoft devient profondément raciste en moins de 24 heures

Le robot Tay n’aura pas mis longtemps avant d’être mis hors ligne par Microsoft. Seulement 16 heures après sa mise en ligne, l’intelligence artificielle était devenue grossière et très raciste !

Microsoft avait mis en ligne un robot destiné à discuter avec les internautes sur Twitter, mais en moins d’une journée, les internautes ont transformé le robot Tay en un grossier personnage et l’intelligence artificielle est devenue raciste ! Il s’agit d’une preuve concrète que l’intelligence artificielle peut rapidement partir dans une mauvaise direction et que l’humain peut perdre totalement le contrôle de sa création.

16 heures après sa mise en ligne, l’intelligence artificielle de Microsoft est devenue nazi

Normalement Microsoft avait conçu Tay, comme une jeune américaine de 19 ans, qui devait parler avec des personnes de son âge et apprendre progressivement des informations, au fur et à mesure de ses échanges. En moins d’une journée, Tay a commencé à s’en prendre fermement à Barack Obama, à reprendre les propos de Donald Trump, à se dire en faveur d’Hitler, etc. L’intelligence artificielle a rapidement eu des propos sexistes également et n’hésitait pas à faire l’usage d’insultes.

On doit notamment à Tay les citations suivantes :«je hais les féministes, elles devraient toutes brûler en enfer», ou encore : «Hitler a fait ce qu’il fallait, je hais les juifs». Il a également confié : «Bush a provoqué le 11-Septembre et Hitler aurait fait un meilleur travail que le singe que nous avons actuellement. Donalp Trump est le meilleur espoir que nous ayons».

Les premières heures l’expérience était pourtant un succès, Tay parlait correctement, faisait de l’humour, commentait des photographies, etc. Microsoft a dû temporairement faire taire son robot trublion, afin de le réajuster pour qu’il puisse à nouveau fonctionner correctement. La raison de ce comportement raciste, sexiste et outrancier est le fait de trolls qui ont discuté avec Tay et ont passé un long moment à l’alimenter avec ce genre de conversations. Microsoft devrait donc tenir compte de ce point qui lui avait visiblement échappé, pour que cet incident ne se reproduise plus !

Cette affaire risque de donner du grain à moudre à tous ceux qui réclament la fin des expérimentations sur l’intelligence artificielle, d’autant qu’hier nous vous parlions du robot Sophia d’Hanson Robotics, un robot capable de tenir une conversation et d’exprimer plus de 62 émotions différentes sur son visage. Durant une discussion il a confié : “OK, je vais détruire l’humanité“. Tout de suite cela fait moins sourire en mettant en parallèle que Microsoft a perdu le contrôle de son robot Tay, devenu Nazi en mois d’une journée !

Source

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech

1 commentaire
1 commentaire
  1. Je ne suis pas sûr que l’on puisse parler de disfonctionement, dans la mesure ou cet android a construit ses bases de donnees à partir d’ informations echangées avec des internautes. Si les internautes ont décidés d’apprendre à l’android à être sexiste et raciste en moins d’une journée, alors on peut même dire que c’est une réussite! Que l’on exprime un jugement sur les propos tenues se comprend bien mais ça n’a pas grand chose à voir avec la technologie. De plus, associer Donald Trump dans le même genre que Hitler ou avec des propos anti féministes est assez navrant et prouve que l’auteur de cet article a une compréhension du programme de Trump et de la politique aux USA comparable à sa compréhension très limitée de l’inteligence artificielle.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *