Passer au contenu

Norman, la première intelligence artificielle psychopathe

Créer une intelligence artificielle en l’éduquant avec des images de mort violentes, avant de lui faire passer le fameux test de Rorschach. Voila la drôle d’idée d’un groupe de chercheurs du MIT et à leur grande surprise, l’IA Norman a été diagnostiquée… psychopathe !

Un hommage à Hitchock

On ne peut s’empêcher de penser que certains scientifiques ont envie de jouer aux savants fous à la lecture de cette information. L’une des menaces qui nous pend pourtant au nez, est le développement d’une intelligence artificielle dont on perdrait le contrôle. Un scénario inspiré de la science-fiction, qui inquiète réellement de plus en plus de personnalités et de scientifiques. Des chercheurs du MIT (Massachusetts Institute of Technology), n’ont rien trouvé de mieux à faire que de créer une IA psychopathe.

L’idée du projet était relativement simple. Évaluer l’importance des données fournies à une IA lors de sa phase d’apprentissage. Les chercheurs veulent mettre en garde sur la façon dont un algorithme capte les données et comment ces dernières peuvent l’influencer dans sa construction. Autant dire qu’ils n’ont pas été déçus du résultat.

Une IA conçue à partir d’images de mort violentes sur Reddit

Pour construire cette IA, les scientifiques se sont donc tournés vers Reddit. L’IA baptisée Norman, en hommage à Norman Bates du film Psychose d’Alfred Hitchcock, a vraiment très mal tournée. Après avoir vu des tonnes d’images macabres, elle a été soumise au test de Rorschach (celui avec les fameuses tâches d’encre). Ses résultats ont été comparés à ceux d’une autre IA confrontée à des images plus saines de fleurs ou d’animaux. Les conclusions parlent d’elles mêmes, l’une voit un vase remplit de roses et l’autre un homme se faire tuer à la hache… Pas très rassurant !

Bonne nouvelle, rien n’est perdu. En vous rendant sur le site de l’IA, vous pouvez essayer de la réparer en faisant vous aussi le test. Essayez tout de même de ne pas aggraver les choses…

Au passage, impossible de ne pas penser à Tay, l’intelligence artificielle de Microsoft. Lancée sur Twitter en 2016, elle avait été exposée à ce qui se fait sans doute de pire sur Internet : les trolls. Résultat, elle était devenue raciste et sexiste en moins de 24 heures. On l’avait ainsi vu dire : “Hitler a fait ce qu’il fallait, je hais les juifs”. Dans un autre message, on pouvait lire :Bush a provoqué le 11-Septembre et Hitler aurait fait un meilleur travail que le singe que nous avons actuellement”, évoquant le président Obama ou encore : ” Donalp Trump est le meilleur espoir que nous ayons”.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech

3 commentaires
3 commentaires
  1. Pourquoi qq qui soutien Hitler est tout de suite traité de troll c’est juste qq de censé qui à analyser le pour et le contre et qui s’est rendu compte qu’il avais apporté beaucoup de bonne chose

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *