Connect with us

Actualités

Norman, la première intelligence artificielle psychopathe

Créer une intelligence artificielle en l’éduquant avec des images de mort violentes, avant de lui faire passer le fameux test de Rorschach. Voila la drôle d’idée d’un groupe de chercheurs du MIT et à leur grande surprise, l’IA Norman a été diagnostiquée… psychopathe !

Il y a

le

Norman : l'IA psychopathe

Un hommage à Hitchock

On ne peut s’empêcher de penser que certains scientifiques ont envie de jouer aux savants fous à la lecture de cette information. L’une des menaces qui nous pend pourtant au nez, est le développement d’une intelligence artificielle dont on perdrait le contrôle. Un scénario inspiré de la science-fiction, qui inquiète réellement de plus en plus de personnalités et de scientifiques. Des chercheurs du MIT (Massachusetts Institute of Technology), n’ont rien trouvé de mieux à faire que de créer une IA psychopathe.

L’idée du projet était relativement simple. Évaluer l’importance des données fournies à une IA lors de sa phase d’apprentissage. Les chercheurs veulent mettre en garde sur la façon dont un algorithme capte les données et comment ces dernières peuvent l’influencer dans sa construction. Autant dire qu’ils n’ont pas été déçus du résultat.

Une IA conçue à partir d’images de mort violentes sur Reddit

Pour construire cette IA, les scientifiques se sont donc tournés vers Reddit. L’IA baptisée Norman, en hommage à Norman Bates du film Psychose d’Alfred Hitchcock, a vraiment très mal tournée. Après avoir vu des tonnes d’images macabres, elle a été soumise au test de Rorschach (celui avec les fameuses tâches d’encre). Ses résultats ont été comparés à ceux d’une autre IA confrontée à des images plus saines de fleurs ou d’animaux. Les conclusions parlent d’elles mêmes, l’une voit un vase remplit de roses et l’autre un homme se faire tuer à la hache… Pas très rassurant !

> Lire aussi :  L’IA des caméras Arlo détectera les animaux, les véhicules et les colis

Bonne nouvelle, rien n’est perdu. En vous rendant sur le site de l’IA, vous pouvez essayer de la réparer en faisant vous aussi le test. Essayez tout de même de ne pas aggraver les choses…

Au passage, impossible de ne pas penser à Tay, l’intelligence artificielle de Microsoft. Lancée sur Twitter en 2016, elle avait été exposée à ce qui se fait sans doute de pire sur Internet : les trolls. Résultat, elle était devenue raciste et sexiste en moins de 24 heures. On l’avait ainsi vu dire : « Hitler a fait ce qu’il fallait, je hais les juifs ». Dans un autre message, on pouvait lire : « Bush a provoqué le 11-Septembre et Hitler aurait fait un meilleur travail que le singe que nous avons actuellement », évoquant le président Obama ou encore :  » Donalp Trump est le meilleur espoir que nous ayons ».

3 Commentaires

3 Commentaires

  1. Pascal

    9 juin 2018 at 9 h 10 min

    Finalement on est en droit de se demander si ce ne sont pas des robots qui ont voté aux USA 😉

  2. Adrian SEALELLI

    9 juin 2018 at 21 h 35 min

    Pourquoi qq qui soutien Hitler est tout de suite traité de troll c’est juste qq de censé qui à analyser le pour et le contre et qui s’est rendu compte qu’il avais apporté beaucoup de bonne chose

    • bill

      11 juin 2018 at 11 h 52 min

      Avec un peu d’humour, tout peux passer 😉

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Dernières news

Les bons plans

Les tests