Passer au contenu

Cette intelligence artificielle a “triché” pour devenir meilleure que ses concepteurs !

Coup de tonnerre dans le secteur du deep learning : une AI a réussi à améliorer son propre code pour être plus performante que celui écrit par les humains qui l’ont imaginé

Le titre de l’article peut paraître aguicheur, mais il n’en démontre pas moins la réalité du phénomène qui s’est déroulé à Stanford, durant des recherches que l’université a mises en place en partenariat avec… Google. L’objectif premier de l’étude qui nous intéresse était de transformer des photos aériennes en carte géographique.

Jusque là, rien d’exceptionnel, si tant est que l’on soit au courant de ce qui se fait en AI ces derniers temps. Mais l’opération se corse lorsqu’il s’agit de faire le calcul inverse, en dessinant une image vue du ciel depuis le premier résultat.

Que s’est-il passé pour que ce soit si exceptionnel ?

L’ordinateur utilisé par les chercheurs faisait appel à un réseau neuronal de type CycleGAN, dont la spécialité est justement de convertir une image d’un certain type vers un fichier comportant le même contenu, mais d’un autre type, à l’instar de ce qui se fait avec TensorFlow, un outil également inventé par Mountain View. Problème (ou pas) : le résultat obtenu par l’AI était très bon, voire même trop bon.

intelligence artificielle

En effet, comme on peut le voir sur l’image ci-dessus, la photographie prise depuis un satellite est quasiment la même au début et à la fin de l’expérience. Pourtant, le tracé routier n’intègre aucun des éléments des autres images comme les points, les ombres, ou les arbres.

L’explication

En réalité, le logiciel ne s’est pas simplement contenté de créer une carte depuis une photo, et inversement. Il est allé bien plus loin que ce pour quoi il a été programmé, et a en fait encodé le schéma de la première image pour le retranscrire comme convenu.

Alors qu’il était simplement conçu pour faire la transformation des images de a vers b et de b vers c, il a ajouté des informations invisibles à l’oeil nu dans la photo b afin de construire la c.

Mis en mémoire, le modèle est donc duplicable à volonté avec ce système. Grâce à cette nouvelle, dont vous pouvez consulter les détails techniques en source de l’article, Google réaffirme ainsi sa position parmi les leaders dans le domaine de l’intelligence artificielle, déjà bien attaqué côté médecine.

Source

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Youtube
Youtube
Par : Google LLC
4.3 / 5
158,3 M avis
14 commentaires
14 commentaires
    1. +1 minLa
      Comme le précise l’article source en anglais :
      Le programme était conçu pour faire l’operation « Image satellite -> carte -> image satellite reconstituée »
      Comme le même programme a généré les deux dernières images rien ne lui interdisait de rajouter de l’informations dans l’image intermédiaire (la carte) afin de mieux reconstruire la dernière image (vue satellite reconstituée). C’est ce qu’il s’est passé ici, la vue carte contenait des informations supplémentaires invisibles à l’œil nu contenant des informations pour la reconstitution. Le programme a en fait fait une sorte de compression de la première image dans l’image de type carte.
      Pourquoi le programme a t’il fait ça ? Car un programme de type réseau neuronal est fait pour ça, trouver la meilleure solution à un problème en réessayant indéfiniment de s’ameliorer et ici on lui demandait de « générer une vue satellite la plus proche de l’originale tout en générant une vue carte » et le meilleur moyen trouvé a été de garder l’image source dans l’image de type carte.
      Maigré cette mauvaise traduction, cette erreur de programmation (car s’en est une en quelque sorte) n’en reste pas moins intéressant de la part de Google et Stanford.
      Bonne journée 🙂

      1. >> un programme de type réseau neuronal est fait pour trouver la meilleure solution à un problème en réessayant indéfiniment

        Ca ne s’appelle pas de l’intelligence dans ce cas, mais de la méthode “force brute”…

        1. Comment apprenons nous ? En se trompant et en reessayant. L’IA a le mérite de ne jamais reessayer 2 fois de suite la même chose, au point de trouver des manières de faire auxquelles nous, humains, n’auraient pas pu penser… j’appelle ca de lintelligence !

        2. La différence entre les deux qui rend ces programme plus complexes comparés au brut force, c’est qu’ils ne testent pas les solutions les unes après les autres jusqu’à bien tomber mais essaye puis en quelque sorte essaye de corriger ses erreurs et recommencer, jusqu’à atteindre des résultats suffisamment convaincants.

  1. De plus, l’utilisation systématique d’une photo d’un écran affichant du code d’un framework javascript pour illustrer des sujets qui n’on rien à voir avec ce langage est un peu pénible.

    Bonne année!

    1. Merci Pierre. Car ce que disait Valentin me paraissait tout juste a une back propagation qu’on retrouve en CNN (Convolutional neural network). Et dans ce cas. Rien d’extraordinaire.

  2. Rien de super étonnant du coup, un algorithme de Machine Learning qui trouve un moyen détourné d’arriver à un objectif avec ce qu’on lui met à disposition on en voit tout les jours… Également, l’IA n’a du coup absolument pas “amélioré son propre code”, c’est mensonger.

  3. Je suis ingénieur spécialisé en deep Learning et en traitement d’images… Et je n’ai quasiment rien compris à cette news. Surtout au paragraphe l’explication…

    Mais j’ai simplement l’impression que c’est un non-événement. Certes le résultat est impressionnant, mais la technique n’est pas nouvelle et ce genre de résultats est désormais légion (cf. génération de visages, transfert de styles etc.).

    Je ne vois aucun signe de “triche” en tout cas. Du putaclic en somme…

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *