Suivez-nous

Actualités

Cette intelligence artificielle a « triché » pour devenir meilleure que ses concepteurs !

Coup de tonnerre dans le secteur du deep learning : une AI a réussi à améliorer son propre code pour être plus performante que celui écrit par les humains qui l’ont imaginé

Il y a

le

intelligence artificielle
Photo de Markus Spiske

Le titre de l’article peut paraître aguicheur, mais il n’en démontre pas moins la réalité du phénomène qui s’est déroulé à Stanford, durant des recherches que l’université a mises en place en partenariat avec… Google. L’objectif premier de l’étude qui nous intéresse était de transformer des photos aériennes en carte géographique.

Jusque là, rien d’exceptionnel, si tant est que l’on soit au courant de ce qui se fait en AI ces derniers temps. Mais l’opération se corse lorsqu’il s’agit de faire le calcul inverse, en dessinant une image vue du ciel depuis le premier résultat.

Que s’est-il passé pour que ce soit si exceptionnel ?

L’ordinateur utilisé par les chercheurs faisait appel à un réseau neuronal de type CycleGAN, dont la spécialité est justement de convertir une image d’un certain type vers un fichier comportant le même contenu, mais d’un autre type, à l’instar de ce qui se fait avec TensorFlow, un outil également inventé par Mountain View. Problème (ou pas) : le résultat obtenu par l’AI était très bon, voire même trop bon.

intelligence artificielle

En effet, comme on peut le voir sur l’image ci-dessus, la photographie prise depuis un satellite est quasiment la même au début et à la fin de l’expérience. Pourtant, le tracé routier n’intègre aucun des éléments des autres images comme les points, les ombres, ou les arbres.

L’explication

En réalité, le logiciel ne s’est pas simplement contenté de créer une carte depuis une photo, et inversement. Il est allé bien plus loin que ce pour quoi il a été programmé, et a en fait encodé le schéma de la première image pour le retranscrire comme convenu.

Alors qu’il était simplement conçu pour faire la transformation des images de a vers b et de b vers c, il a ajouté des informations invisibles à l’oeil nu dans la photo b afin de construire la c.

Mis en mémoire, le modèle est donc duplicable à volonté avec ce système. Grâce à cette nouvelle, dont vous pouvez consulter les détails techniques en source de l’article, Google réaffirme ainsi sa position parmi les leaders dans le domaine de l’intelligence artificielle, déjà bien attaqué côté médecine.

Source

15 Commentaires

15 Commentaires

  1. minLa

    3 janvier 2019 at 8 h 37 min

    Zéro pointé pour l’explication.
    Ta façon de traduire est imbitable !

    • Pierre

      3 janvier 2019 at 9 h 06 min

      +1 minLa
      Comme le précise l’article source en anglais :
      Le programme était conçu pour faire l’operation « Image satellite -> carte -> image satellite reconstituée »
      Comme le même programme a généré les deux dernières images rien ne lui interdisait de rajouter de l’informations dans l’image intermédiaire (la carte) afin de mieux reconstruire la dernière image (vue satellite reconstituée). C’est ce qu’il s’est passé ici, la vue carte contenait des informations supplémentaires invisibles à l’œil nu contenant des informations pour la reconstitution. Le programme a en fait fait une sorte de compression de la première image dans l’image de type carte.
      Pourquoi le programme a t’il fait ça ? Car un programme de type réseau neuronal est fait pour ça, trouver la meilleure solution à un problème en réessayant indéfiniment de s’ameliorer et ici on lui demandait de « générer une vue satellite la plus proche de l’originale tout en générant une vue carte » et le meilleur moyen trouvé a été de garder l’image source dans l’image de type carte.
      Maigré cette mauvaise traduction, cette erreur de programmation (car s’en est une en quelque sorte) n’en reste pas moins intéressant de la part de Google et Stanford.
      Bonne journée 🙂

      • Phil

        3 janvier 2019 at 10 h 32 min

        >> un programme de type réseau neuronal est fait pour trouver la meilleure solution à un problème en réessayant indéfiniment

        Ca ne s’appelle pas de l’intelligence dans ce cas, mais de la méthode « force brute »…

        • mikheb

          4 janvier 2019 at 19 h 26 min

          Comment apprenons nous ? En se trompant et en reessayant. L’IA a le mérite de ne jamais reessayer 2 fois de suite la même chose, au point de trouver des manières de faire auxquelles nous, humains, n’auraient pas pu penser… j’appelle ca de lintelligence !

        • Al3xCalibur

          4 janvier 2019 at 21 h 46 min

          La différence entre les deux qui rend ces programme plus complexes comparés au brut force, c’est qu’ils ne testent pas les solutions les unes après les autres jusqu’à bien tomber mais essaye puis en quelque sorte essaye de corriger ses erreurs et recommencer, jusqu’à atteindre des résultats suffisamment convaincants.

    • Bob Lasar

      3 janvier 2019 at 9 h 19 min

      Même constat, j’ai relu 2 fois l’article et n’ai pas compris ce que l’auteur à voulu expliquer :/

      • Valentin Décarpentrie

        3 janvier 2019 at 9 h 32 min

        merci pour vos remarques, je pense que c’est désormais plus simple à comprendre 😉

  2. ibob

    3 janvier 2019 at 9 h 31 min

    De plus, l’utilisation systématique d’une photo d’un écran affichant du code d’un framework javascript pour illustrer des sujets qui n’on rien à voir avec ce langage est un peu pénible.

    Bonne année!

  3. SharedTrash

    3 janvier 2019 at 9 h 50 min

    Je partage le point de vu de minLa, c’est parfaitement incompréhensible.

    • Jerem

      3 janvier 2019 at 10 h 55 min

      Merci Pierre. Car ce que disait Valentin me paraissait tout juste a une back propagation qu’on retrouve en CNN (Convolutional neural network). Et dans ce cas. Rien d’extraordinaire.

  4. T D

    3 janvier 2019 at 10 h 25 min

    Ces commentateurs ont triché pour devenir meilleurs que le rédacteur de cette article !

    • Eric

      4 janvier 2019 at 9 h 12 min

      Ce commentateur a triché pour être dans Bescherelle ta mère 😀

  5. Fsamiez

    3 janvier 2019 at 18 h 33 min

    Rien de super étonnant du coup, un algorithme de Machine Learning qui trouve un moyen détourné d’arriver à un objectif avec ce qu’on lui met à disposition on en voit tout les jours… Également, l’IA n’a du coup absolument pas « amélioré son propre code », c’est mensonger.

  6. Julien Lerouge

    3 janvier 2019 at 19 h 46 min

    Je suis ingénieur spécialisé en deep Learning et en traitement d’images… Et je n’ai quasiment rien compris à cette news. Surtout au paragraphe l’explication…

    Mais j’ai simplement l’impression que c’est un non-événement. Certes le résultat est impressionnant, mais la technique n’est pas nouvelle et ce genre de résultats est désormais légion (cf. génération de visages, transfert de styles etc.).

    Je ne vois aucun signe de « triche » en tout cas. Du putaclic en somme…

    • Eric

      4 janvier 2019 at 9 h 14 min

      Sinon vous aviez vu que « triché » était entre guillemets dans le titre, ou pas ?

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Dernières news

Les bons plans

Les tests