L’intelligence artificielle de Google a créé une IA plus intelligente que celle créée par l’homme

Google a développé une intelligence artificielle capable de générer sa propre IA. Au cœur du dispositif : la vision et la reconnaissance de l’environnement.


(image : Google Research)

Inception, ou mise en abyme, comme vous voulez. C’est déjà la deuxième étape de ce dont est capable l’intelligence artificielle (IA) et que nous n’avions peut-être pas prévue : sa capacité à créer elle-même sa propre IA. Alors forcément ça donne un titre un peu alambiqué, qui mérite quelques explications.

En mai 2017, des chercheurs de Google Brain (le genre de nom qui fait un peu peur) ont annoncé la création d’AutoML, une intelligence artificielle capable de générer ses propres IA. Et cela n’a pas traîné :  l’IA qui peut construire l’IA a engendré sa propre créature, qui selon Google aurait surclassé tous ses homologues humains.

Le projet AutoML de Google a notamment mis au point un système de vision par ordinateur qui surpasse largement les meilleurs dispositifs existants. Le projet pourrait améliorer la façon dont les véhicules autonomes et les robots IA de la prochaine génération « voient ». Et c’est là que l’on réalise que l’IA a beaucoup à voir avec la vision, avec la vue, tout simplement. Une réalité confirmée par les travaux sur les véhicules autonomes, dont une grande partie de l’intelligence est fondée sur leur capacité à voir pour reconnaitre et analyser leur environnement. On peut aussi mentionner les derniers progrès d’un logiciel comme Photoshop qui arrive à détourer des sujets automatiquement grâce à son IA en étant capable de distinguer ces derniers de leur fond. Citons également les filtres Facebook Live, qui permettent de créer un flou derrière un sujet en mouvement, en temps réel pendant la diffusion d’une vidéo. Sans parler des dispositifs d’identification faciale comme FaceID de l’iPhone X.

La vision au cœur des meilleurs dispositifs d’intelligence artificielle

Les chercheurs de Google ont automatisé la conception de modèles d’apprentissage automatique à l’aide d’une approche appelée apprentissage par renforcement. AutoML agit comme un réseau de contrôleurs neuronaux qui développe un réseau d’IA enfant pour une tâche spécifique. Pour cet enfant en particulier, l’IA, que les chercheurs ont appelé NASNet, la tâche consistait à reconnaître des objets – personnes, voitures, feux de circulation, sacs à main, sacs à dos, etc. – dans une vidéo en temps réel.

AutoML évaluerait la performance de NASNet et utiliserait cette information pour améliorer son IA enfant, répétant le processus des milliers de fois. Lorsqu’il a été testé sur les ensembles de données de classification d’images ImageNet et de détection d’objets COCO, que les chercheurs de Google appellent « deux des ensembles de données académiques à grande échelle les plus respectés en vision par ordinateur », NASNet a surpassé tous les autres systèmes de vision par ordinateur.

Selon les chercheurs, NASNet était précis à 82,7 % dans la prédiction des images sur le jeu de validation d’ImageNet. Il s’agit d’une amélioration de 1,2 % par rapport à tous les résultats publiés précédemment, et le système est également 4 % plus efficace, avec une précision moyenne de 43,1 % (mAP). De plus, une version de NASNet moins exigeante sur le plan des calculs a surpassé de 3,1 % les meilleurs modèles de la même taille pour les plates-formes mobiles.

L’apprentissage machine (Machine Learning) est évidemment de la partie, puisque indissociable de l’IA. En automatisant le processus de création de systèmes d’intelligence artificielle précis et efficaces, une intelligence artificielle capable de construire ses propres IA permet de gagner du temps. Un concept qui évoque furieusement le fameux et vieux diction « Donne un poisson à un homme et tu le nourris une fois, apprends-lui à pêcher et tu le nourris pour la vie ». Enfin, dans les grandes lignes.

En ce qui concerne NASNet en particulier, des algorithmes de vision artificielle précis et efficaces sont très recherchés en raison du nombre d’applications potentielles. Ils pourraient être utilisés pour créer des robots sophistiqués alimentés par l’intelligence artificielle ou pour aider les malvoyants à recouvrer la vue, comme l’ a suggéré un chercheur. Ils pourraient également aider les concepteurs à améliorer les technologies pour les voitures à conduite autonome. Plus vite un véhicule autonome reconnaîtra les objets sur son chemin, plus vite il réagira à ces objets, ce qui augmentera la sécurité de ces véhicules.

L’intelligence artificielle, un vrai job d’apprenti sorcier ?

Bien que les applications pour NASNet et AutoML soient nombreuses, la création d’un IA capable de construire des IA soulève quelques inquiétudes mêlées d’une certaine fascination. Si une IA est capable de générer ses propres « enfants », les dérives que dénoncent entre autres des personnalités comme Elon Musk sont envisageables, de celles qui pourraient échapper à tout contrôle humain.

Mais n’ayez pas peur, les GAFA veillent (hum…) et essaient de rassurer les pauvres humains que nous sommes. Amazon, Facebook, Apple et plusieurs autres sont tous membres du Partenariat sur l’IA au profit des personnes et de la société, une organisation axée sur le développement responsable de l’IA. L’Institute of Electrical and Electronics Engineers (IEE) a proposé des normes éthiques pour l’IA, et DeepMind, une société de recherche appartenant à la société mère de Google Alphabet, a récemment annoncé la création d’un groupe centré sur les implications morales et éthiques de l’IA.

Divers gouvernements s’emploient également à élaborer des règlements pour empêcher l’utilisation de l’IA à des fins dangereuses, comme l’utilisation d’armes autonomes, et tant que les humains garderont le contrôle de l’orientation générale du développement de l’IA, les avantages d’avoir une IA capable de construire une IA devraient l’emporter largement sur les pièges potentiels.

Source (certains passages ont été traduits in extenso)


Nos dernières vidéos

7 commentaires

  1. Et si je vous dis : un algorithme d’optimisation qui teste des millions de combinaisons algorithmes/hyper-paramètres pour optimiser des tâches de classification bien définies.
    Est-ce que ça vous fait autant flipper ?
    Les news comme ça et les gars comme Elon Musk qui s’alarment sans savoir de quoi ils parlent, ça c’est flippant.
    Lorsqu’on connaît bien le sujet, ya vraiment pas de quoi s’alarmer, les « IA » d’aujourd’hui sont très très limitées

    • Elon Musk qui met de l’intelligence dans ses voitures ne sait donc aps de quoi il parle ? C’est vrai que ce mec ne connait rien à rien.
      L’IA en question n’est pas un simple algorithme puisqu’elle peut créer d’autres programmes et d’autres algorithmes. Les IA ne sont pas limitées puisque via de nombreuses applications elles stockent notamment chez Google les données mondiales. Le danger est que sans règle pour les contrôler et pour contrôler les Gafa qui au nom de l’argent sont prêt à tout. On le voit en matière de défiscalisation, mais aussi d’environnement où l’on ne voit pas ou peu de progrès à utiliser des technologies propres, à limiter les datas consommées, à vider les caches des appareils, etc…
      Bref, oui il y a lieu de s’inquiéter car aujourd’huit les IA des voitures autonomes peuvent tuer le passager s’il est seul dans sa voiture pour sauver les vies d’une famille qui lui rentre dedans.
      Les 3 lois de la robotique d’Asimov devraient être implantées dans toutes les IA mises au point, hors ce n’est pas le cas.

      • Bah en fait c’est pas lui qui met l’IA dans les bagnoles. Peut-être l’ignorez-vous, mais il a des employés bien plus compétents que lui sur le sujet.
        Lui il sert à boucler le tour de table pour financer ses délires. Et toute sa communication ne sert qu’à ça.
        Après y’a les crédules qui croient au père noël.

        A force de raconter n’importe quoi sur l’IA, on est bien partis pour planter une 3ème fois la discipline.

  2. L IA ne cesse deprogresser et l intelligence artificielle n a pas de limites d autant qu il est plusieurs sortes d intelligence dont l emotionnelle qui participe a l intelligence rationelle si l on combine un super intellect a un ressenti alors nous devrons changer notre vision des androides et les traiter d un point d egalite l aventure ne fait que commencer….

  3. L’IA AutoML n’a pas écrit une seule ligne de code de NASNet. Elle a seulement optimisé les paramètres pour qu’elle soit plus performante (et accessoirement testé de multiples combinaisons avec plus ou moins de succès). En soit, dire qu’une IA a créé une autre IA, c’est comme dire qu’une machine qui fond des marteaux est auto-reproductible, ça n’a aucun sens.
    D’ailleurs, le terme « intelligence artificielle » est aussi dénué de sens car, jusqu’à présent, à part des algorithmes qui se révèlent plus performant pour certaines tâches, aucun système informatique n’a pu passer le test de Turing. Ce ne sont pas des « intelligences »… pour l’instant.

  4. Mais n’ayez pas peur, les GAFA veillent (hum…) ../… une organisation axée sur le développement responsable de l’IA.

    Sigh que les Gafa parlent d’éthique ça ne me rassure pas. Qu’ils commencent a payer leurs impôts, a ne pas exploiter leurs employés et leurs sous traitants….

  5. On peut très bien asservir un flingue à un faisceau LASER. Si quelque chose « coupe » le signal LASER, le flingue défouraille.
    Clair, net, pas de détail et pas d’IA. Même pas d’informatique.
    Le problème est bien que la détection a entrainé une réaction automatique plutôt que de déclencher un signal d’alarme par exemple.
    C’est parce qu’on a délégué la réaction au flingue. On l’a donc bien rendu autonome en matière d’ouverture du feu.

    Tout ça pour dire que je ne vois pas bien la dangerosité d’une IA dans un système d’arme. Enfin plutôt je ne comprends pas le degré supplémentaire de dangerosité.
    C’est un problème de délégation d’autonomie, pas d’IA.

Répondre