- Aussi impressionnant soit-il, ChatGPT serait encore loin d’être doué d’intelligence à en croire un expert
- Rodney Brooks met ainsi en garde dans une interview contre la tendance des observateurs à surévaluer les capacités de l’IA développée par OpenAI
- Plus largement, les technologies d’intelligence artificielle actuelles sont, à en croire Rodney Brooks, encore loin de pouvoir nous conduire à une vraie intelligence artificielle générale (AGI)
Si vous avez expérimenté avec les derniers modèles d’IA (LLM) de OpenAI, vous avez sans doute remarqué la différence impressionnante de rendu entre le modèle GPT-3.5 et GPT-4 (exclusif aux abonnés ChatGPT Plus et aux utilisateurs de Bing Chat). Et pour cause : GPT-4 est entraîné à partir d’un corpus beaucoup plus vaste de données.
Ce qui permet de lui faire générer des contenus beaucoup plus pertinents, impressionnants, et “humains”, en tout cas en apparence. De quoi nous placer dans la chronologie décrite par Ray Kurtzweil dans The Singularity Is Near : autrement dit, tout semble indiquer que, dans les prochaines années, tombera l’une des premières vraies intelligences artificielles générales (AGI).
ChatGPT-4 ne serait pas encore à proprement parler “intelligent”
Mais en est-on vraiment plus proche grâce à ChatGPT, en particulier GPT-4 ? C’est là où les débats sont ouverts, avec d’un côté les partisans, et ceux qui n’y croient pas pour l’instant. Dans une conférence universitaire reprise en fin d’article, le chercheur Sebastien Bubeck chez Microsoft teste par exemple la capacité du modèle à répondre à certains critères d’intelligence.
Selon ses recherches, GPT-4 a des capacités de raisonnement, peut résoudre des problèmes, penser de manière abstraite et comprendre des idées complexes. Le modèle ne peut en revanche pas planifier seul des actions ultérieures, et ses capacités à apprendre rapidement de son expérience sont limitées au contexte des conversations.
Des programmes comme AutoGPT ont ainsi été développés pour transcender ces limitations et rendre l’action de GPT-4 plus autonome et intelligente, avec un certain succès – AutoGPT fait d’ailleurs partie des sujets actuels les plus intenses autour de l’IA. Mais GPT-4 n’est pas infaillible, et du coup les résultats obtenus par AutoGPT et d’autres initiatives semblables restent imprévisibles – faisant douter des capacités du modèle actuel de permettre l’atteinte du stade de l’AGI.
Or, plusieurs mois après le lancement des modèles 3.5 et 4, le camp de ceux qui doutent que ChatGPT soit doté de la moindre intelligence fait de plus en plus entendre sa voix. C’est dans ce contexte qu’apparaît une interview de Rodney Brooks, un expert de l’IA et de la robotique, dans le magazine spécialisé IEEE Spectrum. Selon lui, ChatGPT est en réalité beaucoup plus “stupide” que certaines de ses réponses peuvent le laisser penser.
“Aucun des modèles LLM actuels ne permettra d’atteindre le stade de l’AGI”
Il affirme qu’aucun des modèles actuels ne permettra d’atteindre le stade de l’AGI, pour une raison très simple : ChatGPT est complètement déconnecté du monde réel, et n’a donc pas de modèle de représentation de ce dernier. Il affirme : “ce que font ces modèles c’est de la corrélation dans le contexte du langage”.
Il poursuit : “on voit une personne faire quelque chose, et immédiatement on comprend les autres choses que cette personne peut faire, et on peut établir rapidement un jugement, mais ce modèle humain qui consiste à établir des généralisations de compétences par rapport à une performance ne s’appliquent pas aux systèmes d’IA”. En d’autres termes : les modèles de langage actuels sont surtout capables de donner l’apparence de l’intelligence.
Et l’expert de souligner : “là où les grands modèles de langage sont bons est lorsqu’on leur demande de dire ce à quoi une réponse est censée ressembler”. Sans avoir réellement la capacité de toujours donner la bonne réponse. Il appuie son argumentaire sur ses propres expériences en codage informatique assisté par l’IA. Selon lui : “ChatGPT donne une réponse avec une confiance totale, ce qui m’incite à le croire”.
Mais “la moitié du temps, c’est complètement faux. Et je passe entre deux et trois heures à perdre du temps avec [la suggestion donnée par l’IA] avant de le réaliser, et de dire à [ChatGPT] ‘Ça ne fonctionne pas'”, explique Rodney Brooks. Ce qui l’amène à conclure que “tout cela n’est pas la même chose que de l’intelligence”.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.
Bon déjà vous faites un article sur quelqu’un puis vous mettez la vidéo de quelqu’un d’autre. Et pour le coup je suis plus de l’avis de Bubeck (la video), c’est une forme d’intelligence, différente de la notre, pour les raisons dites dans l’article(et dans la video). Dans tout les cas, c’est utile et un gain de temps incroyable quand c’est bien utilisé. Et c’est vrai que l’AGI, on en est très loin, les LLM actuels ne peuvent pas en produire, mais les avancées/enjeux sont tels que ça peut arriver très rapidement ou à l’opposé pas de notre vivant (même si je penche plus pour 5 à 10 ans personnellement).
Si les IAs vous intéressent(même si vous n’y comprenez pas grand chose) je vous recommande fortement la chaine youtube americaine ColdFusion
Finalement, bravo presse citron, on sent que vous vous renseignez de plus en plus sur le sujet.
Je voudrais mettre un bémol à ce que dit le chercheur (à mon niveau, hein).
On n’est d’accord que ces modèles ne permettent pas une intelligence globale. Pourtant je pense que GPT a mis le doigt sur une partie non négligeable de l’intelligence humaine.
Il manque beaucoup de choses, et en particulier l’intelligence “animale”, qui est un gros morceau. Cependant on néglige trop souvent le fait que la spécificité de l’intelligence humaine, dans tout le monde animal, est qu’elle s’appuie sur le langage. C’est ça, précisément, qui permet à l’intelligence humaine de se développer presque à l’infini. C’est ça qui fait que la culture humaine est infiniment plus riche que la culture de n’importe quel animal. Ce sont ces outils qui nous permettent de prendre des distances sur notre propre condition.
C’est pas un hasard si ça fait des décennies qu’on piétine en IA. On a toujours essayé de rendre les machines intelligentes en partant du présupposé que l’intelligence n’a rien à voir avec le langage humain. Que c’est quelque chose de mécanique (ou chimique, électrique, ce que vous voulez), et qu’il suffit d’imiter cette mécanique pour créer une IA.
En créant ces modèles de language, personne ne pensait créer de l’intelligence. C’est “juste” une suite de mots ! Qu’est-ce qui peut bien y avoir d’intelligent dans une suite de mots !
Et la bim. Chat GPT. Personne ne l’a vu venir.
L’argument définitif du chercheur (argument qui était le mien aussi jusqu’à récemment) c’est le fait que GPT dit des choses avec une grande certitude, et qu’il dit parfois des bêtises. Qu’il faut vérifier.
J’ai envie de dire, n’est-ce pas précisément le cas de l’intelligence humaine ??
Si vous voulez une intelligence qui ne se trompe jamais, alors littéralement c’est une intelligence surhumaine que vous exigez. Donc quelque chose de totalement différent.
Chat GPT c’est littéralement comme si vous demandiez à un humain tout à fait moyen de faire des trucs à votre place. Au final l’erreur est GPT autant qu’elle est humaine. Errare GPTum est.
On est d’accord que par ailleurs il manque une capacité à l’auto-critique et l’autonomie. Mais ça, justement c’est lié à l’intelligence classique “animale” (non spécifique aux humains). Les animaux n’ayant pas besoin d’intelligence verbale pour peser le pour et les contre, c’est à dire critiquer leurs choix et agir de façon autonome !
Chatgpt n’est pas intelligent : il ne comprend pas ce qu’il dit il cherche juste les mots et leur ordre de manière à créer un langage statistiquement probable.