Aujourd’hui, les « agents IA » sont l’objet de nombreux fantasmes dans le secteur de la tech et représentent, en quelque sorte, le stade d’évolution supérieur des chatbots que nous utilisons. Ils seraient, en théorie, capables de s’acquitter de tâches complexes sans nécessiter de supervision humaine : naviguer sur internet à notre place, utiliser des applications, passer commande sur des sites d’e-commerce ou réserver des séjours de vacances. C’est le cas de ChatGPT, par exemple, avec son mode agent, dévoilé au mois de juillet de cette année.
L’automatisation conduite à son maximum, une utopie pour certains, à laquelle Andrej Karpathy (cofondateur d’OpenAI), ne croit absolument pas. L’ingénieur, ex-directeur de l’IA chez Tesla, affirme que ces systèmes sont encore loin d’être arrivés à maturité et qu’il faudra beaucoup de temps avant que cela soit le cas.
Les agents IA : des assistants qu’il faut assister
Dans l’état, ces agents IA sont des chimères, et leur prétendue autonomie relève davantage d’une escroquerie sémantique que de la réalité. Voilà, en substance, ce qu’explique Karpathy. « Ils ne sont pas assez intelligents, pas assez multimodaux, incapables d’utiliser un ordinateur correctement », a-t-il lancé au micro de Dwarkesh Podcast (voir vidéo ci-dessus, de la chaîne YouTube de Dwarkesh Patel). Selon lui, ces modèles sont « cognitivement limités » et « il faudra une dizaine d’années pour résoudre tous ces problèmes ».
Si les agents déjà disponibles sur le marché (Claude, ChatGPT ou Copilot, par exemple) peuvent correctement répondre à un mail, résoudre un bug, ou gérer un ticket de support informatique, ils souffrent d’un énorme défaut. Dépourvus de mémoire (au sens humain du terme) ou de réelles capacités d’apprentissage, ils errent dans une boucle d’amnésie qui n’a pas de sortie.
En réalité, tout ce qu’ils « savent » est gravé dans les paramètres d’un modèle statique, incapable d’intégrer la moindre nouvelle information sans repasser par un entraînement complet. Une inertie structurelle qui fait d’elles des perroquets sous perfusion, incapables d’apprendre s’ils ne sont pas supervisés : l’opposé même de ce que l’on définit comme étant l’intelligence.
Des bureaux sans humains et sans résultats
Les entreprises, elles aussi, commencent à avaler la pilule et reviennent doucement sur Terre. Après avoir juré que l’IA remplacerait des armées d’employés (n’est-ce pas, Klarna ?), elles découvrent qu’il faut désormais embaucher des employés pour corriger les erreurs des agents.
Au total, ce sont 95 % des projets pilotes d’agents d’IA qui se sont écrasés avant d’avoir décollé selon Gartner, une société spécialisée en conseils aux entreprises. Quant à la moitié des boîtes qui comptaient réduire leurs services clients d’ici 2027, elles ont abandonné l’idée.
Quelques irréductibles continuent néanmoins de jouer les optimistes. McKinsey, par exemple, s’extasie d’avoir réduit ses délais pour filtrer des propositions commerciales de vingt jours à deux grâce à un agent basé sur Microsoft Copilot Studio… qu’un humain doit tout de même surveiller.
En Inde, la start-up LimeChat revendique fièrement d’avoir coupé 80 % de ses effectifs pour gérer 10 000 requêtes mensuelles via des agents conversationnels. Son objectif est de rendre les emplois de service client presque obsolètes grâce à l’intelligence artificielle générative. Selon les informations dont nous disposons, nous ignorons si cette posture agressive est efficace, mais elle entre en parfaite contradiction avec ce que Karpathy démontre.
Plutôt que de voir l’IA comme une technologie entièrement autonome (ce qui n’est toujours pas le cas), il invite les entreprises et les travailleurs à considérer les agents IA comme « un employé ou un stagiaire que vous engageriez pour travailler avec vous ».
L’ère de la pleine autonomie de ces agents est donc bien loin ; nous nous retrouvons aujourd’hui avec un zoo de bots mal dressés qu’il faut surveiller à plein temps. Si l’on considère que ces mêmes agents devaient libérer les humains des tâches chronophages et répétitives, n’oublions pas que ceux qui restent doivent les superviser pour qu’ils ne déraillent pas. Pour le moment, plus ces machines deviennent « intelligentes », plus elles exigent d’être encadrées : une démonstration involontaire que l’intelligence sans conscience n’aboutit qu’à une forme de mimétisme tronqué. Rendez-vous dans 10 ans, le délai accordé par Karpathy à ses propres créations pour qu’elles commencent à fonctionner correctement.
- Les agents d’IA, présentés comme des outils capables d’agir seuls, restent dépendants d’une supervision humaine et n’apprennent rien par eux-mêmes.
- La plupart des projets censés remplacer des postes humains se soldent par des échecs coûteux, les entreprises devant finalement corriger les erreurs de leurs propres systèmes.
- Pour Karpathy, il faudra encore une décennie avant que ces agents deviennent réellement efficaces : pour l’instant, ils imitent l’intelligence sans la comprendre.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.