En 2022, nous avons découvert l’IA générative, avec la déferlante provoquée par ChatGPT ; à partir de la fin de l’année 2024, ce sont les agents IA que nous avons vus éclore en masse. Des systèmes autonomes qui peuvent raisonner et utiliser des outils pour accomplir des objectifs complexes sans supervision, plutôt que de simplement répondre à des questions. Ils sont capables de naviguer sur le web pour ouvrir plusieurs sites simultanément, se connecter à différents services, remplir des formulaires ou toute action qu’un humain pourrait accomplir.
Toutes les grandes plateformes s’y sont mises : OpenAI avec ChatGPT Agent, bardé d’outils automatisés, Google et ses multiples agents autonomes autour de Gemini, Anthropic avec Claude Code. Nous avons également vu apparaître, à quelques mois d’intervalle, des outils comme Perplexity Comet ou ChatGPT Atlas, des navigateurs boostés à l’IA qui exécutent des actions sur les sites web à la place de l’utilisateur. Une foire à l’automatisation qui a poussé les chercheurs du MIT à se pencher sur cette « deuxième vague de l’IA » pour voir comment ces agents se comportent une fois lâchés en liberté sur le web. Le tableau n’est pas franchement reluisant : certains sont tellement autonomes qu’ils sont indiscernables de réels humains.
Des bots qui surfent incognito
Pour leur étude, les chercheurs du MIT ont passé au crible 30 agents d’IA parmi les plus visibles du marché. Ils les ont répartis en trois grandes familles : les agents conversationnels comme ChatGPT Agent ou Claude Code ; les agents capables d’exécuter des actions directement sur le web ; et les agents destinés aux entreprises, intégrés dans des outils professionnels comme Microsoft 365 ou ServiceNow.
Le premier constat qui en est ressorti : beaucoup d’entre eux fonctionnent sans cadre de sécurité clairement documenté. Seule la moitié d’entre eux est associée à un document décrivant la manière dont leurs développeurs évaluent et encadrent les risques liés à ces systèmes. Certaines entreprises, comme Anthropic, Microsoft ou OpenAI publient les procédures de test, les seuils d’alerte ou les mécanismes de contrôle appliqués à leurs modèles, mais dans de trop nombreux cas, ces informations sont absentes.
Pire : un tiers des agents étudiés ne renvoie à aucune documentation publique sur ces questions, et cinq d’entre eux ne mentionnent même pas les normes de conformité auxquelles ils sont censés se conformer.
Le problème devient nettement plus sérieux lorsque l’on analyse leurs capacités opérationnelles. Treize des trente agents analysés présentent un niveau dit « d’autonomie avancée » : une fois en ligne, ils peuvent enchaîner de longues séquences d’actions sans intervention humaine et agir comme vous le feriez vous-mêmes sur Internet. Ils ont donc une procuration totale et aveugle, une situation d’autant plus grave qu’ils n’ont aucune compréhension des conséquences de leurs actions.
Les agents intégrés dans des navigateurs figurent parmi les plus autonomes. Certains peuvent même utiliser les données d’un utilisateur pour interagir avec des sites exactement comme le ferait un internaute lambda. Pour les services en ligne sur lesquels ils naviguent, ces interactions sont pratiquement impossibles à distinguer de celles d’un humain. Un cauchemar pour la sécurité, puisqu’en se fondant ainsi dans le trafic organique, c’est une porte ouverte à toutes formes de fraudes ou d’abus entièrement automatisés.
Selon le rapport du MIT, dans 21 cas sur 30, les sites web étudiés ne font pas la différence et rien n’indique qu’ils sont en pleine interaction avec un agent IA. Cette confusion tient en grande partie à la manière dont ces agents s’identifient, ou plutôt ne s’identifient pas. Seuls sept d’entre eux publient des identifiants techniques (chaînes User-Agent ou plages d’adresses IP), qui permettraient aux sites web de reconnaître clairement qu’ils ont affaire à un agent automatisé.
C’est même parfois l’inverse : plusieurs agents utilisent volontairement des identifiants très proches de ceux du navigateur Google Chrome et passent par des connexions domestiques, ce qui les fait apparaître comme des utilisateurs humains. Pour certains outils, cette capacité à passer inaperçu est même un argument commercial mis en avant par certaines firmes. L’agent open source BrowserUse, par exemple, explique pouvoir contourner les systèmes anti-bot et naviguer « comme un humain ».
Quels sont les risques ?
En refusant de publier des identifiants techniques clairs, ces entreprises s’octroient un droit de passage clandestin sur l’ensemble du réseau mondial, au mépris des règles de cybersécurité les plus élémentaires. Peut-on encore parler d’innovation alors que ces agents sont désormais plus proches, dans leur fonctionnement, du logiciel espion que de l’assistant de bureau que nous attendions tous ?
Pour les chercheurs du MIT, l’écosystème web actuel, si complexe et protégé soit-il, n’est absolument pas préparé à ce que des millions de bots se promènent sans laisse comme c’est le cas aujourd’hui. Internet a été bâti sur une culture de transparence technique (la nétiquette) qui voulait que les acteurs qui automatisent leurs activités s’identifient clairement comme tels. Les robots d’indexation des moteurs de recherche, par exemple, publient leurs identifiants techniques et respectent des règles d’accès définies par les sites. Tout le contraire des agents IA, qui, en brisant les codes implicites de ce contrat, exposent le réseau entier à de graves vulnérabilités : exploitation de failles zero-day, attaques par déni de service applicatif (L7 DDoS), phishing conversationnel à grande échelle, usurpation d’empreinte numérique et autres techniques d’automatisation malveillante. Les scénarios d’abus sont nombreux, et les entreprises à l’origine de ces agents qui jouent réellement la carte de la responsabilité restent, toujours selon le MIT, minoritaires.
- Le MIT alerte sur la prolifération d’agents IA autonomes qui agissent sur le web sans supervision, rendant leur distinction d’avec les humains quasi impossible.
- Une étude a révélé que plus de la moitié des agents analysés manquent de cadre de sécurité documenté et un tiers n’a aucune documentation publique sur leurs risques.
- Ces agents, capables d’exécuter des actions autonomes, posent des risques sérieux pour la cybersécurité en contournant les protections et en se fondant dans le trafic internet normal.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.
