- Un chercheur a mis au point un leurre qui permet de tromper les pirates grâce à ChatGPT
- Son travail ouvre la perspective de beaux progrès en matière de cybersécurité
- On sait à contrario que ces modèles de langage peuvent être une arme au service des cybercriminels
Depuis plusieurs mois, des experts alertent sur les risques que font peser ChatGPT et ses concurrents sur la cybersécurité. Mais cette fois, c’est l’inverse qui s’est produit : on s’est servi du modèle de langage d’OpenAI pour créer un outil efficace contre les cyberattaques.
Cet exploit a été réalisé par Xavier Bellekens, chercheur et PDG de la société de cybersécurité Lupovis. Il s’est servi de ChatGPT pour mettre au point un honeypot (pot de miel en Français). Si vous n’êtes pas trop familier avec cette notion, sachez qu’il s’agit d’un leurre utilisé pour tromper les hackers en leur faisant croire qu’ils prennent le contrôle d’un réseau qui n’existe pas.
Concrètement, l’expert a donc utilisé ChatGPT pour obtenir des instructions et du code pour construire une fausse imprimante. Il a fait les choses bien car les éventuels pirates tombaient sur une page de connexion avec des identifiants et un mot de passe tristement banals : « admin » et « password ». Cette opération ne lui a pris qu’une dizaine de minutes. Le système produit avec l’aide de l’IA enregistre aussi toutes les connexions entrantes dans une base de données.
ChatGPT, pour le meilleur et pour le pire
Une fois lancé, le honeypot est très vite attaqué par des bots. Puis, le chercheur constate qu’une personne se connecte et elle est parfaitement repérée par l’outil mis au point par ChatGPT. En clair, tout fonctionne comme il le souhaitait.
Bien sûr, il faudra reproduire cette expérience à plus grande échelle mais elle est très prometteuse et suscite l’enthousiasme des autres experts en cybersécurité. À terme, on peut même imaginer pouvoir utiliser des IA telles que ChatGPT pour concevoir de faux réseaux entiers qui compliqueraient considérablement la tâche des pirates.
C’est une bonne nouvelle car jusque là on pointait du doigt les risques de ChatGPT. On sait notamment qu’il permet aux acteurs malveillants de concevoir des messages de phishing crédibles et sur-mesure dans de très nombreuses langues. Les e-mail ridicules et bourrés de fautes sont donc destinés à disparaître.
De même, l’IA pourrait donner l’occasion à des hackers moins expérimentés d’améliorer leurs connaissances techniques et de mettre au point des ransomwares, comme l’expliquait récemment Suleyman Ozarslan, chercheur en sécurité et cofondateur de Picus Security : « Je n’ai aucun doute sur le fait que ChatGPT et d’autres outils de ce type vont démocratiser la cybercriminalité ».
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Mais c’est quoi l’exploit en fait?
Si c’est qu’un chercher/pdg d’une société de cybersécurité ai besoin de chatgpt pour faire un honeypot aussi banal il faut surtout FUIRE la dite société… un dev junior sorti de bts peut faire pareil en 2 minutes chrono
Un article très douteux… Je regrette d’avoir cliqué et presse citron perd en crédibilité dans l’affaire…
« Arme ultime » pour un simple pot de miel, c’est vraiment un titre putaclic ! Je pense que n’importe qui, avec un minimum d’expérience en sécurité, serai capable de mettre un pot de miel en place. Et, n’importe quel pirate voulant réellement accéder au réseau de l’entreprise, serait capable de le détecter.
Au final, ça ne sert qu’à mettre en évidence le fait qu’il y est des bots sur le net qui scannent à tous va pour détecter des failles faciles à exploiter.
Commerciale à deux balles tu vendras pas ton chat gpt .en plus t est un porc ta péter
C’est quoi ce baratin publicitaire abscon ? “Pot de miel” un formulaire internet qui accepte n’importe quoi comme mot de passe et enregistré l’adresse IP des gens… N’importe quel gamin en fait autant et c’est complètement bidon. Quel époque de désinformation !
Voila vous avez gagné avec vos titres putaclic sans aucun intérêt.
Je bloque presse-citron sur Google Actualité.