Cela fait maintenant presque deux ans que ChatGPT et ses rivaux sont disponibles, et nous sommes encore loin de mesurer les conséquences de ces technologies sur le monde. En matière de cybersécurité, on savait notamment qu’ils peuvent fournir une aide précieuse aux acteurs malveillants, notamment en les aidant à configurer des messages crédibles de phishing.
Dans un article publié sur le site The Conversation, Oli Buckley, professeur à l’université d’East Anglia et Jason R.C. Nurse, professeur associé à l’université du Kent, reviennent sur les nouveaux chatbots spécialement dédiés aux cybercriminels qui les secondent dans leurs hacks et leurs arnaques en tout genre.
Des chatbots qui aident à pirater
Les experts mentionnent ainsi WormGPT et FraudGPT, deux applications qui soutiennent les acteurs malveillants dans la conception logiciels malveillants, ou pour détecter des failles de sécurité dans les systèmes. Ils fournissent même des conseils pour arnaquer les internautes, ou encore compromettre des appareils électroniques.
Il existe aussi Love-GPT, un service qui est utilisé pour les arnaques à la romance. Cette dernière peut ainsi aider à la création de faux profils de rencontre qui peuvent échanger avec certains utilisateurs sur de célèbres applications de rencontre telles que Tinder ou Bumble.
Les deux chercheurs profitent de leur tribune pour adresser de précieux conseils aux internautes. Il convient notamment de se montrer prudent lorsque l’on reçoit des messages, vidéos, ou photos qui semblent légitimes, car ces derniers peuvent être l’œuvre d’une IA qui produit des contenus de plus en plus crédibles.
Il faut également éviter de partager des informations sensibles ou privées avec ChatGPT et d’autres modèles de langage concurrents. Des cybercriminels peuvent en effet manipuler les systèmes et les pousser à révéler des données qu’ils ne sont pas censés diffuser.
« Gardez cela à l’esprit en particulier lorsque vous envisagez leur utilisation dans les diagnostics médicaux, au travail et dans d’autres domaines de la vie. À mesure que la technologie progresse rapidement, nous pouvons au moins prendre certaines précautions raisonnables pour nous protéger contre les menaces que nous connaissons et celles à venir », suggèrent les deux chercheurs.
Si ce sujet vous intéresse, on vous propose de lire cet article où nous tentons de voir dans quelle mesure l’IA peut nous aider à mieux protéger nos données personnelles, et les nouveaux risques créés par cette technologie.
Ce qu’il faut retenir :
- Les cybercriminels ont leurs propres outils ressemblant à ChatGPT
- Ces derniers aident à concevoir des logiciels malveillants et à mener à bien certaines arnaques
- Il faut se méfier des contenus générés par IA qui sont de plus en plus crédibles
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.
