Passer au contenu

“Vibe hacking” : quel est ce nouveau phénomène qui inquiète Anthropic (concurrent de ChatGPT) ?

Si l’IA facilite le développement de nouveaux logiciels, il permettrait aussi à des acteurs malveillants de lancer des attaques sans avoir l’expertise technique nécessaire.

Si vous suivez régulièrement l’actualité sur les nouvelles technologies, vous avez certainement déjà entendu parler de “vibe coding”. De plus en plus populaire, cette technique consiste à créer du code informatique avec l’assistance d’une IA générative, comme les modèles de ChatGPT, Gemini ou Claude. Et, dans ce domaine, les technologies d’Anthropic, le créateur de Claude, font partie des meilleurs.

Cependant, si les gens normaux utilisent l’IA pour générer du code dans le cadre du développement d’un logiciel, des acteurs malveillants s’en servent pour réaliser des attaques. Et le phénomène est signalé dans un nouveau rapport publié par Anthropic, qui parle de “vibe hacking”. “Nous avons mis au point des mesures de sécurité sophistiquées pour empêcher l’utilisation abusive de nos modèles d’IA. Mais les cybercriminels et autres acteurs malveillants tentent activement de trouver des moyens de les contourner”, admet l’entreprise, dans la présentation de ce rapport.

D’après Anthropic, les acteurs malveillants se servent maintenant des agents d’intelligence artificielle pour lancer des attaques et plus seulement pour apprendre à les mener. D’autre part, l’IA aurait réduit les compétences techniques pour mener des opérations complexes, comme les ransomwares. “Les cybercriminels et les fraudeurs ont intégré l’IA à tous les stades de leurs opérations. Cela comprend le profilage des victimes, l’analyse des données volées, le vol d’informations sur les cartes de crédit et la création de fausses identités, ce qui permet aux opérations de fraude d’étendre leur portée à un plus grand nombre de cibles potentielles”, indique également Anthropic.

Des exemples préoccupants

Parmi les exemples cités, il y a celui d’un acteur qui a utilisé le logiciel Claude Code pour mener une opération de vol de données et d’extorsion à grande échelle. Au moins 17 organisations auraient été ciblées. Anthropic évoque également une utilisation de Claude Code à un degré sans précédent, puisque ce logiciel aurait servi à “automatiser la reconnaissance, la collecte des informations d’identification des victimes et la pénétration dans les réseaux”.

L’entreprise craint par ailleurs que les attaques de ce type soient de plus en plus fréquentes, puisque l’IA réduit l’expertise technique requise pour le cybercrime. En tout cas, dès qu’il a eu connaissance de cette opération, Anthropic a bloqué le compte. L’entreprise a aussi créé de nouveaux outils de détection pour empêcher des cas similaires.

  • Dans un nouveau rapport, Anthropic évoque des cas d’utilisation de son IA pour des opérations cybercriminelles
  • L’entreprise indique que des hackers sont maintenant en mesure de mener des opérations complexes sans avoir l’expertise technique nécessaire
  • Le développeur de Claude est préoccupé par ce nouveau phénomène appelé “vibe hacking”

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech