Passer au contenu

C’est une première : Anthropic déjoue une “cyberattaque à grande échelle” pilotée par l’IA

Malgré les garde-fous, des hackers ont manipulé Claude Code pour mener des opérations d’espionnage. L’IA aurait fait 80 % à 90 % du travail à la place des humains.

L’intelligence artificielle ne cesse d’évoluer et, selon Anthropic, en matière de cybersécurité, on a déjà atteint un point d’inflexion. Les modèles d’IA peuvent désormais être utilisés dans le secteur de la cybersécurité. Et, le problème est que, comme toutes les technologies, l’IA peut être utilisée aussi bien pour faire le bien que pour faire le mal. Dans un billet publié cette semaine, l’entreprise rapporte avoir détecté une “cyberattaque à grande échelle”. Durant cette campagne, l’IA n’a pas seulement joué un rôle de conseiller, mais a exécuté les attaques.

“L’auteur de la menace, que nous estimons avec un haut degré de certitude être un groupe soutenu par l’État chinois, a manipulé notre outil Claude Code afin de tenter d’infiltrer une trentaine de cibles mondiales et a réussi dans un petit nombre de cas”, explique Anthropic. “L’opération visait de grandes entreprises technologiques, des institutions financières, des entreprises de fabrication de produits chimiques et des agences gouvernementales. Nous pensons qu’il s’agit du premier cas documenté de cyberattaque à grande échelle exécutée sans intervention humaine significative.”

Ces activités suspectes ont été détectées mi-septembre et, après la détection, l’entreprise a immédiatement lancé une enquête. Ensuite, dans les 10 jours qui ont suivi, Anthropic a banni les comptes identifiés, notifié les organisations touchées, et collaboré avec les autorités.

Un degré élevé d’automatisation

En tout cas, pour Anthropic, cette campagne d’espionnage a d’importantes implications pour le monde de la cybersécurité, car les acteurs malveillants ont désormais la possibilité de confier des attaques à des agents d’intelligence artificielle. “Les agents sont précieux pour le travail quotidien et la productivité, mais entre de mauvaises mains, ils peuvent considérablement augmenter la viabilité des cyberattaques à grande échelle”, prévient Anthropic.

Pour rappel, les agents d’IA sont un type d’intelligence artificielle qui ne se contente pas de produire du contenu (comme du texte, une image ou des bouts de code informatique), mais qui peut aussi prendre le contrôle d’un ordinateur ou d’un navigateur web pour réaliser des actions. Anthropic estime que lors de la campagne qu’il a détectée, les hackers ont pu confier 80 à 90 % du travail à l’IA, et les interventions humaines auraient été “sporadiques”. En effet, la décision humaine n’aurait été nécessaire que 4 à 6 fois pour un piratage.

Sinon, Anthropic a déjà pris des mesures contre les abus, après la découverte de cette campagne. “Ces attaques ne devraient que gagner en efficacité. Pour faire face à cette menace qui évolue rapidement, nous avons renforcé nos capacités de détection et développé de meilleurs classificateurs afin de signaler les activités malveillantes. Nous travaillons en permanence à la mise au point de nouvelles méthodes d’investigation et de détection des attaques distribuées à grande échelle, telles que celle-ci”, indique l’entreprise.

  • Anthropic a découvert une campagne d’espionnage menée par des hackers qui ont contourné ses mesures contre les abus
  • Grâce à l’IA, les hackers auraient été en mesure d’automatiser 80 % à 90 % de la campagne
  • Des mesures ont déjà été prises pour renforcer la détection sur les produits d’Anthropic

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Antivirus Bitdefender Plus
Antivirus Bitdefender Plus
Par : Bitdefender