Passer au contenu

Cette attaque très vicieuse menée grâce à l’IA met en danger les entreprises

Les technologies telles que les deepfakes et les chatbots peuvent aider à usurper l’identité d’une personne pour réaliser des attaques.

  • Une étude signale une explosion des attaques par deepfake
  • L’utilisation d’outils comme ChatGPT change aussi la donne
  • Des mesures de régulation doivent être prises d’urgence

La société ID R&D vient de publier un sondage alarmant concernant les attaques par deepfake visant les entreprises. 42 % des entreprises interrogées déclarent en avoir été victimes. Un chiffre qui interpelle et semble anormalement élevé, mais que l’on est forcé de croire sur parole.

Concrètement, les acteurs malveillants peuvent notamment utiliser de fausses images ou son pour contourner les protocoles de sécurité. Dans certains cas extrêmes des extraits sonores ou vidéo peuvent tromper la vigilance d’un collaborateur ou lui faire croire qu’il est en train d’échanger avec son patron.

Les deepfakes se déploient partout

Sans surprise 90 % des entreprises se disent très préoccupées par ce nouveau type de piratage très pernicieux. De fait, on sait que les deepfakes sont aussi malheureusement de plus en plus utilisés dans le cadre d’arnaques à la romance, et cela ne devrait faire que croître à l’avenir avec le perfectionnement ces IA qui peuvent reproduire la voix d’une personne à l’infini grâce à quelques secondes d’enregistrement.

Les modèles de langage de type ChatGPT sont également préoccupants en matière de cybersécurité. Comme nous vous l’expliquions dernièrement, ils sont en effet redoutables pour rédiger des e-mails de phishing très crédibles. Ils peuvent générer des textes sans fautes sur n’importe quel sujet, et dans de très nombreuses langues.

Ces IA peuvent aussi simplifier la création et la diffusion des ransomware comme l’expliquait récemment Suleyman Ozarslan, chercheur en sécurité et cofondateur de Picus Security : « C’est déjà assez grave que le code des ransomware soit disponible pour les gens à acheter ‘sur étagère’ sur le dark web ; maintenant, pratiquement n’importe qui peut le créer lui-même. »

« Pas de solution miracle »

Face à cette menace, de nombreux experts se prononcent pour des solutions de cybersécurité basées sur l’IA. Les gouvernants auront également un rôle à jouer et ils devront réguler ces nouvelles technologies afin d’éviter tous les abus que l’on peut déjà repérer.

Mais comme l’expliquait récemment, Josh A. Goldstein, chercheur au Georgetown’s Center for Security and Emerging Technology : « Nous avons besoin de plus de recherches, d’analyses et de tests pour mieux déterminer quelles mesures d’atténuation sont souhaitables et pour mettre en évidence les mesures d’atténuation que nous avons négligées. Nous n’avons pas de solutions miracles ».

Il convient en tout cas d’être conscient des dangers et de garder son esprit critique en tout circonstance, ce qui n’est bien sûr pas toujours évident.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Antivirus Bitdefender Plus
Antivirus Bitdefender Plus
Par : Bitdefender
1 commentaire
1 commentaire
  1. Malheureusement, l’IA n’est pas prête de régresser et détecter le fake va être de plus en plus dur jusqu’à être impossible. Il va falloir être vigilant sur une requête inhabituelle (ex: patron qui demande un virement sur un compte inconnu), les demandes “urgentes” et privilégier le présentiel, ce sont les seuls remparts contre. Il y a aussi d’autres techniques comme un mot de passe interne a l’entreprise, même si ça peut étrange drôle de faire ça pendant un appel ou attendre une double confirmation par un autre média(mail, collègue etc…). En attendant qu’il y ai une prévention a large échelle, les arnaques vont être très profitables…

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *