Suivez-nous

Tech

Le deepfake audio, l’arnaque déjà très rentable

On parle beaucoup du deepfake en vidéo. Mais pourtant, la menace posée du côté de l’audio est déjà très réelle.

Il y a

le

Facebook deepfakes
© DR

Le deepfake est un peu le nouveau Slendarman du web, une sorte de grand méchant loup, un ogre numérique qui pourrait bientôt nous faire craindre le pire. Après tout, une vidéo où l’on pourrait vous faire dire ce que vous n’avez pas dit à quelque chose d’effrayant. Même le patron de Facebook, Mark Zuckerberg en a fait l’amère expérience. Mais, pourtant, loin de l’attention générale, certains criminels se concentrent uniquement sur la dimension audio, bien conscients qu’un résultat crédible est plus facile à réaliser.

Le deepfake contre les patrons

Concrètement, c’est une technique qui a déjà été utilisée par le passé, mais sans recourir aux nouvelles technologies. Il s’agit tout simplement de se faire passer pour un patron ou un responsable afin d’obtenir un virement monétaire supposément urgent. Une technique que Leonardo Di Caprio a notamment pu mettre à profit dans son incarnation de Frank Abagnale Jr, pour le film « Arrête moi si tu peux ».

Mais jusque-là, l’idée d’un arnaqueur était soit d’être très convainquant, soit de parler à quelqu’un qui ne connaissait pas le supposé responsable. Avec le deepfake audio, cette barrière vole en éclats. En effet, des criminels peuvent désormais générer de faux fichiers audios, reproduisant la voix d’un patron de l’entreprise, grâce au recours à l’intelligence artificielle. Le résultat est ensuite le même.

Symantec vient de tirer la sonnette d’alarme sur le sujet puisque trois cas auraient déjà été signalés et qui se chiffreraient en millions. A base d’interview en ligne, de conférences… les criminels sont à même de nourrir l’IA et d’obtenir le contenu souhaité. Si des parties ne sont pas jugées convaincantes, un bruit de fond suffira à faire illusion. Pour l’instant, le phénomène est encore marginal, mais on peut parier qu’il va prendre de l’ampleur. Faudra-t-il alors oublier complètement les échanges téléphoniques dans le monde de l’entreprise ?

 

Newsletter 🍋 Inscrivez-vous à la newsletter tout juste sortie du four, rien que pour vous

1 commentaire

1 Commentaire

  1. nofutur

    31 juillet 2019 at 14 h 09 min

    le « deepfake audio » existe depuis la seconde guerre mondiale, mais à ma connaissance c’était surtout dans l’espionnage.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Publication recommandée

Les bons plans 🔥

Dernières news

Newsletter 🍋 Inscrivez-vous à la newsletter tout juste sortie du four, rien que pour vous

Les tests