- Le chef de la sécurité de Binance évoque une augmentation de l’utilisation des deepfake pour essayer de contourner les contrôles de sécurité (les selfies vidéo)
- Les hackers cherchent des images de leurs cibles en ligne puis génèrent des deepfake en utilisant ces images
- Le deepfake est ensuite utilisé pour tenter de passer outre le système de vérification qui demande par exemple à l’utilisateur de cligner de l’oeil sur un selfie vidéo
Si l’intelligence artificielle peut apporter de nombreux bénéfices à l’humanité, notamment en matière de productivité, celle-ci peut aussi être exploitée pour des actions malveillantes. Et justement, des arnaqueurs exploitent déjà les deepfakes générés par l’IA. Dans un précédent article, par exemple, nous évoquions une arnaque qui consiste à soutirer de l’argent aux victimes en imitant la voix d’un proche grâce à l’IA. Sinon, récemment, le chef de la sécurité de la plateforme crypto Binance a également évoqué l’utilisation de la technologie deepfake pour contourner les contrôles de sécurité.
Cité par nos confrères de Cointelegraph, Jimmy Su, le Chief Security Officer de Binance, explique qu’il y a une hausse de l’utilisation des deepfake pour contourner les contrôles de vérification d’identité du consommateur. Pour rappel, sur certaines platefromes, cette vérification consiste en partie à demander à l’utilisateur de prendre un selfie vidéo. Et selon Su, des acteurs malveillants recherchent de vraies images de leurs victimes sur la toile. Puis, ils utilisent de puissants générateurs de deepfakes pour créer de fausses vidéos de la victime, afin de contourner les contrôles de sécurité.
“Certaines des vérifications nécessitent que l’utilisateur, par exemple, cligne de l’œil gauche ou regarde vers la gauche ou vers la droite, regarde vers le haut ou vers le bas. Les deepfakes sont suffisamment avancés aujourd’hui pour pouvoir réellement exécuter ces commandes”, a indiqué le chef de la sécurité de Binance. Pour le moment, celui-ci précise néanmoins que ces deepfake ne peuvent pas encore tromper les vérificateurs humains. Mais Su est quand même persuadé que dans le temps, l’IA s’améliorera.
Un responsable de Binance a déjà été victime d’un deepfake
Les deepfake ne sont pas nouveaux. Mais plus l’IA se développe, plus les images générées via cette technologie sont trompeuses. Par exemple, en 2022, le Chief Strategy Officer de Binance, Patrick Hillmann, a révélé que des personnes malveillantes ont créé des deepfake à partir de ses photos et des vidéos afin d’arnaquer des membres de la communauté crypto.
Plus exactement, des vidéos d’interview de Patrick Hillmann ont été utilisées pour générer un deepfake qui a ensuite été utilisé pour essayer d’arnaquer des détenteurs de projets cryptos. Le CSO de Binance a découvert cette arnaque lorsqu’il a commencé à recevoir des messages de personnes le remerciant d’avoir pris le temps de discuter d’une éventuelle intégration de leurs projets de cryptomonnaies sur Binance. Or, Hillmann n’avait pas eu de réunion avec ces personnes et il n’est même pas en charge de la gestion des listes de la plateforme.
“Il s’avère qu’une équipe de piratage sophistiquée a utilisé des interviews et des apparitions télévisées précédentes au fil des ans pour créer un “deepfake” de moi. À part les 15 livres (6,8 kg, ndlr) que j’ai gagnés pendant le COVID étant visiblement absents, ce deepfake a été suffisamment raffiné pour tromper plusieurs membres très intelligents de la communauté crypto”, a expliqué le CSO de la plateforme.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.