Cela ressemble à un scénario de science-fiction mais cette étude a bien été réalisée dans la réalité. Les équipes de la société Sensity AI sont parvenus à usurper l’identité d’une personne en trompant des systèmes de reconnaissance faciale. Pour cela, ils ont eu recours à des deepfakes.
Rappelons qu’il s’agit de techniques qui permettent de créer de fausses vidéos ou extraits vocaux très réalistes. L’occasion par exemple d’imiter à merveille le visage d’une personne et de lui faire tenir des paroles qu’elle n’a jamais prononcé.
Quand la réalité rejoint la fiction
Dans leur expérience, les ingénieurs ont scanné l’image d’une personne via sa carte d’identité et ont reproduit son visage en deepfake. Aidé de cette création, ils ont parvenus à berner les outils de reconnaissance faciale biométriques qui ont cru qu’il s’agissait réellement de l’utilisateur.
Fort de ce résultat qui a trompé neuf fournisseurs de services de reconnaissance faciale sur dix, les experts ont tenu à informer les intéressés. Sauf que ces dernières ont répliqué qu’ils ne se souciaient pas de ce type de risques. Dès lors, ils ont choisi de rendre public leur expérimentation.
Il convient toutefois de nuancer la menace car ce piratage des systèmes s’avère assez complexe. Les ingénieurs ont ainsi utilisé un téléphone spécialisé qui leur a permis de détourner les caméras mobiles afin d’y injecter leurs images deepfakes. Une manœuvre qui n’est clairement pas à la portée du premier venu.
Il est d’ailleurs intéressant de noter qu’une telle pratique n’est pas sans rappeler un scène de l’excellente série de la BBC, The Capture, dont nous vous parlions en 2020. Il arrive aussi que l’intelligence artificielle soit mise au service de la détection des deepfakes. Et nous évoquions d’ailleurs récemment l’outil créé par un chercheur qui obtient une efficacité impressionnante de 98,53 %.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.