Ils ont pu faire sourire à certains moments mais les deepfakes font de plus en plus peur. Ces vidéos manipulées à l’aide d’une intelligence artificielle sont en effet de plus en plus réalistes. L’imitation corporelle est très efficace et de nets progrès ont été réalisés en matière de reproduction des voix. Des experts américains ont donc décidé de tirer la sonnette d’alarme en fin d’année dernière. Pour eux, les deepfakes pourraient venir perturber l’élection présidentielle de novembre.
Pour contrer cette menace, des outils ont été développés. Ces dispositifs se basent bien souvent eux aussi sur l’intelligence artificielle et notamment le machine learning pour repérer les falsifications. Un problème de taille vient toutefois de se présenter pour ces systèmes. Des chercheurs de l’Université de Californie à San Diego ont en effet mis au point une méthode assez simple pour leur faire croire qu’un deepfake est une vidéo réelle.
Un œil exercé peut encore repérer les deepfakes
Selon le compte-rendu de leur étude qu’ont consulté nos confrères de TheNextWeb, les chercheurs précisent : « Dans ce projet, nous démontrons qu’il est possible de contourner les détecteurs en modifiant de fausses vidéos utilisant des méthodes déjà existantes de création de deepfakes. Nous démontrons par ailleurs que nos perturbations sont robustes aux codecs de compression d’image et de vidéo, ce qui en fait une menace réelle. »
Avec cette technique, les logiciels de détection n’y verraient donc que du feu. Par leur travail, les scientifiques espèrent ainsi prévenir des failles qui existent actuellement sur ces outils afin qu’il soit possible d’y remédier le plus rapidement possible.
Le domaine de la détection des deepfakes est justement en train d’évoluer très rapidement. Comme le rappelle Swissinfo, un véritable jeu du chat et de la souris est engagé entre les scientifiques et les manipulateurs. Selon Touradj Ebrahimi, chercheur à l’École polytechnique fédérale de Lausanne, il faudra encore des mois voire des années avant qu’un œil exercé ne soit plus capable de repérer un faux. Mais à partir de là, seules les machines seront capables de faire la distinction.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.