Passer au contenu

Les deepfakes, ou quand un logiciel peut vous faire dire… ce que vous n’avez pas dit

Des scientifiques de l’université de Stanford associés à Adobe Research peaufinent une technologie qui permet aux utilisateurs de faire parler un visage créé dans le cadre d’une deepfake.

«Ainsi, ils pourraient me faire dire des choses comme, je ne sais pas, (…) le président Trump est un idiot total et absolu ! » Ces mots de Barack Obama en avril 2018 ont choqué une partie de l’Amérique. Pourtant, l’ancien président du pays ne les a jamais prononcés. Il s’agit d’un canular créé de toutes pièces par le cinéaste Jordan Peele.

Au-delà de la blague, le réalisateur américain a aussi voulu alerter sur les dangers du nouveau type de montage qu’il a utilisé : les deeepfakes. Cette technologie permet de recréer à l’identique des personnes existantes. Il est aussi possible de produire de toutes pièces des visages d’individus n’ayant jamais existé. Certaines applications de cette innovation peuvent s’avérer amusantes, mais on mesure assez vite son potentiel destructeur.

Les deepfakes rendent difficiles la distinction entre vrai et faux

À l’ère des fake news et de la manipulation sur les réseaux sociaux, beaucoup craignent que cette technologie ne tombe entre de mauvaises mains. Et les pourfendeurs des deepfakes ne seront pas vraiment rassurés en apprenant que des chercheurs tentent de perfectionner cette technique. Des scientifiques de l’université de Stanford aidés de ceux d’Adobe Research parviennent désormais à faire parler les visages faussement générés. On peut d’ailleurs observer le résultat assez impressionnant dans cette vidéo.

Le processus, assez complexe,  suppose de partir d’une vidéo du sujet afin d’isoler les phonèmes de ce dernier (éléments sonores le distinguant). Il s’agit ensuite d’y associer les expressions faciales correspondantes. Puis, un modèle 3D de la moitié inférieure du visage de la personne ciblée est créé. Le logiciel est alors en mesure de faire parler ladite personne mais en tenant des propos différents de ceux qu’elle a réellement prononcés.

Tout cela est plutôt inquiétant, car avec les deepfakes, il sera de plus en plus difficile de distinguer le vrai du faux. Les chercheurs semblent même en avoir conscience et l’ont expliqué dans un billet de blog : « Les risques d’abus sont accrus lorsqu’ils sont appliqués à un mode de communication parfois considéré comme une preuve irréfutable de pensées et d’intentions. Nous reconnaissons que des acteurs mal intentionnés pourraient utiliser de telles technologies pour falsifier des déclarations personnelles et calomnier des personnalités. »

Bref, pour l’instant tout va bien, même si les scientifiques ne sont pas vraiment rassurés sur les utilisations qui pourraient être faites de leur travail. Face à ce danger, la vigilance des citoyens et leur sensibilisation à ces nouveaux enjeux semblent être les meilleurs remparts.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech

Cliquer pour commenter
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *