Passer au contenu

Pourquoi identifier correctement une vidéo deepfake tient du miracle

Ces technologies se sont énormément perfectionnées au cours de ces dernières années.

Sauriez-vous dire si une vidéo est une deepfake à l’œil nu ? La réponse est probablement non si l’on en croît une étude réalisée par des chercheurs britanniques de l’université d’Oxford, de l’université Brown et de la Royal Society. Rappelons tout d’abord qu’il s’agit de techniques d’intelligence artificielle permettant de créer de fausses vidéos ou extraits vocaux très réalistes, et notamment de faire dire à quelqu’un des propos qu’il n’a pas tenus.

Pour voir si les internautes sont en capacité de reconnaître une deepfake, les scientifiques ont séparé les participants de leur recherche en deux groupes. Le premier a regardé cinq vidéos non modifiées, tandis que le second regardait quatre vidéos sans trucage, ainsi qu’une deepfake. Ensuite, ils devaient détecter quel contenu est un faux.

Un constant alarmant pour l’avenir

Le deepfake utilisé a défrayé la chronique en mars 2021. Il s’agissait d’une fausse vidéo de Tom Cruise créée par l’artiste Chris Ume, et diffusée sur TikTok. Très réaliste, on peut notamment y voir l’acteur raconter des blagues, ou effectuer certains tours de magie sur des formats courts et adaptés au réseau social chinois.

Les résultats sont sans appel, puisque même si les participants étaient prévenus qu’un deepfake se trouvait dans l’échantillon, 78 % d’entre eux n’ont pas su le repérer. Il arrivait même que ceux à qui on signalait directement la vidéo fausse, refusent d’y croire.

Cité par The Independent, les chercheurs expliquent ainsi : « Les individus ne sont pas plus susceptibles de remarquer quoi que ce soit d’inhabituel lorsqu’ils sont exposés à une vidéo deepfake au contenu neutre ».

Ils ajoutent : « La difficulté de distinguer manuellement les vraies vidéos des fausses menace de réduire entièrement la valeur informative des médias vidéo. Au fur et à mesure que les gens intériorisent la capacité des deepfakes à tromper, ils accorderont rationnellement moins de confiance à toutes les vidéos en ligne, y compris au contenu authentique. »

Un constat particulièrement alarmant notamment en ce qui concerne la lutte contre la désinformation. Cette perte de confiance serait aussi un frein à la stratégie actuelle d’étiquetage, où les réseaux sociaux signalent le fait qu’un contenu a été modifié. Par ailleurs, on sait aussi que les détecteurs automatiques de deepfakes sont encore très largement manipulables, et l’on ne peut donc pas non plus compter sur eux pour régler le problème.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech

[ SOURCE ]

Cliquer pour commenter
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *