Suivez-nous

Tech

Les deepfakes pourraient bien venir perturber l’élection présidentielle américaine de 2020

Des experts tirent la sonnette d’alarme, les deepfakes pourraient influencer le prochain scrutin.

Il y a

  

le

 
Donald Trump mot de passe
Donald Trump © Wikimedia Commons

En novembre dernier, deux deepfakes de Jeremy Corbyn et Boris Johsnon, les deux principaux rivaux des élections législatives britanniques ont commencé à circuler. Ces vidéos n’ont trompé personne mais le groupe de réflexion Future Advocacy, qui se trouvait derrière la démarche, souhaitait avant tout avertir le public des risques de manipulations induits par cette technologie.

Aux États-Unis, les regards se tournent déjà vers l’élection présidentielle de 2020 qui pourrait être, selon certains experts, propices aux manipulations par deepfakes. De fait, il devient relativement facile de créer un faux. C’est en tout cas l’avis de John Villasenor, professeur à l’UCLA, interrogé par CNBC : «Les Deepfakes peuvent être créés par toute personne disposant d’un ordinateur, d’un accès Internet et souhaitant influencer une élection ».

Vers une régulation des deepfakes ?

Dès lors, toutes les tentatives de désinformation pourraient devenir possibles. Si elle est suffisamment convainquante, une deepfake pourrait tout simplement convaincre un électeur qu’un candidat a dit ou fait quelque chose alors qu’il n’en est rien. Si les faux se multiplient, il sera par ailleurs de moins en moins évident de s’y retrouver et la défiance s’en retrouvera renforcée. Une faible participation électorale pourrait notamment en découler.

Pour l’heure, aucune législation n’encadre la pratique aux États-Unis mais cela pourrait changer. Peter Singer, chercheur au groupe de réflexion politique New America, se prononce notamment pour un étiquetage des deepfakes sur les réseaux sociaux afin que le public puisse y voir plus clair. De ce point de vue, la plupart des géants de la Tech sont d’ailleurs déterminés à agir.

Il y a en tout cas urgence à agir car les deepfakes deviennent vraiment crédibles. L’imitation corporelle est de plus en plus efficace et de nets progrès ont été réalisées en matière de reproduction des voix. Pour l’heure, cette technologie concerne principalement les contenus pour adultes. Mais on les a aussi vu à l’œuvre dans le cadre d’arnaques très crédibles. Mais la tentation pourrait être grande pour en faire de vraies armes politiques. Il faudra donc suivre l’évolution de ces pratiques et espérer qu’elles n’interfèrent pas trop sur la prochaine élection présidentielle américaine.

Newsletter 🍋 Inscrivez-vous à la newsletter tout juste sortie du four, rien que pour vous

Cliquez pour commenter

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Les bons plans 🔥

Dernières news

Newsletter 🍋 Inscrivez-vous à la newsletter tout juste sortie du four, rien que pour vous

Les tests