Suivez-nous

Tech

La majorité des deepfakes concernent… le contenu pour adultes

96% des deepfakes disponibles sur le web seraient dédiés à la « pornographie non consensuelle », un chiffre impressionnant qui soulève plusieurs problèmes.

Il y a

le

Des visages utilisés par Google pour détecter les deepfake
© Google

Une récente étude réalisée par l’entreprise Deeptrace démontre que 96% des deepfakes partagés en ligne seraient dédiés à la pornographie. Si le chiffre peut prêter à sourire, la réalité est un peu différente.

Pour rappel, les deepfakes sont des vidéos truquées dans lesquelles il est possible d’incruster le visage d’une personne sur un corps qui n’est pas le sien ou de changer le discours qu’elle tient. Évidemment, cette technologie n’a pas échappé à la règle Internet selon laquelle tout contenu qui se trouve en ligne a droit à son revers pornographique. Cela fait quelques années que le visage de certaines actrices se retrouve sur celui d’actrices X en pleine action.

Les deepfakes tournés vers le contenu pour adultes… et la politique

Néanmoins, le majeur problème de ces deepfakes pour adultes tient dans le fait qu’il s’agit principalement là de « pornographie non consensuelle ». La plupart du temps, ce sont des visages de femmes qui sont utilisés pour ces contenus truqués, ce qui laisse le champ libre à une toute nouvelle forme de revenge porn basée sur de fausses images. Rappelons que le revenge porn est le fait de diffuser des photos ou des vidéos intimes sans le consentement de la personne présente.

En somme, certains adeptes des deepfakes s’amusent à créer de toutes pièces des vidéos pornographiques montrant les visages de femmes qui n’ont pourtant jamais été concernées par ce type de contenu. Et qui n’ont bien sûr pas donné leur consentement pour la production de ces images truquées. Au cours de ces sept derniers mois, plus de 15 000 vidéos de ce type comptabilisant plus de 100 millions de vues ont été repérées par la société Deeptrace.

Outre ces deepfakes pornographiques, l’entreprise de cybersécurité indique qu’une bonne partie de ces contenus concernent aussi les vidéos politiques. Si le problème soulevé est différent que celui induit par les fausses images pour adultes, cela risque tout de même d’avoir un impact particulièrement conséquent sur les réseaux sociaux, où les fake news traditionnelles ont encore du mal à être éradiqué par les plateformes.

Newsletter 🍋 Inscrivez-vous à la newsletter tout juste sortie du four, rien que pour vous

2 Commentaires

2 Commentaires

  1. Dwalin

    11 octobre 2019 at 10 h 30 min

    Déjà qu’il est parfois difficile de ne pas se faire avoir par les fake news même quand on a un peu d’esprit critique (et ceux qui n’en ont pas c’est un vrai festival), alors s’ils commencent à être bien faits … il faudra considérer par défaut que tout est faux, et ça posera d’autres problèmes.

  2. Dwalin

    11 octobre 2019 at 10 h 33 min

    Quand on se paluche sur une fausse sextape de notre star préférée, on sait que c’est du faux, et c’est en général indiqué dans les mot-clés de la vidéo.
    Dans ce cas il y a uniquement un problème de droit à l’image.

    Le pire c’est quand il y a tromperie sur l’authenticité des images. Atteindre à la réputation de quelqu’un, par exemple. Mais faire dire à quelqu’un des choses qu’il n’a pas dites peut être bien pire encore (notamment en politique comme dit dans l’article).

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Publication recommandée

Les bons plans 🔥

Dernières news

Newsletter 🍋 Inscrivez-vous à la newsletter tout juste sortie du four, rien que pour vous

Les tests