Suivez-nous

Tech

L’application polémique DeepNude ferme ses portes (et c’est tant mieux)

Alors qu’elle avait connu un large succès quelques jours plus tôt, l’application DeepNude a finalement fermé ses portes. Voici de quoi il s’agissait.

Il y a

le

DeepNude App
© DeepNude

Si cela fait quelques années que les deepfakes se popularisent, une application estonienne baptisée DeepNude a eu l’idée (mauvaise) d’aller encore plus loin que le concept initial.

Pour rappel, les deepfakes consistent en de fausses photos ou vidéos plus ou moins réalistes. Il est donc possible de faire prononcer un discours à quelqu’un qui ne l’a jamais tenu ou à incruster le visage d’une personne sur le corps d’une autre.

Évidemment, la technologie a rapidement eu le droit à son équivalent pornographique, si bien que de nombreuses vidéos truquées montrant le visage de stars à place de celui des actrices X sont apparues sur le web. Pour sa part, DeepNude a consacré son service au fait de déshabiller les femmes sans leur consentement.

« Le monde n’est pas encore prêt pour DeepNude » ?

En effet, l’application estonienne DeepNude a récemment dévoilé une application utilisant l’intelligence artificielle pour faire apparaître des photos de femmes nues. L’utilisateur peut donc choisir une photo de femme habillée et modifier celle-ci afin que son visage se greffe sur un corps dénudé. Comme l’indique Motherboard, qui a testé l’outil, l’app ne comprend aucun corps d’homme.

Sur les photos truquées de DeepNude, un filigrane indiquait la mention « Fake », mais la version payante à 50 dollars permettait de n’afficher ce message qu’en petit dans un coin de l’image, ce qu permettait aisément de le rogner.

Lors de son lancement, l’application DeepNude a connu un très large succès, ce qui a mené ses créateurs à s’interroger sur la façon dont les utilisateurs pourraient exploiter le service. C’est donc eux qui ont pris la décision de fermer ce dernier, indiquant : « Nous avons grandement sous-estimé la demande. Malgré des mesures de sécurité qui ont été adoptées (chaque image était estampillée « Fake » ), si 500 000 personnes l’utilisent, la probabilité que des gens l’utilisent mal est trop grande. Nous ne voulons pas faire de l’argent de cette façon ».

Sur Twitter, ils ont également ajouté : « Le monde n’est pas encore prêt pour DeepNude ».

Depuis leurs débuts, les deepfakes soulèvent de nouvelles questions éthiques liées aux fake news. En effet, il est déjà parfois difficile de déceler ces dernières sur le web ou les réseaux sociaux, alors qu’en sera-t-il quand il s’agira de vidéos ou d’images truquées extrêmement réalistes ? Les plateformes sociales telles que Facebook commencent à s’attaquer à celles-ci pour trouver un dispositif fonctionnel, si bien que Zuckerberg a récemment annoncé qu’il réfléchissait à une politique dédiée à ces contenus truqués. Un chemin qui s’annonce plutôt laborieux.

Newsletter 🍋 Inscrivez-vous à la newsletter tout juste sortie du four, rien que pour vous

1 commentaire

1 Commentaire

  1. Kimael

    29 juin 2019 at 23 h 27 min

    Non c’est pas tant mieux… C’est inévitable. Il faudrait percer l’abcès pour qu’une régulation puisse être faite… Aujourd’hui on peut se procurer différentes versions du programme et sans aucune marque…
    Donc non pas tant mieux. Il aurait fallu qu’elle ne sort pas et réguler au maximum avant, anticiper…

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Les bons plans Prime Day 🔥

Dernières news

Newsletter 🍋 Inscrivez-vous à la newsletter tout juste sortie du four, rien que pour vous

Les tests