Passer au contenu

Les personnages en mouvement dans cette vidéo n’existent pas, ils ont été créées par une intelligence artificielle

Une intelligence artificielle a créé de toutes pièces une galerie vidéo de personnes en mouvement au réalisme époustouflant.

L’intelligence artificielle, pour le meilleur ou pour le pire. Après les photos de visages qui n’existent pas, la vidéo de personnages en mouvement fabriqués par des lignes de code.

La vidéo ci-dessous représente une collection d’humains créés par un algorithme d’intelligence artificielle développée par DataGrid, une startup basée à l’Université de Kyoto au Japon. Les poses, les vêtements, les différentes coiffures, les mouvements et gestes… tout a été inventé et généré artificiellement.

Selon une traduction du texte qui accompagne la vidéo, les chercheurs ont utilisé ce qu’on appelle un réseau d’opposition générative, ou GAN, pour générer des images en haute résolution (1024×1024) d’humains non existants. Un programme qui pourrait être utile de diverses façons, par exemple en créant des modèles virtuels pour des industries comme la publicité et la mode.

Le GAN implique un réseau neuronal artificiel qui essaie essentiellement de “tromper” un autre, jusqu’à ce que le second ne puisse plus distinguer (dans ce cas) les images humaines réelles des images générées par ordinateur.

On imagine aisément que les utilisations qui pourraient (et vont) être faites de ce type d’algorithme iront du plus vertueux au plus douteux. Car si la création de personnages virtuels hyper-réalistes peut effectivement être utile dans de nombreux cas (cinéma, mode, publicité, jeux vidéo, images libres de droits…), elle favorisera également la possibilité de générer des clones de vraies personnes qui pourront être placées dans des contextes visant à leur nuire.

Le deepfake à portée de tous

Ainsi, la création de “deepfakes”, cette technologie consistant à remplacer le visage et la voix d’une personnalité dans une vidéo, risque d’être encore facilitée par ce type d’artifice. Un sujet pris très au sérieux par les gouvernements, puisque l’on sait par exemple qu’aux USA certains élus considèrent ce type de “trucage profond” comme une menace contre la sécurité nationale. Il faut dire qu’il y a de quoi frémir quand on sait que des applications permettent déjà de travestir de façon très convaincante la réalité d’une personne. C’est le cas par exemple d’une application gratuite, «FakeApp» qui permet à n’importe qui de produire des deepfakes. Plusieurs internautes s’étaient emparés de l’app pour s’amuser un peu, et évidemment pas de la façon la plus bienveillante puisqu’ils s’étaient empressés de créer des vidéos pornographiques en y incrustant les visages de célébrités.

Dans le même registre, la voix est également un sujet chaud. Des startups se sont spécialisées dans des algorithmes de text-to-speech (programmes lisant vocalement un texte écrit) d’un réalisme hallucinant. Certaines d’entre elles, comme Lyrebird,  permettent même d’enregistrer votre propre voix afin que la machine puisse l’apprendre et la digérer, puis l’utiliser pour lire des documents écrits. Tout y est : l’intonation, le timbre, et même les petites imperfections et ces moments où vous reprenez votre souffle entre deux phrases. Ce qui a conduit cette startup a prendre position sur les questions éthiques que peut poser sa technologie.

Nous ne pourrons probablement pas freiner les progrès accomplis dans ce domaine, et encore moins revenir en arrière, car la science va toujours plus vite que la loi. Notre salut si nous ne voulons pas vivre dans un monde de fakes passera probablement par l’encadrement mais surtout par la sensibilisation et l’éducation. Savoir distinguer le vrai du faux sera probablement l’un des enjeux majeurs des prochaines années sur internet (et sur tout les objets connectés diffusant des contenus).

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech

[ SOURCE ]

Cliquer pour commenter
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *