Passer au contenu

Comment Sora, le générateur de vidéo d’OpenAI pourrait changer le monde en 2024 ?

L’introduction de Sora, la nouvelle intelligence artificielle d’OpenAI, suscite des interrogations quant aux risques de détournement de son usage.

À peine présentée, et déjà pointée du doigt. Sora, le nouvel outil IA créé par OpenAI (ChatGPT) est sans équivalent dans le paysage de l’IA. L’entreprise a frappé un grand coup en dévoilant le potentiel de son nouveau bébé il y a quatre jours dans une vidéo époustouflante. Capable de générer des vidéos d’un réalisme saisissant à partir d’un simple texte, Sora apporte son lot d’enthousiasme, mais également de craintes. Alors que l’année 2024 est une année centrale, où les habitants de nombreux pays vont se rendre aux urnes à travers le globe, ses capacités inquiètent. Pourrait-elle être utilisée pour propager des contenus fallacieux, deepfakes et autres informations erronées ? La question mérite d’être posée.

Une avancée technique sans précédent

Si d’autres systèmes IA générant des vidéos existaient, comme Google Imagen (que l’on peut voir à l’essai dans cette vidéo) ou Nvidia VideoLDM (en démonstration dans cette vidéo), aucun n’arrive vraiment à la cheville de Sora.

Si les rendus de celle-ci sont aussi réalistes, c’est qu’elle s’appuie sur deux technologies différentes. Elle utilise des modèles de diffusion, à la manière de DALL-E, qui lui donne la possibilité d’ordonner une grande quantité de pixels aléatoires en une image. Ces images sont ensuite transformées en séquences vidéos grâce à une autre technologie IA nommée « transformer architecture ».

Résultat ? Elle est aujourd’hui l’IA text-to-video la plus avancée jamais créée. Rachel Tobac, de SocialProof Security, souligne l’immense amélioration apportée par Sora par rapport aux précédentes tentatives dans le domaine. Elle explique que les rendus générés sont « considérablement plus réalistes et moins fantaisistes ». Même si les vidéos sont loin d’être parfaites, il faut réellement s’efforcer d’aller à la chasse aux détails pour détecter les imperfections et autres éléments visuels étranges.

Un futur rôle dans la désinformation ?

Un des aspects les plus préoccupants de Sora réside dans son potentiel à contribuer à la prolifération de deepfakes. Pour Hany Farid (spécialiste dans l’analyse d’images numériques et la détection d’images manipulées numériquement) de l’Université de Californie à Berkeley, ce risque n’est pas à négliger. « Comme c’est le cas pour d’autres techniques en intelligence artificielle générative, il n’y a aucune raison de penser que la conversion de texte en vidéos ne continuera pas à s’améliorer rapidement, nous rapprochant de plus en plus d’une époque où il sera difficile de distinguer le faux du réel » détaille-t-il.

Il imagine ce qu’impliquerait l’utilisation de Sora si on l’utilise conjointement à d’autres technologies IA. « Si on associe cette technologie au clonage vocal propulsé par l’intelligence artificielle, cela pourrait marquer le début d’une ère inédite dans la production de deepfakes, où l’on verrait des personnes prononcer des paroles et accomplir des actes qu’elles n’ont jamais réalisés » souligne-t-il.

Pour Tobac, ce risque est aussi à considérer sérieusement : « Sora possède véritablement le talent de produire des vidéos susceptibles de duper le grand public ». Elle rappelle également très justement qu’« il n’est pas nécessaire que la vidéo soit parfaite pour être crédible, car beaucoup ne réalisent pas encore que les vidéos peuvent être manipulées aussi facilement que les photos ». À l’ère de la crédulité, Sora sera-t-elle un jour reine ?

Régulation et mesures de sécurité

Parfaitement consciente de ses enjeux, OpenAI a restreint l’accès à Sora et l’outil n’est pas librement disponible. Actuellement, l’entreprise a missionné un groupe « d’experts dans des domaines tels que la désinformation, le contenu haineux et les biais » chargé de tester Sora en interne dans le but d’évaluer son potentiel de mésusage. Experts dont le nom n’est actuellement pas connu.

OpenAI se veut rassurante sur ce point précis ; un porte-parole de la société a déclaré : « Nous avons mis en œuvre de nombreuses mesures de sécurité essentielles avant de rendre Sora accessible dans les offres d’OpenAI ». Il ne reste plus qu’à espérer que ces garde-fous que l’entreprise a déjà déployés sur ses autres produits, comme ChatGPT, restent efficaces lorsqu’elle déploiera Sora pour un usage commercial.

La pose d’un filigrane sur les vidéos générées attestant de leur création par IA fait également partie des mesures envisagées pour éviter les débordements.

Sora peut-elle être dangereuse et peser un jour sur l’opinion publique ? Oui, incontestablement. Est-il possible d’agir pour que cela ne soit jamais le cas ? Bien sûr. La seule solution réside dans la mise en place d’une collaboration entre les gouvernements, les réseaux sociaux et OpenAI pour que cela ne se produise pas. L’intégration d’une technologie si puissante à notre société s’accompagne toujours de cette même rengaine : un outil n’est jamais mauvais en soi ; l’usage que l’on en fait, en revanche, peut l’être.

  • Sora, l’IA générative d’OpenAI représente un pas de géant d’un point de vue technique.
  • Les risques de voir se propager des contenus falsifiés grâce à ses capacités sont réels, et plusieurs experts tirent déjà la sonnette d’alarme.
  • OpenAI assure mettre en place des mesures de régulation pour que cela ne se produise pas et la société teste Sora en interne actuellement.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech

2 commentaires
2 commentaires
  1. De nos jours, chacun cherche à imposer son propre mensonge à la majorité.
    Leur seule crainte, c’est de ne pas être celui qui y réussira.
    Collaboration entre gouvernements ? pas dans l’intérêt général en tous cas.
    Regardez autour de vous le monde qu’ils nous façonnent actuellement !
    La moindre bonne chose est détournée quand c’est dans leur intérêt.

Les commentaires sont fermés.