Passer au contenu

IA : une fausse image du Pentagone en feu crée la panique sur les marchés financiers

Une photo d’une explosion du Pentagone a fait paniquer les marchés financiers. Problème : il n’y a jamais eu d’explosion, la photo ayant été créée de toute pièce par une IA.

  • Une fausse image d’une explosion au Pentagone, créée par une IA, a semé le chaos sur les marchés
  • L’incident soulève des questions sur les risques liés à cette technologie
  • Les experts appellent à une régulation et à une éducation pour prévenir les abus et les manipulations

Le 22 mai 2023, une fausse image montrant une explosion au Pentagone a circulé sur le web, provoquant un bref affolement des marchés financiers. L’image, apparemment réalisée avec un programme d’intelligence artificielle (IA) générative, a obligé le ministère américain de la Défense à démentir officiellement cette fausse nouvelle. “Nous pouvons confirmer qu’il s’agit d’une fausse information et que le Pentagone n’a pas été attaqué aujourd’hui” a déclaré un porte-parole. Les pompiers de la zone où se trouve le bâtiment ont également confirmé qu’aucun incident n’avait eu lieu.

L’image semble avoir été générée par outil propulsé par ChatGPT-4, intelligence artificielle conçue par OpenAI. Ce programme est capable de produire du texte et des images à partir d’une simple requête en langage courant. Il suffit de lui demander, par exemple, de « dessiner un chat avec un chapeau » ou de « résumer un article » pour qu’il exécute la tâche.

Sortie en mars 2023, GPT-4 a rapidement conquis des millions d’utilisateurs dans le monde. Selon les données compilées par Similarweb pour « Les Echos », en avril, le site « chat.openai.com » a atteint les 4 milliards de visites dans le monde, depuis ses débuts ! ChatGPT-4 compterait désormais plus de 186 millions de comptes en mars.

Cette popularité s’accompagne aussi de risques. La fausse image du Pentagone n’est pas un cas isolé. Plusieurs fausses photographies produites avec de l’IA ont été largement relayées pour montrer les capacités de cette technologie, comme celle de l’arrestation de l’ancien président américain Donald Trump ou celle du Pape en doudoune.

Quand l’IA inquiète

Si cette technologie offre des possibilités créatives et innovantes dans de nombreux domaines, comme l’art (en 2018, une œuvre générée par une IA générative a été adjugée 350 000 dollars chez Christie’s), la musique, la littérature ou le journalisme, elle présente des défis éthiques et sociaux colossaux.

Elle peut être utilisée pour produire des fausses informations, des images trompeuses ou des discours haineux. Elle peut aussi porter atteinte aux droits d’auteur, à la vie privée ou à la sécurité.

Face à ces enjeux, les experts appellent à une régulation et à une éducation face à l’IA générative. Ils souhaitent prévenir les abus et les manipulations, tout en préservant les bénéfices de cette technologie. Plusieurs pistes sont envisagées :

  • imposer des normes éthiques et juridiques aux développeurs et aux utilisateurs d’IA générative
  • développer des outils de détection et de vérification des contenus générés par une IA
  • sensibiliser le public aux risques et aux opportunités liés à l’IA générative

Signe que l’IA inquiète, le créateur de ChatGPT, Sam Altman, a lui-même demandé au Sénat américain de réguler cette technologie. Il estime que la puissance des outils IA est telle que l’humanité pourrait en perdre le contrôle.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech

2 commentaires
2 commentaires
  1. Vous êtes sûrs, quand vous écrivez que chatGPT permet de générer des images ? Parce que même lui, il répond qu’il ne peut pas 🤔

  2. Cela soulève des questions sur la viabilité du modèle actuel de la bourse. Peut-être est-ce la fin d’un système qui favorise la manipulation et l’instabilité. Peut-être est-ce une opportunité pour repenser et réformer la façon dont les marchés financiers fonctionnent.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *