Passer au contenu

Il confie son envie de meurtre à une IA, le RAID débarque chez lui

Une IA n’est pas un journal intime. Les confessions dangereuses peuvent se retourner contre les utilisateurs, ce Strasbourgeois en a fait les frais.

Faut-il tout dire à son IA préférée ? Ce Strasbourgeois de 37 ans saura désormais que non. Il a en effet été arrêté pour l’une de ses conversations avec ChatGPT. Si l’affaire est classée sans suite, elle met tout de même en lumière les limites de la confidentialité sur ces plateformes.

Le fait divers nous est rapporté par Les Dernières Nouvelles d’Alsace. Un homme a été interpellé pour avoir discuté d’un projet d’attentat avec ChatGPT. Lors d’une conversation avec l’IA, il lui a demandé comment se procurer une arme pour « tuer un agent du renseignement de la CIA, du Mossad ou de la DGSI ». Une requête qui a attiré l’attention du FBI. L’agence américaine a alors fait un signalement via Pharos et vendredi 3 avril, le RAID a interpellé le Strasbourgeois à son domicile.

Comme le précise le journal régional, aucune arme n’a été retrouvée chez le suspect. Lui-même se défend de tout projet meurtrier, affirmant seulement tester la fiabilité et la surveillance de l’IA. Il a été servi. Sa garde à vue a été levée et l’affaire classée sans suite.

Les conversations avec l’IA sont-elles vraiment privées ?

Quand on discute avec une IA, on a tendance à l’humaniser, à la voir autrement que comme un algorithme. Là est le piège. Ce faisant, on prend le risque de se confier et de lui dire des choses qu’on imagine privées, à tort. Cette histoire le prouve.

Les messages envoyés à ChatGPT ne sont jamais rendus publics, mais peuvent faire l’objet d’analyses internes et certaines conversations à risque peuvent être détectées et remontées à OpenAI. Les cas d’interventions humaines sont « très rares » selon la firme, mais existent. C’est ce qui s’est passé ici. Le « projet » a immédiatement été détecté puis transmis au FBI, qui a jugé la menace assez sérieuse pour prévenir les autorités françaises. Même pour tester les limites d’une IA, il est fortement déconseillé de poster des messages qui pourraient être interprétés comme dangereux pour la sécurité. Plus généralement, il n’est pas très sage de confier des informations privées à un modèle d’IA.

Une histoire qui va encore mettre en lumière la collaboration d’OpenAI avec le Pentagone, très décriée malgré les limites établies par la société. Anthropic, l’un des concurrents d’OpenAI, est d’ailleurs dans le viseur de Donald Trump, qui lui reproche de refuser tout accord avec le gouvernement américain.

  • Un Strasbourgeois a partagé ses pensées meurtrières avec une IA.
  • Sa confession a entraîné l’intervention du RAID.
  • L’incident souligne les risques de partager des informations sensibles avec des intelligences artificielles

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech