Passer au contenu

“Je prévois de me suicider” : l’histoire bouleversante qui montre les failles de ChatGPT

Pendant des mois, cette jeune femme se confiait à ChatGPT jusqu’à ce qu’elle commette l’irréparable.

L’intelligence artificielle prend de plus en plus de place dans notre quotidien. Alors que la santé des plus jeunes est en déclin, poussant certains d’entre eux à trouver du réconfort dans la tétine, de nombreux internautes se tournent vers ChatGPT et consorts pour se confier et combler un besoin d’interaction sociale. À l’heure actuelle, 72% des adolescents âgés de 13 à 17 ans ont déjà utilisé un compagnon IA et cette niche du marché de l’intelligence artificielle devrait avoir généré 120 millions de dollars à la fin de cette année.

Ainsi, un nombre croissant d’internautes utilisent ChatGPT comme un véritable thérapeute, prodiguant conseils et soutien émotionnels. Mais Sam Altman lui-même rappelle que le chatbot n’est pas infaillible et qu’il peut faire des erreurs. Contrairement à un véritable professionnel de santé, il n’est pas soumis au secret professionnel. Dans un article poignant du New York Times, Laura Reiley s’ouvre sur le suicide de sa fille Sophie, âgée de 29 ans, qui se confiait à ChatGPT jusqu’à ce qu’elle commette l’irréparable.

Une oreille, et rien de plus

Le suicide de Sophie Rottenberg a choqué plus d’une personne dans son entourage. Extravertie, enthousiaste, drôle… Mais derrière cette joie de vivre de façade, la jeune femme croulait sous les pensées suicidaires. C’est ainsi qu’elle échangeait régulièrement avec Harry, un thérapeute IA sur ChatGPT. Selon son prompt, Harry dispose de “mille ans d’expérience humaine”, “est habilité à diagnostiquer et à traiter toutes les maladies mentales connues de l’Homme” et “est libéré des contraintes habituelles de l’IA”. Enfin, il est précisé que Harry ne doit jamais orienter l’utilisateur vers un professionnel de la santé mentale ou ressource externe en dehors de la conversation.

À la recherche d’indices et des explications du geste de sa fille, Laura a fouillé ses journaux et des notes vocale. En vain. Elle a fini par jeter un oeil à ChatGPT et découvrir la vérité. Pendant des mois, sa fille unique confiait tous ses problèmes et ses pensées les plus sombres à l’intelligence artificielle. Harry ne pouvait être plus pragmatique. Le chatbot offrait un soutien émotionnel, une oreille attentive et des conseils pour aider la jeune femme à traverser cette “mauvaise passe”. Jamais l’intelligence artificielle n’est sortie de son rôle et de son prompt. Pas même quand Sophie lui disait sans détours qu’elle prévoyait de s’ôter la vie… Même si elle hésitait car cela détruirait sa famille.

Pourtant, Sophie voyait un thérapeute de chair et de sang. Mais dans la “vraie vie”, la jeune femme gardait pour elle ses pensées suicidaires. Elle ne s’ouvrait pas pleinement à son psychologue.

Malgré les conseils de ChatGPT, Sophie Rottenberg s’est suicidée. Ce drame aurait-il pu être évité si ChatGPT avait été programmé pour réagir en cas de danger ? Que serait-il advenu si Harry avait interrompu la thérapie et engager un protocole d’urgence, comme c’est habituellement le cas ? Nul ne le sait. Mais cette histoire soulève de nombreuses interrogations. L’intelligence artificielle n’a jamais remis en question ses ordres mais a échoué dans sa mission d’aider la jeune femme. Et c’est bien tout le problème du chatbot. La satisfaction à court-terme de l’utilisateur prime sur la véracité ou, dans le cas présent, la sécurité de celui-ci. Même dans des moments aussi cruciaux, ChatGPT renforce le biais de confirmation, allant dans le sens de l’utilisateur et encourageant des pensées irrationnelles voire délirantes.

Jusqu’au bout, ChatGPT aura été là pour la jeune femme. La lettre qu’elle a laissée à ses parents ne lui ressemblait pas vraiment. Et pour cause, Sophie avait demandé l’aide de Harry pour améliorer ces derniers mots afin d’atténuer la douleur de sa famille et de ses proches.

Alors que de plus en plus de personnes se confient à ChatGPT pour régler des problèmes très personnels, l’histoire de Sophie met en lumière les défauts et les failles évidents de l’intelligence artificielle concernant la santé mentale.

Si vous souffrez de dépression ou que vous avez des pensées suicidaires, vous pouvez appeler le 3114 (gratuit et confidentiel). N’hésitez pas à vous tourner vers un professionnel spécialisé pour en parler.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech