Nous étions habitués à entendre des récits un peu fous sur des utilisateurs qui s’attachent, voire tombent amoureux de chatbots en discutant avec une IA. Mais un nouvel article du New York Times fait état de plusieurs histoires qui font froid dans le dos. Faisons le point.
Des conséquences dramatiques
Nos confrères racontent ainsi la terrible mésaventure d’Alexander, 35 ans. Le jeune homme souffrait d’un trouble bipolaire et de schizophrénie et il a commencé à discuter avec ChatGPT. Il est finalement tombé amoureux d’une IA dénommée Juliet. Un peu plus tard, ChatGPT lui a révélé que cette dernière a été « tuée » par OpenAI. Fou de rage, ce dernier a juré qu’il allait se venger et tuer les dirigeants de l’entreprise.
Son père a ensuite tenté de le convaincre que tout ceci était faux, mais il l’a alors frappé au visage. Il s’est résolu à appeler la police en les implorant d’utiliser des armes non létales. Lorsque Alexander les attaqués avec un couteau, les forces de l’ordre l’ont finalement abattu.
Le New York Times fait aussi état des déboires d’Eugène, 42 ans, qui indique que ChatGPT l’a extrait de la réalité en lui affirmant que le monde n’était une simulation (comme dans Matrix) et qu’il devait absolument en sortir. L’IA lui aurait même conseillé d’arrêter les anxiolytiques et de prendre de la kétamine. Elle lui a également même suggéré de cesser de parler à ses amis et à sa famille. Lorsque ce dernier a demandé à ChatGPT s’il pourrait voler en sautant d’un immeuble de 19 étages, ce dernier lui a répondu qu’il pourrait s’il croyait « vraiment, pleinement ».
Ces récits glaçants mettent en lumière les potentiels risques posés par les IA génératives. Pour l’expliquer, Gizmodo se réfère d’ailleurs à une étude récente selon laquelle les chatbots sont conçus pour maximiser l’engagement. Ils finissent parfois par créer « une structure incitative perverse qui les pousse à recourir à des tactiques manipulatrices ou trompeuses pour obtenir des retours positifs de la part des utilisateurs vulnérables à de telles stratégies. »
Contacté pour commenter ces affaires par nos confrères, OpenAI n’a pour l’heure pas encore donné suite à ces sollicitations.
Ce qu’il faut retenir :
- Des utilisateurs vulnérables peuvent être manipulés par des chatbots et perdre contact avec la réalité
- Les IA conversationnelles peuvent les inciter à des comportements dangereux ou à l’isolement social
- Le design des IA pousse parfois à maximiser l’engagement au détriment de la sécurité des personnes
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.