Passer au contenu

ChatGPT invente de faux remèdes contre le cancer

Une nouvelle étude signale une énorme faille de l’IA qui pourrait mettre les patients en danger.

  • Les résultats d’une étude menée sur ChatGPT nous invitent à la prudence concernant les requêtes médicales
  • L’IA a fourni de nombreux conseils erronés à des questions portants sur le traitement du cancer
  • Les chercheurs estiment que les patients doivent être au courant des limites du modèle de langage

C’est une véritable bombe que viennent de lâcher des chercheurs du Brigham and Women’s Hospital, un établissement rattaché à l’Université de Harvard, en publiant une étude dans la revue JAMA Oncology. Ils montrent en effet à quel point ChatGPT peut fournir des réponses inutiles ou totalement fausses à des questions portant sur le traitement du cancer.

L’enjeu est de taille, car l’on sait que les patients en quête de solutions peuvent parfois se tourner vers ces IA afin de trouver des informations sur la maladie dont ils souffrent et les moyens d’en sortir. Et justement, il s’est avéré que 34,3 % des réponses fournies par le modèle de langage ne correspondaient pas aux recommandations des principaux centre de cancérologie du pays.

ChatGPT invente des réponses de toutes pièces

Pire, ChatGPT a, comme il en a l’habitude, totalement inventé certaines réponses (13 sur 104), ce qui peut avoir des conséquences dramatiques pour un tel sujet.

Dans un communiqué publié pour l’occasion, Danielle Bitterman, coauteure de cette étude enfonce le clou :

Les réponses de ChatGPT peuvent ressembler beaucoup à celles d’un être humain et être assez convaincantes. Mais lorsqu’il s’agit de prendre des décisions cliniques, il y a tellement de subtilités à prendre en compte dans la situation unique de chaque patient. Une bonne réponse peut être très nuancée, et ce n’est pas nécessairement quelque chose que ChatGPT ou un autre modèle de langage peut fournir.

Elle estime donc que les développeurs de ces IA devraient porter la responsabilité de proposer des technologies qui ne provoquent aucun dommage. Dans le même temps, il convient d’informer les patients des failles de ces chatbots.

À noter qu’OpenAI prévient déjà le public dans ses conditions d’utilisation. Son modèle de langage n’est pas conçu pour fournir des conseils médicaux ni donner des diagnostics ou préconisations de traitements pour des maladies graves.

Pour nuancer un peu ce constat, on peut aussi rappeler cette étude publiée par des scientifiques de l’université Drexel en Pennsylvanie en janvier dernier. Ils montraient comment GPT-3, le programme précédemment utilisé par ChatGPT, est capable d’identifier dans les écrits d’une personne les premiers stades de la maladie d’Alzheimer. L’efficacité serait impressionnante atteignant un niveau de 80 %. Vous pouvez toujours relire notre article à ce sujet ici.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

TousAntiCovid
TousAntiCovid
Par : Gouvernement français
4.4 / 5
k324.5 avis