Passer au contenu

Les médecins utilisent ChatGPT pour paraître plus humains

Utiliser l’intelligence artificielle pour mieux communiquer avec les patients ? Même Microsoft est choqué.

  • Un rapport du New York Times évoque l’utilisation de ChatGPT par les médecins.
  • Auparavant utilisé pour prévenir les complications des patients, il est maintenant utilisé pour leur apprendre les mauvaises nouvelles concernant leur santé.
  • Microsoft s’étonne de voir une telle utilisation de l’intelligence artificielle.

Selon un récent rapport paru dans le New York Times, il est maintenant fréquent que les médecins utilisent ChatGPT, le bot conversationnel, afin de paraître plus humains. Une contradiction totalement hallucinante qui fait lever haut les sourcils.

Un robot pour parler aux humains ?

Le monde est en train d’apprendre tout ce que peut offrir ChatGPT, et l’IA est un sujet qui intéresse beaucoup la médecine. En effet, il est parfois possible que les humains passent à côté de certaines choses, choses que ChatGPT peut lui savoir. Il est par exemple actuellement utilisé afin de prévenir les risques de complications de patients à la suite d’une chirurgie. Les médecins sont obligés d’acquérir énormément de connaissances diverses et variées afin de soigner au mieux leurs patients. Bien sûr, il est impossible de tout savoir et donc, ChatGPT est une aide précieuse dans la réalisation de diagnostics ou en tant que base de connaissance.

Scrubs avait déjà évoqué un “robot à mauvaises nouvelles” il y a 16 ans maintenant.

Microsoft choqué par la pratique

Par contre, il semble évident qu’un chatbot aura toujours moins d’empathie qu’un humain… Et pourtant, toujours selon le rapport du New York Times, certains médecins utilisent ChatGPT afin de délivrer les mauvaises nouvelles à leurs patients. Une pratique qui pourrait sembler contraire à l’éthique, ou tout du moins à la morale. Pourtant très impliqué dans le domaine de l’intelligence artificielle notamment avec Bing, même Microsoft trouve que cette utilisation est particulièrement étrange. À ce sujet, Peter Lee qui est à la tête de la division Microsoft Research a déclaré :

“En tant que patient, cela me met un peu mal à l’aise”.

Et le secret médical dans tout ça ?

En allant plus loin dans le raisonnement, on peut imaginer certains médecins demander de générer des textes permettant de se décharger du côté émotionnel de devoir expliquer de mauvaises nouvelles à leurs patients. Sauf que vous n’êtes probablement pas sans savoir que ce n’est pas une très bonne idée de donner des informations personnelles à ChatGPT. En effet, l’utilisation du chatbot est progressivement interdite dans les entreprises qui gèrent des données sensibles, pour des raisons de confidentialité. Le secret médical étant un des aspects les plus essentiels du serment d’Hippocrate. Donc, hormis le côté peu déontologique d’utiliser un robot conversationnel pour évoquer des aspects allant bouleverser la vie d’un patient, on peut aussi se demander si cela ne va pas à l’encontre de la loi.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech