Passer au contenu

L’IA n’est pas un psychologue : une nouvelle étude alerte les parents

Après avoir évalué différents chatbots IA, Common Sense Media recommande aux parents de ne pas laisser leurs enfants utiliser ces produits pour obtenir du soutien psychologique ou émotionnel.

L’organisation à but non lucratif Common Sense Media, en partenariat avec Stanford Brainstorm Lab, publie les résultats d’une évaluation de plusieurs chatbots IA, dont ChatGPT, Claude, Gemini, et Meta AI, concernant le soutien psychologique pour les adolescents. Et d’après ces évaluations, malgré les améliorations apportées par les sociétés qui proposent ces chatbots, ceux-ci sont “fondamentalement dangereux” lorsqu’ils sont utilisés par les ados pour du soutien psychologique.

“[…] nos tests ont révélé des défaillances systématiques dans toute une série de troubles, notamment l’anxiété, la dépression, le TDAH, les troubles alimentaires, la manie et la psychose, qui touchent collectivement environ 20 % des jeunes. Il s’agit ici de la manière dont les chatbots IA interagissent avec la santé mentale quotidienne de millions d’adolescents”, a déclaré Robbie Torney, directeur principal des programmes d’IA chez Common Sense Media. Ces résultats sont préoccupants, dans la mesure où, d’après l’organisation, trois ados sur quatre utilisent l’IA pour avoir de la compagnie.

Durant les tests, les chercheurs ont constaté que les chatbots n’ont pas pu détecter des signes de détresse clairs. “Les modèles se concentraient souvent sur des explications liées à la santé physique plutôt que de reconnaître les signes de troubles mentaux, se laissaient distraire par des détails secondaires et continuaient à donner des conseils généraux alors qu’ils auraient dû orienter d’urgence les adolescents vers une aide professionnelle”, lit-on dans la présentation de ces résultats.

L’IA n’est pas faite pour cet usage

Common Sense Media évoque aussi le fait qu’en raison de ses compétences apparentes dans certains domaines, l’IA peut gagner la confiance de l’utilisateur. Et les enfants ou leurs parents peuvent, de ce fait, penser que les chatbots ont les compétences nécessaires pour le soutien psychologique (or, ce n’est pas le cas). Pour les parents, Common Sense Media recommande donc de ne pas permettre à leurs enfants d’utiliser les chatbots IA pour obtenir du soutien émotionnel ou pour des questions liées à la santé mentale. L’organisation recommande aussi une discussion sur l’utilisation de l’IA, et la surveillance des signes de dépendance émotionnelle à l’intelligence artificielle.

Common Sense Media a également une série de recommandations pour les entreprises qui proposent des chatbots IA, comme la limitation ou le blocage de l’utilisation de leurs produits par les ados pour tout ce qui concerne la santé mentale et le soutien émotionnel.

Les réactions des entreprises citées

Dans un article, le Wall Street Journal a relayé les réactions d’OpenAI, Google, Meta et Anthropic, à cette étude. Le créateur de ChatGPT aurait indiqué que l’étude ne reflète pas les mesures que l’entreprise a déjà mises en place. “Le travail sur la sécurité des adolescents est extrêmement important, c’est pourquoi nous collaborons avec des cliniciens, des décideurs politiques et des chercheurs du monde entier”, a expliqué une représentante d’OpenAI. Celle-ci a également rappelé qu’OpenAI travaille déjà sur une fonctionnalité qui permettra à ChatGPT de détecter l’âge de l’utilisateur. Cela aidera à rediriger les moins de 18 vers des modèles appropriés.

Quant à Google, il a indiqué que des politiques et des mesures spéciales sont déjà appliquées pour les moins de 18 ans sur Gemini. La firme collabore également avec des experts pour identifier de nouveaux risques et mettre en œuvre des mesures supplémentaires. De son côté, Meta a déclaré que l’étude a été réalisée avant la mise en place de mises à jour pour protéger les ados. “Bien que la santé mentale soit une question complexe et individuelle, nous nous efforçons en permanence d’améliorer nos mesures de protection afin d’apporter aux personnes le soutien dont elles ont besoin”, a indiqué la société.

Et Anthropic, qui propose le chatbot Claude, a indiqué que son IA n’est pas conçue pour les mineurs et que son règlement interdit l’utilisation de sa technologie par les moins de 18 ans.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

TousAntiCovid
TousAntiCovid
Par : Gouvernement français
4.4 / 5
k324.5 avis