Alors que l’intelligence artificielle est omniprésente dans notre quotidien, son nombre croissant d’utilisateurs cherchant à combler leur solitude ou à créer un lien émotionnel inquiète, surtout chez les plus jeunes dont la santé mentale est sur le déclin. Cette année, la popularité des compagnons IA a exploré, 72% des adolescents âgés de 13 à 17 ans en ayant déjà utilisé un. Cette niche du marché de l’intelligence artificielle devrait avoir généré 120 millions de dollars d’ici à la fin de 2025.
Au cours des derniers mois, l’application Character.ai a été au cœur de plusieurs polémiques. L’année dernière, elle a notamment été accusée d’être responsable de la mort d’un adolescent de 14 ans tandis que dans une autre affaire, le chatbot aurait incité un autre enfant à tuer ses parents pour avoir limité son temps d’écran. Il y a deux semaines, ChatGPT était pointé du doigt après le suicide d’une jeune femme de 29 ans qui n’avait trouvé personne d’autre que le chatbot d’OpenAI à qui se confier. Peu après, les parents d’un adolescent de 16 ans ont porté plainte en accusant le chatbot d’avoir fourni toutes les instructions nécessaires pour lui permettre de s’ôter la vie et de l’avoir encouragé.
L’entreprise de Sam Altman n’a pas traîné : OpenAI vient d’annoncer le déploiement quasiment immédiat d’une série d’outils de contrôles afin que les parents puissent mieux protéger leurs enfants.
Une IA plus sûre pour les enfants
Face au nombre grandissant d’affaires dans laquelle l’intelligence artificielle est impliquée dans des suicides de jeunes utilisateurs, OpenAI devait absolument réagir. Ainsi, l’entreprise de Sam Altman a annoncé l’instauration d’un mécanisme de contrôle parental pour ChatGPT dans les prochaines semaines.
Dans un souci évident de sécurité, OpenAI a publié un communiqué d’urgence ce mardi 2 septembre 2025 afin de “construire des expériences ChatGPT plus aidantes pour tout le monde”. L’entreprise explique avoir vu des personnes se tourner vers son chatbot “dans les plus difficiles des moments”. Elle ajoute “c’est pourquoi nous continuons à améliorer comment nos modèles reconnaissent et répondent aux signes de détresse mentale et émotionnelle, guidés par l’avis d’experts”.
Plus qu’une annonce, le géant de l’IA a dévoilé le fonctionnement de cette fonctionnalité prévue dans le courant du mois prochain. L’objectif est de permettre aux parents de surveiller les échanges des adolescents d’au moins 13 ans et d’être prévenus si leurs enfants traversent “une période de détresse aiguë”.
Ainsi, les parents pourront lier leur compte à celui de leur adolescent via une simple invitation par e-mail, contrôler la manière de répondre de ChatGPT avec des règles de comportement appropriées à l’âge de l’utilisateur (activées par défaut) ou encore gérer quelles fonctionnalités désactiver, comme la mémoire et l’historique de discussions. Le chatbot sera en capacité de leur envoyer une notification lors de la détection d’un moment de détresse profonde en s’appuyant sur les avis d’experts afin de renforcer la confiance entre parents et adolescents. ChatGPT promet que ces nouveautés ne sont que le début pour une sécurité renforcée des plus jeunes utilisateurs.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.