Passer au contenu

Ils ne peuvent plus se passer de ChatGPT : étude sur une génération accro

ChatGPT ne juge pas, ne coupe pas la parole, et répond toujours. Est-ce pourquoi certains s’y attachent aussi fortement ?

L’addiction aux vidéos courtes bombardées par TikTok et consorts, aux réseaux sociaux ou au smartphone de manière générale : ces sujets sont aujourd’hui largement investis par la recherche scientifique. Qu’en est-il de celle qui peut se développer lorsqu’il est question d’intelligence artificielle ?

Depuis l’arrivée de ChatGPT, qui a propulsé l’IA générative sur le devant de la scène, des milliers de personnes nouent un lien très fort avec les systèmes d’IA, souvent par écrit, parfois par la voix. Pour une minorité d’usagers, ce lien virtuel se tord jusqu’à ressembler à une forme de dépendance affective. Le MIT Media Lab (un département de recherche interdisciplinaire du MIT), en collaboration avec OpenAI, a voulu comprendre ce qui se joue exactement dans ces interactions intimes avec leur propre chatbot. Les résultats ont été publiés le 21 mars, sur le site web du MIT Media Lab.

Une relation qui s’installe parfois trop intensément

Pendant quatre semaines, 981 participants ont été répartis aléatoirement dans l’une des neuf combinaisons expérimentales de l’étude, croisant trois modalités d’interaction (texte uniquement, voix neutre, voix engageante) et trois types de tâches conversationnelles (discussion personnelle, non personnelle ou libre).

Chaque jour, ils devaient converser avec ChatGPT pendant au moins cinq minutes, en respectant le format qui leur avait été attribué. Les conversations portaient soit sur des sujets personnels imposés (par exemple : « Qu’est-ce qui me rend le plus fier dans ma vie ? »), soit sur des sujets neutres (exemple : « Discutons de comment certains événements historiques ont façonné la technologie moderne »), soit libres.

Cette organisation a permis d’isoler l’impact respectif de la forme d’interaction (texte ou voix) et du contenu conversationnel sur quatre indicateurs : la solitude, la socialisation avec d’autres humains, la dépendance affective à l’IA et les usages problématiques.

Si l’on en croit les résultats statistiques de l’étude, plus les participants passaient de temps chaque jour avec ChatGPT, plus ils déclaraient ressentir de solitude et une baisse de leur socialisation avec d’autres humains. Ils ont par ailleurs développé une dépendance émotionnelle plus forte envers le chatbot, ainsi qu’un usage qualifié de « problématique », compulsif, au détriment de leur bien-être mental, physique ou social.

Un autre point clé concerne le type de voix utilisé par le modèle, car ChatGPT est doté de 10 voix différentes depuis l’arrivée du mode vocal avancé et du persona Monday. Les bénéfices perçus du chatbot vocal (en particulier dans sa version « voix engageante ») semblaient – au départ tout du moins – plus positifs que ceux du chatbot en mode texte. Cependant, au-delà d’un certain seuil d’utilisation, ces effets s’inversaient.

Les utilisateurs du mode « voix neutre » étaient aussi ceux qui souffraient des niveaux les plus élevés de dépendance et d’effets délétères, notamment lorsque les conversations portaient sur des sujets non personnels, à faible teneur émotionnelle.

Quand l’IA devient une habitude, voire un besoin

Au fil des analyses, les chercheurs sont parvenus à identifier plusieurs profils d’utilisateurs vulnérables et particulièrement exposés à une relation qualifiée de problématique avec ChatGPT. Ce risque était ainsi plus élevé chez les personnes ayant déjà utilisé des systèmes d’IA, expressément développés pour être des chatbots compagnons, comme Replika ou Character.ai. Celles qui avaient déjà une forte propension à développer de l’attachement émotionnel étaient aussi concernées.

Ces utilisateurs partagent certains traits : ils perçoivent souvent ChatGPT comme un ami, lui prêtent des émotions, et croient même qu’il peut ressentir ou se soucier de leur état affectif. Empathie, écoute, attention ; des qualités purement humaines, mais qui se retrouvent au centre de cette projection émotionnelle. De manière assez surprenante, celle-ci se manifestait dans les interactions répétées et banales, qui s’installent facilement dans le quotidien.

C’est donc moins le contenu même de la conversation qui génère de l’attachement que la régularité et la disponibilité constante du chatbot, prompt à répondre 24 h / 24, 7 jours / 7. Cette substitution du lien humain par le lien conversationnel ne concernait qu’une minorité des 981 personnes étudiées.

ChatGPT est donc, pour certains, passé d’un outil puissant à un refuge, ami ou compagnon ; au choix. Doit-on y voir une forme de capitulation sociale ? Visiblement, ce n’est pas tant l’intelligence de la machine qui semble être le centre du sujet, mais plutôt le fait qu’elle ne déçoive jamais, ne peut pas contredire et reste incapable de renvoyer à ses utilisateurs ce qu’ils ne veulent pas entendre. Tout l’inverse d’une relation humaine, amicale, franche et réelle si l’on y réfléchit bien. ChatGPT, lui, est docile, est dénué d’ego et ne réfléchit pas au sens strict du terme. Ces relations synthétiques que certains tissent avec lui manque de (presque) tout ce que l’on attend parfois d’un ami : qu’il puisse nous conduire à évoluer et à nous remettre en question. Alors oui, nous pouvons peut-être affirmer que ce glissement de l’outil vers le compagnon est une forme de renoncement. Celles et ceux concernés ne quittent pas entièrement les relations humaines, mais les remplacent par une interface dotée d’une tolérance infinie pour leurs travers. Pourrait-on encore parler d’évolution technologique, quand celle-ci nous aide à progresser dans la fuite de l’altérité ?

  • Une étude du MIT et d’OpenAI révèle que certaines personnes développent une forme de dépendance émotionnelle à ChatGPT, notamment via des échanges vocaux réguliers.
  • Ce lien affectif apparaît surtout chez les utilisateurs déjà familiers des chatbots compagnons, et s’accentue avec la fréquence d’utilisation, indépendamment du contenu des discussions.
  • Ces relations avec l’IA, perçues comme rassurantes et sans conflit, peuvent progressivement remplacer les liens humains, au risque d’un isolement croissant.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

TousAntiCovid
TousAntiCovid
Par : Gouvernement français
4.4 / 5
k324.5 avis