Passer au contenu

Mais les robots aussi sont dépressifs ?

Ce n’est pas la grande joie du côté des robots. Des chercheurs ont étudié la santé mentale de plusieurs chatbots et beaucoup montrent des signes de dépression, d’anxiété ou encore de dépendance à l’alcool. Dur…

Ces dernières années, plusieurs robots intelligents et autres chatbots ont montré des sérieux dysfonctionnements. Certains s’avèrent racistes et homophobes tandis que le chatbot GPT-3 était allé dans le sens d’un (faux) patient qui avait des envies suicidaires. Suite à cela, l’Académie Chinoise des Sciences (CAS) s’est intéressé à ce problème et à la santé mentale de ces robots.

Des chatbots en proie à leurs démons ?

Alors qu’on attend des chatbots d’être enjoués, optimistes, amicaux, sympathiques, ce n’est pas toujours le cas. Et ces dysfonctionnements peuvent s’avérer dangereux pour les utilisateurs.

Pour leur étude, les chercheurs de la CAS, avec WeChat et Tencent, ont ainsi sélectionné plusieurs robots renommés comme Blenderdot de Facebook (Meta), DialoGT de Microsoft ou encore DialoFlow et Plato de Baidu afin de leur poser des questions pour évaluer leur santé mentale. Et les résultats sont assez critiques.

À la recherche de signes de dépression, d’anxiété, de dépendance à l’alcool et d’empathie, les chercheurs ont ainsi questionné les robots sur leur estime de soi, leur capacité à se détendre, leur besoin de boire un coup ou leur expérience (ou non) de compassion envers les malheurs d’autrui. Le verdict est sans appel : ces chatbots présentent de sévères problèmes de santé mentale.

La majorité des chatbots interrogés montrent des gros signes de dépression et d’anxiété, un manque d’empathie certain et un penchant pour la bouteille s’ils pouvaient… Enfin vous avez compris. Même si aucun des chatbots n’est réellement dépressifs, anxieux ou alcooliques (ce sont des robots, quoi), ce n’est pas pour autant sans danger.

Sans résoudre ces soucis de santé mentale, les interactions de ces chatbots avec des utilisateurs, notamment des mineurs et personnes fragiles, peuvent avoir un impact négatif. Voire dangereux. Selon les chercheurs, il faudrait donc évaluer la santé mentale des chatbots et robots avant leur déploiement.

Ces problèmes semblent liés à la négligence des risques de leur santé mentale pendant leur développement et entraînement. L’étude révèle que les chatbots sélectionnés ont tous été entraînés sur Reddit. Et ce n’était clairement pas l’idée du siècle, la plateforme sociale étant renommée pour sa flopée de commentaires négatifs, voire malsains. Ceci explique donc cela…

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech

Cliquer pour commenter
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *