Ces dernières années, plusieurs robots intelligents et autres chatbots ont montré des sérieux dysfonctionnements. Certains s’avèrent racistes et homophobes tandis que le chatbot GPT-3 était allé dans le sens d’un (faux) patient qui avait des envies suicidaires. Suite à cela, l’Académie Chinoise des Sciences (CAS) s’est intéressé à ce problème et à la santé mentale de ces robots.
Des chatbots en proie à leurs démons ?
Alors qu’on attend des chatbots d’être enjoués, optimistes, amicaux, sympathiques, ce n’est pas toujours le cas. Et ces dysfonctionnements peuvent s’avérer dangereux pour les utilisateurs.
Pour leur étude, les chercheurs de la CAS, avec WeChat et Tencent, ont ainsi sélectionné plusieurs robots renommés comme Blenderdot de Facebook (Meta), DialoGT de Microsoft ou encore DialoFlow et Plato de Baidu afin de leur poser des questions pour évaluer leur santé mentale. Et les résultats sont assez critiques.
À la recherche de signes de dépression, d’anxiété, de dépendance à l’alcool et d’empathie, les chercheurs ont ainsi questionné les robots sur leur estime de soi, leur capacité à se détendre, leur besoin de boire un coup ou leur expérience (ou non) de compassion envers les malheurs d’autrui. Le verdict est sans appel : ces chatbots présentent de sévères problèmes de santé mentale.
La majorité des chatbots interrogés montrent des gros signes de dépression et d’anxiété, un manque d’empathie certain et un penchant pour la bouteille s’ils pouvaient… Enfin vous avez compris. Même si aucun des chatbots n’est réellement dépressifs, anxieux ou alcooliques (ce sont des robots, quoi), ce n’est pas pour autant sans danger.
Sans résoudre ces soucis de santé mentale, les interactions de ces chatbots avec des utilisateurs, notamment des mineurs et personnes fragiles, peuvent avoir un impact négatif. Voire dangereux. Selon les chercheurs, il faudrait donc évaluer la santé mentale des chatbots et robots avant leur déploiement.
Ces problèmes semblent liés à la négligence des risques de leur santé mentale pendant leur développement et entraînement. L’étude révèle que les chatbots sélectionnés ont tous été entraînés sur Reddit. Et ce n’était clairement pas l’idée du siècle, la plateforme sociale étant renommée pour sa flopée de commentaires négatifs, voire malsains. Ceci explique donc cela…
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.