Passer au contenu

Sam Altman reconnaît que ChatGPT est devenu ennuyeux (une mise à jour est déjà prévue)

Selon Sam Altman, l’IA de ChatGPT est devenue trop flagorneuse et ennuyeuse à cause de ses dernières mises à jour. Mais un correctif est déjà en cours de déploiement.

Il y a quelques jours, nous avons relayé un article d’Ars Technica sur la flagornerie de ChatGPT, ou sa tendance à adopter un ton exagérément positif, dans ses réponses. On avait également cité un développeur qui, sur le réseau social X, a écrit : “ChatGPT est soudain devenu le plus grand lèche-bottes que j’aie jamais rencontré. Il valide littéralement tout ce que je dis.”

Aujourd’hui, ce problème est reconnu par OpenAI. Dans une récente publication, le CEO Sam Altman indique que les dernières mises à jour du modèle GPT-4o ont rendu sa personnalité trop “flagorneuse et ennuyeuse”. Par ailleurs, bien qu’il y ait un aspect positif à ces changements, le patron d’OpenAI a indiqué que l’entreprise travaille déjà sur des correctifs. Une partie de ces correctifs vont se déployer aujourd’hui, tandis qu’une autre partie arrivera plus tard cette semaine.

“À un moment donné, nous partagerons nos apprentissages à partir de cela, c’était intéressant”, a également indiqué le CEO. Sinon, en réponse à un commentaire, Sam Altman a indiqué qu’il n’exclut pas l’idée de proposer plusieurs différentes options pour la personnalité de l’IA.

Mais d’où vient ce drôle de comportement ?

On en saura plus sur les raisons de cette hausse de flagornerie chez ChatGPT, quand l’entreprise partagera ses découvertes, comme promis par Sam Altman. Mais en règle générale, cette tendance de l’IA à adopter un ton trop positif proviendrait de la façon dont celui-ci a été entraîné.

D’après une étude réalisée par Anthropic, le développeur de l’IA Claude (un concurrent de ChatGPT), les humains utilisés pour entraîner l’intelligence artificielle auraient tendance à préférer les réponses flagorneuses. “Dans l’ensemble, nos résultats indiquent que la flagornerie est un comportement général des modèles RLHF (ndlr, les modèles entraînés avec des feedbacks humains), probablement motivé en partie par des jugements de préférence humains favorisant les réponses flagorneuses”, lit-on dans cette étude d’Anthropic, publiée en 2023.

  • OpenAI admet que ChatGPT a récemment changé de personnalité, et son IA (GPT-4o) est devenue trop flagorneuse
  • L’entreprise est déjà en train de déployer des correctifs qui devraient régler ce problème
  • Pour le moment, on ne sait pas pourquoi ChatGPT a changé de personnalité, mais cela n’est pas passé inaperçu

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Newsletter 🍋

Abonnez-vous, et recevez chaque matin un résumé de l’actu tech