Il y a quelques jours, nous avons relayé un article d’Ars Technica sur la flagornerie de ChatGPT, ou sa tendance à adopter un ton exagérément positif, dans ses réponses. On avait également cité un développeur qui, sur le réseau social X, a écrit : “ChatGPT est soudain devenu le plus grand lèche-bottes que j’aie jamais rencontré. Il valide littéralement tout ce que je dis.”
Aujourd’hui, ce problème est reconnu par OpenAI. Dans une récente publication, le CEO Sam Altman indique que les dernières mises à jour du modèle GPT-4o ont rendu sa personnalité trop “flagorneuse et ennuyeuse”. Par ailleurs, bien qu’il y ait un aspect positif à ces changements, le patron d’OpenAI a indiqué que l’entreprise travaille déjà sur des correctifs. Une partie de ces correctifs vont se déployer aujourd’hui, tandis qu’une autre partie arrivera plus tard cette semaine.
“À un moment donné, nous partagerons nos apprentissages à partir de cela, c’était intéressant”, a également indiqué le CEO. Sinon, en réponse à un commentaire, Sam Altman a indiqué qu’il n’exclut pas l’idée de proposer plusieurs différentes options pour la personnalité de l’IA.
the last couple of GPT-4o updates have made the personality too sycophant-y and annoying (even though there are some very good parts of it), and we are working on fixes asap, some today and some this week.
at some point will share our learnings from this, it’s been interesting.
— Sam Altman (@sama) April 27, 2025
Mais d’où vient ce drôle de comportement ?
On en saura plus sur les raisons de cette hausse de flagornerie chez ChatGPT, quand l’entreprise partagera ses découvertes, comme promis par Sam Altman. Mais en règle générale, cette tendance de l’IA à adopter un ton trop positif proviendrait de la façon dont celui-ci a été entraîné.
D’après une étude réalisée par Anthropic, le développeur de l’IA Claude (un concurrent de ChatGPT), les humains utilisés pour entraîner l’intelligence artificielle auraient tendance à préférer les réponses flagorneuses. “Dans l’ensemble, nos résultats indiquent que la flagornerie est un comportement général des modèles RLHF (ndlr, les modèles entraînés avec des feedbacks humains), probablement motivé en partie par des jugements de préférence humains favorisant les réponses flagorneuses”, lit-on dans cette étude d’Anthropic, publiée en 2023.
- OpenAI admet que ChatGPT a récemment changé de personnalité, et son IA (GPT-4o) est devenue trop flagorneuse
- L’entreprise est déjà en train de déployer des correctifs qui devraient régler ce problème
- Pour le moment, on ne sait pas pourquoi ChatGPT a changé de personnalité, mais cela n’est pas passé inaperçu
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.