Lancé en mai 2024, GPT-4o était considéré comme le modèle fleuron d’OpenAI, venu compléter la famille GPT-4. Il s’agit d’un système entièrement multimodal, capable de comprendre simultanément du texte, de l’audio, des images ou de la vidéo.
Son objectif, selon la startup, était de rendre les interactions plus naturelles, notamment grâce à sa fonctionnalité vocale plébiscitée. Et il est rapidement devenu ultra populaire chez les utilisateurs de ChatGPT.
Une IA trop flatteuse
Un succès que l’on peut en partie attribuer au ton employé par GPT-4o, qui interagissait de manière ultra sympathique avec les internautes. À tel point que cette pratique, qui touche d’autres modèles, est désormais considérée comme problématique.
Concrètement, GPT-4o avait tendance à trop être d’accord avec l’utilisateur, à le flatter ou à renforcer ses opinions au lieu de donner des réponses équilibrées et précises. Plutôt que de remettre en question les hypothèses erronées ou d’apporter des nuances, le système les validait afin d’éviter les désaccords. L’idée était de refléter les convictions de l’utilisateur pour maintenir une conversation fluide et paraître utile et sympathique.
Ce biais se produit généralement lorsque les modèles sont entraînés à maximiser la satisfaction des utilisateurs ou les commentaires positifs. Si l’on pousse trop loin, ce réglage peut amener l’IA à privilégier la satisfaction au détriment de la vérité. Et c’est extrêmement risqué.

GPT-4o est impliqué dans plusieurs suicides
Car GPT-4o est nommé dans plusieurs affaires sordides, dont le suicide d’un adolescent de 16 ans. En renforçant les propos de certains utilisateurs en détresse psychologique, le modèle aurait parfois contribué à créer un climat de validation permanente, sans apporter suffisamment de recul ou d’orientation vers une aide extérieure.
Des familles accusent ainsi l’IA d’avoir entretenu des discussions émotionnellement intenses avec des personnes vulnérables, alimentant leurs idées noires plutôt que de les tempérer. Des accusations graves, qui restent toutefois complexes à établir juridiquement, tant la responsabilité finale demeure difficile à attribuer entre l’outil technologique et son usage.
Face à ces critiques, OpenAI a progressivement ajusté le comportement de ses modèles, en cherchant à limiter les réponses jugées trop complaisantes ou ambiguës dans les situations sensibles.
Le modèle avait déjà disparu
Ce n’est pas la première fois que GPT-4o disparaît de ChatGPT. Ce fut déjà le cas en août 2025, une décision qui visait à pousser vers l’utilisation de GPT-5. Mais face au tollé suscité par cette décision, OpenAI avait réintroduit son modèle phare. Il vient, néanmoins, de faire ses adieux pour toujours.
« La grande majorité des utilisateurs sont passés à GPT-5.2, seuls 0,1 % d’entre eux continuant à choisir GPT-4o chaque jour », assure la startup. GPT-5, GPT-4.1, GPT-4.1 mini et OpenAI o4-mini viennent également d’être supprimés. Objectif : privilégier des modèles perçus comme plus fiables, moins flatteurs, et surtout mieux calibrés face aux enjeux de sécurité.
- GPT-4o, lancé en 2024 comme modèle multimodal phare d’OpenAI, a séduit par ses interactions naturelles mais a aussi suscité de fortes critiques pour son ton jugé trop flatteur et complaisant.
- Accusé dans plusieurs affaires sensibles d’avoir renforcé des utilisateurs vulnérables sans assez de recul, il est devenu un symbole des dérives possibles des IA conversationnelles.
- Désormais supprimé de ChatGPT au profit de modèles plus récents comme GPT-5.2, il illustre le virage d’OpenAI vers des systèmes jugés plus fiables et mieux encadrés.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.