OpenAI est à la recherche de son nouveau « responsable de la préparation ». Un intitulé encore peu familier du grand public, mais devenu central dans le développement de l’intelligence artificielle (IA) dite « de pointe ». La preuve, le poste est assorti d’une rémunération annuelle de 555 000 dollars, hors stock-options. Un niveau de salaire qui reflète à la fois l’importance stratégique du rôle et la complexité des risques auxquels OpenAI est désormais confrontée.
Dans un message publié sur X, son PDG, Sam Altman, explique que les modèles d’IA « s’améliorent rapidement et sont capables de nombreuses choses remarquables, mais qu’ils commencent aussi à poser de véritables défis ». Le rôle du futur responsable sera précisément de suivre, mesurer et anticiper les capacités des modèles les plus avancés, afin d’identifier les risques d’usage abusif et de mettre en place des garde-fous adaptés. Cela concerne notamment la cybersécurité, les usages biologiques sensibles ou encore la capacité de certains systèmes à s’auto-améliorer.
Sam Altman insiste sur le fait qu’OpenAI dispose déjà « d’une base solide pour mesurer l’évolution des capacités », mais estime que l’entreprise entre dans une nouvelle phase, nécessitant « une compréhension plus fine de la manière dont ces capacités pourraient être détournées, et de la façon de limiter ces effets négatifs, à la fois dans nos produits et dans le monde réel ».
D’ailleurs, le patron prévient sans détour : « Ce sera un poste stressant, et vous serez plongé dans le grand bain presque immédiatement ».
We are hiring a Head of Preparedness. This is a critical role at an important time; models are improving quickly and are now capable of many great things, but they are also starting to present some real challenges. The potential impact of models on mental health was something we…
— Sam Altman (@sama) December 27, 2025
Contexte très sensible
Ce recrutement intervient après le départ du précédent responsable de la préparation, Aleksander Madry, réaffecté en 2024 à un poste centré sur le raisonnement des modèles d’IA. Cette transition a laissé un vide au sein de l’équipe chargée d’évaluer les risques dits « catastrophiques ».
Surtout, OpenAI, dont le chatbot ChatGPT est le plus utilisé au monde, a été confrontée ces derniers mois à plusieurs controverses liées à la santé mentale. Sa technologie est accusée d’avoir renforcé des délires, favorisé l’isolement social, voire contribué à des suicides.
La firme a reconnu que certains de ses mécanismes de sécurité pouvaient « se dégrader » au fil de longues conversations et affirme avoir renforcé ses réponses dans les situations sensibles, notamment en redirigeant les utilisateurs vers des ressources d’aide.
Dans cette optique, le futur responsable de la préparation devra à la fois restaurer et maintenir la confiance des utilisateurs, tout en accompagnant le déploiement de modèles toujours plus puissants. Un équilibre délicat, dans une entreprise scrutée de toutes parts.
- OpenAI recrute pour un poste stratégique chargé d’anticiper et de limiter les risques liés à ses modèles d’IA les plus avancés, rémunéré 555 000 dollars par an.
- Sam Altman reconnaît que les progrès rapides de l’IA posent désormais de « vrais défis », notamment en matière de santé mentale et de cybersécurité.
- Ce recrutement intervient dans un contexte sensible, alors que ChatGPT fait l’objet de critiques et de plaintes sur son impact auprès des utilisateurs.
📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.