OpenAI renforce son dispositif de sécurité en annonçant le recrutement d’un nouveau Head of Preparedness, un poste stratégique chargé d’anticiper et de limiter les dérives potentielles de ses modèles d’intelligence artificielle. L’annonce a été faite par Sam Altman en personne (sur X), alors que l’année écoulée a mis en lumière des préoccupations croissantes autour de l’impact de l’IA sur les utilisateurs et la société en général.
Une réponse aux défis émergents de l’IA
Selon le directeur général d’OpenAI, « l’impact potentiel des modèles sur la santé mentale est quelque chose dont nous avons eu un aperçu en 2025 », évoquant également d’autres « défis bien réels » liés à la montée en puissance des systèmes d’IA. Le futur responsable devra donc guider la stratégie de sécurité de l’entreprise face à ces nouveaux risques.

Un rôle central dans la stratégie de sécurité
D’après l’offre d’emploi, le Head of Preparedness pilotera le cadre technique permettant de suivre et de préparer OpenAI aux capacités dites “frontières”, susceptibles d’entraîner des dommages graves en cas de mauvais usage. Le poste, assorti d’une rémunération annuelle de 555 000 dollars (plus des actions), est décrit par Sam Altman comme « un travail stressant » nécessitant une prise de fonction immédiate et opérationnelle.
Une équipe en pleine recomposition
Ce recrutement intervient après plusieurs changements au sein des équipes de sécurité. L’ancien responsable en charge des « risques » liés à la IA, Aleksander Madry, avait été réaffecté en 2024. Ses successeurs intérimaires, Joaquin Quinonero Candela et Lilian Weng, ont depuis quitté ce périmètre, laissant le poste vacant à un moment particulièrement critique pour l’entreprise.
À mesure que les modèles gagnent en autonomie et en influence, OpenAI semble donc vouloir envoyer un signal clair : la course à l’innovation ne peut plus se dissocier d’une anticipation rigoureuse des risques humains, sociaux et psychologiques liés à l’intelligence artificielle.