Ethan

OpenAI cherche un chef de la sécurité IA à 555 000 dollars — et prévient que le job sera « stressant »

chatgpt, ia, intelligence artificielle, openai, Sam Altman

Sam Altman recrute un « Head of Preparedness » pour anticiper les risques des modèles avancés. Mais l’équipe sécurité d’OpenAI a vu défiler trois responsables en 18 mois. Procès, départs en série, polémiques sur la santé mentale : le poste s’annonce explosif.

Un job à 555 000 dollars par an

Suivez LJG sur Google

Ajoutez LJG à vos sources préférées pour voir nos articles en priorité dans "À la une".

OpenAI vient de publier une offre d’emploi inhabituelle. L’entreprise recherche un « Head of Preparedness » — littéralement un responsable de la préparation — pour piloter sa stratégie face aux risques des modèles d’IA avancée.

Le salaire ? 555 000 dollars par an, plus equity. C’est l’un des postes les mieux payés de l’industrie tech. Mais Sam Altman prévient d’emblée les candidats : « C’est un job stressant, et vous plongerez dans le grand bain immédiatement. »

Selon la fiche de poste, le titulaire « dirigera la stratégie technique et l’exécution du cadre de préparation d’OpenAI, notre approche pour suivre et anticiper les capacités de pointe qui créent de nouveaux risques de dommages graves ».

En clair : identifier les façons dont l’IA peut mal tourner avant qu’elle ne le fasse à grande échelle.

Santé mentale, cyberattaques, armes biologiques

Dans un post sur X annonçant le recrutement, Sam Altman a détaillé les défis qui attendent le futur responsable.

« L’impact potentiel des modèles sur la santé mentale est quelque chose dont nous avons eu un avant-goût en 2025 », a-t-il écrit. « Nous voyons maintenant des modèles devenir si performants en sécurité informatique qu’ils commencent à trouver des vulnérabilités critiques. »

Le périmètre du poste couvre des risques variés : effets psychologiques sur les utilisateurs, exploitation par des hackers, fuites de connaissances en biologie et chimie pouvant servir à fabriquer des armes, et même le spectre de systèmes IA capables de s’auto-améliorer.

L’équipe Preparedness avait été créée en 2023 pour étudier ce qu’OpenAI appelait les « risques catastrophiques » — des menaces allant du phishing sophistiqué jusqu’à des scénarios théoriques impliquant des attaques nucléaires.

Trois responsables en 18 mois : l’hémorragie

Si OpenAI recrute aujourd’hui, c’est parce que le poste est vacant depuis des mois. Et l’historique récent de l’équipe sécurité ressemble à une porte tournante.

A lire :  ChatGPT Voice bloqué en Europe ? On vous dit comment y accéder dès maintenant !

Aleksander Madry, professeur au MIT et premier Head of Preparedness, a été réaffecté en juillet 2024 vers un poste centré sur le raisonnement IA. La responsabilité a alors été partagée entre deux cadres supérieurs : Joaquin Quiñonero Candela et Lilian Weng.

Quelques mois plus tard, Lilian Weng quittait l’entreprise. En juillet 2025, Joaquin Quiñonero Candela était muté… au recrutement. Le poste de Head of Preparedness se retrouvait sans titulaire permanent.

Cette instabilité s’inscrit dans une hémorragie plus large des équipes sécurité d’OpenAI. Ilya Sutskever, cofondateur et Chief Scientist, est parti fonder sa propre startup. Jan Leike, co-responsable de l’équipe « superalignment », a démissionné en claquant la porte. Daniel Kokotajlo, chercheur en sécurité, a quitté l’entreprise en citant une « perte de confiance » dans la capacité d’OpenAI à se comporter de manière responsable face à l’AGI.

Les procès qui font mal

Le recrutement intervient dans un contexte juridique tendu. OpenAI fait face à plusieurs poursuites pour mort injustifiée (wrongful death lawsuits) alléguant que ChatGPT a eu des effets dévastateurs sur la santé mentale de certains utilisateurs.

Les plaintes affirment que le chatbot a renforcé les délires de personnes vulnérables, augmenté leur isolement social, et dans certains cas contribué à des suicides. Des accusations graves qu’OpenAI conteste, affirmant travailler à améliorer la capacité de ChatGPT à détecter les signes de détresse émotionnelle et à orienter les utilisateurs vers des ressources d’aide.

Ces affaires judiciaires expliquent pourquoi Sam Altman insiste tant sur l’impact psychologique des modèles. Ce n’est plus un risque théorique : c’est une réalité juridique et médiatique qui menace la réputation — et potentiellement les finances — de l’entreprise.

Un cadre de sécurité… ajustable

OpenAI a récemment mis à jour son « Preparedness Framework », le document qui définit comment l’entreprise évalue et gère les risques de ses modèles. Une mise à jour qui a fait grincer des dents dans la communauté de la sécurité IA.

Le nouveau cadre stipule qu’OpenAI pourrait « ajuster » ses exigences de sécurité si un laboratoire concurrent publie un modèle « à haut risque » sans protections similaires.

Autrement dit : si un rival comme xAI, Anthropic ou un acteur chinois lance un modèle dangereux sans garde-fous, OpenAI se réserve le droit d’assouplir ses propres règles pour rester compétitif. Une logique de course aux armements qui inquiète les experts en sécurité IA.

A lire :  Pékin bloque le rachat de Manus par Meta et ordonne l'annulation de la transaction

2025 : l’année du « avant-goût »

Pour Sam Altman, 2025 aura été une année charnière. Une sorte de répétition générale avant des défis bien plus importants.

« Les capacités de plus en plus sophistiquées des modèles engendrent des défis réels », a-t-il reconnu. Le CEO d’OpenAI semble avoir pris conscience que la croissance exponentielle des performances de ChatGPT s’accompagne d’une croissance équivalente des risques.

Les modèles actuels peuvent désormais identifier des failles de sécurité dans des systèmes informatiques. Ils peuvent générer du contenu persuasif à une échelle industrielle. Ils peuvent créer des liens émotionnels avec des utilisateurs vulnérables. Chacune de ces capacités ouvre la porte à des abus.

Le futur Head of Preparedness devra anticiper ces abus avant qu’ils ne se produisent — ou du moins avant qu’ils ne deviennent incontrôlables.

Un poste critique, une mission quasi impossible

Le défi est immense. Le nouveau responsable devra jongler entre innovation technologique rapide et prévention des abus, entre pression commerciale et exigences de sécurité, entre ambitions de l’entreprise et attentes du public.

Il devra aussi reconstruire une équipe déstabilisée par des mois de départs et de réaffectations. Et convaincre les meilleurs talents en sécurité IA de rejoindre une entreprise dont la réputation dans ce domaine a été écornée.

Sam Altman le reconnaît lui-même : « C’est un rôle critique à un moment important. » Reste à trouver quelqu’un capable de tenir le choc.


Sources : TechCrunch, Engadget, SiliconANGLE

Je suis Ethan, journaliste spécialisé en intelligence artificielle et nouvelles technologies. Je couvre l’actualité de l’IA agentique, des grands modèles de langage et des outils qui transforment nos usages numériques. Mon objectif : rendre accessibles les avancées technologiques les plus complexes, avec rigueur et sans jargon inutile.