Vendredi 27 février 2026, 17h01 heure de Washington. C’est l’heure exacte que Pete Hegseth, secrétaire à la « Guerre » (le ministère de la Défense rebaptisé par l’administration Trump), a fixée comme ultimatum à Anthropic. La start-up californienne refuse de lever deux restrictions inscrites dans son contrat de 200 millions de dollars avec le Pentagone : pas de surveillance de masse des citoyens américains, pas d’armes entièrement autonomes sans supervision humaine. Une heure avant l’expiration du délai, Donald Trump tranche sur Truth Social et ordonne à toutes les agences fédérales de cesser immédiatement d’utiliser la technologie d’Anthropic. Le même jour, OpenAI signe avec le Pentagone. Deux mois plus tard, le bras de fer continue de fissurer la Silicon Valley.
Un contrat à 200 millions et deux lignes rouges
Tout commence en juillet 2025, lorsqu’Anthropic décroche un contrat pouvant aller jusqu’à 200 millions de dollars avec le Department of War (l’ancien Department of Defense, renommé par l’administration Trump). L’objectif : prototyper des capacités d’IA frontière pour la sécurité nationale américaine. Claude, le modèle phare d’Anthropic, devient alors le premier système d’IA déployé sur les réseaux classifiés de l’armée américaine, dans le cadre d’un partenariat avec Palantir Technologies noué en 2024. L’IA est utilisée pour de l’analyse de renseignement et déployée dans les laboratoires nucléaires nationaux.
Mais Anthropic pose deux conditions non négociables, baptisées « red lines » par son PDG Dario Amodei. La première interdit l’usage de Claude pour la surveillance de masse domestique. La seconde proscrit son intégration dans des systèmes d’armes entièrement autonomes capables de tuer sans intervention humaine. Pour la start-up, ces restrictions reposent sur deux arguments : les modèles d’IA actuels ne sont pas assez fiables pour décider d’un tir létal, et la surveillance domestique est incompatible avec les valeurs démocratiques.
En janvier 2026, Pete Hegseth durcit le ton. Le secrétaire à la Guerre publie un mémo de stratégie IA exigeant que tous les contrats du Pentagone autorisent « tout usage légal » des modèles. Anthropic devient la cible désignée. Le 24 février, Hegseth menace publiquement de mettre fin au contrat et de désigner l’entreprise comme « risque pour la chaîne d’approvisionnement », un statut habituellement réservé aux sociétés liées à des adversaires étrangers. Le 25 février, Hegseth convoque Dario Amodei. La rencontre échoue. L’ultimatum tombe : vendredi 27 février, 17h01.
Le « non » d’Amodei et la menace du Defense Production Act
Le jeudi 26 février, Dario Amodei publie un message frontal. « Ces menaces ne changent pas notre position : en toute conscience, nous ne pouvons pas accéder à leur demande. » Le PDG souligne une contradiction de l’administration : Anthropic est simultanément qualifiée de risque de sécurité et présentée comme essentielle à la sécurité nationale. Il rappelle que les deux exceptions exigées par sa société n’ont à ce jour bloqué aucune mission gouvernementale.
Le Pentagone brandit alors une arme juridique inédite contre une entreprise américaine de la tech : le Defense Production Act, une loi de 1950 héritée de la guerre de Corée qui donne au président le pouvoir de contraindre des sociétés privées à prioriser les besoins de sécurité nationale. La menace est explicite : si Anthropic refuse, le gouvernement pourrait la forcer à se conformer.
Emil Michael, sous-secrétaire du Pentagone à la Recherche et à l’Ingénierie, attaque personnellement le PDG d’Anthropic sur X, le qualifiant de « menteur » avec un « complexe de Dieu ». « Il ne veut rien d’autre que contrôler personnellement l’armée américaine et est prêt à mettre la sécurité de notre nation en danger », écrit-il. Le ton du conflit bascule d’une négociation contractuelle à un affrontement public.
Plus de 400 employés de Google et OpenAI mobilisés
Face à la pression sur Anthropic, des salariés des deux concurrents directs entrent dans la bataille. Le 27 février, une lettre ouverte intitulée « We Will Not Be Divided » est publiée. Au moment de l’expiration de l’ultimatum, elle compte plus de 400 signataires, dont près de 400 chez Google et plus de 60 chez OpenAI. Dans les jours qui suivent, le total atteindra près de 900 noms selon Fortune.
Le message est sans ambiguïté : « Le Pentagone négocie avec Google et OpenAI pour leur faire accepter ce qu’Anthropic a refusé. Ils essaient de diviser chaque entreprise en faisant croire que l’autre finira par céder. Cette stratégie ne fonctionne que si nous ignorons la position des autres. » Les signataires appellent leurs dirigeants à mettre leurs différences de côté et à refuser collectivement les exigences du ministère.
L’écho historique est immédiat. En 2018, une mobilisation interne de 4 000 employés de Google avait poussé l’entreprise à abandonner le projet Maven, qui utilisait l’IA pour analyser les images de drones militaires. Les organisateurs de la nouvelle lettre s’en réclament explicitement : « Maven n’est pas terminé. Les travailleurs vont continuer à s’organiser contre la militarisation de l’IA de Google. »
Jeff Dean, scientifique en chef de Google DeepMind, prend position publiquement sur X dès le 25 février : la surveillance de masse viole le Quatrième Amendement et a un effet dissuasif sur la liberté d’expression. C’est l’un des cadres dirigeants les plus en vue à se prononcer.
La sanction de Trump et l’accord opportun d’OpenAI
Le 27 février, environ une heure avant l’expiration de l’ultimatum, Donald Trump publie sur Truth Social. « Les cinglés gauchistes d’Anthropic ont commis une erreur DÉSASTREUSE en essayant de FORCER LA MAIN au Department of War. Je demande à TOUTES les agences fédérales du gouvernement américain de CESSER IMMÉDIATEMENT toute utilisation de la technologie d’Anthropic. » Le président annonce une période de transition de six mois.
Pete Hegseth officialise dans la foulée la désignation d’Anthropic comme risque de chaîne d’approvisionnement, une première pour une entreprise américaine. Il accuse la start-up d’avoir livré « un cours magistral d’arrogance et de trahison » et tenté de « s’arroger un droit de veto sur les décisions opérationnelles de l’armée américaine ». Anthropic conteste sa compétence légale pour interdire à ses contractants tout usage commercial de Claude au-delà des contrats militaires.
Le même jour, OpenAI annonce un accord avec le Pentagone pour intégrer ses modèles à des opérations classifiées. Sam Altman avait pourtant déclaré, le matin même sur CNBC, partager les lignes rouges d’Anthropic et estimer que le Pentagone « ne devrait pas menacer » d’invoquer le Defense Production Act. Le PDG d’OpenAI reconnaîtra ensuite que le timing « semblait opportuniste et négligé ». La fracture entre les deux entreprises devient personnelle : Dario Amodei qualifiera l’approche d’OpenAI de « théâtre de la sécurité » et les déclarations d’Altman de « purs mensonges ».
xAI, la société d’Elon Musk, avait pour sa part été approuvée pour des usages classifiés quelques jours plus tôt, devenant le deuxième acteur après Anthropic à entrer sur les réseaux secrets du Pentagone. Google, déjà prestataire pour des activités non classifiées, négociait alors séparément l’extension de Gemini aux environnements classifiés.
Anthropic au tribunal, et 30 employés rivaux à la rescousse
Anthropic ne capitule pas. Début mars 2026, l’entreprise lance deux procès contre l’administration Trump pour contester la désignation de risque de chaîne d’approvisionnement, qu’elle juge juridiquement infondée et précédent dangereux. La décision crée une onde de choc industrielle : la même administration qui blackliste Anthropic encourage par ailleurs les banques à adopter Claude pour leurs opérations.
Le 10 mars, plus de 30 employés de Google DeepMind et d’OpenAI, dont Jeff Dean, déposent un amicus brief en soutien à Anthropic. Le texte avertit que la mise au ban d’une entreprise leader de l’IA américaine aura « inévitablement des conséquences sur la compétitivité industrielle et scientifique des États-Unis ». Une coalition de chercheurs concurrents qui défendent publiquement leur rival : la situation est inédite dans l’industrie.
La nouvelle ligne de front : Google sous pression
Deux mois après le bras de fer initial, l’épicentre se déplace vers Mountain View. Le 16 avril 2026, Reuters révèle que Google et le Pentagone discutent d’un accord pour le déploiement des modèles Gemini en environnement classifié, avec la formule litigieuse « tous usages légaux ». Le 27 avril 2026, plus de 600 employés de Google DeepMind et de Google Cloud envoient à Sundar Pichai une lettre exigeant le rejet de tout accord similaire à celui qu’OpenAI a signé.
Le texte porte la marque de DeepMind : deux cinquièmes des signataires travaillent dans la division IA, plus de 18 cadres dirigeants ont signé (principals, directeurs, vice-présidents). « Nous voulons que l’IA bénéficie à l’humanité, pas qu’elle soit utilisée de manière inhumaine ou extrêmement nocive. Cela inclut les armes autonomes létales et la surveillance de masse, mais va au-delà. La seule façon de garantir que Google ne soit pas associé à ces préjudices est de rejeter toute charge de travail classifiée. »
Le contexte budgétaire éclaire l’enjeu. Le budget de la défense américaine pour l’IA et l’autonomie atteint 13,4 milliards de dollars en 2026. La demande pour 2027, déposée en avril, réclame 54,6 milliards pour le seul Defense Autonomous Warfare Group, soit une multiplication par 240 sur un an. Face à un marché de plusieurs dizaines de milliards de dollars, les 580 signatures de Google pèsent moins qu’en 2018, lorsque 4 000 noms suffirent à enterrer un contrat de quelques millions de dollars sur le projet Maven.
En février 2025, Google avait par ailleurs supprimé de ses principes IA l’engagement à ne pas développer d’armes ou de technologies de surveillance violant les normes internationalement acceptées. Demis Hassabis, PDG de DeepMind, avait justifié le revirement par la « compétition mondiale pour le leadership en IA ». Human Rights Watch et Amnesty International avaient condamné cette décision.
Ce que révèle le bras de fer
Le conflit Anthropic-Pentagone redéfinit les rapports entre Silicon Valley, gouvernement et armée. Trois constats s’imposent. Premièrement, les garde-fous techniques posés par les entreprises d’IA ne tiennent pas face à un État qui dispose du Defense Production Act et du pouvoir de blacklister. Deuxièmement, l’unité de la Silicon Valley sur les questions éthiques est une fiction : OpenAI a signé en quelques heures ce qu’Anthropic refusait, malgré des déclarations publiques alignées. Troisièmement, le contre-pouvoir des employés, démontré en 2018 contre Maven, peine à peser face à des contrats classifiés à plusieurs milliards.
La question centrale reste ouverte : qui fixe les règles d’usage militaire de l’IA ? Les entreprises qui la conçoivent, le Pentagone qui l’achète, le Congrès qui légifère, ou les tribunaux saisis par Anthropic ? La réponse façonnera la prochaine décennie de gouvernance de l’intelligence artificielle, bien au-delà des frontières américaines.

Je suis Ethan, journaliste spécialisé en intelligence artificielle et nouvelles technologies. Je couvre l’actualité de l’IA agentique, des grands modèles de langage et des outils qui transforment nos usages numériques. Mon objectif : rendre accessibles les avancées technologiques les plus complexes, avec rigueur et sans jargon inutile.