🛡️ IA militaire : Anthropic a dit non, tout le monde a dit oui
Le 1er mai, le Pentagone a signé avec 7 géants IA. Seule Anthropic était absente : elle a refusé une clause autorisant surveillance et armes autonomes.
Date : 2026-05-08
Tags : Gouvernance IA, Cybersécurité, Anthropic, OpenAI, Microsoft

Le 1er mai 2026, le Département américain de la Défense a officialisé des accords IA avec sept entreprises pour déployer leurs modèles dans ses réseaux les plus sensibles. Une seule grande entreprise IA était absente de la liste : Anthropic, la créatrice de Claude. Pas parce qu'elle n'avait pas été sollicitée, mais parce qu'elle a choisi de refuser.
## Quelles entreprises ont signé des accords IA avec le Pentagone, et pourquoi maintenant ?
Depuis le lancement de GenAI.mil, le portail IA interne du Département américain de la Défense, plus de 1,3 million de personnels militaires et civils utilisent des outils d'intelligence artificielle dans leur quotidien professionnel. Cette adoption massive a ouvert la voie à une étape bien plus ambitieuse : l'intégration de l'IA dans les environnements classifiés aux niveaux Impact Level 6 et IL7, qui traitent des informations top secret et des données de renseignement parmi les plus sensibles du pays. C'est dans ce contexte que le Pentagone a signé, le 1er mai 2026, des accords avec sept entreprises technologiques : OpenAI, Google, Microsoft, Amazon Web Services, Nvidia, SpaceX et Reflection AI. Ces partenariats permettent à ces entreprises de déployer leurs IA dans des systèmes militaires classifiés pour des usages allant de l'analyse logistique au traitement de renseignements, en passant par l'aide à la décision en situation de crise. Ce déploiement s'appuie sur GenAI.mil, désormais opérationnel aux niveaux IL6 et IL7, qui constitue l'épine dorsale numérique de l'usage IA au sein du Département de la Défense.
| Entreprise | Technologies IA déployées | Environnement | Statut |
|---|---|---|---|
| OpenAI | GPT-5.5, modèles o-series | IL6 / IL7 | ✅ Signé |
| Google | Gemini 3.2, Vertex AI | IL6 / IL7 | ✅ Signé |
| Microsoft | Azure OpenAI, Copilot | IL6 / IL7 | ✅ Signé |
| Amazon Web Services | Bedrock, Amazon Q | IL6 / IL7 | ✅ Signé |
| Nvidia | NIM, accelerated compute | IL6 / IL7 | ✅ Signé |
| SpaceX | Grok (xAI) | IL6 / IL7 | ✅ Signé |
| Reflection AI | Reflection 3 | IL6 / IL7 | ✅ Signé |
| **Anthropic** | **Claude** | N/A | ❌ Exclu |
Ce tableau révèle un paradoxe saisissant : Anthropic était, jusqu'à fin 2025, le seul fournisseur d'IA dans les réseaux classifiés du Pentagone. Sa technologie servait déjà la machine militaire américaine. Ce qui a radicalement changé, c'est l'ampleur des conditions imposées pour continuer à y figurer.
## Pourquoi Anthropic a-t-elle refusé de signer là où tous les autres ont dit oui ?
Le point de rupture tient à une formulation en apparence anodine : le Pentagone exigeait qu'Anthropic autorise l'utilisation de Claude pour "tous les usages légaux" (all lawful purposes). Cette clause, que les sept autres entreprises ont acceptée sans déclaration publique, recouvrait selon Anthropic deux scénarios précis : la surveillance de masse domestique et les armes entièrement autonomes. Dario Amodei, PDG d'Anthropic, a maintenu publiquement cette ligne rouge malgré une pression gouvernementale croissante. La réponse de l'administration Trump est venue rapidement et avec une intensité inhabituelle : le 27 février 2026, un décret présidentiel a ordonné à toutes les agences fédérales de cesser immédiatement tout usage des technologies d'Anthropic. Le secrétaire à la Défense Pete Hegseth a publiquement qualifié Amodei de "lunatic" sur X, avant que le Pentagone ne désigne formellement Anthropic comme "risque pour la chaîne d'approvisionnement", une étiquette normalement réservée aux entreprises liées à des adversaires étrangers comme la Chine ou la Russie. C'est la première fois dans l'histoire que cette désignation a été appliquée à une entreprise américaine. Anthropic a déposé deux procès distincts, l'un à San Francisco et l'autre à Washington D.C., avant qu'un tribunal d'appel ne lève une injonction préliminaire obtenue en sa faveur. Le 17 avril 2026, Dario Amodei s'est rendu à la Maison-Blanche pour rencontrer la cheffe de cabinet Susie Wiles. À l'issue de cette réunion, Donald Trump a déclaré qu'un accord était "possible". Pourtant, deux semaines plus tard, les contrats avec les sept autres entreprises ont été officialisés sans qu'Anthropic y figure.
## Que doit retenir l'industrie IA de cet épisode sans précédent ?

Cette affaire marque un tournant dans l'histoire de l'IA appliquée aux secteurs critiques, et ses implications dépassent largement le seul marché militaire américain. Pour la première fois, une entreprise d'IA de premier rang a préféré perdre un contrat stratégique majeur plutôt que de compromettre son cadre éthique, et cette décision a entraîné une réponse gouvernementale d'une intensité inédite. Les sept entreprises signataires n'ont pas expliqué publiquement pourquoi elles avaient accepté la clause "all lawful purposes", ce qui soulève une question fondamentale pour tout acteur du secteur : à quel moment l'acceptation de conditions d'usage devient-elle une prise de responsabilité sur les conséquences de ces usages ? Pour les organisations qui déploient des agents IA dans leurs processus métier, cet épisode illustre concrètement pourquoi la gouvernance, les politiques d'usage acceptable et les cadres légaux ne sont pas des sujets réservés aux juristes, mais des enjeux opérationnels avec des conséquences directes sur les contrats et la réputation. Que l'on soit en accord ou non avec le choix d'Anthropic, cette affaire montre que les conditions d'utilisation des IA sont devenues un terrain de négociation stratégique à part entière.
> "Using Claude to enable domestic mass surveillance or fully autonomous weapons systems is incompatible with democratic values and with our mission to build AI that benefits humanity."
> — Dario Amodei, PDG d'Anthropic, communiqué officiel, février 2026
Pour les professionnels qui conçoivent et déploient des agents IA dans leurs processus, comprendre ces enjeux de gouvernance, d'éthique et de conformité légale est désormais aussi stratégique que les compétences techniques, c'est exactement ce que vous apprendrez à intégrer dans la formation [Automatiser ses workflows et créer des agents IA](https://www.travelearn.fr/formation/automatiser-ses-workflows-et-crer-des-agents-ia), qui couvre à la fois la conception d'agents autonomes et les bonnes pratiques éthiques et légales qui encadrent leur déploiement responsable.
---
**Sources**
- [Pentagon Signs AI Deals With OpenAI, Google, Microsoft, Nvidia – gHacks Tech News](https://www.ghacks.net/2026/05/04/pentagon-signs-ai-deals-with-openai-google-microsoft-nvidia-and-others-cutting-out-anthropic/)
- [DOD expands its classified AI work with 8 companies — excluding Anthropic – DefenseScoop](https://defensescoop.com/2026/05/01/dod-expands-classified-ai-work-with-8-companies-excluding-anthropic/)
- [Pentagon strikes deals with 8 Big Tech companies after shunning Anthropic – CNN Business](https://www.cnn.com/2026/05/01/tech/pentagon-ai-anthropic)
- [Statement from Dario Amodei – Anthropic](https://www.anthropic.com/news/statement-department-of-war)
- [Pentagon freezes out Anthropic as it signs deals with AI rivals – Defense News](https://www.defensenews.com/news/pentagon-congress/2026/05/01/pentagon-freezes-out-anthropic-as-it-signs-deals-with-ai-rivals/)