⚔️ OpenAI signe, Anthropic gagne

OpenAI signe un contrat militaire à 200M$ avec le Pentagone. Résultat : Claude passe n°1 sur l'App Store. La vraie défaite de Sam Altman analysée.

Date : 2026-03-03

Tags : IA, OpenAI, Anthropic, Gouvernance IA

![Affrontement OpenAI vs Anthropic au Pentagone — une bataille qui a propulsé Claude au sommet de l'App Store](https://upload.wikimedia.org/wikipedia/commons/2/2a/The_Pentagon%2C_Headquarters_of_the_US_Department_of_Defense_%28cropped2%29.jpg) Sam Altman annonce un contrat avec le département américain de la Défense (rebaptisé "Department of War" par l'administration Trump). Quelques heures après que Donald Trump a banni Anthropic de tous les marchés fédéraux, OpenAI arrive en sauveur apparent. Un coup de maître commercial en apparence. En réalité, une erreur stratégique monumentale dont les conséquences se mesurent déjà en millions d'utilisateurs perdus. Ce qui ressemble à une victoire est, au fond, une défaite de réputation, de confiance et de positionnement à long terme. Voici pourquoi. ## Qu'est-ce qui a vraiment déclenché la crise entre Anthropic et le Pentagone ? L'histoire commence bien avant le 28 février. Pendant des mois, Anthropic et le département de la Défense ont négocié les conditions d'un contrat militaire pouvant atteindre 200 millions de dollars. La pierre d'achoppement était simple mais fondamentale : le Pentagone voulait utiliser les modèles d'Anthropic pour "toutes finalités licites" ("all lawful purposes"), une formulation volontairement large. Face à cela, le CEO d'Anthropic, Dario Amodei, a posé deux lignes rouges non négociables. Premièrement, l'interdiction absolue d'utiliser Claude pour de la surveillance de masse des citoyens américains. Deuxièmement, l'interdiction d'utiliser Claude pour piloter des armes létales entièrement autonomes, sans supervision humaine. Ces deux exigences ne sont pas des caprices d'idéalistes. Elles s'appuient sur des arguments techniques solides. Les modèles de langage actuels, aussi puissants soient-ils, restent sujets à des hallucinations, des erreurs de raisonnement et des biais qui les rendent intrinsèquement non fiables dans des scénarios à haute létalité. Confier la décision de tir ou l'identification d'une cible à un LLM (Large Language Model, soit un grand modèle de langage) sans contrôle humain représente un risque opérationnel réel, et pas seulement un problème éthique abstrait. Anthropic a tenu sa position malgré une pression croissante, y compris des menaces d'invoquer le Defense Production Act pour forcer l'accès aux modèles. Le secrétaire à la Défense Pete Hegseth passe à l'acte. Il désigne officiellement Anthropic comme "risque de chaîne d'approvisionnement pour la sécurité nationale", une désignation jusque-là réservée aux entreprises ayant des liens directs avec des puissances étrangères adverses. C'est la première fois dans l'histoire des États-Unis qu'une telle désignation est utilisée contre une entreprise américaine, apparemment en représailles à un désaccord commercial. Quelques minutes plus tard, Trump publie sur Truth Social : "Les fous de la gauche chez Anthropic ont commis une erreur désastreuse en essayant de forcer le département de la Guerre à obéir à leurs Conditions d'utilisation au lieu de notre Constitution." Et dans les heures qui suivent, OpenAI annonce avoir signé l'accord qu'Anthropic avait refusé. ## Pourquoi la signature d'OpenAI est en réalité une défaite ? La rhétorique d'OpenAI est habile. Sam Altman affirme avoir obtenu les mêmes garanties qu'Anthropic réclamait, simplement formulées différemment. Plutôt que d'inscrire des interdictions explicites dans le contrat, OpenAI a choisi de s'appuyer sur les lois américaines existantes et sur les politiques internes du département de la Défense pour encadrer les usages. Il dit avoir mis les lignes rouges "dans notre accord" tout en autorisant le Pentagone à utiliser ses modèles "pour toutes finalités licites". Le problème, c'est que ces deux affirmations sont difficiles à réconcilier, et c'est précisément ce que pointe la MIT Technology Review. L'analyse de Jessica Tillipman, doyenne associée en droit des marchés publics à l'université George Washington, est particulièrement éclairante. L'extrait de contrat rendu public par OpenAI ne donne pas à l'entreprise un droit indépendant d'interdire des usages qui seraient par ailleurs légaux. Il se contente d'indiquer que le Pentagone ne peut pas utiliser la technologie OpenAI pour violer les lois et politiques actuellement en vigueur. C'est une nuance capitale. Car la légalité de pratiques comme la surveillance de masse a historiquement été une question d'interprétation : les programmes révélés par Edward Snowden avaient été jugés "légaux" par les agences internes concernées avant d'être déclarés illicites des années plus tard, après de longues batailles judiciaires. Parier que le gouvernement respectera automatiquement la loi est une position naïve au mieux, opportuniste au pire. Altman lui-même a reconnu le problème d'image en termes frappants de franchise : "Je pense que ça donnait l'impression d'être opportuniste et bâclé." Il a admis que le deal avait été "définitivement précipité" et qu'il "n'aurait pas dû se dépêcher" à ce point. Cette autocritique publique est rare dans l'industrie tech et révèle l'ampleur du malaise interne. Selon des sources rapportées par Bloomberg, des employés d'OpenAI eux-mêmes auraient exprimé leur désaccord avec la décision, certains allant jusqu'à signer une lettre ouverte avec plus de 700 personnes issues de différentes entreprises tech, appelant à la retenue dans les partenariats militaires impliquant la surveillance ou l'autonomie létale. > *"Anthropic seemed more focused on specific prohibitions in the contract, rather than citing applicable laws, which we felt comfortable with."* — Sam Altman, CEO d'OpenAI, sur X (Twitter), 1er mars 2026 Cette citation est à double tranchant. Elle suggère qu'OpenAI a choisi la flexibilité contractuelle là où Anthropic préférait la rigueur juridique. Aux yeux des experts en droit des contrats publics, c'est exactement le problème. Une interdiction contractuelle explicite crée une obligation opposable, un recours en cas de violation. Une simple référence aux lois existantes laisse la porte ouverte à des réinterprétations futures, à des glissements progressifs, à des usages que personne n'avait officiellement autorisés mais que personne n'avait formellement interdits non plus. ## Quel est le vrai bilan comparatif des deux approches contractuelles ? Pour comprendre la différence entre la position d'Anthropic et celle d'OpenAI, voici un tableau comparatif des deux stratégies de négociation face au Pentagone. | Critère | Anthropic | OpenAI | |---|---|---| | Contrat signé ? | Non | Oui (27 février 2026) | | Valeur du contrat | Jusqu'à 200M$ (perdu) | Remplacement du contrat Anthropic | | Interdiction surveillance de masse | Exigée contractuellement | Référence aux lois en vigueur | | Interdiction armes autonomes | Exigée contractuellement | Référence aux directives DoD 2023 | | Déploiement | Refusé sans garanties | Cloud uniquement, personnel OpenAI sur place | | Désignation gouvernementale | "Supply Chain Risk" | Partenaire stratégique | | Recours juridique en cas d'abus | Fort (clauses explicites) | Faible (renvoi aux lois existantes) | | Réaction publique (App Store) | +1 position (n°1) | -1 position (n°2) | | Croissance utilisateurs (jan–mars 2026) | +60% utilisateurs gratuits, daily sign-ups x4 | Backlash mesurable, campagne #CancelChatGPT | | Position benchmark Arena.ai | Claude Opus 4.6 : 1er | GPT-5.2 : 2e | Ce tableau révèle une asymétrie saisissante. Anthropic perd un contrat de 200 millions de dollars mais gagne quelque chose de bien plus précieux à long terme : la confiance des utilisateurs et le positionnement comme le laboratoire d'IA le plus sérieux sur les questions d'éthique. OpenAI gagne un contrat mais doit immédiatement le réviser, son CEO doit se justifier publiquement, et des centaines de milliers d'utilisateurs se tournent vers le concurrent qu'ils viennent d'aider à humilier. ## Quelle est l'ampleur de la migration des utilisateurs vers Claude ? Les données sont spectaculaires et documentées. Le 1er mars 2026, Claude d'Anthropic prend la première place dans les téléchargements gratuits de l'App Store américain d'Apple, détrônant ChatGPT. Ce n'est pas anodin : avant les publicités du Super Bowl d'Anthropic (qui se moquaient justement du choix d'OpenAI d'intégrer des publicités dans ChatGPT), Claude était classé 42e. Depuis, l'application est restée dans le top 10. Le contrat militaire d'OpenAI l'a propulsée en première position. Sur le Google Play Store, au 2 mars, Claude était classé 5e alors que ChatGPT se maintenait à la 2e place, une configuration encore favorable à OpenAI mais radicalement différente d'il y a quelques semaines. Sur Reddit, un post intitulé "Cancel and Delete ChatGPT!!!" a cumulé 30 000 votes positifs en quelques heures. Des guides de migration de ChatGPT vers Claude ont été massivement partagés sur X et dans les communautés tech, avec des instructions pas à pas pour supprimer son compte ChatGPT, exporter ses données et reconfigurer ses préférences dans Claude. TechCrunch a même publié un article officiel de migration. Les chiffres internes confirmés par Anthropic sont encore plus impressionnants. Depuis le début de l'année 2026, les utilisateurs gratuits actifs sur Claude ont augmenté de plus de 60%, et les inscriptions quotidiennes ont quadruplé. Les abonnements payants ont plus que doublé en quelques semaines, battant des records absolus chaque jour selon des sources internes. Ces chiffres ne sont pas uniquement liés à la controverse Pentagon : ils reflètent aussi la sortie de Claude Opus 4.6 début février 2026, qui a pris la tête du benchmark Artificial Analysis, dépassant GPT-5.2 de OpenAI et Gemini de Google. Mais la controverse militaire a clairement agi comme accélérateur massif de notoriété et de conversion. Plus de 700 employés de grandes entreprises tech ont signé une lettre ouverte appelant à la retenue dans le déploiement de l'IA pour des usages militaires impliquant la surveillance ou l'autonomie létale. Cette mobilisation montre que la question dépasse le simple positionnement marketing : elle touche à des valeurs profondes chez les professionnels de la tech, un public que les deux entreprises cherchent activement à recruter. ## Quelles sont les implications stratégiques pour les entreprises qui utilisent l'IA ? Cet épisode dépasse largement la guerre de clans entre deux startups de la Silicon Valley. Il pose une question fondamentale que chaque organisation déployant de l'IA doit se poser : quelle est la valeur de la confiance dans un écosystème IA, et comment la mesure-t-on ? Du côté d'Anthropic, la stratégie est cohérente depuis la fondation de l'entreprise en 2021 par d'anciens membres d'OpenAI, dont Dario Amodei lui-même, qui avaient quitté la structure mère précisément en raison de désaccords sur la direction stratégique. La thèse fondatrice d'Anthropic est que la sécurité et la performance ne sont pas des objectifs contradictoires mais complémentaires. Les événements de cette semaine constituent peut-être la validation empirique la plus forte de cette thèse à ce jour. Du côté d'OpenAI, la situation est plus complexe. La société vient de lever 110 milliards de dollars dans un tour de table qui la valorise à 730 milliards, avec Amazon, Nvidia et SoftBank comme investisseurs. Elle a des engagements colossaux en termes de capital dépensé (CAPEX), notamment pour l'infrastructure de calcul du projet Stargate. Dans ce contexte, les contrats gouvernementaux ne sont pas une option tactique mais une nécessité financière. Le contrat Pentagon est peut-être économiquement rationnel pour OpenAI malgré ses coûts réputationnels, car les revenus des administrations publiques représentent une source de revenus récurrents à haute visibilité qui plaît aux investisseurs pré-IPO. Mais c'est précisément ce calcul que les utilisateurs semblent rejeter. Les communautés tech ne sont pas naïves : elles comprennent que la pression des investisseurs peut déformer les priorités d'une entreprise. Et quand Sam Altman reconnaît publiquement avoir précipité un deal militaire la même nuit que des frappes aériennes américano-israéliennes sur l'Iran, le signal devient difficile à ignorer. Pour les DSI (Directeurs des Systèmes d'Information) et les responsables techniques qui déploient des outils IA en entreprise, cet épisode est aussi un rappel pratique. Le choix d'un fournisseur d'IA n'est plus seulement une décision technique fondée sur les benchmarks de performance ou la disponibilité de l'API. C'est un choix de gouvernance, une déclaration sur les valeurs de l'organisation, et potentiellement un enjeu de conformité réglementaire, notamment dans les secteurs soumis au RGPD, à l'AI Act européen, ou dans les entreprises ayant des engagements RSE formalisés. Pour monter en compétence sur ces questions cruciales de gouvernance et de déploiement responsable de l'IA, c'est exactement le sujet traité dans notre formation [Optimiser son poste de travail à l'aide de l'Intelligence Artificielle](https://www.travelearn.fr/formation/ia-optimiser-poste-travail), qui aborde les enjeux pratiques, éthiques et techniques de l'intégration de l'IA en contexte professionnel. ## Que nous dit cet épisode sur l'avenir de la régulation de l'IA militaire ? L'affaire Anthropic-Pentagon révèle une tension structurelle qui ne se résoudra pas avec un seul contrat ou un tweet de Sam Altman. Elle met en lumière un vide réglementaire dangereux : il n'existe pas, à l'heure actuelle, de cadre légal clair et opposable aux États-Unis encadrant les conditions dans lesquelles un fournisseur d'IA peut refuser un usage militaire de ses modèles. Le gouvernement américain a pu utiliser la désignation "supply chain risk" normalement réservée aux entreprises liées à des États adversaires, comme la Chine ou la Russie, contre une startup américaine de San Francisco. C'est un précédent troublant. En Europe, la situation est différente, grâce à l'AI Act entré en vigueur progressivement depuis 2024. Ce règlement classe les systèmes d'IA par niveau de risque et impose des contraintes strictes aux applications "à haut risque", incluant certains usages en matière de sécurité et de maintien de l'ordre. Les armes autonomes létales et la surveillance de masse y font l'objet de dispositions spécifiques, même si le champ militaire reste partiellement hors périmètre. Cela explique en partie pourquoi le débat est particulièrement intense aux États-Unis, où le vacuum législatif est béant. La désignation d'Anthropic comme "risque de chaîne d'approvisionnement" pourrait être contestée en justice avec de bonnes chances de succès, selon plusieurs experts en droit des marchés publics. Anthropic a d'ailleurs annoncé son intention de contester cette désignation devant les tribunaux. Le précédent serait majeur : si un tribunal fédéral juge que cette désignation était illégale, elle constituerait une forme de coercition commerciale inconstitutionnelle, ce qui ouvrirait la voie à une jurisprudence protégeant les entreprises tech contre les pressions gouvernementales de ce type. Dans ce contexte d'incertitude juridique, les professionnels de l'IA qui souhaitent naviguer intelligemment entre performance technique et responsabilité éthique ont un besoin urgent de formation solide. Comprendre les cadres réglementaires, évaluer les risques contractuels liés aux usages de l'IA, et définir une politique de gouvernance interne robuste sont des compétences qui font la différence entre une organisation exposée et une organisation résiliente. ## Ce que les professionnels de l'IA doivent retenir L'épisode OpenAI-Anthropic-Pentagon est une masterclass en stratégie de positionnement et en gestion du risque réputationnel à l'ère de l'IA. Anthropic a perdu un contrat de 200 millions de dollars. Mais l'entreprise a gagné quelque chose de bien plus difficile à quantifier et à reproduire : la crédibilité. Dans un secteur où la confiance est le seul actif vraiment défendable à long terme, c'est un avantage concurrentiel d'une valeur inestimable. OpenAI, de son côté, a démontré que même la startup la mieux capitalisée du monde peut commettre des erreurs de jugement lorsqu'elle est soumise à une combinaison de pression temporelle, d'incitation financière et de contexte politique explosif. Sam Altman a lui-même résumé la situation avec une honnêteté désarmante : les optics n'étaient pas bons, le timing était mauvais, et le deal aurait dû être mieux pensé. La révision du contrat annoncée le 3 mars, avec l'ajout de clauses explicites sur la surveillance, ressemble à une tentative de rattrapage qui confirme rétrospectivement la position initiale d'Anthropic. Pour les entreprises et les professionnels qui déploient des outils IA au quotidien, la leçon est claire. L'ère de l'adoption naïve de l'IA, où il suffisait de choisir le modèle le plus performant sur les benchmarks publics, est révolue. La question du fournisseur est désormais inséparable de la question des valeurs, de la gouvernance et du cadre éthique dans lequel ces outils opèrent. C'est pourquoi la montée en compétence sur ces sujets n'est plus optionnelle pour les équipes tech et les décideurs. Notre formation [Optimiser son poste de travail à l'aide de l'Intelligence Artificielle](https://www.travelearn.fr/formation/ia-optimiser-poste-travail), certifiée Qualiopi, accompagne précisément cette transition vers une utilisation professionnelle, informée et responsable des outils IA. --- ## Sources - [MIT Technology Review — OpenAI's 'compromise' with the Pentagon is what Anthropic feared](https://www.technologyreview.com/2026/03/02/1133850/openais-compromise-with-the-pentagon-is-what-anthropic-feared/) - [NPR — OpenAI announces Pentagon deal after Trump bans Anthropic](https://www.npr.org/2026/02/27/nx-s1-5729118/trump-anthropic-pentagon-openai-ai-weapons-ban) - [Fortune — Anthropic's Claude overtakes ChatGPT in App Store](https://fortune.com/2026/03/02/anthropic-claude-dario-amodei-number-one-app-store-openai-chatgpt-sam-altman-department-war/) - [Axios — Anthropic got blacklisted by the Pentagon. Then Claude hit No. 1 in the app store.](https://www.axios.com/2026/03/01/anthropic-claude-chatgpt-app-downloads-pentagon) - [CNBC — OpenAI's Altman admits defense deal 'looked opportunistic and sloppy'](https://www.cnbc.com/2026/03/03/openai-sam-altman-pentagon-deal-amended-surveillance-limits.html)