🔓 Claude Mythos : ce que le leak d'Anthropic révèle vraiment
Un brouillon de billet exposé sur internet révèle Claude Mythos, modèle au-delà d'Opus avec des capacités cyber inédites. Anthropic confirme et s'explique.
Date : 2026-03-28
Tags : Anthropic, Claude, LLM, Cybersécurité, Gouvernance IA

*Dario Amodei, CEO d'Anthropic. Crédits : Samyukta Lakshmi, Bloomberg/Getty Images via Fortune.*
Le 26 mars 2026, une erreur de configuration dans le système de gestion de contenu d'Anthropic a exposé environ 3 000 ressources non publiées à qui voulait les trouver. Parmi elles : un brouillon de billet de blog annonçant un nouveau modèle d'IA baptisé Claude Mythos, décrit comme "de loin le modèle d'IA le plus puissant jamais développé par l'entreprise." Ce n'est pas Anthropic qui a choisi de partager l'information. C'est la journaliste Beatrice Nolan, de Fortune, qui a découvert le cache, accompagnée des chercheurs en cybersécurité Roy Paz (LayerX Security) et Alexandre Pauwels (Université de Cambridge).
Le résultat : Anthropic a confirmé l'existence du modèle sous la pression, qualifiant la fuite d'"erreur humaine" dans la configuration de son CMS. Rarement un lancement non officiel aura fait autant de bruit.
## Qu'est-ce que Claude Mythos (et Capybara) ?
Les documents exposés révèlent deux noms pour ce qui semble être le même modèle. "Mythos" est le nom commercial du modèle, "Capybara" désigne la nouvelle catégorie de modèle qu'il inaugure. Selon le brouillon, Capybara représente un palier supérieur à la ligne Opus, qui était jusqu'ici le sommet de la gamme Anthropic. La hiérarchie actuelle compte trois niveaux : Haiku (petit et rapide), Sonnet (équilibré), Opus (le plus puissant). Capybara viendrait s'y ajouter comme quatrième tier, plus cher, plus lent à servir, mais significativement plus capable.
Le document indique que comparé à Claude Opus 4.6, Capybara affiche des scores "dramatiquement supérieurs" dans les tests de programmation logicielle, de raisonnement académique et de cybersécurité. Anthropic reconnaît dans son communiqué post-leak que le modèle constitue "un saut qualitatif" et qu'il est "le plus capable jamais développé à ce jour."
Le nom Mythos a été choisi, selon le brouillon, pour évoquer "le tissu connectif profond qui relie la connaissance et les idées" ; une métaphore qui illustre l'ambition d'un modèle capable de raisonner à travers des domaines complexes et hétérogènes.
| Niveau | Nom | Statut | Caractéristique principale |
|--------|-----|--------|---------------------------|
| 1 | Haiku | Disponible | Rapide, économique |
| 2 | Sonnet | Disponible | Équilibré |
| 3 | Opus | Disponible (4.6) | Puissant, précis |
| 4 | Capybara / Mythos | En test early access | Au-delà d'Opus, coûteux |
## Pourquoi Anthropic est-il aussi prudent sur le déploiement ?
C'est la partie la plus sérieuse du leak. Le brouillon interne est explicite : Claude Mythos est "actuellement très en avance sur tout autre modèle d'IA en matière de capacités cybersécurité" et "annonce une vague imminente de modèles capables d'exploiter des vulnérabilités d'une manière qui dépasse largement les efforts des défenseurs."
En clair : Anthropic possède un modèle qui, selon ses propres évaluations internes, pourrait être détourné pour automatiser des cyberattaques à grande échelle. Ce n'est pas une hypothèse théorique : l'entreprise a déjà documenté un cas réel en novembre 2025, où un groupe lié à l'État chinois avait utilisé Claude Code pour infiltrer une trentaine d'organisations, dont des institutions financières et des agences gouvernementales, avant qu'Anthropic ne détecte l'opération et ferme les comptes impliqués.
La stratégie de déploiement annoncée dans le brouillon est donc délibérément restreinte. Accès initial limité à quelques clients early access via l'API Claude. Priorité donnée aux organisations spécialisées dans la cyberdéfense, pour leur permettre de renforcer leurs bases de code avant l'arrivée d'une génération de modèles offensifs. Pas de lancement grand public tant que le coût d'inférence n'a pas été significativement réduit.
> "Nous développons un modèle généraliste avec des avancées significatives en matière de raisonnement, de codage et de cybersécurité. Compte tenu de la puissance de ses capacités, nous sommes délibérés dans notre façon de le déployer."
> — Porte-parole d'Anthropic, cité par Fortune (26 mars 2026)
Cette prudence contraste avec la façon dont les modèles concurrents ont été lancés. OpenAI, lors de la sortie de GPT-5.3-Codex en février 2026, avait lui aussi évoqué des risques cybersécurité, tout en maintenant un accès API relativement large dès le départ. Le positionnement d'Anthropic sur Mythos est nettement plus défensif, ce qui en dit long sur le niveau réel des capacités jugées sensibles.
Les professionnels qui souhaitent développer une expertise solide sur les agents IA, y compris comprendre leurs modes de supervision et de contrôle, peuvent s'appuyer sur la formation [Automatiser ses workflows et créer des agents IA](https://www.travelearn.fr/formation/automatiser-ses-workflows-et-crer-des-agents-ia) de TraveLearn, qui couvre notamment la conception d'agents autonomes avec logique, outils et supervision humaine.
## Que change ce leak pour l'écosystème IA ?
Au-delà du coup médiatique, ce leak a eu des effets tangibles et immédiats. Les marchés financiers ont réagi rapidement : les actions de Palo Alto Networks, CrowdStrike et Fortinet ont chuté de 4 à 6% à l'annonce, les investisseurs interprétant Mythos comme une menace potentielle pour les acteurs traditionnels de la cybersécurité. L'ETF iShares Tech-Software (IGV) a perdu près de 3% le jour même.
Le timing du leak soulève par ailleurs des questions stratégiques. Bloomberg et The Information ont rapporté le même jour qu'Anthropic envisageait une introduction en bourse dès octobre 2026. L'annonce involontaire d'un modèle "le plus puissant jamais développé" améliore objectivement le dossier de valorisation de l'entreprise, même si personne chez Anthropic n'a voulu revendiquer cet effet.
Il faut aussi noter l'ironie structurelle de la situation : une entreprise qui alerte sur les risques cybersécurité de son propre modèle expose ce même modèle à cause d'une erreur de configuration dans son CMS. La mécanique du leak, une mauvaise valeur par défaut dans un outil tiers qui rend les assets "publics" sauf action explicite de l'utilisateur, est banale. Elle devient extraordinaire quand elle concerne un laboratoire d'IA qui se positionne justement sur la sécurité responsable.
Ce que Mythos révèle en filigrane, c'est que la frontière entre capacités offensives et défensives dans l'IA devient de plus en plus difficile à tracer, et que les laboratoires eux-mêmes peinent parfois à anticiper les conséquences opérationnelles de ce qu'ils construisent.
---
**Sources**
- [Anthropic acknowledges testing new AI model representing 'step change' in capabilities — Fortune (26 mars 2026)](https://fortune.com/2026/03/26/anthropic-says-testing-mythos-powerful-new-ai-model-after-data-leak-reveals-its-existence-step-change-in-capabilities/)
- [Anthropic accidentally leaked details of a new AI model — Fortune (27 mars 2026)](https://fortune.com/2026/03/27/anthropic-leaked-ai-mythos-cybersecurity-risk/)
- [Anthropic leak reveals new model "Claude Mythos" — The Decoder (27 mars 2026)](https://the-decoder.com/anthropic-leak-reveals-new-model-claude-mythos-with-dramatically-higher-scores-on-tests-than-any-previous-model/)
- [Details leak on Anthropic's "step-change" Mythos model — Techzine (27 mars 2026)](https://www.techzine.eu/news/applications/140017/details-leak-on-anthropics-step-change-mythos-model/)
- [Anthropic Just Leaked Upcoming Model — Futurism (27 mars 2026)](https://futurism.com/artificial-intelligence/anthropic-step-change-new-model-claude-mythos)