🐋 DeepSeek V4 : génie ou pilleur de génie ?
DeepSeek V4 arrive avec des performances de pointe à prix cassé. Mais Anthropic révèle 16M d'échanges volés via 24 000 faux comptes. Coïncidence ou stratégie ?
Date : 2026-03-04
Tags : IA, DeepSeek, IA Générative, Open Source, Agent IA

Il y a un an, le lancement de DeepSeek R1 avait effacé 593 milliards de dollars de capitalisation boursière de Nvidia en une seule journée. Depuis, tout ce qui sort de ce laboratoire chinois est scruté à la loupe par la Silicon Valley. Et cette semaine, deux informations arrivent en même temps : DeepSeek est sur le point de lancer V4, son modèle le plus puissant à ce jour, et Anthropic, l'entreprise derrière Claude, vient de les accuser d'avoir volé 16 millions d'échanges pour construire ce modèle.
## DeepSeek V4 : c'est quoi, et pourquoi tout le monde en parle ?
DeepSeek V4 n'est pas encore sorti officiellement. Pas de page sur le site de DeepSeek, pas d'annonce en grande pompe. Pourtant, des fuites techniques circulent sur les forums de développeurs depuis début mars, et les benchmarks qui en ressortent sont bluffants. Sur HumanEval, le test de référence pour évaluer un modèle sur du code, V4 obtiendrait 90%. Claude d'Anthropic tourne à 88%. GPT-5.2 est à 80%. Ce serait donc, si les chiffres tiennent, le meilleur modèle de code au monde.
Mais ce qui rend V4 vraiment différent, ce n'est pas ses performances brutes : c'est son prix. Là où Claude coûte environ 15 dollars par million de tokens traités (un "token", c'est grossièrement un mot), DeepSeek V4 serait facturé autour de 0,27 dollar. On parle d'un rapport de 1 à 55. Pour une entreprise qui intègre de l'IA dans ses processus, c'est une différence qui peut représenter des dizaines de milliers d'euros d'économies annuelles.
| Modèle | Score code (HumanEval) | Coût API estimé ($/1M tokens) | Contexte max |
|---|---|---|---|
| DeepSeek V4 (leaked) | ~90% | ~0,27$ | 1M tokens |
| Claude Opus 4.6 | ~88% | ~15$ | 200K tokens |
| GPT-5.2 | ~80% | ~30$ | 128K tokens |
| Gemini 3.0 Pro | ~75% | ~3,50$ | 1M tokens |
*Benchmarks non vérifiés de manière indépendante au 3 mars 2026. Sources : HumAI, Kilo Code Blog, Awesome Agents.*
La cerise sur le gâteau : V4 devrait être open-source, ce qui signifie que n'importe qui pourra télécharger le modèle, l'héberger sur ses propres serveurs et l'utiliser sans passer par une API tierce. Pour les entreprises soucieuses de la confidentialité de leurs données, et elles sont nombreuses depuis le RGPD, c'est une option sérieuse à mettre sur la table.
## Sauf que... Anthropic vient d'accuser DeepSeek de vol à grande échelle
La semaine dernière, Anthropic a publié un rapport officiel assez explosif. L'entreprise accuse DeepSeek, mais aussi deux autres laboratoires chinois (Moonshot AI et MiniMax), d'avoir organisé une opération systématique pour siphonner les capacités de Claude. La technique utilisée s'appelle la **distillation** : en gros, on entraîne son propre modèle en lui faisant apprendre sur les réponses d'un modèle plus puissant.
C'est une pratique qui existe légitimement dans le monde de l'IA. Le problème, c'est quand on le fait sur le modèle d'un concurrent, sans autorisation, en créant 24 000 faux comptes pour contourner les systèmes de détection. C'est exactement ce qu'Anthropic documente : plus de 16 millions d'échanges générés frauduleusement, répartis sur des milliers de comptes pour passer sous les radars.
> *"Ces campagnes grandissent en intensité et en sophistication. La fenêtre pour agir est étroite, et la menace dépasse toute entreprise ou région particulière."*
>, Anthropic, blog officiel, 23 février 2026
Ce n'était pas du pillage au hasard. DeepSeek ciblait précisément les capacités de raisonnement complexe de Claude, sa manière de décomposer un problème étape par étape, et ses mécanismes d'alignement, c'est-à-dire les garde-fous qui empêchent le modèle de répondre à des requêtes dangereuses. Moonshot AI a quant à lui généré 3,4 millions d'échanges ciblant spécifiquement le code et les agents IA autonomes. Quand Anthropic a sorti une mise à jour de Claude en pleine campagne, MiniMax a pivoté en moins de 24 heures pour extraire les nouvelles capacités du modèle fraîchement mis à jour. Ce niveau de réactivité implique des scripts automatisés, une organisation quasi militaire.
## Deux news, une seule question : peut-on faire confiance aux modèles open-source ?
La coïncidence est troublante. V4 sort quelques semaines après que DeepSeek aurait massivement aspiré les capacités de Claude. Les forces supposées de V4 (raisonnement, code, agents) correspondent exactement aux domaines ciblés par les campagnes d'extraction. Anthropic ne fait pas le lien explicitement dans son communiqué, mais difficile de ne pas y penser.
Ce que cette affaire révèle surtout, c'est un angle mort dans l'enthousiasme général autour des modèles open-source : télécharger et utiliser un modèle ne dit rien sur la manière dont il a été construit. Un modèle distillé illicitement depuis un modèle aligné ne conserve pas automatiquement ses garde-fous éthiques. Les performances peuvent être là, mais les comportements de sécurité, eux, peuvent avoir disparu dans la translation.
C'est exactement pour cette raison que comprendre comment fonctionnent les outils IA que l'on utilise, pas juste les utiliser, devient une compétence clé en 2026. La formation [Augmenter sa productivité et créativité à l'aide de l'IA](https://www.travelearn.fr/formation/augmenter-sa-productivit-et-crativit-laide-de-lintelligence-artificielle) de TraveLearn aborde justement les biais, limites et risques des modèles IA, pour que vous puissiez faire des choix éclairés plutôt que de suivre la hype aveuglément.
DeepSeek V4 sera probablement un très bon modèle. Peut-être le meilleur sur certaines tâches, et de très loin le moins cher. Mais avant de l'intégrer dans vos processus, vous méritez de savoir comment il a été fabriqué.
---
## Sources
- [Anthropic, Detecting and Preventing Distillation Attacks](https://www.anthropic.com/news/detecting-and-preventing-distillation-attacks)
- [VentureBeat, Anthropic says DeepSeek used 24,000 fake accounts](https://venturebeat.com/technology/anthropic-says-deepseek-moonshot-and-minimax-used-24-000-fake-accounts-to)
- [TechCrunch, Anthropic accuses Chinese AI labs of mining Claude](https://techcrunch.com/2026/02/23/anthropic-accuses-chinese-ai-labs-of-mining-claude-as-us-debates-ai-chip-exports/)
- [HumAI, DeepSeek V4 Benchmark Leaks](https://www.humai.blog/deepseek-v4-benchmark-leaks-heres-what-the-numbers-actually-show/)
- [Overchat AI, DeepSeek 4](https://overchat.ai/models/deepseek-4)