Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 30 modèles d’IA, avec 0 % de frais supplémentaires
DeepSeek V4 derrière la déstabilisation : la Silicon Valley construit des "murs", la Chine "répare la route"
null
Texte | Alter
Le matin du 24 avril, le DeepSeek V4, longtemps attendu, a enfin révélé sa véritable nature.
Ce jour-là, DeepSeek-V4-Pro a immédiatement dominé le classement des modèles open source sur Hugging Face, avec deux « innovations de niveau nucléaire » largement discutées :
L’une est la capacité de traiter un contexte ultra-long de millions de tokens, mais avec un cache KV seulement 10 % de celui de V3.2, ce qui a été salué par des ingénieurs d’Amazon comme une solution à la pénurie de HBM ;
L’autre concerne l’adaptation aux puces nationales, avec une collaboration étroite avec Huawei lors du développement, et une adaptation immédiate aux puces nationales comme Ascend et Cambricon.
Par coïncidence, le deuxième modèle sur le classement des modèles open source de Hugging Face est Kimi K2.6, publié et open source dans la nuit du 20 avril.
Si l’on se trouve de l’autre côté du Pacifique, la « collision » entre deux modèles de milliards de paramètres ne manquerait pas de donner lieu à des accusations mutuelles sur la valorisation et la domination commerciale, mais en Chine, une scène totalement différente s’est jouée : pas de dévoilement de secrets, pas de guerre de relations publiques sous courant, et même une « reconversion » au niveau technique.
Derrière cette « anomalie », se cache une divergence dans la trajectoire technologique de l’IA entre la Chine et les États-Unis : la Silicon Valley, en pleine frénésie, tente de « construire des murs » pour protéger ses intérêts par des sources fermées ; tandis que les fabricants de grands modèles nationaux choisissent de « démanteler les murs » et de coévoluer sur un terrain open source.
01 La Silicon Valley plongée dans le « jeu de pouvoir »
Contrairement à la voie ouverte et florissante des grands modèles open source en Chine, les leaders de l’IA de la Silicon Valley, tels qu’OpenAI, Anthropic et Google Gemini, sont tous des fervents défenseurs du modèle fermé.
Les innovations technologiques de pointe sont enfermées dans leurs propres centres de données, et face à la pression des coûts de calcul et aux attentes du marché financier, l’esprit de « Silicon Valley » connu pour son ouverture et sa collaboration s’éteint peu à peu, et les acteurs se retrouvent inévitablement dans un « jeu de pouvoir » à somme nulle.
Au cours des deux dernières années, la « guerre secrète » technologique s’est transformée en affrontements publics, la tactique la plus courante étant de « voler la vedette » : lors des moments clés du lancement de nouveaux produits par des concurrents, lancer rapidement une mise à jour majeure pour réduire leur visibilité est devenu une pratique courante en Silicon Valley.
Déjà en mai 2024, OpenAI et Google avaient simultanément lancé de nouveaux produits IA : l’un clamant que GPT-4o était le leader mondial, l’autre affirmant que la famille Gemini couvrait tout l’écosystème et tous les parcours. Les PDG des deux entreprises n’ont pas pu rester silencieux, se lançant des moqueries sur les réseaux sociaux.
Ce n’est pas seulement une « lutte » avec Google, la confrontation entre OpenAI et Anthropic est également devenue féroce : le 16 avril, Anthropic a publié son nouveau modèle Claude Opus 4.7, et deux heures plus tard, OpenAI a annoncé une mise à jour majeure de Codex, avec le slogan « Codex for (almost) tout) ». Il était évident que cette collision temporelle n’était pas fortuite, mais une « contre-attaque » soigneusement planifiée par OpenAI contre Anthropic.
Au-delà des « batailles d’opinion », les « révélations » mutuelles sont également devenues une norme en Silicon Valley.
Le 7 avril, Anthropic a annoncé en grande pompe un revenu annuel de 30 milliards de dollars, dépassant avec succès les 25 milliards d’OpenAI.
Une semaine plus tard, le directeur général des revenus d’OpenAI a déclaré dans une lettre interne à tous les employés que le chiffre d’affaires annuel de 30 milliards de dollars revendiqué par Anthropic était fortement gonflé, car il utilisait la « méthode du total », incluant la totalité des commissions versées à Amazon, Google et autres fournisseurs de services cloud, ce qui gonflait artificiellement le chiffre d’affaires d’environ 8 milliards de dollars.
Cette pratique de dénigrement de l’adversaire dans une lettre interne est rare dans l’industrie technologique, son but étant de montrer aux investisseurs que le mythe de croissance d’Anthropic est artificiel.
Et dès que la hostilité s’intensifie, elle peut infiltrer chaque décision.
Après qu’Anthropic a refusé de supprimer certains clauses de sécurité dans ses contrats avec le Pentagone, OpenAI a rapidement annoncé, quelques heures plus tard, avoir conclu un partenariat avec le Département de la Défense américain.
Lors du « Super Bowl » de 2026, Anthropic a diffusé une publicité déclarant : « La publicité entre dans le domaine de l’IA, mais ne touchera pas Claude. » C’était comme une « face-à-face » avec OpenAI, qui venait de commencer à tester ses fonctionnalités publicitaires…
Pourquoi ces « frères » d’autrefois en sont-ils venus à se détester ?
La racine réside dans la logique inhérente au modèle commercial fermé : la survie du modèle fermé repose sur la construction d’un avantage concurrentiel, et cette construction repose sur le blocage de la diffusion technologique et la monopolisation des capacités de production les plus avancées. Ajoutez à cela l’incompatibilité des trajectoires technologiques, la narration des produits opposée, et cela forme naturellement un équilibre de Nash : celui qui « cesse le feu » en premier verra sa narration de marque s’effondrer, et il s’enfoncera davantage dans le bourbier de l’auto-épuisement.
02 L’« évolution co-opérative » dans la camp open source
Revenons à la Chine, où le scénario est tout autre.
Il y a un peu plus d’un an, la sortie de DeepSeek-R1 a freiné la course effrénée des startups de grands modèles, et les « six petits tigres » du grand jeu des grands modèles ont été directement impactés. Contrairement à la Silicon Valley, où les acteurs cherchent à « avaler » tous les concurrents, DeepSeek n’a pas joué le rôle du « requin » qui dévore tout, mais a plutôt agi comme une « vache à lait » pour activer tout l’écosystème chinois des grands modèles, tout le monde a adopté l’open source.
Un exemple direct est la trajectoire de croissance très similaire à celle de DeepSeek, avec le projet Moon Shadow, lancé en 2023 par une petite équipe de startup, avec une structure très réduite mais très dense en talents, et tous fervents de la loi de l’échelle (Scaling Law).
En juillet 2025, Moon Shadow a publié le premier modèle open source de 1 000 milliards de paramètres au monde, Kimi K2, en déclarant dans son rapport technique qu’il utilisait l’architecture MLA open source de DeepSeek. Pour les grands modèles, le cauchemar de la gestion de textes ultra-longs est la limite de la mémoire vidéo, mais l’architecture MLA a révolutionné cela en compressant le cache KV à plus de 93 %, une percée.
Grâce à la « norme industrielle » contribué par DeepSeek, l’équipe de Moon Shadow et d’autres n’ont pas besoin de réinventer la roue, ce qui réduit rapidement le coût de l’inférence.
L’histoire ne s’arrête pas là.
En examinant la documentation technique de DeepSeek V4, on voit une mise à niveau importante : la majorité des modules ont vu leur optimiseur changé d’AdamW à Muon, ce qui a permis une convergence plus rapide et une meilleure stabilité lors de l’entraînement.
Dans la documentation technique de Kimi K2.6, Muon est également mentionné, ayant permis un doublement de l’efficacité pour la même quantité d’entraînement.
Les deux modèles mentionnent l’optimiseur Muon, initialement proposé par le chercheur indépendant Keller Jordan à la fin 2024. La même équipe de Moon Shadow, confrontée aux problèmes d’AdamW, a effectué début 2025 des améliorations clés, ajoutant la décote de poids (Weight Decay), le contrôle RMS, et l’a renommé MuonClip.
Moon Shadow a d’abord validé la stabilité de Muon sur Kimi K2, réalisant un entraînement sans « pic de perte » tout au long du processus. DeepSeek, lors de l’entraînement de son grand modèle V4, a également utilisé cet optimiseur éprouvé.
Il est important de souligner que l’« évolution co-opérative » des grands modèles open source ne mène pas à une homogénéisation, mais à une voie « harmonieuse dans la diversité ».
Par exemple, DeepSeek-V4 se concentre sur le renforcement des capacités fondamentales du modèle, consolidant le plafond de performance des grands modèles open source mondiaux, en fournissant une base de performance comparable aux modèles fermés de pointe ; Kimi K2.6 se spécialise dans l’ingénierie des agents, résolvant le problème de l’exécution autonome à long terme, ouvrant la voie à l’intégration des grands modèles dans des scénarios de production réels.
Tout au long de ce processus, il n’y a pas eu de négociations commerciales prolongées ni de batailles de brevets tendues. Dans la communauté open source, l’innovation technologique circule librement comme de l’eau, et ceux qui font du bon travail sont adoptés par tous.
En puisant dans l’écosystème open source, en complétant mutuellement leurs trajectoires technologiques, les fabricants chinois de grands modèles ont montré au monde une autre possibilité en dehors de la Silicon Valley.
03 Les États-Unis construisent des murs, la Chine construit des routes
Tout en admirant la collaboration open source, il faut faire face à une réalité commerciale.
Actuellement, le revenu annuel d’OpenAI et d’Anthropic dépasse tous deux les 10 milliards de dollars, tandis que le chiffre d’affaires des principaux fabricants chinois de grands modèles vient tout juste de dépasser 100 millions de dollars par an.
La valorisation boursière d’OpenAI est d’environ 880 milliards de dollars, celle d’Anthropic a atteint environ 1 000 milliards, tandis que la nouvelle levée de fonds pour Kimi et DeepSeek valorise respectivement à 18 milliards et 20 milliards de dollars.
Certains affirment que la capitalisation des fabricants chinois est sous-estimée, d’autres pensent que « transformer la réputation technologique en argent comptant » est une étape cruciale pour leur survie. En résumé, la discussion sur le « rapport qualité-prix » de l’open source fait rage.
Pour voir la fin, on peut commencer par la phase de compétition des grands modèles :
La première étape est « la course aux paramètres et aux benchmarks ». Fin avril 2026, cette étape sera probablement terminée, car les scores sur les classements ne se différencient plus substantiellement.
La deuxième étape est « l’optimisation de l’entraînement, la réduction des coûts d’inférence, l’innovation architecturale ». C’est la phase actuelle, une conséquence inévitable de la baisse des coûts de calcul.
La troisième étape sera « la compétition pour les systèmes d’agents, l’écosystème, et les développeurs ». Lorsque les tokens deviennent un « carburant » pour exécuter des tâches, la prospérité de l’écosystème déterminera la survie.
Où en est la position des grands modèles open source en Chine ? Deux données comparatives sont révélatrices.
L’un concerne le coût d’entraînement.
En août 2025, GPT-5 a coûté plus de 500 millions de dollars pour l’entraînement ; en revanche, Kimi K2 Thinking a coûté environ 4,6 millions de dollars ; DeepSeek n’a pas publié le coût d’entraînement de la série V4, mais le modèle V3 a coûté seulement 5,58 millions de dollars… Les fabricants chinois ont utilisé moins d’un dixième des ressources d’OpenAI pour entraîner des modèles de niveau équivalent.
L’autre concerne le volume d’appels.
Après 2026, selon la plateforme multi-modèles OpenRouter, sous l’impulsion des produits Agent comme OpenClaw, la consommation mondiale de tokens a connu une croissance exponentielle, et la « Dream Team » open source chinoise, grâce à sa réputation de « pratique et économique », dépasse en volume d’appels les États-Unis depuis plusieurs semaines.
La raison est simple.
L’écosystème open source chinois a déjà mis en place un « cercle vertueux de rétroaction positive » : une entreprise open source ses technologies de base, une autre l’adopte et l’optimise, puis partage ses résultats et expériences avec tout l’écosystème. Si l’évolution des modèles fermés repose sur une croissance linéaire alimentée par une puissance de calcul massive, l’open source promet une diffusion exponentielle par collision d’innovations technologiques.
Selon un rapport de Morgan Stanley, entre 2025 et 2030, la consommation de tokens pour l’inférence IA en Chine connaîtra un taux de croissance annuel composé d’environ 330 %, passant de 10 000 milliards de tokens en 2025 à 3 900 000 milliards en 2030, soit une croissance de 370 fois.
Autrement dit, 2026 est encore le début de l’explosion IA, et dans les cinq prochaines années, il y aura encore des opportunités de croissance de plusieurs centaines de fois, loin d’être la fin de l’histoire.
Cette confiance dans les opportunités à long terme, alors que les géants de la Silicon Valley construisent des murs, pousse les fabricants chinois de grands modèles à renforcer leur chemin vers l’AGI par une coopération complémentaire.
04 En conclusion
Qui sera le dernier à rire dans cette vague IA tumultueuse ? La réponse concerne non seulement les modèles, mais aussi la maîtrise autonome des capacités de calcul. Si l’on compare le modèle à une « bombe atomique », alors la puissance de calcul nationale chinoise, libérée des blocages technologiques externes, serait comme une « fusée » envoyant la bombe dans les airs.
Heureusement, l’intégration des modèles chinois et des capacités de calcul nationales devient de plus en plus étroite : dans la documentation technique de DeepSeek V4, le NPU de Huawei Ascend et le GPU de Nvidia sont listés côte à côte dans la liste de vérification matérielle ; dans leur dernier article, Moon Shadow a fait fonctionner la pré-remplissage et le décodage de l’inférence du grand modèle sur des puces différentes, ouvrant la voie à une participation massive des puces nationales à l’inférence de modèles.
Au début de 2025, DeepSeek R1 a permis aux grands modèles chinois d’accéder à la scène ; en 2026, l’écosystème chinois des grands modèles open source continue de créer de nouvelles règles du jeu grâce à une coopération active.