Huang Ren-Hui GTC2026 Discours complet : La demande d'IA atteint des milliers de milliards de dollars, la puissance de calcul augmente de 350 fois, OpenClaw transforme chaque entreprise en AaaS

動區BlockTempo
FET12,38%

Le PDG de NVIDIA, Jensen Huang, a annoncé lors du GTC 2026 « une demande d’au moins 1 000 milliards de dollars d’ici 2027 », et a esquissé la feuille de route de NVIDIA pour la prochaine décennie en utilisant des concepts tels que l’usine de tokens, le volant CUDA, le système monster Vera Rubin, et le système d’exploitation intelligent OpenClaw.
(Précédemment : Jensen Huang lors de son discours au GTC évoque « DLSS 5, NemoClaw » qui enflamme l’IA : FET +20 %, NEAR, Worldcoin atteignent des sommets récents)
(Contexte supplémentaire : Le ministère chinois de la Sécurité nationale met en garde contre « l’élevage de homards » : OpenClaw comporte quatre mines antipersonnel, votre appareil pourrait être pris en otage)

Table des matières

Toggle

  • Introduction : L’effet volant CUDA de vingt ans
  • Économie de l’usine de tokens : les centres de données ne stockent plus de fichiers, ils produisent des tokens
  • Vera Rubin : 350 fois en deux ans, ce n’est pas la loi de Moore, c’est une autre courbe
  • La véritable intention de l’acquisition de Groq : rendre plus rapide ce qui est déjà rapide, et plus cher ce qui est déjà cher
  • DLSS 5 : l’ère de la graphisme atteint son propre moment GPT
  • OpenClaw : le système d’exploitation de l’ère des agents intelligents
  • L’avenir où chaque ingénieur dispose d’un budget de tokens
  • IA physique et armée de robots
  • La prochaine génération : architecture Feynman + centre de données spatial

Le 16 mars 2026, lors de l’ouverture du GTC, Jensen Huang a prononcé une phrase qui a plongé l’auditoire dans le silence : « L’année dernière, j’ai parlé d’une demande de 500 milliards de dollars avec une forte confiance. Maintenant, à cet instant précis, je vois un chiffre d’au moins 1 000 milliards de dollars. Et je suis certain que la demande réelle est encore plus élevée. »

À la suite de cette déclaration, le cours de l’action NVIDIA a augmenté de plus de 4,3 % ce jour-là. Mais Jensen Huang ne se contente pas de donner des chiffres : il a passé tout son discours à expliquer d’où venait ce trillion de dollars et pourquoi ce n’était pas encore suffisant.

Introduction : L’effet volant CUDA de vingt ans

Le point de départ de tout le discours est l’activité principale de NVIDIA — CUDA. Cette année marque le 20e anniversaire de CUDA, que Jensen Huang décrit comme la « logique stratégique à 100 % » de NVIDIA.

En termes simples : CUDA est la technologie qui permet aux développeurs d’écrire des programmes pour GPU. Lorsqu’elle est apparue il y a vingt ans, personne n’était sûr de son succès, mais NVIDIA a mis la majorité de ses ressources pour la soutenir. Aujourd’hui, cette décision a permis à NVIDIA de bâtir une barrière quasi infranchissable — des centaines de millions de GPU exécutant CUDA à travers le monde, des dizaines de milliers de projets open source en dépendant, et tous les fournisseurs de cloud l’intégrant.

Jensen Huang qualifie cela d’« effet volant » : grande capacité d’installation → attirer les développeurs → création de nouveaux algorithmes → percées algorithmiques ouvrant de nouveaux marchés → expansion du parc d’installations → effet volant qui tourne encore. Mieux encore, NVIDIA continue d’optimiser ses logiciels, et même six ans après, la génération Ampere voit ses prix de location dans le cloud augmenter — car les applications qui y tournent deviennent de plus en plus nombreuses et précieuses.

Économie de l’usine de tokens : les centres de données ne stockent plus de fichiers, ils produisent des tokens

C’est le concept central de ce discours, et la clé pour comprendre ce trillion de dollars.

En résumé : autrefois, les centres de données étaient des « entrepôts » pour stocker fichiers et données ; à l’avenir, ils seront des « usines » pour produire l’unité de base de l’IA — le token (comprenez la plus petite unité de pensée et de parole de l’IA).

Jensen Huang explique que chaque centre de données est limité par sa consommation électrique : une usine de 1 GW ne pourra jamais devenir 2 GW, c’est une loi physique. La question clé devient donc : avec la même quantité d’électricité, qui peut produire le plus de tokens ? Celui qui a le meilleur rendement par watt, et donc le coût de production le plus faible, gagne.

Les tokens seront aussi tarifés par couches, comme en classe affaires ou en classe économique :

  • Niveau gratuit (haute capacité, faible vitesse)
  • Niveau intermédiaire (environ 3 dollars par million de tokens)
  • Niveau avancé (environ 6 dollars par million de tokens)
  • Niveau ultra-rapide (environ 45 dollars par million de tokens)
  • Niveau hyper-rapide (environ 150 dollars par million de tokens)

Autrement dit, avec une même GPU, Jensen Huang conseille d’allouer sa puissance à différents niveaux de service — plus la capacité et la vitesse sont élevées, plus on peut gagner d’argent. Son estimation : par rapport à l’architecture Hopper précédente, le nouveau système Grace Blackwell peut générer cinq fois plus de revenus pour la même puissance.

Vera Rubin : 350 fois en deux ans, ce n’est pas la loi de Moore, c’est une autre courbe

Jensen Huang indique qu’il pourrait exhiber une puce de la génération Hopper, mais pour Vera Rubin, c’est tout un système.

Les chiffres parlent d’eux-mêmes : dans un centre de 1 GW, la vitesse de génération de tokens est passée de 22 millions par seconde à 700 millions par seconde, soit une augmentation de 350 fois en deux ans. En comparaison, la loi de Moore ne permet qu’un facteur d’environ 1,5.

Ce système monstrueux ? Vera Rubin est entièrement liquide refroidi, éliminant totalement les câbles traditionnels. Ce qui prenait deux jours pour être installé, ne prend plus que deux heures. Microsoft Azure a confirmé que la première installation Vera Rubin est en service.

La véritable intention de l’acquisition de Groq : rendre plus rapide ce qui est déjà rapide, et plus cher ce qui est déjà cher

L’intégration de la technologie Groq par NVIDIA ne vise pas à remplacer ses GPU, mais à faire du « partitionnement asymétrique pour l’inférence » — en termes simples : décomposer la tâche d’inférence IA en deux étapes, en utilisant l’outil le plus adapté à chaque étape.

Les puces Groq se distinguent par leur SRAM haute vitesse (500 Mo), très réactif mais de petite taille, idéale pour la dernière étape de génération de tokens. La puce Vera Rubin dispose d’une mémoire importante (288 Go), adaptée aux calculs massifs en amont et au cache.

NVIDIA relie ces deux éléments avec le logiciel Dynamo : la « pré-remplissage » et le mécanisme d’attention pour le décodage sont confiés à Vera Rubin, tandis que la génération de tokens très sensible à la latence est déléguée à Groq. Les deux sont connectés via Ethernet, réduisant la latence globale d’environ la moitié.

Jensen Huang donne aussi une recommandation de configuration : si le travail est principalement à haute capacité, utiliser 100 % Vera Rubin ; si beaucoup de génération de code à haute valeur, réserver environ 25 % de la capacité du centre pour Groq. La puce LP30 de Groq, fabriquée par Samsung, sera en production en troisième trimestre.

DLSS 5 : l’ère du rendu neural

Jensen Huang explique qu’il y a dix ans, GeForce a introduit l’IA dans le grand public, et maintenant l’IA va à son tour transformer la graphisme. Il appelle cette nouvelle technologie « Neural Rendering » (rendu neuronal), ou DLSS 5.

L’idée centrale : combiner la géométrie 3D déterministe (structurée, contrôlable) avec la beauté probabiliste de l’IA générative. La structure garantit la contrôlabilité, l’IA la beauté. Jensen Huang affirme que cette fusion « structure + IA générative » sera répétée dans de nombreux secteurs.

OpenClaw : le système d’exploitation de l’ère des agents intelligents

Peter Steinberger a développé OpenClaw, que Jensen Huang qualifie de « projet open source le plus populaire de l’histoire, dépassant en quelques semaines les trente ans de succès de Linux ».

En termes simples : OpenClaw permet aux agents IA de gérer les ressources, d’appeler des outils, de lire et écrire des fichiers, d’exécuter des tâches planifiées, et de décomposer de gros problèmes en sous-tâches pour des sous-agents — comme un système d’exploitation pour faire fonctionner des programmes humains, OpenClaw fait fonctionner des agents IA dans votre environnement IT d’entreprise.

Jensen Huang déclare : « Chaque SaaS deviendra une AaaS. » Autrement dit, les logiciels ne vendront plus seulement des outils, mais des services d’agents IA capables de faire le travail pour vous.

Mais en entreprise, cela pose un problème : les agents peuvent accéder à des données sensibles, exécuter du code, ce qui doit être strictement contrôlé. NVIDIA a lancé NeMo Claw, un design de référence d’entreprise, avec un moteur de stratégie et un routeur de confidentialité, pour assurer une mise en œuvre sécurisée dans l’entreprise.

Chaque ingénieur aura un budget de tokens à l’avenir

Jensen Huang prévoit une évolution concrète du marché du travail : « À l’avenir, chaque ingénieur dans une entreprise disposera d’un budget annuel de tokens. Leur salaire pourrait atteindre plusieurs centaines de milliers de dollars, et on leur donnera un quota de tokens équivalent à la moitié de leur salaire, pour multiplier leur productivité par dix. La quantité de tokens allouée à leur embauche deviendra un sujet de recrutement clé à Silicon Valley. »

Ce n’est pas une métaphore : il voit cela comme la nouvelle norme de compétitivité des entreprises. Plus un ingénieur dispose de puissance de calcul, plus il pourra créer de valeur. Chaque entreprise sera à la fois utilisatrice et productrice de tokens.

IA physique et armée de robots

Jensen Huang évoque que l’intelligence numérique évolue dans le monde virtuel, tandis que l’IA physique, incarnée par des robots, devient une réalité tangible. Lors de ce GTC, 110 robots ont été présentés, représentant presque toutes les entreprises de robotique mondiales.

Dans le domaine de la conduite autonome, Jensen Huang annonce que BYD, Hyundai, Nissan et Geely rejoignent la plateforme RoboTaxi Ready de NVIDIA, avec une production annuelle combinée de 18 millions de véhicules, en plus des partenaires comme Mercedes, Toyota et GM. NVIDIA a aussi annoncé une collaboration avec Uber pour déployer et intégrer ces véhicules dans plusieurs villes.

En clôture, le robot Olaf de Disney, utilisant la puce Jetson comme cerveau, a appris à marcher dans l’Omniverse, en utilisant le moteur physique Newton pour s’adapter au monde réel. Jensen Huang a plaisanté : « Je pensais qu’il serait plus grand. Je n’ai jamais vu un si petit bonhomme de neige. »

La prochaine génération : architecture Feynman + centre de données spatial

En clôture, Jensen Huang a « leaké » la prochaine architecture de calcul, Feynman, qui supportera pour la première fois la co-implémentation de la connexion en cuivre et de la photoniquement intégrée (CPO). Plus loin, il évoque « Vera Rubin Space-1 » — un centre de données en orbite, étendant la puissance de calcul IA au-delà de la Terre.

Il a résumé son discours en quatre points : le tournant de l’inférence, l’ère des usines d’IA, la révolution des agents OpenClaw, la mise en œuvre à grande échelle de l’IA physique. Un trillion de dollars n’est qu’un début.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire