Auf der Nvidia GTC 2026 äußerte sich Jensen Huang selbstbewusst: Viele AI-native Unternehmen sind entstanden, weil Nvidia „die Berechnung neu definiert hat“. Er sagte, wir stehen am Anfang einer neuen Plattformrevolution, ähnlich der Personal-Computer-Revolution. In den letzten zwei Jahren, seit der Einführung von ChatGPT, hat die Ära der generativen KI wirklich begonnen.
Huang zeigte eine entscheidende Folie, die offenbart, dass der globale AI-Rechenleistungsmarkt in eine explosive Wachstumsphase eintritt. Die Grafik zeigt, dass das potenzielle Volumen des globalen Rechenzentrummarktes (TAM) von etwa 500 Milliarden US-Dollar im Jahr 2025 innerhalb eines Jahres auf über 1 Billion US-Dollar ($1T) gestiegen ist und weiterhin wächst. Das zentrale Konzept auf der Folie ist „Inference Inflection“ (推理拐點).
Früher lag der Fokus der KI-Entwicklung hauptsächlich auf dem Trainingsstadium, also dem Lernen der Modelle anhand großer Datenmengen. Mit der Reife großer Modelle beginnt KI jedoch, in verschiedenste Produkte und Dienste integriert zu werden, z.B. Kundenservice, Bildgenerierung und Programmierung. Das bedeutet, dass sich der Marktfokus vom Training auf das Inferenzstadium verschiebt. Wenn Milliarden von Nutzern gleichzeitig Anfragen stellen, Bilder oder Videos generieren, erfordert jede Anfrage Rechenleistung. Diese hochfrequente, latenzarme Rechenanforderung lässt die Nachfrage nach Inferenz-Rechenleistung exponentiell wachsen.
Zu Beginn seiner Rede widmete Huang viel Zeit der Anwendung von Nvidias Software-Stack in verschiedenen Branchen, insbesondere dem CUDA-X-Ökosystem. Er sagte: „Wir sind ein Algorithmus-Unternehmen.“ Er betonte, dass die Umsetzung von KI nicht nur durch generative KI erfolgt. „GenAI an die Wand zu werfen, um zu sehen, ob es funktioniert, ist keine Strategie.“ Er ist der Ansicht, dass die Herausforderungen in den verschiedenen Branchen stark variieren, weshalb Nvidia domain-specific libraries (branchenspezifische Bibliotheken) entwickeln muss.
Inference-拐點:全球資料中心規模走向一兆美元
Auf der Hauptrede der Nvidia GTC 2026 präsentierte Huang eine entscheidende Folie, die zeigt, dass der globale AI-Rechenleistungsmarkt in eine explosive Wachstumsphase eintritt. Das potenzielle Volumen des weltweiten Rechenzentrummarktes (TAM) ist von etwa 500 Milliarden US-Dollar im Jahr 2025 innerhalb eines Jahres auf über 1 Billion US-Dollar ($1T) gestiegen und wächst weiter.
Das zentrale Konzept auf der Folie ist „Inference Inflection“ (推理拐點). Früher lag der Fokus der KI-Entwicklung auf dem Training, also dem Lernen der Modelle anhand großer Datenmengen. Mit der Reife großer Modelle beginnt KI, in verschiedenste Produkte und Dienste integriert zu werden, z.B. Suchmaschinen, Kundenservice, Bildgenerierung und Programmierung. Der Markt verschiebt sich somit vom Training zum Inferenzstadium.
Wenn Milliarden von Nutzern gleichzeitig Anfragen stellen, Bilder oder Videos generieren, braucht jede Anfrage Rechenleistung. Diese hochfrequente, latenzarme Rechenanforderung lässt die Nachfrage nach Inferenz-Rechenleistung exponentiell wachsen und gilt als treibende Kraft für den trillionen-Dollar-Markt für AI-Rechenzentren.
Auf der rechten Seite der Folie ist die Marktstruktur dargestellt: Derzeit stammen die meisten AI-Rechenanforderungen von zwei Kundengruppen. Rund 60 % der Nachfrage kommen von hyperscalern Cloud-Anbietern und AI-native Unternehmen, darunter:
Amazon Web Services
Google Cloud
Microsoft
sowie von AI-Model-Entwicklern:
OpenAI
Anthropic
xAI
Die restlichen 40 % der Nachfrage kommen aus neuen, von Nvidia in den letzten Jahren betonten Bereichen, darunter Sovereign AI (Souveräne KI), Industrie- und Unternehmenseinsatz. Souveräne KI bedeutet, dass Regierungen eigene KI-Infrastrukturen aufbauen, die auf ihrer Sprache, Kultur und Daten basieren. Beispiele sind:
Aufbau nationaler KI-Supercomputer
Training lokaler Sprachmodelle
Schaffung nationaler Datenhoheit
Auch traditionelle Branchen setzen zunehmend auf KI, etwa:
Automobil- und Autonomes Fahren
Fertigung und intelligente Fabriken
Medizinische Bildanalyse
Finanzrisikomodelle
In der Mitte der Folie sind die wichtigsten aktuellen AI-Modelle wie ChatGPT, Gemini, Grok und diverse Open-Source-Modelle aufgeführt. Besonders hervorgehoben werden Anthropic und Meta Superintelligence Labs als aufstrebende Kräfte nach 2025, was die rasche Expansion des Wettbewerbs um KI-Modelle zeigt.
GTC 2026 Huang Huang: Nvidia ist im Wesentlichen ein „Algorithmus-Unternehmen“
Huang widmete einen großen Teil seiner Rede der Anwendung von Nvidias Software-Stack in verschiedenen Branchen, von Medizin, Fertigung, Finanzen bis hin zu Cloud-Computing. Er betonte, dass alle Fähigkeiten letztlich auf das CUDA-X-Ökosystem zurückzuführen sind. „Wir sind ein Algorithmus-Unternehmen“, sagte Huang. Er bezeichnete CUDA-X als Nvidias „Kronjuwel“ und betonte, dass der wahre Wert der GPU im Software-Ökosystem liegt, nicht nur im Hardware-Produkt.
Eines der wichtigsten Komponenten ist cuDNN, eine Bibliothek, die speziell für die effiziente GPU-Beschleunigung tiefer neuronaler Netze entwickelt wurde. Sie wird seit langem von führenden KI-Frameworks genutzt und ist eine zentrale Komponente moderner Deep-Learning-Infrastruktur.
Huang unterstrich erneut die Bedeutung der Software für das KI-Ökosystem und bezeichnete cuDNN als eine der wichtigsten Bibliotheken des Unternehmens, die sogar die große Explosion der modernen KI-Welle ausgelöst hat. Während der Präsentation zeigte Nvidia einen kurzen Clip über das CUDA-X-Ökosystem, inklusive eines fast täuschend echten Videos, das vollständig von KI und Simulationstechnologie generiert wurde, um die Durchbrüche bei GPU-Beschleunigung und Deep-Learning-Frameworks im visuellen Computing zu demonstrieren.
Huang: KI braucht „branchenspezifische Bibliotheken“
Huang betonte, dass die Umsetzung von KI nicht nur durch generative KI erfolgt. „GenAI an die Wand zu werfen, um zu sehen, ob es funktioniert, ist keine Strategie.“ Er ist der Meinung, dass die Herausforderungen in den verschiedenen Branchen stark variieren, weshalb Nvidia domain-specific libraries (branchenspezifische Bibliotheken) entwickeln muss, um maßgeschneiderte Lösungen für verschiedene vertikale Märkte anzubieten.
Dies ist auch der Grund für die kontinuierliche Erweiterung des CUDA-X-Ökosystems, das bereits Dutzende von Branchen abdeckt, darunter:
Wissenschaftliches Rechnen
Medizinische Bildgebung
Autonomes Fahren
Finanzanalyse
Datenengineering
Diese Bibliotheken ermöglichen es GPUs, in unterschiedlichen Branchenumgebungen maximale Leistung zu erbringen.
Vertikal integrierte, horizontal offene AI-Stack
Huang beschreibt Nvidias Strategie als „vertikal integriert, aber horizontal offen“. Das bedeutet, dass Nvidia eine vollständige Stack-Kette von Chips, Systemen, Software bis hin zu Anwendungsplattformen anbietet, gleichzeitig aber Unternehmen und Entwicklern erlaubt, auf ihrer Plattform Anwendungen zu entwickeln. Angesichts der explosionsartigen Nachfrage nach KI-Rechenleistung hält Nvidia dieses Modell für den einzigen Weg, um beschleunigtes Computing voranzutreiben.
Der Schlüsselkampf im KI-Bereich: Unstrukturierte Daten
Huang erwähnte auch eine weitere wichtige Aufgabe der KI: die Verarbeitung unstrukturierter Daten. Er wies darauf hin, dass etwa 90 % der weltweiten Daten unstrukturiert sind, z.B. Bilder, Videos, Sprache und Text, die früher aufgrund der Schwierigkeit bei Suche und Analyse kaum nutzbar waren. Mit der Reife von KI und GPU-Beschleunigungstechnologien werden diese Daten zunehmend in analysierbare Ressourcen umgewandelt.
Beispielsweise nutzt IBM Nvidias cuDF GPU-Framework, um die Effizienz seiner WatsonX-Datenplattform zu steigern, sodass große Mengen unstrukturierter Daten schnell analysiert und genutzt werden können.
OpenAI setzt auf AWS, um Rechenkapazitäten zu entlasten
Beim Thema KI-Infrastruktur erwähnte Huang auch die Rechenanforderungen von OpenAI. Er sagte, dass OpenAI derzeit „vollständig durch Rechenkapazitäten eingeschränkt“ ist. Das Unternehmen wird in diesem Jahr Infrastruktur von Amazon Web Services einsetzen, um die enormen Rechenanforderungen zu bewältigen.