Nvidia wird Amazon Web Services bis 2027 mit einer enormen Menge an GPUs versorgen, während der Cloud-Anbieter seine KI-Infrastruktur ausbaut und die wachsende Nachfrage decken möchte. AWS kündigte Anfang dieser Woche an, dass es rund 1 Million Nvidia-GPUs im Rahmen seines erweiterten KI-Infrastrukturaufbaus einsetzen will. Ein Nvidia-Manager bestätigte am Donnerstag gegenüber Reuters, dass die Einführung voraussichtlich bis Ende 2027 laufen wird. Beginnend in diesem Jahr in den globalen Cloud-Regionen von AWS, wird es zusammen mit erweiterten Kooperationen mit Nvidia im Bereich Netzwerke und andere Infrastruktur umgesetzt, um Systeme zu bauen, die „fähig sind, autonom zu reasoning, planen und handeln in komplexen Workflows“, so AWS, und verweist auf seine Arbeit an agentischen KI-Systemen.
AWS entwickelt weiterhin KI-Chips sowohl für Training als auch für Inferenz. Die Zusammenarbeit deutet darauf hin, dass sich die Nachfrage im KI-Stack verschiebt, während ein wachsender Anteil der Aktivitäten mit dem Betrieb von Modellen in Live-Diensten verbunden zu sein scheint. Der Deal kommt, während US-Staatsanwälte einen Fall verfolgen, in dem Nvidia-Chips nach China geschmuggelt worden sein sollen, was die globale Versorgung und Kontrolle des Unternehmens erneut in den Fokus rückt. Seit 2022 werden Nvidias fortschrittlichste Chips im Rahmen einer breiteren US-Strategie streng kontrolliert, um Chinas Fortschritte in der Hochleistungsrechnertechnik und KI einzuschränken.
Die heutige Entwicklung könnte diese Lücke noch vergrößern. Veränderungen im Tempo Beobachter sagen, dass die Struktur des Deals Hinweise darauf gibt, wo die Nachfrage wächst und wie sich die zugrunde liegende Infrastruktur immer schneller verändert. „Nvidia wird zur Infrastrukturebene unter den Cloud-Anbietern, nicht nur ein Chip-Hersteller für sie“, sagte Dermot McGrath, Mitbegründer des Strategie- und Wachstumsstudios ZenGen Labs, gegenüber Decrypt. Die Chips im Deal sind auf den Betrieb von KI-Modellen in großem Maßstab ausgerichtet, mit Fokus auf die Senkung der Nutzungskosten, so McGrath, der anmerkt, dass die Inferenz jetzt etwa zwei Drittel der KI-Rechenleistung ausmacht, nach etwa einem Drittel im Jahr 2023. Der Markt für Inferenz-orientierte Chips wird bis 2026 voraussichtlich 50 Milliarden US-Dollar übersteigen, so Deloitte-Schätzungen. AWS kann sowohl Nvidia- als auch eigene Chips in denselben Systemen verwenden, was den Kunden mehr Wahlmöglichkeiten bietet als Konkurrenten, die ihre Chips geschlossen halten, erklärte McGrath. Diese Flexibilität „ist ein Unterscheidungsmerkmal“. „Jetzt macht Nvidia dasselbe eine Ebene tiefer, mit Netzwerken und Rack-Architektur anstelle eines Programmiermodells“, sagte er. Inference-Chips sind Prozessoren, die dafür entwickelt wurden, trainierte KI-Modelle in Echtzeit auszuführen, anstatt sie neu zu trainieren.
Die Nachfrage nach Inferenz treibt „langfristige Verpflichtungen“ für mehr Rechenleistung voran und schafft engere Verbindungen zwischen Cloud-Anbietern und Chip-Herstellern, sagte Pichapen Prateepavanich, Strategieberaterin und Gründerin des Infrastrukturunternehmens Gather Beyond, gegenüber Decrypt. „Cloud-Anbieter wollen langfristig unabhängig sein, aber kurzfristig brauchen sie Nvidia, um wettbewerbsfähig zu bleiben“, erklärte sie und betonte, dass dies eine Dynamik schafft, bei der Kooperation und Wettbewerb gleichzeitig stattfinden. Dennoch verändert sich auch die Kontrolle über die KI-Infrastruktur. Was passiert, ist eine „Infrastruktur-Umkehr“, sagte Berna Misa, Deal-Partnerin bei Boardy Ventures, einem auf KI ausgerichteten Investmentfonds, gegenüber Decrypt. Nvidia „integriert seine komplette Stack-Infrastruktur in Rechenzentren von AWS, die jahrelang proprietäre Geräte betrieben haben“, so Misa. Während AWS eigene KI-Chips entwickelt, „ändert das nichts an der Rechnung“, erklärte sie, und betonte, dass die Inferenz auf mehreren Komponenten im Stack basiert, von denen Nvidia die meisten liefert. „Wenn man so tief im Stack des Kunden ist, werden die Wechselkosten und die daraus resultierende Kontextschicht zur Burgmauer“, sagte sie.