KI-Speicherbedarf um das Sechsfache geringer! Googles neue Technologie schockt den Markt, entsprechende Aktien fallen gleichzeitig weiter stark ab

CryptoCity

Google hat TurboQuant eingeführt, das den Speicherbedarf von Modellen um das Sechsfache komprimiert und die Inferenzgeschwindigkeit um das Achtfache erhöht, was zu einem Rückgang der Speicheraktien und Diskussionen über den Strukturwandel der Nachfrage führte.

Google hat den TurboQuant-Algorithmus eingeführt, der den Speicherbedarf großer Sprachmodelle um mindestens das Sechsfache komprimiert und gleichzeitig die Inferenzgeschwindigkeit um bis zu das Achtfache erhöht, ohne die Genauigkeit des Modells zu opfern. Der Markt deutete diese Technologie schnell als „Nachfrageseitenschock“; die dahinterstehende Logik ist ziemlich direkt: Wenn der Speicherbedarf eines KI-Modells in der Inferenzphase um mehrere Faktoren komprimiert wird, bedeutet dies, dass die Wachstumskurve der zukünftigen Nachfrage von Rechenzentren nach DRAM, HBM und sogar NAND-Speicher strukturell nach unten korrigiert werden könnte.

Nach der Nachricht fielen die Aktien von Unternehmen, die mit Speicher und Speicherung zu tun haben, synchron, darunter SanDisk (SNDK) mit einem Rückgang von 3,5 %, Micron Technology (MU) mit einem Rückgang von 3,4 % und Western Digital (WDC) mit einem Rückgang von 1,63 %; im asiatischen Lieferkettenbereich fiel Samsung Electronics um 4,71 %, SK Hynix sogar um 6,23 %. Es gibt auch Ansichten, dass TurboQuant eher die „Ressourcennutzungseffizienz“ verändern könnte, anstatt einfach die Nachfrage zu schwächen.

Googles neuester Algorithmus: Sechsmal weniger Speicherbedarf, achtmal schnellere Inferenzgeschwindigkeit

Laut dem Google-Forschungsteam ist TurboQuant ein Quantisierungsalgorithmus, der für große Sprachmodelle und Vektorsuchsysteme entwickelt wurde. Der Kern besteht darin, den speicherintensivsten „Key-Value-Cache“ und die hochdimensionalen Vektordatenstrukturen von KI-Modellen drastisch zu komprimieren. In Tests konnte diese Technologie den Speicherbedarf um mindestens das Sechsfache komprimieren und gleichzeitig die Inferenzgeschwindigkeit um bis zu das Achtfache erhöhen, ohne die Genauigkeit des Modells zu opfern.

Dieser Durchbruch trifft direkt auf den aktuellen Engpass der KI-Infrastruktur. Die Skalierung von generativer KI auf der Rechenleistungsebene hängt stark von Hochgeschwindigkeits-DRAM wie HBM ab, um die Modellgewichte und große KV-Caches zu tragen und um zu verhindern, dass der Speicher während des Inferenzprozesses einfriert. TurboQuant hingegen kombiniert Methoden wie PolarQuant und Quantized Johnson-Lindenstrauss (QJL) und erreicht die Kompression mit fast „null zusätzlichem Speicheraufwand“, was bedeutet, dass dieselben oder sogar effizientere Berechnungen mit weniger Hardware-Ressourcen durchgeführt werden können.

Googles Algorithmus trifft den Speicher! US- und südkoreanische Speicherhersteller fallen

Der Markt deutete diese Technologie schnell als „Nachfrageseitenschock“. Nach der Nachricht fielen die Aktien von Unternehmen, die mit Speicher und Speicherung zu tun haben, synchron, darunter SanDisk (SNDK) mit einem Rückgang von 3,5 %, Micron Technology (MU) mit einem Rückgang von 3,4 % und Western Digital (WDC) mit einem Rückgang von 1,63 %; im asiatischen Lieferkettenbereich fiel Samsung Electronics um 4,71 %, SK Hynix sogar um 6,23 %.

Die dahinterstehende Logik ist ziemlich direkt: Wenn der Speicherbedarf eines KI-Modells in der Inferenzphase um mehrere Faktoren komprimiert wird, bedeutet dies, dass die Wachstumskurve der zukünftigen Nachfrage von Rechenzentren nach DRAM, HBM und sogar NAND-Speicher strukturell nach unten korrigiert werden könnte. Besonders im Kontext, dass sich die KI-Industrie allmählich von einem „trainingsorientierten“ zu einem „inferenzorientierten“ Ansatz bewegt, wird der marginale Einfluss von Effizienzoptimierungstechnologien verstärkt.

Es gibt jedoch auch Ansichten, dass TurboQuant eher die „Ressourcennutzungseffizienz“ verändern könnte, anstatt einfach die Nachfrage zu schwächen. Mit sinkenden Kosten und verkürzten Latenzen könnten die Anwendungsfälle für KI eher weiter expandieren und somit die Gesamtnachfrage nach Rechenleistung weiterhin wachsen, was zu einer Struktur führt, in der die „Einzelanforderung sinkt, die Gesamtanforderung steigt“. Die Produktionskapazitäten großer Speicherhersteller sind in diesem Jahr bereits ausverkauft, vielleicht sollte sich der Markt fragen: Wie hoch ist das Wachstumspotenzial von KI wirklich?

  • Dieser Artikel wird mit Genehmigung von „Chain News“ wiederveröffentlicht.
  • Originaltitel: „Google neue Technologie schockiert den Markt, KI-Speicherbedarf um das Sechsfache reduziert! SK Hynix und Micron fallen synchron.“
  • Originalautor: Neo
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare