輝達執行長黃仁勳在 GTC 2026 宣布「到 2027 年至少 1 兆美元需求」,並用 Token 工廠、CUDA 飛輪、Vera Rubin 怪物系統、OpenClaw 智慧體作業系統,完整描繪輝達的下一個十年藍圖。
(前情提要:黃仁勳 GTC 演講「DLSS 5、NemoClaw 」點燃 AI 幣:FET 飆 20%、NEAR、Worldcoin 創近月新高)
(背景補充:中國國家安全部警告「龍蝦養殖」:OpenClaw 埋四大安全地雷,你的裝置可能被接管)
本文目錄
切換
2026 年 3 月 16 日,輝達 GTC 大會開幕,黃仁勳站在舞台上說了一句讓全場靜默的話:「去年我說有 5,000 億美元的高確信度需求。現在,就在此刻,我看到的數字至少是 1 兆美元。而且我確定,實際需求還要更高。」
這句話一出,輝達股價當天漲超 4.3%。但黃仁勳並不只是在報數字,他花了整場演講解釋這 1 兆美元到底從哪裡來、為什麼還不夠。
整場演講的起點,是輝達的老本行——CUDA。今年是 CUDA 誕生二十週年,黃仁勳把它形容為輝達「100% 的戰略邏輯」。
白話翻譯一下:CUDA 就是讓 GPU 能被開發者寫程式的技術。二十年前它出現時,沒人確定它會成功,但輝達押上了大半公司資源死撐。現在回頭看,這個決定讓輝達建立起幾乎無法複製的護城河——數億塊執行 CUDA 的 GPU 遍佈全球,數十萬個開源專案依賴它,每家雲端服務商都整合了它。
黃仁勳說這叫「飛輪」:裝機量大 → 吸引開發者 → 開發者創造新演算法 → 演算法突破帶來新市場 → 新市場擴大裝機量 → 飛輪繼續轉。更妙的是,輝達持續更新軟體最佳化,六年前的 Ampere 架構 GPU 在雲端的租用價格反而還在漲——因為跑在上面的應用越來越多、越來越值錢。
這是黃仁勳這次演講最核心的概念,也是解釋那 1 兆美元需求的關鍵邏輯。
簡單來說就是:過去的資料中心是「倉庫」,用來存你的檔案和資料;未來的資料中心是「工廠」,用來生產 AI 的基本單位——Token(可以理解成 AI 思考和說話的最小單位)。
黃仁勳說,每座資料中心都受電力限制,一個 1 吉瓦(GW)的廠永遠不會變成 2 吉瓦,這是物理定律。所以競爭的核心問題就變成:同樣的電,誰能生產最多的 Token?誰的每瓦 Token 吞吐量最高,誰的生產成本就最低,誰就贏。
Token 還會分層定價,就像商務艙和經濟艙:
換句話說,同樣一塊 GPU,黃仁勳告訴你要把它的功率分配到不同服務層級——吞吐量越高、速度越快,能賺的錢越多。他的估算是,相比上一代 Hopper 架構,新系統 Grace Blackwell 可以在同等功率下創造出 5 倍的收入。
黃仁勳說,提到上一代 Hopper,他可以舉起一塊晶片展示;但說到 Vera Rubin,大家想到的是整個系統。
數字說話:在同一座 1 吉瓦的資料中心裡,Token 生成速率從 2,200 萬個/秒提升到 7 億個/秒,兩年內提升了 350 倍。相比之下,同期的摩爾定律只能帶來約 1.5 倍的提升。
這個怪物系統長什麼樣?Vera Rubin 是 100% 液冷、全面消滅傳統線纜的設計,過去需要兩天安裝的機架,現在只要兩小時。黃仁勳說,微軟 Azure 已確認首臺 Vera Rubin 機架正式上線。
輝達把 Groq 的技術整合進來,不是為了取代自家 GPU,而是為了做「非對稱分離推理」——聽起來複雜,白話翻譯一下就是:把 AI 推理這件事拆成兩段,各找最適合的工具來做。
Groq 晶片的特點是有大量高速 SRAM(500MB),反應極快但記憶體小,適合做最後輸出 Token 那個步驟。Vera Rubin 晶片記憶體大(288GB),適合做前期的大量計算和快取。
輝達用 Dynamo 軟體把這兩者串在一起:「預填充」和注意力機制的解碼交給 Vera Rubin,對延遲極度敏感的 Token 生成部分交給 Groq。兩者用乙太網緊密耦合,整體延遲減少約一半。
黃仁勳還給了一個配置建議:如果工作主要是高吞吐,100% 用 Vera Rubin;如果有大量高價值的程式碼生成需求,拿出約 25% 的資料中心規模給 Groq。Groq LP30 晶片已由三星代工量產,預計第三季出貨。
黃仁勳說,十年前 GeForce 把 AI 帶給了全世界,現在 AI 要反過來重塑計算機圖形。他稱這個新技術叫「神經渲染(Neural Rendering)」,也就是 DLSS 5。
核心思路是:把傳統的確定性 3D 圖形(結構清晰、可精確控制)和生成式 AI 的機率性美感結合在一起。結構化資料確保畫面可控,AI 負責讓它看起來美到不像真的。黃仁勳說這個「結構化資料 + 生成式 AI」的融合思路,將在一個又一個產業中反覆出現。
Peter Steinberger 開發了 OpenClaw,黃仁勳稱它是「人類歷史上最受歡迎的開源專案,幾周內就超越了 Linux 三十年的成就」。
什麼是 OpenClaw?用最簡單的語言說:它讓 AI 智慧體(Agent)能夠管理資源、呼叫工具、讀寫檔案、執行排程、把大問題拆成小任務分配給子智慧體——就像作業系統讓人類程式跑在計算機上,OpenClaw 讓 AI 智慧體跑在你的企業 IT 環境裡。
黃仁勳說:「每一家 SaaS 公司都將變成 AaaS 公司。」換句話說,軟體公司不再只賣工具,而是賣「能幫你做事的 AI 智慧體服務」。
但企業版有個問題:智慧體能訪問敏感資料、執行程式碼,這在企業環境裡必須嚴格管控。輝達為此推出了 NeMo Claw 企業級參考設計,加入了策略引擎和隱私路由器,確保智慧體在企業內部安全落地。
黃仁勳說了一段很具體的職場預言:「未來,公司裡每一位工程師都需要年度 Token 預算。他們年薪可能幾十萬美元,我會額外給相當於薪資一半的 Token 配額,讓他們的產出放大 10 倍。入職附帶多少 Token 配額,已經是矽谷的新晉招聘話題。」
這不是比喻,而是他認為未來企業競爭力的衡量標準:你給工程師多少算力,就決定了他們能創造多少價值。每家企業未來既是 Token 使用者,也是 Token 生產者。
黃仁勳說數位智慧體在數位世界行動,物理 AI 則是具身化的智慧體——也就是機器人。本屆 GTC 共有 110 款機器人亮相,幾乎囊括了全球所有機器人研發企業。
自動駕駛方面,黃仁勳宣布比亞迪、現代、日產、吉利加入輝達 RoboTaxi Ready 平台,四家合計年產量 1,800 萬輛,加上此前的賓士、豐田、通用,陣容龐大。輝達同時宣布與 Uber 達成合作,將在多個城市部署並接入 RoboTaxi Ready 車輛。
壓軸環節,迪士尼的 Olaf 雪人機器人走上舞台,用 Jetson 晶片作為大腦、在 Omniverse 裡學會走路、以 Newton 物理求解器適應真實世界。黃仁勳和 Olaf 你來我往聊了幾句,最後笑說:「我以為你會更高一點。我從沒見過這麼矮的雪人。」
演講尾聲,黃仁勳「劇透」了下一代計算架構 Feynman,將首次讓銅線與共封裝光學(CPO)同時支援水平擴展。更遠的想像是「Vera Rubin Space-1」——部署在太空的資料中心計算機,徹底把 AI 算力延伸到地球之外。
黃仁勳用四點總結了整場演講:推理拐點到來、AI 工廠時代開啟、OpenClaw 智慧體革命、物理 AI 規模落地。一兆美元,只是起點。