Huang Ren Xun GTC 2026 演講全文:AI nhu cầu đạt hàng nghìn tỷ đô la, sức mạnh tính toán tăng vọt 350 lần, OpenClaw giúp mỗi công ty trở thành AaaS

動區BlockTempo
FET-7,63%

CEO của Nvidia, Jensen Huang, đã tuyên bố tại GTC 2026 rằng “đến năm 2027, nhu cầu ít nhất 1 nghìn tỷ USD,” và sử dụng các khái niệm như Nhà máy Token, Vòng đua CUDA, Hệ thống quái vật Vera Rubin, Hệ điều hành trí tuệ OpenClaw để hoàn chỉnh bản đồ chiến lược cho thập kỷ tiếp theo của Nvidia.
(Thông tin trước đó: Trong bài phát biểu tại GTC, Jensen Huang đã đề cập đến “DLSS 5, NemoClaw” đã thắp sáng đồng tiền AI: FET tăng 20%, NEAR, Worldcoin đạt mức cao mới trong tháng gần đây)
(Bổ sung nền tảng: Bộ An ninh Quốc gia Trung Quốc cảnh báo về “Nuôi tôm hùm”: OpenClaw có chứa bốn mìn an ninh lớn, thiết bị của bạn có thể bị chiếm quyền kiểm soát)

Mục lục bài viết

Chuyển đổi

  • Mở đầu: Hiệu ứng vòng đua hai mươi năm của CUDA
  • Kinh tế Nhà máy Token: Trung tâm dữ liệu không còn lưu trữ hồ sơ, mà chuyển sang sản xuất Token
  • Vera Rubin: Trong hai năm tăng 350 lần, đây không phải là định luật Moore, mà là một đường cong khác
  • Ý nghĩa thực sự của việc mua lại Groq: làm cho nhanh hơn nữa, làm cho đắt hơn nữa
  • DLSS 5: Thời điểm GPT của đồ họa đã đến
  • OpenClaw: Hệ điều hành của thời đại trí tuệ
  • Tương lai mỗi kỹ sư có ngân sách Token riêng
  • Trí tuệ nhân tạo vật lý và đội quân robot
  • Thế hệ tiếp theo: Kiến trúc Feynman + Trung tâm dữ liệu ngoài không gian

Vào ngày 16 tháng 3 năm 2026, lễ khai mạc GTC của Nvidia bắt đầu, Jensen Huang đứng trên sân khấu và nói một câu khiến toàn bộ khán phòng im lặng: “Năm ngoái, tôi đã nói về nhu cầu có độ tin cậy cao 500 tỷ USD. Nhưng ngay tại thời điểm này, con số tôi nhìn thấy ít nhất là 1 nghìn tỷ USD. Và tôi chắc chắn, nhu cầu thực tế còn cao hơn thế.”

Ngay sau câu nói đó, giá cổ phiếu Nvidia tăng hơn 4,3% trong ngày. Nhưng Jensen Huang không chỉ đơn thuần báo cáo con số, ông đã dành toàn bộ bài phát biểu để giải thích nguồn gốc của con số 1 nghìn tỷ USD này, tại sao nó vẫn chưa đủ.

Mở đầu: Hiệu ứng vòng đua hai mươi năm của CUDA

Điểm khởi đầu của toàn bộ bài phát biểu là lĩnh vực cốt lõi của Nvidia — CUDA. Năm nay là sinh nhật thứ 20 của CUDA, Jensen Huang mô tả nó như là “Logic chiến lược 100% của Nvidia.”

Nói một cách dễ hiểu: CUDA chính là công nghệ cho phép các nhà phát triển viết phần mềm cho GPU. Khi ra đời hai mươi năm trước, không ai chắc chắn nó sẽ thành công, nhưng Nvidia đã dốc phần lớn nguồn lực của công ty để kiên trì. Nhìn lại, quyết định này đã giúp Nvidia xây dựng một lợi thế cạnh tranh gần như không thể sao chép — hàng trăm triệu GPU chạy CUDA khắp toàn cầu, hàng trăm nghìn dự án mã nguồn mở phụ thuộc vào nó, mọi nhà cung cấp dịch vụ đám mây đều tích hợp CUDA.

Jensen Huang gọi đó là “hiệu ứng vòng đua”: số lượng thiết bị cài đặt lớn → thu hút nhà phát triển → nhà phát triển tạo ra các thuật toán mới → đột phá thuật toán mở ra thị trường mới → thị trường mới mở rộng số thiết bị → vòng đua tiếp tục quay. Thật tuyệt vời, Nvidia liên tục cập nhật tối ưu phần mềm, đến cả kiến trúc Ampere ra mắt sáu năm trước, giá thuê GPU trên đám mây vẫn còn tăng — bởi vì các ứng dụng chạy trên đó ngày càng nhiều và giá trị hơn.

Kinh tế Nhà máy Token: Trung tâm dữ liệu không còn lưu trữ hồ sơ, mà chuyển sang sản xuất Token

Đây là khái niệm trung tâm trong bài phát biểu lần này của Jensen Huang, cũng là lý do chính giải thích cho nhu cầu 1 nghìn tỷ USD.

Nói đơn giản: trung tâm dữ liệu ngày xưa là “kho chứa”, dùng để lưu trữ file và dữ liệu của bạn; còn trung tâm dữ liệu tương lai là “nhà máy”, dùng để sản xuất đơn vị cơ bản của AI — Token (có thể hiểu là đơn vị nhỏ nhất để AI suy nghĩ và nói chuyện).

Jensen Huang nói rằng, mỗi trung tâm dữ liệu đều bị giới hạn bởi điện năng, một nhà máy 1 GW (gigawatt) sẽ không bao giờ biến thành 2 GW, đó là quy luật vật lý. Vì vậy, vấn đề cạnh tranh chính là: cùng một lượng điện, ai có thể sản xuất ra nhiều Token nhất? Ai có tỷ lệ Token trên mỗi watt cao nhất, chi phí sản xuất thấp nhất thì thắng.

Token còn có phân cấp giá, giống như hạng thương gia và hạng phổ thông:

  • Tầng miễn phí (tốc độ cao, throughput thấp)
  • Tầng trung cấp (khoảng 3 USD mỗi triệu Token)
  • Tầng cao cấp (khoảng 6 USD mỗi triệu Token)
  • Tầng tốc độ cao (khoảng 45 USD mỗi triệu Token)
  • Tầng siêu tốc (khoảng 150 USD mỗi triệu Token)

Nói cách khác, cùng một GPU, Jensen Huang khuyên bạn phân chia công suất của nó vào các tầng dịch vụ khác nhau — throughput càng cao, tốc độ càng nhanh, tiền kiếm được càng nhiều. Ông ước tính rằng, so với kiến trúc Hopper thế hệ trước, hệ thống mới Grace Blackwell có thể tạo ra gấp 5 lần doanh thu trong cùng một mức tiêu thụ năng lượng.

Vera Rubin: Trong hai năm tăng 350 lần, đây không phải là định luật Moore, mà là một đường cong khác

Jensen Huang nói rằng, khi nhắc đến thế hệ Hopper trước, ông có thể cầm một chip để trình diễn; còn khi nói đến Vera Rubin, mọi người nghĩ đến toàn bộ hệ thống.

Số liệu nói lên tất cả: trong cùng một trung tâm dữ liệu 1 GW, tốc độ sinh Token từ 22 triệu mỗi giây đã tăng lên 700 triệu mỗi giây, trong vòng hai năm, tăng 350 lần. Trong khi đó, theo định luật Moore, cùng kỳ hạn, chỉ tăng khoảng 1,5 lần.

Hệ thống quái vật này trông như thế nào? Vera Rubin là hệ thống làm mát bằng chất lỏng hoàn toàn, loại bỏ hoàn toàn cáp truyền thống. Trước đây, lắp đặt một rack mất hai ngày, nay chỉ cần hai giờ. Jensen Huang nói rằng Microsoft Azure đã xác nhận rack Vera Rubin đầu tiên đã chính thức hoạt động.

Ý nghĩa thực sự của việc mua lại Groq: làm cho nhanh hơn nữa, làm cho đắt hơn nữa

Nvidia tích hợp công nghệ của Groq không phải để thay thế GPU của chính mình, mà để thực hiện “phân tách suy luận bất đối xứng” — nghe có vẻ phức tạp, nhưng dịch đơn giản là: chia quá trình suy luận AI thành hai giai đoạn, mỗi giai đoạn dùng công cụ phù hợp nhất.

Chip của Groq có đặc điểm là có lượng lớn SRAM tốc độ cao (500MB), phản ứng cực nhanh nhưng bộ nhớ nhỏ, phù hợp để thực hiện bước cuối cùng là xuất Token. Trong khi đó, chip Vera Rubin có bộ nhớ lớn (288GB), phù hợp để xử lý lượng lớn tính toán ban đầu và lưu đệm.

Nvidia dùng phần mềm Dynamo kết nối hai chip này: phần “tiền nạp” và giải mã chú ý (attention) của cơ chế dịch mã giao cho Vera Rubin, còn phần sinh Token cực kỳ nhạy cảm về độ trễ thì giao cho Groq. Hai hệ thống được kết nối chặt chẽ qua Ethernet, giúp giảm tổng độ trễ khoảng một nửa.

Jensen Huang còn đề xuất một cấu hình: nếu công việc chủ yếu là throughput cao, dùng 100% Vera Rubin; còn nếu cần nhiều mã nguồn giá trị cao, dành khoảng 25% quy mô trung tâm dữ liệu cho Groq. Chip LP30 của Groq đã được Samsung gia công sản xuất hàng loạt, dự kiến giao hàng trong quý III.

DLSS 5: Thời điểm GPT của đồ họa đã đến

Jensen Huang nói rằng, cách đây mười năm, GeForce đã mang AI đến toàn thế giới; còn bây giờ, AI đang trở lại để định hình lại đồ họa máy tính. Ông gọi công nghệ mới này là “Kết xuất thần kinh (Neural Rendering)”, tức DLSS 5.

Ý tưởng chính là: kết hợp hình dạng 3D xác định rõ ràng (cấu trúc rõ ràng, kiểm soát chính xác) truyền thống với vẻ đẹp mang tính xác suất của AI sinh ra. Dữ liệu có cấu trúc giúp đảm bảo kiểm soát hình ảnh, còn AI đảm nhiệm phần làm cho hình ảnh trông đẹp đến mức không thể phân biệt thật giả. Jensen Huang nói rằng, sự kết hợp này của “dữ liệu có cấu trúc + AI sinh ra” sẽ lặp lại trong nhiều ngành công nghiệp khác nhau.

OpenClaw: Hệ điều hành của thời đại trí tuệ

Peter Steinberger đã phát triển OpenClaw, Jensen Huang gọi đó là “dự án mã nguồn mở phổ biến nhất trong lịch sử nhân loại, chỉ trong vài tuần đã vượt qua thành tựu của Linux trong ba mươi năm.”

OpenClaw là gì? Nói đơn giản nhất: nó cho phép các trí tuệ nhân tạo (Agent) quản lý tài nguyên, gọi công cụ, đọc ghi dữ liệu, thực hiện lập lịch, chia nhỏ các vấn đề lớn thành nhiệm vụ nhỏ để phân phối cho các trí tuệ con — giống như hệ điều hành giúp các chương trình chạy trên máy tính, còn OpenClaw giúp các trí tuệ nhân tạo chạy trong môi trường doanh nghiệp của bạn.

Jensen Huang nói: “Mỗi công ty SaaS sẽ trở thành AaaS.” Nói cách khác, các công ty phần mềm không còn chỉ bán công cụ nữa, mà bán “dịch vụ trí tuệ nhân tạo giúp bạn làm việc.”

Tuy nhiên, phiên bản doanh nghiệp có một vấn đề: trí tuệ có thể truy cập dữ liệu nhạy cảm, thực thi mã, điều này cần được kiểm soát chặt chẽ trong môi trường doanh nghiệp. Nvidia đã ra mắt thiết kế tham khảo NeMo Claw dành cho doanh nghiệp, tích hợp bộ điều khiển chiến lược và bộ định tuyến quyền riêng tư, đảm bảo trí tuệ hoạt động an toàn trong nội bộ doanh nghiệp.

Tương lai mỗi kỹ sư có ngân sách Token riêng

Jensen Huang dự đoán một cách rất cụ thể về nơi làm việc trong tương lai: “Trong tương lai, mỗi kỹ sư trong công ty đều cần có ngân sách Token hàng năm. Họ có thể có lương hàng trăm nghìn đô la, tôi sẽ cấp thêm một phần tương đương một nửa lương dưới dạng Token, để nhân đôi hiệu quả sản xuất của họ. Việc cấp Token khi tuyển dụng đã trở thành chủ đề mới trong tuyển dụng tại Silicon Valley.”

Đây không chỉ là phép ẩn dụ, mà là cách ông nhìn nhận về năng lực cạnh tranh của doanh nghiệp trong tương lai: bạn cấp cho kỹ sư bao nhiêu sức mạnh tính toán, chính là mức độ họ có thể tạo ra giá trị. Mỗi doanh nghiệp trong tương lai sẽ vừa là người tiêu thụ Token, vừa là người sản xuất Token.

Trí tuệ nhân tạo vật lý và đội quân robot

Jensen Huang nói rằng, trí tuệ số hoạt động trong thế giới số, còn trí tuệ vật lý là các trí tuệ có thể hiện diện trong thế giới thực — tức là robot. Tại GTC lần này, có tới 110 loại robot xuất hiện, gần như bao gồm tất cả các doanh nghiệp nghiên cứu robot trên toàn cầu.

Trong lĩnh vực tự lái, Jensen Huang thông báo rằng BYD, Hyundai, Nissan, Geely đã tham gia nền tảng RoboTaxi Ready của Nvidia, tổng sản lượng hàng năm của bốn hãng này là 18 triệu xe, cộng với Mercedes-Benz, Toyota, GM đã có mặt trước đó, tạo thành đội hình rất lớn. Nvidia cũng công bố hợp tác với Uber, sẽ triển khai và kết nối các xe RoboTaxi Ready tại nhiều thành phố.

Phần cuối, robot Olaf của Disney xuất hiện trên sân khấu, dùng chip Jetson làm “não”, học đi lại trong môi trường Omniverse, sử dụng bộ giải pháp vật lý Newton để thích nghi với thế giới thực. Jensen Huang và Olaf trò chuyện vài câu, cuối cùng cười nói: “Tôi tưởng cậu cao hơn chứ. Tôi chưa từng thấy chú tuyết nhỏ nào thấp như vậy.”

Thế hệ tiếp theo: Kiến trúc Feynman + Trung tâm dữ liệu ngoài không gian

Trong phần cuối bài phát biểu, Jensen Huang “tiết lộ trước” về kiến trúc tính toán thế hệ tiếp theo là Feynman, sẽ lần đầu tiên hỗ trợ mở rộng theo chiều ngang cả dây đồng và quang học tích hợp chung (CPO). Xa hơn nữa, còn có ý tưởng “Vera Rubin Space-1” — trung tâm dữ liệu ngoài không gian, giúp mở rộng khả năng tính toán AI ra ngoài Trái Đất.

Jensen Huang tổng kết toàn bộ bài phát biểu qua bốn điểm: điểm đột phá suy luận đã đến, kỷ nguyên nhà máy AI bắt đầu, cuộc cách mạng trí tuệ OpenClaw, quy mô trí tuệ vật lý đã thực thi. Một nghìn tỷ USD chỉ mới là khởi đầu.

Xem bản gốc
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận