Jen-Hsun Huang cho Nokia 10 tỷ đô la đằng sau: tham vọng kiếm 200 tỷ

Jensen Huang đã thông báo tại GTC 2025 rằng NVIDIA sẽ đầu tư 1 tỷ USD vào Nokia để cùng phát triển công nghệ AI-RAN, nhắm mục tiêu thị trường RAN trị giá 200 tỷ USD. (Tóm tắt nội dung: Huida đã đập vỡ 1 tỷ USD vào Nokia để trở thành cổ đông lớn nhất!) Nokia tăng 21%, Huang Jenxun đang nghĩ gì đằng sau nó? (Bối cảnh được thêm vào: Nokia sẽ ra mắt điện thoại Web3? Xin cấp bằng sáng chế mã hóa tài sản kỹ thuật số, lạc quan về sự phát triển blockchain Huang Jenxun đã đặt một làn sóng động thái lớn tại GTC 2025. Tại GTC 2025, Jensen Huang tung ra một tin tức sắc bén, Nvidia sẽ đầu tư 1 tỷ USD vào Nokia. Vâng, đó là Nokia, công ty điện thoại di động Symbian đã nổi tiếng trên khắp đất nước cách đây 20 năm. Huang cho biết trong bài phát biểu của mình rằng các mạng viễn thông đang trong quá trình chuyển đổi lớn từ kiến trúc truyền thống sang các hệ thống gốc AI và khoản đầu tư của Nvidia sẽ đẩy nhanh quá trình này. Vì vậy, NVIDIA đã đầu tư vào việc tạo ra một nền tảng AI cho mạng 6G với Nokia để trao quyền cho AI vào các mạng RAN truyền thống. Hình thức đầu tư cụ thể là việc Nvidia đăng ký khoảng 166 triệu cổ phiếu mới của Nokia với giá 6,01 USD/cổ phiếu, mang lại cho Nvidia khoảng 2,9% cổ phần của Nokia. Tại thời điểm công bố quan hệ đối tác, cổ phiếu của Nokia đã tăng 21%, mức tăng lớn nhất kể từ năm 2013. AI-RAN là gì? RAN là mạng truy cập vô tuyến và AI-RAN là một kiến trúc mạng mới nhúng sức mạnh tính toán AI trực tiếp vào trạm gốc không dây. Trong khi các hệ thống RAN truyền thống chịu trách nhiệm chính truyền dữ liệu giữa các trạm gốc và thiết bị di động, AI-RAN bổ sung khả năng xử lý thông minh và điện toán biên. Cho phép các trạm gốc áp dụng các thuật toán AI để tối ưu hóa việc sử dụng phổ tần và hiệu quả năng lượng, cải thiện hiệu suất mạng tổng thể, đồng thời tận dụng tài sản RAN nhàn rỗi để lưu trữ các dịch vụ AI biên tạo ra các nguồn doanh thu mới cho các nhà khai thác. Các nhà khai thác có thể chạy các ứng dụng AI trực tiếp tại trạm gốc mà không cần phải gửi tất cả dữ liệu trở lại trung tâm dữ liệu trung tâm để xử lý, giảm đáng kể gánh nặng cho mạng. Huang đưa ra ví dụ, gần 50% người dùng ChatGPT được truy cập thông qua thiết bị di động, không chỉ vậy, ChatGPT có hơn 40 triệu lượt tải xuống di động hàng tháng, trong thời đại phát triển bùng nổ của các ứng dụng AI, các hệ thống RAN truyền thống không thể đối phó với AI tổng quát và mạng di động do tác nhân dẫn dắt. AI-RAN cung cấp khả năng suy luận AI phân tán ở biên để làm cho các ứng dụng AI tiếp theo, chẳng hạn như tác nhân và chatbot, phản hồi nhanh hơn. Đồng thời, AI-RAN cũng sẵn sàng cho các ứng dụng cảm biến và truyền thông tích hợp trong kỷ nguyên 6G. Huang trích dẫn công ty phân tích Omdia, dự kiến thị trường RAN sẽ tích lũy hơn 200 tỷ USD vào năm 2030, với phân khúc AI-RAN sẽ là phân khúc phát triển nhanh nhất. Justin Hotard, chủ tịch kiêm Giám đốc điều hành của Nokia, cho biết trong một tuyên bố chung rằng quan hệ đối tác sẽ đưa các trung tâm dữ liệu AI vào túi của mọi người và cho phép thiết kế lại cơ bản từ 5G lên 6G. Đặc biệt, ông đề cập rằng Nokia đang làm việc với ba loại hình công ty khác nhau: Nvidia, Dell và T-Mobile. Là một trong những đối tác đầu tiên, T-Mobile sẽ tiến hành các thử nghiệm thực địa về công nghệ AI-RAN bắt đầu từ năm 2026, tập trung vào việc xác nhận hiệu suất và cải thiện hiệu quả. Justin cho biết thử nghiệm sẽ cung cấp thông tin có giá trị cho sự đổi mới 6G, giúp các nhà khai thác xây dựng mạng thông minh thích ứng với nhu cầu của AI. Dựa trên AI-RAN, NVIDIA đã phát hành một sản phẩm mới có tên Aerial RAN Computer Pro (ARC-Pro), là một nền tảng điện toán tăng tốc được chuẩn bị cho 6G. Cấu hình phần cứng cốt lõi của nó chứa cả hai GPU của NVIDIA: CPU Grace và GPU Blackwell. Nền tảng này chạy thông qua NVIDIA CUDA và phần mềm RAN có thể được nhúng trực tiếp vào ngăn xếp công nghệ CUDA. Do đó, nó không chỉ có thể xử lý các chức năng mạng truy cập vô tuyến truyền thống mà còn chạy các ứng dụng AI chính thống cùng một lúc. Đây cũng là cách tiếp cận cốt lõi của NVIDIA để triển khai hai chữ cái của AI trong AI-RAN. Với lịch sử lâu đời của CUDA, sức mạnh lớn nhất của nền tảng là khả năng lập trình. Không chỉ vậy, Huang còn thông báo rằng khung phần mềm Aerial sẽ là mã nguồn mở, dự kiến sẽ được phát hành trên GitHub theo giấy phép Apache 2.0 bắt đầu từ tháng 12 năm 2025. Sự khác biệt chính giữa ARC-Pro và người tiền nhiệm của nó, ARC, là nơi nó được triển khai và khi nào nó được sử dụng. Trong khi thế hệ trước của ARC chủ yếu được sử dụng để triển khai RAN đám mây tập trung, ARC-Pro có thể được triển khai trực tiếp tại địa điểm trạm gốc, điều này làm cho khả năng điện toán biên thực sự hạ cánh. Ronnie Wahita, người đứng đầu mảng kinh doanh viễn thông của NVIDIA, cho biết trước đây, RAN và AI yêu cầu hai bộ phần cứng khác nhau để triển khai, nhưng ARC-Pro có thể tự động phân bổ tài nguyên tính toán dựa trên nhu cầu mạng, ưu tiên các chức năng truy cập không dây hoặc chạy các tác vụ suy luận AI trong giờ nhàn rỗi. ARC-Pro cũng tích hợp nền tảng NVIDIA AI Aircent, một ngăn xếp phần mềm hoàn chỉnh bao gồm phần mềm RAN tăng tốc CUDA, các công cụ bản sao kỹ thuật số Aerial Omniverse và Aerial Framework mới. Aerial Framework chuyển đổi mã Python thành mã CUDA hiệu suất cao chạy trên nền tảng ARC-Pro. Ngoài ra, nền tảng hỗ trợ các mô hình mạng nơ-ron do AI điều khiển để ước tính kênh nâng cao. Ông Huang cho biết viễn thông là hệ thống thần kinh kỹ thuật số cho nền kinh tế và an ninh. Sự hợp tác với Nokia và hệ sinh thái viễn thông sẽ châm ngòi cho cuộc cách mạng này, giúp các nhà khai thác xây dựng các mạng thông minh, thích ứng xác định thế hệ kết nối toàn cầu tiếp theo. Nhìn vào năm 2025, Nvidia thực sự đã đầu tư rất nhiều tiền. Vào ngày 22 tháng 9, Nvidia và OpenAI đã đạt được quan hệ đối tác và Nvidia có kế hoạch đầu tư dần 100 tỷ USD vào OpenAI, điều này sẽ đẩy nhanh quá trình xây dựng cơ sở hạ tầng của mình. Huang nói rằng OpenAI đã tìm kiếm khoản đầu tư từ Nvidia từ lâu, nhưng công ty có số tiền hạn chế vào thời điểm đó. Anh ấy hài hước nói rằng anh ấy quá nghèo vào thời điểm đó và lẽ ra phải đưa tất cả tiền cho họ. Huang tin rằng sự phát triển suy luận của AI không phải là 100 lần hay 1000 lần, mà là 1 tỷ lần. Và sự hợp tác không chỉ giới hạn ở phần cứng mà còn bao gồm tối ưu hóa phần mềm để đảm bảo OpenAI có thể sử dụng hiệu quả các hệ thống của NVIDIA. Điều này có thể là do anh ấy lo lắng rằng OpenAI sẽ từ bỏ CUDA sau khi biết về sự hợp tác giữa OpenAI và AMD. Một khi mô hình lớn dựa trên AI lớn nhất thế giới không sử dụng CUDA, các nhà cung cấp mô hình lớn khác theo dõi OpenAI là hợp lý. Trong podcast BG2, Huang dự đoán rằng OpenAI có khả năng trở thành công ty nghìn tỷ đô la tiếp theo theo vốn hóa thị trường, tăng trưởng ở mức kỷ lục trong ngành. Ông bác bỏ lý thuyết bong bóng AI, chỉ ra rằng thế giới chi một số tiền hàng năm cho cơ sở hạ tầng AI.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)