NVIDIA 260億ドルのオープンソースAI戦略、Nemotron 3 Superが中国モデルに挑戦

MarketWhisper

輝達がNemotron 3 Superを発表

NVIDIAは木曜日に正式にNemotron 3 Superを発表しました。これは、総パラメータ数が1,200億のオープンウェイトAIモデルであり、自律型AIエージェントや超長文コンテキストタスクに深く最適化されています。NVIDIAは、今後5年間で260億ドルを投じてオープンソースAIモデルを構築する戦略計画を発表し、中国のオープンソースモデルが世界市場で急速に台頭していることに直接対応しています。

Nemotron 3 Superの技術アーキテクチャ:三つの希少なコンポーネントの深い融合

Nemotron 3 Superの設計の核心は、多エージェントシステムにおける根本的な課題—ツール呼び出し、推論ステップ、コンテキストフラグメントごとに大量のデータを最初から再送信する必要があり、コストが急増し、モデルの予測から逸脱すること—を解決することにあります。NVIDIAは、同一アーキテクチャ内でほとんど共存しない三つのコンポーネントを統合しました。

Mamba-2ステートスペース層は、注意機構の代替として、長いトークンフローの処理速度が速く、メモリ効率も高いです。Transformerの注意層は、情報の正確なリコールを保証します。新たに導入された「潜在混合エキスパート(Latent MoE)」設計は、ルーティング前にトークンを圧縮し、同じ計算コストで4倍のエキスパートモジュールを起動できるようにしています。

モデルは、NVIDIA独自のNVFP4フォーマットでネイティブに事前訓練されており、最初の勾配更新から4ビット精度で学習し、高精度訓練後の圧縮による精度低下を回避しています。コンテキストウィンドウは100万トークンに達し、コードベース全体や約75万の英語語彙を完全に格納可能です。

性能基準と企業応用

以下は、Nemotron 3 Superの推論スループットに関する重要な比較データです。

OpenAI GPT-OSS 120Bと比較して: 2.2倍高速

Alibaba Qwen3.5-122Bと比較して: 7.5倍高速

前世代モデルと比較して: 全体的なスループットが5倍以上向上

NVIDIAは、Hugging Face上のモデルウェイト、1兆個の厳選された事前訓練サンプル(合計250兆以上のサンプルを使用)、4千万の訓練後サンプル、そして21種類の環境設定を含む強化学習プランを含む訓練プロセスを完全に公開しています。現在、Perplexity、Palantir、Cadence、Siemensなどがこのモデルをワークフローに統合しています。

260億ドルの戦略的意図:中国のオープンソースモデルの世界的台頭への対応

Nemotron 3 Superの発表は、NVIDIAのより大きな戦略の一環です。NVIDIAの深層学習研究副社長Bryan Catanzaroは、『Wired』誌に対し、同社は最近、パラメータ数が5,500億のモデルの事前訓練を完了したと述べ、5年間で260億ドルを投じてオープンソースAIを構築する計画も同時に公開しました。

この戦略的背景は非常に緊迫しています。OpenRouterとAndreessen Horowitzの調査によると、中国のオープンソースモデルの世界的な使用率は2024年末の1.2%から2025年末には約30%に急上昇しています。AlibabaのQwenは、MetaのLlamaを超え、最も広く使用されているセルフホストのオープンソースモデルとなっています(Runpodデータ)。DeepSeekの次世代モデルはHuaweiのチップ上で完全に訓練されたと報じられており、もし本当なら、世界中の開発者にとって中国ハードウェアを採用する強力なインセンティブとなるでしょう。これはまさに、NVIDIAがオープンソース戦略を通じて対抗すべき状況です。

よくある質問

Nemotron 3 SuperはQwenやGPT-OSSと比べてどのような優位性がありますか?

推論スループットの面では、Nemotron 3 SuperはOpenAI GPT-OSS 120Bより2.2倍高速であり、Alibaba Qwen3.5-122Bより7.5倍高速です。主な違いは、Mamba-Transformer MoEのハイブリッドアーキテクチャと、ネイティブのNVFP4 4ビット精度訓練により、同じ計算コストでより多くのエキスパートモジュールを起動できる点にあります。これにより、前世代よりも5倍以上のスループット向上を実現しています。

なぜNVIDIAは今、260億ドルを投じてオープンソースAIモデルを構築するのですか?

主な理由は二つあります。一つは、中国のオープンソースモデルエコシステムと中国のチップの閉鎖的なエコシステムを防ぎ、NVIDIAのグローバルなAIインフラにおける中核的地位を弱めること。もう一つは、NVIDIAハードウェアに最適化されたオープンソースモデルを通じて、自社チップの調達粘着性を高めることです。中国のオープンソースモデルの世界市場シェアは1.2%から約30%に急上昇しており、その緊迫したタイミングは明白です。

Nemotron 3 Superの訓練データとモデルウェイトは完全に公開されていますか?

はい。NVIDIAはHugging Face上で、モデルウェイト、1兆個の厳選された事前訓練サンプル、4千万の訓練後サンプル、そして21種類の環境設定を含む強化学習プランを公開しており、技術的な透明性は多くの商用モデルよりも高いです。

原文表示
免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし