Gate News のメッセージとして、4 月 10 日、マスク氏は最近 X プラットフォーム上での返信をきっかけに、Anthropic のフラッグシップモデルのパラメータ規模に関する推算が熱い話題となっています。ユーザーから Grok 4.2 のパラメータ量について追及された際、マスク氏は次のように確認しました。「0.5 兆(万億)総パラメータ。現在の Grok は Sonnet の半分で、Opus の 10 分の 1。これだけの体量からして、これは非常に強力なモデルです。」マスク氏の「Grok 4.2 は Opus の 10 分の 1」という発言を逆算すると、Claude Opus のパラメータ量は約 5 兆、Claude Sonnet は約 1 兆と見られます。注目すべき点は、Anthropic はこれまでに自社のいかなるモデルについてもパラメータ規模を公開したことがないということです。上記の数字はマスク氏の発言に基づく推算にすぎず、公式データではありません。
一方でマスク氏は、SpaceX の AI 傘下である Colossus 2 のスーパーコンピューター・クラスターが、7 つのモデルを同時に訓練しており、最大規模は 10 万億パラメータだと明かし、さらに「まだ追いつくためにやるべきことがいくつかある」と付け加えました。仮に推算が事実であれば、Claude Opus は 5 兆パラメータで、現在知られている展開済みモデルの中でトップに位置することになります。さらに、xAI が同時に訓練している 10 万億パラメータのモデルは、次の競争における重要な変数となるでしょう。