作者:CJ_Blockchain
2025年2月3日、DeepSeek-R1モデルという名前のモデルが静かに国家超算インターネットプラットフォームに登場した。
その後の一ヶ月間、性能がトップクローズドモデルに直接匹敵し、訓練コストも「白菜価格」に匹敵することで、世界中を席巻した。
これにより米国株のAI株が暴落し、中国AIの「DeepSeek」時代の幕開けを告げた。

2026年3月10日、BittensorのSubnet 3 Templarは、史上最大規模の分散型大規模言語モデル(LLM)事前訓練運用——Covenant-72Bを完了したと発表した。
これは史上最大規模の分散型大規模言語モデルの事前訓練運用である。
Bittensorは自身のDeepSeek時代を迎えた。
Templarの前身はOmega Labs運営のSN3で、初期は多模態データの収集と掘り起こしに注力していた。Bittensorの仕組みの進化とともに、「データ運び屋」から「モデル鋳造師」への戦略的な飛躍を遂げた。
現在のTemplarは、世界的な分散大規模モデルの事前訓練基盤インフラとして位置付けられている。グローバルな異種計算資源をインセンティブで集約し、大規模モデル訓練における高コストと中央集権的検閲の問題を解決しようとしている。Covenant-72Bの成功は、この分散型生産モデルの成熟度を裏付けている。
Covenant-72Bは、Templarの成果のマイルストーンであり、現時点で最大規模の密なアーキテクチャの事前訓練モデルである。
72B規模のモデルを普通のインターネット環境で訓練する最大の課題は、ノード間通信帯域のボトルネックである。Templarは、コアアルゴリズムのSparseLoCoによって質的な突破を果たした。
この技術的アプローチは、InfiniBandのような高価な専用線クラスタがなくても、グローバルな分散ネットワークだけで最先端の知能を生み出せることを証明している。
Templarの技術成果は、主流のAI界隈と資本市場の注目を集めている。
Anthropic共同創設者のJack Clarkは、分析レポートでTemplarを「世界最大のアクティブな分散型訓練ネットワーク」と分類し、その成長速度は業界予想を超えていると指摘。
Jason Calacanis(All-In Podcast司会者、著名なシリコンバレー投資家)は、最近のブログでBittensorの仕組みを詳述し、皆に購入を促した。
GrayscaleはTAOを継続的に買い増し、分散型AIのコアポジションと位置付けている。
DCGはYumaを設立し、Bittensor(TAO)のエコシステム拡大に注力。これはDCGが分散型AI(decentralized AI)に最大かつ最も直接的に賭けている証拠。

$TAO:Templarが72Bモデルの訓練完了を発表した後、TAOは30%以上上昇し、BTCの変動相場の中でも絶対的な強さを示した。
$Templar (SN-3):Templarは7日間で75%上昇し、Bittensorの現行エミッション排出の主役と称される。現在の時価総額は7000万ドル。

Templarの成功は、Bittensorエコシステムに新たな想像空間をもたらした。
Templarの現在の時価総額=750万ドル、FDV=3.5億ドル
一方、主流の大規模モデル企業はOpenAIが8400億ドル、Anthropicが3500億ドル、Minimaxが450億ドルの評価を受けている。
Templarがこれらの企業と直接比較できるわけではないが、現在のストーリー不足、関心の散漫、分散型への信頼喪失の中で、Templarの登場は間違いなく分散型AIに新たな追い風をもたらしている。
Templarは、分散型環境がデータを保存するだけでなく、知能を生み出すことも証明した。Covenant-72Bはほんの始まりに過ぎず、SN3(事前訓練)、SN39(計算力)、SN81(強化学習)の縦断的統合により、ブロックチェーン上に運用される分散型のOpenAIの原型が浮かび上がっている。
Crypto業界は誕生以来、多くのストーリーを否定してきた。分散型ストレージや計算力、コンピューティングの流行も一見否定されたが、今なお分散の道を堅持し、成果を挙げるプロジェクトも存在している。
Templarの成功は、BittensorのDeepSeek時代だけでなく、CryptoのDeepSeek時代の到来をも示している。