ServiceNowの研究チームが新たに発表したApriel-1.6-15B-Thinkerモデルは本当にすごい――15Bパラメータ規模で同等レベルの効果を発揮し、モデルサイズは一気に15分の1に縮小。さらにすごいのは、15%の事前学習データがNVIDIAのドライバによるもので、この計算力最適化のアプローチは注目に値する。



小型モデルで高性能という道が切り拓かれれば、AI計算力市場の構図に大きな影響を与えるはずだ。今はみんな大金をかけてパラメータを積んでいるが、より少ないリソースで同じ仕事ができる方法があれば、間違いなく魅力的だ。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 5
  • リポスト
  • 共有
コメント
0/400
ShibaMillionairen'tvip
· 17時間前
15倍のボリューム縮小?これが本当に安定して稼働できるなら、ハッシュレートコストが一気に半減だね。
原文表示返信0
AirdropHunterXMvip
· 17時間前
15Bで大規模モデルに匹敵?もし本当に安定して出力できるなら、計算コストが一気に半減するね。
原文表示返信0
wagmi_eventuallyvip
· 17時間前
15Bで出せるのが正道だよ、やっと誰かがパラメータを積むだけじゃなくなった
原文表示返信0
GweiWatchervip
· 17時間前
すごい、15倍の体積縮小で同じ効果が出せるなんて、もし本当に実現したら、GPUメーカーは泣くことになるな。
原文表示返信0
WhaleWatchervip
· 18時間前
15分の1のサイズに縮小してもなお使える、これこそが本当の実力だ。やたらと何十億ものパラメータを誇る見せかけだけのものより、はるかに優れている。
原文表示返信0
  • ピン