Gate Newsの報道によると、3月17日、楽天グループは「日本最大の高性能AIモデル」としてRakuten AI 3.0を発表し、Apache 2.0ライセンスの下で無料オープンソース化しました。このモデルはMoE(混合専門家)アーキテクチャを採用し、総パラメータは671B、推論時に活性化されるパラメータは37B、コンテキストウィンドウは128Kで、日本語に最適化されています。複数の日本語ベンチマークテストでGPT-4oを上回っています。
このモデルは、日本経済産業省と新エネルギー産業技術総合開発機構(NEDO)が共同推進するGENIACプロジェクトの成果であり、日本政府から一部のトレーニング計算資源の支援を受けています。楽天は発表の中で、「オープンソースコミュニティの最良の成果を十分に活用した」と述べ、具体的なモデル名には言及していません。
コミュニティはHuggingFaceに公開されたモデルファイルを確認し、config.jsonに「model_type: deepseek_v3」および「architectures: DeepseekV3ForCausalLM」と明記されていることから、総パラメータ671B、活性化37B、コンテキスト128KはDeepSeek V3と完全に一致しており、このモデルはDeepSeek V3を基に日本語データで微調整されたものであることが示されています。