أعلنت Rakuten بشكل علني عن "أكبر نموذج ذكاء اصطناعي في اليابان"، واكتشفت المجتمعات أن النواة الأساسية هي DeepSeek V3

動區BlockTempo

مجموعة 乐天 اليوم أطلقت Rakuten AI 3.0 بشكل كبير، وتروّج له على أنه “أكبر نموذج ذكاء اصطناعي عالي الأداء في اليابان”، وتدعي أنه نموذج MoE (خبراء مختلطون) تم تطويره داخليًا ويحتوي على 671 مليار معلمة ومفتوح المصدر مجانًا، إلا أنه خلال ساعات قليلة كشف المجتمع عن ملف config.json على منصة HuggingFace، والذي يوضح بوضوح: model_type: deepseek_v3، وهو في الواقع نسخة معدلة من DeepSeek V3 باللغة اليابانية.
(ملخص سابق: بلومبرغ: ظهور DeepSeek بقوة، والصين تشكل “تهديدًا كبيرًا” لهيمنة الذكاء الاصطناعي الأمريكية)
(معلومات إضافية: إعلان DeepSeek V4 عن التخلي عن بطاقات NVIDIA! إلى أين وصلت معركة “الاستقلالية في القدرة الحاسوبية” للذكاء الاصطناعي في الصين؟)

مؤسس ومدير تنفيذي لمجموعة 乐天، هيروشي ميكيتاني، أعلن اليوم عن Rakuten AI 3.0 بشكل كبير، واصفًا إياه بأنه “أكبر نموذج ذكاء اصطناعي عالي الأداء في اليابان”، ومؤكدًا أنه مفتوح المصدر تمامًا بموجب ترخيص Apache 2.0، ويدعي أنه يتفوق على GPT-4o في العديد من الاختبارات القياسية باللغة اليابانية. وبعد إصدار الإعلان بوقت قصير، كشف المجتمع عن تفاصيل محرجة.

عند فتح صفحة النموذج على منصة HuggingFace، يُكتب بوضوح في ملف config.json: model_type: deepseek_v3، وarchitectures: DeepseekV3ForCausalLM.

إجمالي المعلمات 671 مليار، تفعيل الاستدلال 37 مليار، نافذة السياق 128 ألف وحدة، وكل رقم يتطابق تمامًا مع DeepSeek V3. بعبارة أخرى، Rakuten AI 3.0 ليس نموذجًا تم تطويره ذاتيًا، بل هو نسخة مبنية على DeepSeek V3 مع تعديل باللغة اليابانية.

تمويل حكومي، لكن الأساس هو نموذج من الصين

الأهم من ذلك هو هوية هذا النموذج الرسمية. Rakuten AI 3.0 هو نتيجة مشروع GENIAC (تحدي تسريع الذكاء الاصطناعي التوليدي) الذي يشارك فيه وزارة الاقتصاد والصناعة اليابانية (METI) ووكالة تطوير تقنيات صناعة الطاقة الجديدة (NEDO)، وقد حصل على دعم جزئي من قدرة الحوسبة للتدريب من الحكومة اليابانية.

وفي الإعلان، اكتفى 乐天 بذكر “الاستفادة الكاملة من أفضل نتائج المجتمع المفتوح” كمصدر أساسي للنموذج، دون الإشارة إلى DeepSeek.

مدى قوة DeepSeek V3؟

صدر DeepSeek V3 في ديسمبر 2024، وهو النموذج الرائد المفتوح المصدر الذي أطلقته شركة DeepSeek الصينية، وتكلفته التدريبية حوالي 5 إلى 6 ملايين دولار فقط، أي أقل بأكثر من 20 مرة من GPT-4، ومع ذلك حقق توازنًا وتفوقًا في العديد من الاختبارات القياسية، مما أثار ضجة في مجتمع الذكاء الاصطناعي.

وبما أن DeepSeek يستخدم ترخيص Apache 2.0 المفتوح، يمكن لأي شخص استخدامه تجاريًا، وتعديله، وإعادة نشره دون قيود قانونية. لكن “الشرعية” و"الشفافية" ليستا الشيء ذاته.

إليك مواصفات المعلمات لنموذج Rakuten AI 3.0:

  • الهيكل: MoE (خبراء مختلطون)، مبني على DeepSeek V3
  • إجمالي المعلمات: 671 مليار، تفعيل الاستدلال: 37 مليار
  • نافذة السياق: 128 ألف وحدة
  • تحسين اللغة: يركز بشكل رئيسي على اليابانية
  • الترخيص: Apache 2.0 (لا قيود على الاستخدام التجاري)

لقد تسرب تأثير DeepSeek إلى مستوى مثير للاهتمام، حيث أن عملاق التجارة الإلكترونية الياباني مثل 乐天، الذي يستفيد من دعم الحكومة في قدرات الحوسبة، يقوم بتعديل نموذج مفتوح المصدر من الصين، ثم يضع علامته التجارية ويطلقه. لم ينفق DeepSeek على التسويق، لكنه أصبح أفضل إعلان لنفسه.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات