تحت شركة Tether، أعلنت وحدة البيانات والذكاء الاصطناعي QVAC في 17 مارس عن تقدم تقني كبير، حيث أطلقت أول إطار لتعديل LoRA عبر المنصات يدعم بنية BitNet (1-bit LLM) من مايكروسوفت. تقلل هذه التقنية المدمجة في QVAC Fabric بشكل كبير من متطلبات الذاكرة والحساب، مما يجعل نماذج ذات مليار معلمة ليست حكرًا على وحدات GPU المؤسساتية، ويمكّن من تدريبها محليًا وخصوصيًا على الهواتف الذكية وأجهزة اللابتوب العادية.
(مقدمة سابقة: استثمار Tether في Axiym لتوسيع بنية الدفع: دفع USDT للاندماج في شبكة المدفوعات العالمية المتوافقة)
(معلومات إضافية: استثمار Tether في تقنيات الذكاء الاصطناعي والنوم! بقيادة Eight Sleep بمبلغ 50 مليون دولار، وتقييم الشركة يصل إلى 1.5 مليار دولار)
فهرس المقال
Toggle
في مجال الذكاء الاصطناعي، يُعتبر تدريب النماذج القوية دائمًا مرادفًا لـ"حرق الأموال"، حيث يعتمد بشكل كبير على أنظمة NVIDIA المكلفة أو الحوسبة السحابية. ومع ذلك، تحاول شركة Tether العملاقة للعملات المستقرة تغيير هذه القاعدة تقنيًا. أعلنت وحدة التكنولوجيا التابعة لـ Tether، “Tether Data”، في 17 مارس عن إطلاق أول إطار عبر المنصات لتعديل LoRA لنموذج BitNet من مايكروسوفت على مستوى العالم.
تكمن القيمة الأساسية لهذه التقنية في قدرتها على تمكين نماذج AI ذات “مليار معلمة” (Billion-parameter) من التعلم الشخصي مباشرة على هواتف المستخدمين.
يستند هذا التقدم الثوري إلى بنية BitNet 1-bit LLM التي أطلقتها مايكروسوفت. من خلال تحسينات QVAC Fabric، انخفض استهلاك الذاكرة والعبء الحسابي لنموذج BitNet إلى أدنى مستوى ممكن. وفقًا للإعلان، تدعم هذه الإطار ليس فقط وحدات GPU من NVIDIA، بل أيضًا معالجات Intel و AMD و Apple، بالإضافة إلى وحدات GPU المحمولة مثل Adreno (Android)، Mali، و Apple Bionic.
هذا يعني أن الذكاء الاصطناعي الذي كان يُشغل سابقًا في مراكز البيانات يمكن الآن أن يُجرب على هاتفك من خلال تقنية “الاقتران منخفض الرتبة” (LoRA). وأكدت Tether أن هذه التقنية تتيح للأجهزة الطرفية التعامل مع نماذج أكبر بمقدار ضعف النماذج Q4 التقليدية، مما يظهر تفوقًا في استهلاك الذاكرة.
شارك فريق Tether في الإعلان بيانات اختبارية مثيرة، تظهر قدرة الإطار على العمل في الهواتف الحديثة:
أكد Paolo Ardoino، المدير التنفيذي لـ Tether، دائمًا: “إذا كنت بحاجة إلى مفتاح API لاستخدام الذكاء الاصطناعي، فهو لا ينتمي إليك حقًا.” وتتمحور فكرة QVAC الأساسية حول “الأولوية المحلية” (Local-first).
من خلال إطار BitNet LoRA، يمكن للمستخدمين أن يجعلوا الذكاء الاصطناعي يتعلم مباشرة من البريد الإلكتروني، الملاحظات، والرسائل المحلية، دون الحاجة لرفع أي بيانات إلى السحابة. هذا لا يزيل فقط مخاوف الشركات من سوء استخدام البيانات الحساسة، بل يكسر أيضًا احتكار قلة من الشركات الكبرى لتطوير الذكاء الاصطناعي. حاليًا، تم إصدار QVAC Fabric LLM كمصدر مفتوح (ترخيص Apache 2.0)، مع توفير أدوات التهيئة المسبقة على منصة Hugging Face، لتمكين المطورين حول العالم من بدء ثورة الحوسبة الطرفية.