تتمثل المشكلة الأكبر في العديد من مشاريع الذكاء الاصطناعي على السلسلة، ليست في ضعف النموذج، بل في عدم قدرة العقود الذكية على الحكم بشكل موثوق بنتائج الاستدلال، فبمجرد أن يصبح الناتج غير قابل للتحقق، يظل الذكاء الاصطناعي في مستوى الأدوات المساعدة فقط.



@inference_labs بناءً على هذه الفجوة، يطور بنية تحتية للاستدلال القابل للتحقق، حيث يتم تفكيك عملية تنفيذ الاستدلال، وتوليد النتائج، وعمليات التحقق، ودمجها ضمن إطار يمكن التدقيق فيه.

وبهذه الطريقة، لم يعد يتم استدعاء الذكاء الاصطناعي كمنتج موثوق به بشكل فردي، بل يتم الاعتماد على نتائج حسابية تم التحقق من صحتها، مما يمنح الذكاء الاصطناعي القدرة على المشاركة في المنطق على السلسلة واتخاذ القرارات بشكل تلقائي.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت