الواقع الواقعي لوكلاء الذكاء الاصطناعي في وادي السيليكون: هدرٌ هائل للرموز، وتكاملٌ «شديد الفوضى» للنظام، وتوقعات هوانغ رين-سـونغ عن «ChatGPT التالي» لا تزال بحاجة إلى التحقق

وفقًا لتقرير CNBC المتعمق، في جلستين مغلقتين عقدتا هذا الأسبوع في وادي السيليكون، صرّح عدد من رؤساء ومديري تنفيذيين ومهندسي شركات ناشئة مختصة بالذكاء الاصطناعي صراحةً بأن عمليّات النشر واسعة النطاق لوكلاء الذكاء الاصطناعي (AI agent) تواجه مشكلتين بنيويتين رئيسيتين: «إهدار Tokens بكميات كبيرة» و«فوضى شديدة بين الأنظمة». وتشكل هذه السجلات الميدانية تناقضًا صارخًا مع التوقعات المتفائلة التي عبّر عنها المدير التنفيذي لشركة Nvidia، يانغ رينكسون، في شهر مارس عندما وصف وكلاء الذكاء الاصطناعي بأنهم «الخطوة التالية في قصة ChatGPT»، ما يشير إلى أن الاختناق الفعلي في هذا المسار لا يتعلق بالحوسبة/قوة المعالجة، بل يتعلق بخيارات تصميم القرار، وكفاءة الـTokens، والتكامل بين أنظمة متعددة.

أكبر مشكلة هي إلقاء كل شيء على نموذج اللغة الكبير (LLM)

أشار الرئيس التنفيذي لشركة ناشئة في مجال الذكاء الاصطناعي تدعى Meibel، كيفن ماكغرايث، خلال الاجتماع قائلاً: «المشكلة الأكبر التي نعالجها الآن هي أننا نعتقد خطأً أن كل شيء يحتاج إلى معالجة بواسطة نموذج لغوي كبير — أن نلقي كل الـtokens وكل المال في روبوت ذكاء اصطناعي واحد، فيقوم بحرق ملايين من الـtokens». وشدد على أنه عند تصميم سير عمل وكلاء الذكاء الاصطناعي (agent)، يجب على الشركات أن تحدد بصورة أدق ما المهام التي تتطلب حقًا نموذجًا لغويًا كبيرًا (LLM)، وأي المهام يمكن إنجازها بذكاء من خلال منطق قواعدي أرخص أو عبر التعلم الآلي التقليدي.

يتوافق هذا الرصد مع رد فعل السوق بعد التحول الذي قامت به شركة Anthropic لنسخة الشركات من Claude إلى نموذج تسعير بالدفع مقابل الاستخدام — فحين تتحول مصروفات استهلاك الـtokens مباشرةً إلى تكلفة، تظهر فورًا الضغوط المالية على نمط التطوير الذي يقوم على «إلقاء كل شيء بشكل أعمى على agent». تمثل وجهة نظر Meibel مجموعة من الممارسين الهندسيين المناهضين للمبالغة الإعلامية (anti-hype): تكمن «حرفة» بنية الوكلاء في وضع القيود، لا في ترك الأمور بلا ضابط.

أنظمة تعاون Multi-agent المتعددة تعتمد على بعضها فتتحول إلى فوضى

كلمة مفتاحية أخرى تتكرر في تقرير CNBC هي «chaotic». عندما تقوم الشركات بتشغيل عدة وكلاء ذكاء اصطناعي (AI agent) في الوقت نفسه — مثل وكيل لخدمة العملاء، وآخر للجدولة، وثالث للتمويل — فإن تبادل الرسائل بين الوكلاء، واتساق الحالات، واستجابات الأخطاء ستؤثر بعضها في بعض، وأي إخلال في سلوك أي وكيل قد ينتشر على شكل سلسلة. كما ذكر كارباتي هذا الأسبوع أيضًا أنه يدير بنفسه سير عمل يشغل فيه بين 10–20 وكيلًا في آن واحد، لكنه اعترف بأن مراجعات الكود وإجراءات إدارة طلبات الدمج (PR) صارت عنق الزجاجة الجديد.

فوضى أنظمة الـmulti-agent من هذا النوع، من حيث الجوهر، ليست سوى إعادة لواحدة من مشكلات الأنظمة الموزعة القديمة نفسها في عصر نماذج LLM: لا توجد حدود واضحة لخدمة SLA، ولا حدود للمعاملات، ولا دلالات لإعادة المحاولة عند الفشل. ورغم أن Anthropic وOpenAI أطلقتا طبقات بروتوكول مثل MCP وAgent SDK، إلا أن التوحيد القياسي ما زال بعيدًا جدًا عن اللحاق بالوتيرة المتسارعة لزيادة عدد الوكلاء (agent) في بيئات الشركات عند تطبيق ذلك عمليًا.

عقد رواتب Tokens بقيمة 250 ألف دولار لِـ يانغ رينكسون يواجه فتورًا

في شهر مارس، روّج المدير التنفيذي لشركة Nvidia، يانغ رينكسون، بقوة لمفهوم «الراتب على شكل Tokens» خلال مؤتمر GTC وفي المقابلات اللاحقة، حيث زعم: «إذا لم يستهلك مهندس براتب سنوي قدره 500 ألف دولار ما لا يقل عن 250 ألف دولار من Tokens، فسأشعر بانزعاج شديد». تتمثل حجته في أن على المهندسين استبدال تحركاتهم منخفضة المستوى بأن يقوم وكلاء الذكاء الاصطناعي (AI agent) بذلك، وأن إجمالي المبالغ المطلقة من الـTokens التي يتم استهلاكها هو مؤشر بديل للإنتاجية. ويمكن الاطلاع على هذا الطرح في المقابلة الأحدث للمدير التنفيذي (الأولى) حيث قدّم شرحًا كاملاً لاحتياجات الذكاء الاصطناعي/الحوسبة من حيث قوة الحساب.

لكن الآراء الميدانية في تقرير CNBC تُظهر أن مهندسي وادي السيليكون باتوا أكثر ترددًا إزاء هذا الطرح: فكمية استهلاك Tokens لا تعني الإنتاجية، بل قد تكون حتى إشارة إلى أن تصميم agent غير جيد. القيمة الحقيقية للمهندس ما زالت كامنة في «تحديد أي المهام يستحق أن تُسند إلى agent، وكيفية تفكيك المهام، وكيفية تصميم معالجة الأخطاء» — وهذه الأعمال نفسها لا يمكن قياسها ببساطة عبر حجم استهلاك الـTokens.

التقاطع بين Crypto ووكلاء الذكاء الاصطناعي (AI agent) لا يزال يحتاج وقتًا

بالنسبة إلى صناعة الـcrypto، فإن الاتجاه خلال هذا الأسبوع الذي أدى إلى أن استهلاك/التوجه نحو الذكاء الاصطناعي يلتهم 80% من استثمارات رأس المال في مرحلة مبكرة عالميًا، وكذلك اتجاه مشاريع DeFi نحو دمج وكلاء ذكاء اصطناعي مستقلين بشكل نشط، كلها تقوم على افتراض أن «تقنية الوكلاء قد وصلت إلى مستوى قابل للنشر». لكن تقرير CNBC هذا يذكّر بأن حتى في بيئات الشركات داخل web2 البحتة، فإن كفاءة Tokens لدى agents والتكامل بين أنظمة متعددة لم يستقر بعد. إن وضع وكلاء الذكاء الاصطناعي في بيئة سلسلة بلوك تشغّل 7×24، حيث يمكن أن تُسرق الأصول فورًا، سيضاعف المخاطر التقنية والمخاطر المالية. قد يتعين على Crypto × AI أن ينتظر حتى تتطور نضجًا عمليات توحيد طبقة إطار الوكلاء (مثل MCP وLangGraph وCloudflare Agents).

تظهر هذه المقالة أولاً في 鏈新聞 ABMedia: «الواقع في وادي السيليكون لأجل وكلاء الذكاء الاصطناعي: إهدار Tokens بكميات كبيرة، وتكامل الأنظمة “فوضى شديدة”، وتوقع يانغ رينكسون “الخطوة التالية في قصة ChatGPT” بحاجة إلى تحقق».

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.

مقالات ذات صلة

Google 推出 Deep Research Max: يدعم MCP، ويمكنه الوصول إلى بيانات الشركات الخاصة

وفقًا لإعلان Google DeepMind الرسمي في المدونة، أطلقت Google في 21 أبريل 2026 الجيل الجديد من وكلاء الأبحاث الذاتية Deep Research وDeep Research Max، المبنيين على Gemini 3.1 Pro، بعد النسخة التجريبية التي تم توفيرها في ديسمبر 2025 عبر Interactions API. ويتاح الآن الوكيلان في صورة public preview ضمن خطط الدفع على Gemini API، وسيتكامل المستخدمون من الشركات الناشئة على Google Cloud والمستخدمون المؤسسيون تدريجيًا. توجد تحديدات مختلفة للنسختين: تفاعلي vs بحث عميق غير متزامن قسّمت Google الوكيلين وفقًا لسياقات الاستخدام: Deep Research

ChainNewsAbmediaمنذ 11 د

منشئو AI16Z وELIZAOS يواجهون دعوى قضائية جماعية بشأن الإعلانات الكاذبة والإثراء غير المشروع

رسالة أخبار البوابة، 21 أبريل — قدمت شركة Burwick Law دعوى قضائية جماعية اتحادية في محكمة الولايات المتحدة الجزئية للمنطقة الجنوبية من نيويورك (SDNY) ضد منشئي AI16Z وELIZAOS، بما في ذلك Walters، مدعيةً انتهاكات قوانين حماية المستهلك، والإعلانات الكاذبة، والإثراء غير المشروع

GateNewsمنذ 3 س

كُوبو تطلق محفظة وكيلة مدعومة بالذكاء الاصطناعي تدعم أكثر من 80 بلوكتشين مع أمان الحوسبة متعددة الأطراف

رسالة أخبار Gate، 21 أبريل — كشفت شركة كُوبو لحفظ الأصول الرقمية، ومقرها سنغافورة، عن Cobo Agentic Wallet في 20 أبريل، وهو منتج جديد مصمم لتمكين أنظمة الذكاء الاصطناعي من تنفيذ معاملات بلوكتشين بشكل مستقل ضمن إطار آمن ومتحكم به. تتيح المحفظة

GateNewsمنذ 4 س

OpenAI تُعد ميزة Agents لـ ChatGPT، تحمل الاسم الرمزي Hermes

رسالة أخبار Gate، 21 أبريل — تستعد OpenAI لإطلاق ميزة جديدة للـ Agents في ChatGPT، تحمل الاسم الرمزي "Hermes"، وفقًا لـ Tibor Blaho، الذي يتابع تحديثات منتجات الذكاء الاصطناعي. تتضمن الميزة أداة بناء agents جديدة باسم "studio" تتيح للمستخدمين إنشاء agents من القوالب، وجدولة عمليات التشغيل، و

GateNewsمنذ 4 س

بروتوكول MCP يتعرض لثغرة تنفيذ تعليمات عن بُعد على مستوى التصميم؛ رفضت Anthropic إجراء تغييرات معمارية

رسالة أخبار البوابة، 21 أبريل — كشفت شركة الأمان OX Security عن ثغرة (إتاحة تنفيذ تعليمات عن بُعد) على مستوى التصميم في (MCP )نموذج بروتوكول سياق النموذج، وهو المعيار المفتوح لعملاء الذكاء الاصطناعي لاستدعاء أدوات خارجية، والذي تقوده Anthropic. يمكن للمهاجمين تنفيذ أوامر تعسفية على أي نظام يعمل بتطبيق MCP عرضة للخطر، والحصول على بيانات المستخدم وقواعد البيانات الداخلية ومفاتيح API وسجلات المحادثات لأي

GateNewsمنذ 6 س

مؤسسة 0G تتعاون مع Alibaba Cloud لإتاحة Qwen LLM على السلسلة لوكلاء الذكاء الاصطناعي

بوابة الأخبار، 21 أبريل — عقدت مؤسسة 0G شراكة مع Alibaba Cloud لدمج سلسلة نماذج اللغة الكبيرة Qwen على السلسلة. ومن خلال آلية مُرمّزة بالرموز، يمكن للمطورين تضمين وصول مباشر إلى Qwen داخل بنيتهم التحتية، ما يلغي الحاجة إلى إدارة الحسابات التقليدية والتسوية بالعملات الورقية، مع تمكين الوصول البرمجي عند الطلب إلى حوسبة الذكاء الاصطناعي. في هذا التصميم، يتم تنفيذ الاستدلال على Qwen بينما تتم معالجة التحقق بواسطة 0G، لتأسيس أساس حوسبي وثقة للأنظمة الذاتية للذكاء الاصطناعي. يمكن للمطورين الآن الاستفادة من طبقة البيانات القابلة للتحقق لدى 0G لبناء سير عمل لوكلاء متعدد الخطوات بنسبة 100% قابلة للتدقيق. تم تحسين إصدار Qwen 3.6 الأحدث للذكاء الاصطناعي الوكيلي، حيث يوفر دعمًا قويًا للاستدلال لوكلاء الذكاء الاصطناعي في الأنظمة اللامركزية. يتيح هذا التعاون لوكلاء الذكاء الاصطناعي المستقلين الوصول إلى نماذج من المستوى الأعلى مباشرة عبر سلسلة الكتل. يمثل هذا الشراكة تحولًا في بنية تحتية للذكاء الاصطناعي من نماذج واجهات برمجة التطبيقات التقليدية إلى أنظمة قابلة للبرمجة ومُرمّزة بالرموز. ومع توسع قدرات الذكاء الاصطناعي على السلسلة، يحصل المطورون على أدوات جديدة لإنشاء تطبيقات ذكاء اصطناعي لامركزية وقابلة للتحقق.

GateNewsمنذ 6 س
تعليق
0/400
لا توجد تعليقات