ما هو هندسة التحكيم؟ ساحة المعركة التالية للذكاء الاصطناعي ليست النماذج، بل الطبقة المعمارية خارج النماذج

في عام 2026، ظهر إجماع جديد في صناعة الذكاء الاصطناعي: لم يعد تحديد جودة منتج الذكاء الاصطناعي يعتمد على النموذج نفسه، بل على الطبقة الموجودة حول النموذج والتي تُسمّى «harness». ومع تقارب النماذج الأساسية المستخدمة في Claude Code وCursor وOpenClaw بشكل متزايد، فإن ما يوسع الفجوة الفعلية بين المنتجات هو تصميم harness. تشير المدونة التقنية لدى Martin Fowler، ومسؤول منتج Anthropic trq212، وكلمات Andrej Karpathy الأخيرة، جميعها إلى الاتجاه نفسه: ساحة المعركة التالية للذكاء الاصطناعي هي Harness Engineering.

ما هو Agent Harness

يمكن تقسيم وكيل ذكاء اصطناعي (AI agent) إلى جزأين: النموذج (Model) وHarness. النموذج هو الدماغ، وهو مسؤول عن فهم اللغة والاستدلال. أمّا Harness فهو كل شيء خارج النموذج — استدعاء الأدوات، إدارة الذاكرة، تجميع السياق، حفظ الحالة بشكل مستمر، معالجة الأخطاء، إجراءات الحماية الآمنة، جدولة المهام، وإدارة دورة الحياة.

بتشبيه توضيحي: LLM هو حصان، وharness هو لجام الحصان — الحبال (اللجام) والسرج وبنية الوصل بين الحصان والمركبة. إذا لم توجد تجهيزات، فلن يجرّ الحصان القوي العربة. وبالمثل، حتى لو كان نموذج وكيل الذكاء الاصطناعي ذكيًا، فلن يستطيع إنجاز المهام الفعلية بشكل موثوق من دون harness جيد.

طرح Akshay Pachaar تشبيهًا آخر في تغريدة انتشرت على نطاق واسع: «LLM مكشوف مثل CPU بدون نظام تشغيل — يمكنه الحساب، لكن لا يستطيع فعل أي شيء مفيد بمفرده». Harness هو نظام التشغيل.

لماذا أصبحت Harness Engineering فجأة مهمة في 2026

الأسباب ثلاثة:

أولًا، تتجه قدرات النماذج إلى التجانس. الفروقات في معظم اختبارات القياس بين GPT-5.4 وClaude Opus 4.6 وGemini 3.1 Pro تقلّصت إلى نطاق أرقام مئوية واحدية. عندما لا يعود النموذج هو عنق الزجاجة، تنتقل عملية تمايز المنتج طبيعيًا إلى طبقة harness.

ثانيًا، انتقل الوكيل من التجارب إلى الإنتاج. كانت أغلب وكالات 2025 مجرد عروض (demo)، بينما يجب أن تعمل وكالات 2026 في بيئات الشركات — أي إنها تحتاج إلى التعامل مع الاستئناف بعد الانقطاع، التشغيل طويل الأمد، المهام متعددة الخطوات، والتحكم في الصلاحيات. وهذه كلها أعمال harness.

ثالثًا، LLM بطبيعته عديم الحالة. في كل مرة يبدأ session جديد من الصفر، ولا يتذكر النموذج المحادثة السابقة. يتولى Harness مسؤولية حفظ الذاكرة والسياق والتقدم في العمل بشكل مستمر، ليتمكن الوكيل من العمل باستمرارية مثل «زميل حقيقي» في فريق العمل.

المكونات الأساسية لـ Harness

عادةً ما يتضمن harness كامل لوكيل ذكاء اصطناعي عدة طبقات:

المكوّن الوظيفة القياس Orchestration Loop يتحكم في حلقة «تفكير → فعل → ملاحظة» الخاصة بالوكيل الحلقة الرئيسية لنظام التشغيل Tool Management إدارة الأدوات التي يمكن للوكيل استخدامها (قراءة/كتابة ملفات، استدعاء API، عمليات المتصفح… إلخ) محرك التشغيل Context Engineering تحديد أي معلومات يتم إرسالها إلى النموذج في كل مرة من الاستدعاء، وما الذي يجب قصّه هندسة السياق إدارة الذاكرة إدارة الذاكرة حفظ الحالة حفظ التقدم في العمل وسجل المحادثات والنتائج الوسيطة محرك الأقراص Error Recovery اكتشاف حالات الفشل وإعادة المحاولة تلقائيًا أو الرجوع للخلف استرداد الأخطاء معالجة الاستثناءات Safety Guardrails تقييد نطاق سلوك الوكيل لمنع العمليات الخطرة جدار الحماية Verification Loops جعل الوكيل يقوم بفحص جودة مخرجاته بنفسه اختبارات وحدات ثلاث طبقات من الهندسة: Prompt وContext وHarness

يمكن تقسيم ممارسات هندسة LLM إلى ثلاث طبقات متداخلة، على شكل دوائر متحدة المركز:

أعمق طبقة هي Prompt Engineering — تصميم التعليمات المُرسلة إلى النموذج، وهو ما يحدد «كيف يفكر» النموذج. هذه كانت المهارة السائدة في 2023.

الطبقة الوسطى هي Context Engineering — إدارة «ماذا يرى» النموذج. تحدد أي معلومات تُرسل إلى نافذة السياق في أي وقت، وأي معلومات ينبغي قصّها. ومع توسع نافذة السياق إلى مئات الملايين من التوكنات، بدأت أهمية هذه الطبقة بالظهور في 2025.

أما الطبقة الخارجية فهي Harness Engineering — وتشمل ما سبق، بالإضافة إلى البنية التحتية الكاملة للتطبيق: تنسيق الأدوات، حفظ الحالة بشكل مستمر، استرداد الأخطاء، حلقات التحقق، آليات الأمان، وإدارة دورة الحياة. وهذه هي ساحة المعركة الأساسية في 2026.

مثال: لماذا يظهر أن النموذج نفسه يختلف أداءه اختلافًا كبيرًا بين منتجات مختلفة

يمكن لـ Claude Opus 4.6 إعادة هيكلة كامل قاعدة كود مشروع في Claude Code خلال ساعة واحدة تقريبًا. لكن عندما تُربط النموذج نفسه عبر API مع harness بدائي، فقد لا يستطيع حتى إصلاح أخطاء تمتد عبر ملفات متعددة. الفرق ليس في النموذج، بل في harness.

ماذا فعلت harness الخاصة بـ Claude Code؟

  • بحث تلقائي في كامل قاعدة الكود للعثور على الملفات ذات الصلة بدلًا من مطالبة المستخدم بتحديدها واحدًا تلو الآخر
  • قراءة محتوى الملفات قبل التعديل، ثم تشغيل الاختبارات والتحقق بعد التعديل
  • إذا فشلت الاختبارات، يقوم بتحليل الخطأ تلقائيًا وإعادة المحاولة
  • الاتصال بأدوات خارجية عبر MCP (GitHub، قواعد البيانات… إلخ)
  • نظام ذاكرة يحفظ تفضيلات المستخدم وسياق المشروع عبر الجلسات (session)
  • استراتيجية Advisor تجعل نماذج مختلفة القدرات تعمل معًا بشكل تكاملي

كل ذلك يعود إلى إنجازات harness.

Feedforward وFeedback: نمطا التحكم الرئيسيان في Harness

وفقًا لتحليل المدونة التقنية لدى Martin Fowler، تُقسم آليات التحكم في harness إلى نوعين:

Feedforward (التحكم بالاستباق)— يتم إعداد القواعد قبل أن ينفذ الوكيل أفعاله، من أجل منع المخرجات غير المرغوبة. مثال: قواعد السلوك داخل system prompt، وقوائم الأدوات المسموح بها (white list)، وصلاحيات الوصول للملفات.

Feedback (التحكم بالاستجابة)— يتم فحص النتائج بعد تنفيذ أفعال الوكيل، مع السماح للتصحيح الذاتي. مثال: تنفيذ الاختبارات للتأكد من صحة الكود، ومقارنة المخرجات مع تنسيق متوقع، واكتشاف الهلوسة ثم إعادة التوليد.

يستخدم harness الجيد كلا نمطي التحكم معًا: يقيّد نطاق السلوك مع الحفاظ على المرونة.

تسويق Harness Engineering كمنتج: كيف تفعل Anthropic ذلك

تحديثات المنتجات التي أطلقتها Anthropic بشكل مكثف في أبريل 2026، كانت في الأساس كلها عبارة عن تحويل harness engineering إلى منتجات:

Managed Agents — تحويل البنية التحتية لـ harness (sandbox، الجدولة، إدارة الحالة) إلى خدمة مُدارة، بحيث يعرّف المطور فقط سلوك الوكيل Advisor strategy — بنية خلط بين نماذج على مستوى harness، تقرر تلقائيًا متى ينبغي استشارة نموذج أقوى Cowork النسخة الخاصة بالشركات — توفير harness كامل للمستخدمين غير التقنيين (التحكم في الصلاحيات، إدارة الإنفاق، تحليلات الاستخدام) حتى لا يحتاجوا إلى فهم التقنية الأساسية

كانت صياغة مسؤول منتج Anthropic trq212 أدق ما يكون: «Prompting هي مهارة في الحديث مع الوكيل، لكنها تُدار/يُوسَطُها harness. هدفّي الأساسي هو زيادة عرض الحزمة (القدرة على نقل البيانات) بين البشر والوكيل».

معنى ذلك للمطورين: وظائف ومهارات جديدة

تتحول Harness Engineering إلى مجال هندسي مستقل. مجموعة المهارات التي يتطلبها تختلف عن هندسة الباك-إند التقليدية أو هندسة ML:

  • فهم حدود قدرات LLM وأنماط الفشل
  • تصميم استدعاءات أدوات موثوقة وتسلسلات معالجة الأخطاء
  • إدارة نافذة context — متى تضع أي معلومات
  • بناء قابلية الملاحظة (observability) — تتبع مسارات قرارات الوكيل واستخدام الأدوات
  • تصميم الأمان — تقييد نطاق سلوك الوكيل دون خنق قدراته

بالنسبة لمن يتعلم Vibe Coding أو يستخدم أدوات الذكاء الاصطناعي لتطوير البرامج، فإن فهم مفهوم harness سيساعدك على التعاون بشكل أكثر فعالية مع وكيل الذكاء الاصطناعي — لأنك ستعرف أين المشكلة: هل في النموذج أم في harness، وكيف يمكن تحسين النتائج عبر تعديل إعدادات harness (بدلًا من تغيير prompt بشكل متكرر).

الخلاصة: صراع البنية التحتية للحقبة القادمة

لن يتوقف التنافس على نماذج الذكاء الاصطناعي، لكن العائدات الحدّية تتناقص. المنافسة على طبقة harness بدأت للتو — من يستطيع بناء harness الأكثر موثوقية ومرونة وأمانًا، سيكون قادرًا على تحويل قدرات النموذج نفسها إلى تجربة منتج أفضل.

وهذا يفسر أيضًا لماذا تتحول Anthropic وOpenAI وGoogle من «شركات نماذج» إلى «شركات منصات»: ما تبيعه لم يعد مجرد واجهات برمجة نموذجية (model API)، بل البنية التحتية الكاملة لـ harness. بالنسبة للمطورين، فهم harness engineering ليس خيارًا اختياريًا، بل هو مهارة أساسية لبناء المنتجات في عصر الذكاء الاصطناعي.

هذه المقالة: ما هي Harness Engineering؟ ساحة المعركة التالية للذكاء الاصطناعي ليست النموذج، بل الطبقة المعمارية الموجودة خارج النموذج ظهرت لأول مرة في لينك/قناة أخبار ABMedia.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.

مقالات ذات صلة

Google 推出 Deep Research Max: يدعم MCP، ويمكنه الوصول إلى بيانات الشركات الخاصة

وفقًا لإعلان Google DeepMind الرسمي في المدونة، أطلقت Google في 21 أبريل 2026 الجيل الجديد من وكلاء الأبحاث الذاتية Deep Research وDeep Research Max، المبنيين على Gemini 3.1 Pro، بعد النسخة التجريبية التي تم توفيرها في ديسمبر 2025 عبر Interactions API. ويتاح الآن الوكيلان في صورة public preview ضمن خطط الدفع على Gemini API، وسيتكامل المستخدمون من الشركات الناشئة على Google Cloud والمستخدمون المؤسسيون تدريجيًا. توجد تحديدات مختلفة للنسختين: تفاعلي vs بحث عميق غير متزامن قسّمت Google الوكيلين وفقًا لسياقات الاستخدام: Deep Research

ChainNewsAbmediaمنذ 1 س

منشئو AI16Z وELIZAOS يواجهون دعوى قضائية جماعية بشأن الإعلانات الكاذبة والإثراء غير المشروع

رسالة أخبار البوابة، 21 أبريل — قدمت شركة Burwick Law دعوى قضائية جماعية اتحادية في محكمة الولايات المتحدة الجزئية للمنطقة الجنوبية من نيويورك (SDNY) ضد منشئي AI16Z وELIZAOS، بما في ذلك Walters، مدعيةً انتهاكات قوانين حماية المستهلك، والإعلانات الكاذبة، والإثراء غير المشروع

GateNewsمنذ 5 س

كُوبو تطلق محفظة وكيلة مدعومة بالذكاء الاصطناعي تدعم أكثر من 80 بلوكتشين مع أمان الحوسبة متعددة الأطراف

رسالة أخبار Gate، 21 أبريل — كشفت شركة كُوبو لحفظ الأصول الرقمية، ومقرها سنغافورة، عن Cobo Agentic Wallet في 20 أبريل، وهو منتج جديد مصمم لتمكين أنظمة الذكاء الاصطناعي من تنفيذ معاملات بلوكتشين بشكل مستقل ضمن إطار آمن ومتحكم به. تتيح المحفظة

GateNewsمنذ 6 س

OpenAI تُعد ميزة Agents لـ ChatGPT، تحمل الاسم الرمزي Hermes

رسالة أخبار Gate، 21 أبريل — تستعد OpenAI لإطلاق ميزة جديدة للـ Agents في ChatGPT، تحمل الاسم الرمزي "Hermes"، وفقًا لـ Tibor Blaho، الذي يتابع تحديثات منتجات الذكاء الاصطناعي. تتضمن الميزة أداة بناء agents جديدة باسم "studio" تتيح للمستخدمين إنشاء agents من القوالب، وجدولة عمليات التشغيل، و

GateNewsمنذ 6 س

بروتوكول MCP يتعرض لثغرة تنفيذ تعليمات عن بُعد على مستوى التصميم؛ رفضت Anthropic إجراء تغييرات معمارية

رسالة أخبار البوابة، 21 أبريل — كشفت شركة الأمان OX Security عن ثغرة (إتاحة تنفيذ تعليمات عن بُعد) على مستوى التصميم في (MCP )نموذج بروتوكول سياق النموذج، وهو المعيار المفتوح لعملاء الذكاء الاصطناعي لاستدعاء أدوات خارجية، والذي تقوده Anthropic. يمكن للمهاجمين تنفيذ أوامر تعسفية على أي نظام يعمل بتطبيق MCP عرضة للخطر، والحصول على بيانات المستخدم وقواعد البيانات الداخلية ومفاتيح API وسجلات المحادثات لأي

GateNewsمنذ 8 س

مؤسسة 0G تتعاون مع Alibaba Cloud لإتاحة Qwen LLM على السلسلة لوكلاء الذكاء الاصطناعي

بوابة الأخبار، 21 أبريل — عقدت مؤسسة 0G شراكة مع Alibaba Cloud لدمج سلسلة نماذج اللغة الكبيرة Qwen على السلسلة. ومن خلال آلية مُرمّزة بالرموز، يمكن للمطورين تضمين وصول مباشر إلى Qwen داخل بنيتهم التحتية، ما يلغي الحاجة إلى إدارة الحسابات التقليدية والتسوية بالعملات الورقية، مع تمكين الوصول البرمجي عند الطلب إلى حوسبة الذكاء الاصطناعي. في هذا التصميم، يتم تنفيذ الاستدلال على Qwen بينما تتم معالجة التحقق بواسطة 0G، لتأسيس أساس حوسبي وثقة للأنظمة الذاتية للذكاء الاصطناعي. يمكن للمطورين الآن الاستفادة من طبقة البيانات القابلة للتحقق لدى 0G لبناء سير عمل لوكلاء متعدد الخطوات بنسبة 100% قابلة للتدقيق. تم تحسين إصدار Qwen 3.6 الأحدث للذكاء الاصطناعي الوكيلي، حيث يوفر دعمًا قويًا للاستدلال لوكلاء الذكاء الاصطناعي في الأنظمة اللامركزية. يتيح هذا التعاون لوكلاء الذكاء الاصطناعي المستقلين الوصول إلى نماذج من المستوى الأعلى مباشرة عبر سلسلة الكتل. يمثل هذا الشراكة تحولًا في بنية تحتية للذكاء الاصطناعي من نماذج واجهات برمجة التطبيقات التقليدية إلى أنظمة قابلة للبرمجة ومُرمّزة بالرموز. ومع توسع قدرات الذكاء الاصطناعي على السلسلة، يحصل المطورون على أدوات جديدة لإنشاء تطبيقات ذكاء اصطناعي لامركزية وقابلة للتحقق.

GateNewsمنذ 8 س
تعليق
0/400
لا توجد تعليقات