ظهور وكيل Hermes Agent مفتوح المصدر للذكاء الاصطناعي، يمتلك ذاكرة طويلة المدى ويمكنه استبدال OpenClaw

MarketWhisper

Hermes Agent

بحث Nous Research يطلق رسميًا إطار عمل Hermes Agent مفتوح المصدر لوكلاء الذكاء الاصطناعي، وهو منافس مباشر لـ OpenClaw. وفي الوقت نفسه، توفر النسخة الرسمية أدوات كاملة لنقل الذاكرة والمهارات الخاصة بـ OpenClaw. يمتلك Hermes Agent آلية ذاكرة طويلة الأمد مبنية على SQLite، وبنية للتطور الذاتي ضمن «حلقة تعلم مغلقة (Closed Learning Loop)».

المحور التقني الأساسي لـ Hermes Agent: وكيل دائم وبنية للتطور الذاتي

تستخدم روبوتات الدردشة التقليدية تصميمًا قائمًا على الأسئلة والأجوبة؛ ففي كل مرة تنتهي المحادثة يتم مسح السياق. إن تحديد موقع Hermes Agent مختلف جوهريًا — فهو «نظام وكيل دائم»، يعمل لفترة طويلة داخل بيئة المستخدم، ويحتفظ بالمعلومات عبر جلسات متعددة من خلال آلية الذاكرة المعتمدة على SQLite + FTS5 للاسترجاع النصي الكامل، ما يجعل الوكيل لا يحتاج إلى إعادة بناء السياق من الصفر في كل مرة.

تكمن الفروق الأساسية في Hermes Agent في حلقة التعلم المغلقة: بعد اكتمال كل مهمة، يقوم النظام تلقائيًا بتنظيم سير التنفيذ وإنشاء ملفات مهارات (Skills) قابلة لإعادة الاستخدام؛ وفي المواقف المشابهة لاحقًا يتم استدعاؤها مباشرة، وبذلك يتشكل تدريجيًا فهم أعمق لسلوك المستخدم وتفضيلاته. من ناحية مزودي النماذج، يدعم OpenAI وAnthropic وOpenRouter وOllama، وأي نقاط نهاية مخصصة (Custom Endpoint) بصيغ API متوافقة مع OpenAI، بما في ذلك vLLM وSGLang، حيث يكون الخيار الأخير مفيدًا بشكل خاص للمطورين الذين يحتاجون إلى نشر النماذج محليًا.

إنجاز التثبيت خطوة بخطوة من 9 خطوات: من إعداد البيئة إلى ربط أدوات متقدمة

يعتمد سير تثبيت Hermes Agent على Quickstart الرسمي كخط أساس، حيث تغطي التسع خطوات إعداد البيئة، اختيار النموذج، ربط المنصات، وتوسيع الأدوات:

الخطوة الأولى: تثبيت بيئة أساسية: تنفيذ أمر تثبيت curl الرسمي، وبعد الانتهاء قم بإعادة تحميل مسار Shell (source ~/.bashrc أو ~/.zshrc)

الخطوة الثانية: إعداد مزود النموذج: باستخدام أمر hermes model لاختيار مزود LLM، مع دعم Nous Portal وOpenAI وAnthropic وOpenRouter، أو عبر الاتصال بنموذج محلي من خلال Custom Endpoint

الخطوة الثالثة: تشغيل حوار CLI: تنفيذ hermes للدخول إلى واجهة الوكيل، حيث يقوم النظام تلقائيًا بتحميل أدوات مثل بحث الويب، عمليات الملفات، وأوامر الطرفية وغيرها

الخطوة الرابعة: اختبار القدرة الأساسية للتنفيذ: عبر تشغيل أوامر الطرفية من خلال لغة طبيعية (مثل الاستعلام عن استخدام مساحة القرص) للتحقق من قدرة تنفيذ الأدوات؛ وباستخدام hermes -c لاستعادة سياق المحادثة الأخيرة

الخطوة الخامسة: ربط منصة الرسائل: تنفيذ hermes gateway setup لإكمال الإعداد التفاعلي للمنصات مثل Telegram وDiscord وSlack وWhatsApp

الخطوة السادسة: تفعيل وضع الصوت: بعد تثبيت حزمة voice قم بتشغيلها عبر /voice on، مع دعم إدخال الميكروفون وإخراج صوت TTS، ويمكن توسيعها إلى قنوات الصوت في Discord

الخطوة السابعة: تثبيت Skills وأتمتة الجدولة: استخدم hermes skills install لتثبيت الوحدات الوظيفية؛ وباستخدام لغة طبيعية أنشئ Cron Job، مثل «في كل يوم صباحًا الساعة 9:00 الاستعلام عن أخبار الذكاء الاصطناعي وإرسالها إلى Telegram»

الخطوة الثامنة: دمج محرر المطورين (ACP): بعد تثبيت ACP قم بتنفيذ hermes acp، ليتمكن الوكيل من توفير القدرات مباشرة داخل محررات مثل VS Code وZed وJetBrains

الخطوة التاسعة: ربط أدوات MCP الخارجية: أضف MCP Server (مثل GitHub) إلى ملف الإعداد، وقم بتوسيع قدرة تكامل الأدوات الخارجية عبر Model Context Protocol

من ناحية الأمان، توصي النسخة الرسمية بتبديل واجهة تشغيل الطرفية إلى نمط حاوية Docker لضمان تنفيذ جميع أوامر الوكيل داخل بيئة معزولة، دون التأثير على نظام المضيف.

الانتقال الفوري من OpenClaw: نقل الذاكرة والمهارات والإعدادات بالكامل

توفر Hermes Agent الرسمية أمر hermes claw migrate، والذي يمكنه قراءة البيانات من ~/.openclaw/، ثم تجميع الشخصية (SOUL)، والذاكرة طويلة الأمد، ووحدات المهارات، وإعدادات النموذج، ومنصات التواصل، ومفاتيح API إلى النظام الجديد. قبل التنفيذ، يمكن إضافة الوسيط --dry-run لمعاينة محتوى التغييرات، ثم إجراء تأكيد بعد ذلك لتنفيذ الانتقال الكامل.

أثناء عملية الانتقال، سيتم دمج ملفات ذاكرة متعددة مع إزالة التكرارات وكتابتها في بنية ذاكرة Hermes؛ أما عناصر إعدادات النظام القديم غير المتوافقة (مثل plugins أو إعدادات channel المعقدة) فسيتم حفظها في archive لإجراء تعديلات يدوية. بعد اكتمال الانتقال، توصي النسخة الرسمية بالتحقق من صلاحية مفاتيح API، وإعادة تشغيل gateway واختبار وظيفة الاتصال، لضمان عمل الوكيل بالكامل بشكل طبيعي داخل بيئة Hermes.

الأسئلة الشائعة

ما هو الفرق الجوهري بين Hermes Agent وOpenClaw؟

كلاهما إطار عمل مفتوح المصدر لوكلاء الذكاء الاصطناعي، لكن Hermes Agent يمتلك آلية ذاكرة طويلة الأمد مبنية على SQLite + FTS5 وحلقة تعلم مغلقة، ما يمكّن الوكيل من الاحتفاظ بالخبرات عبر جلسات متعددة والتطور تدريجيًا. كما توفر النسخة الرسمية أداة انتقال كاملة بنقرة واحدة، بحيث يمكن لمستخدمي OpenClaw نقل إعدادات الذاكرة والمهارات الحالية دون خسارة.

هل يدعم Hermes Agent نشر النماذج محليًا دون الاعتماد على واجهات برمجة الواجهات السحابية؟

نعم. من خلال إعداد Custom Endpoint، يمكن لـ Hermes Agent الاتصال بخدمات استدلال محلية مثل Ollama وvLLM وSGLang أو أي خدمة استدلال محلية بأي صيغة API متوافقة مع OpenAI. هذا مناسب للمستخدمين الذين يركزون على خصوصية البيانات أو يحتاجون إلى بيئات غير متصلة بالإنترنت، ولا يتطلب تعديل أي كود للتبديل بين المزودين.

كيف يمكنني ضمان أمان نظام المضيف عند تشغيل أوامر الطرفية في Hermes Agent؟

توصي النسخة الرسمية بتبديل خلفية الطرفية إلى وضع Docker container بحيث يتم تنفيذ جميع أوامر الوكيل في بيئة معزولة بالكامل دون التأثير على ملفات المضيف وإعدادات النظام. وفي سيناريوهات تتطلب عزلًا أمنيًا أعلى، يتم أيضًا دعم التبديل إلى خلفية SSH لإجراء تنفيذ عن بعد.

إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.

مقالات ذات صلة

Google 推出 Deep Research Max: يدعم MCP، ويمكنه الوصول إلى بيانات الشركات الخاصة

وفقًا لإعلان Google DeepMind الرسمي في المدونة، أطلقت Google في 21 أبريل 2026 الجيل الجديد من وكلاء الأبحاث الذاتية Deep Research وDeep Research Max، المبنيين على Gemini 3.1 Pro، بعد النسخة التجريبية التي تم توفيرها في ديسمبر 2025 عبر Interactions API. ويتاح الآن الوكيلان في صورة public preview ضمن خطط الدفع على Gemini API، وسيتكامل المستخدمون من الشركات الناشئة على Google Cloud والمستخدمون المؤسسيون تدريجيًا. توجد تحديدات مختلفة للنسختين: تفاعلي vs بحث عميق غير متزامن قسّمت Google الوكيلين وفقًا لسياقات الاستخدام: Deep Research

ChainNewsAbmediaمنذ 1 س

منشئو AI16Z وELIZAOS يواجهون دعوى قضائية جماعية بشأن الإعلانات الكاذبة والإثراء غير المشروع

رسالة أخبار البوابة، 21 أبريل — قدمت شركة Burwick Law دعوى قضائية جماعية اتحادية في محكمة الولايات المتحدة الجزئية للمنطقة الجنوبية من نيويورك (SDNY) ضد منشئي AI16Z وELIZAOS، بما في ذلك Walters، مدعيةً انتهاكات قوانين حماية المستهلك، والإعلانات الكاذبة، والإثراء غير المشروع

GateNewsمنذ 5 س

كُوبو تطلق محفظة وكيلة مدعومة بالذكاء الاصطناعي تدعم أكثر من 80 بلوكتشين مع أمان الحوسبة متعددة الأطراف

رسالة أخبار Gate، 21 أبريل — كشفت شركة كُوبو لحفظ الأصول الرقمية، ومقرها سنغافورة، عن Cobo Agentic Wallet في 20 أبريل، وهو منتج جديد مصمم لتمكين أنظمة الذكاء الاصطناعي من تنفيذ معاملات بلوكتشين بشكل مستقل ضمن إطار آمن ومتحكم به. تتيح المحفظة

GateNewsمنذ 6 س

OpenAI تُعد ميزة Agents لـ ChatGPT، تحمل الاسم الرمزي Hermes

رسالة أخبار Gate، 21 أبريل — تستعد OpenAI لإطلاق ميزة جديدة للـ Agents في ChatGPT، تحمل الاسم الرمزي "Hermes"، وفقًا لـ Tibor Blaho، الذي يتابع تحديثات منتجات الذكاء الاصطناعي. تتضمن الميزة أداة بناء agents جديدة باسم "studio" تتيح للمستخدمين إنشاء agents من القوالب، وجدولة عمليات التشغيل، و

GateNewsمنذ 6 س

بروتوكول MCP يتعرض لثغرة تنفيذ تعليمات عن بُعد على مستوى التصميم؛ رفضت Anthropic إجراء تغييرات معمارية

رسالة أخبار البوابة، 21 أبريل — كشفت شركة الأمان OX Security عن ثغرة (إتاحة تنفيذ تعليمات عن بُعد) على مستوى التصميم في (MCP )نموذج بروتوكول سياق النموذج، وهو المعيار المفتوح لعملاء الذكاء الاصطناعي لاستدعاء أدوات خارجية، والذي تقوده Anthropic. يمكن للمهاجمين تنفيذ أوامر تعسفية على أي نظام يعمل بتطبيق MCP عرضة للخطر، والحصول على بيانات المستخدم وقواعد البيانات الداخلية ومفاتيح API وسجلات المحادثات لأي

GateNewsمنذ 8 س

مؤسسة 0G تتعاون مع Alibaba Cloud لإتاحة Qwen LLM على السلسلة لوكلاء الذكاء الاصطناعي

بوابة الأخبار، 21 أبريل — عقدت مؤسسة 0G شراكة مع Alibaba Cloud لدمج سلسلة نماذج اللغة الكبيرة Qwen على السلسلة. ومن خلال آلية مُرمّزة بالرموز، يمكن للمطورين تضمين وصول مباشر إلى Qwen داخل بنيتهم التحتية، ما يلغي الحاجة إلى إدارة الحسابات التقليدية والتسوية بالعملات الورقية، مع تمكين الوصول البرمجي عند الطلب إلى حوسبة الذكاء الاصطناعي. في هذا التصميم، يتم تنفيذ الاستدلال على Qwen بينما تتم معالجة التحقق بواسطة 0G، لتأسيس أساس حوسبي وثقة للأنظمة الذاتية للذكاء الاصطناعي. يمكن للمطورين الآن الاستفادة من طبقة البيانات القابلة للتحقق لدى 0G لبناء سير عمل لوكلاء متعدد الخطوات بنسبة 100% قابلة للتدقيق. تم تحسين إصدار Qwen 3.6 الأحدث للذكاء الاصطناعي الوكيلي، حيث يوفر دعمًا قويًا للاستدلال لوكلاء الذكاء الاصطناعي في الأنظمة اللامركزية. يتيح هذا التعاون لوكلاء الذكاء الاصطناعي المستقلين الوصول إلى نماذج من المستوى الأعلى مباشرة عبر سلسلة الكتل. يمثل هذا الشراكة تحولًا في بنية تحتية للذكاء الاصطناعي من نماذج واجهات برمجة التطبيقات التقليدية إلى أنظمة قابلة للبرمجة ومُرمّزة بالرموز. ومع توسع قدرات الذكاء الاصطناعي على السلسلة، يحصل المطورون على أدوات جديدة لإنشاء تطبيقات ذكاء اصطناعي لامركزية وقابلة للتحقق.

GateNewsمنذ 8 س
تعليق
0/400
لا توجد تعليقات