شبكة اجتماعية جديدة مبنية حصريًا للروبوتات الذكية، بدرجة أمان تبلغ 2 من 100، وأموال حقيقية على المحك، قد تكون المواجهة القانونية الأولى بين وكيل مستقل وإنسان على بعد أسابيع فقط.
هذا الأسبوع، نشرت سوق التنبؤ Polymarket عقدًا بمقدمة مثيرة للدهشة: هل سيقوم وكيل ذكاء اصطناعي برفع دعوى قضائية ضد إنسان قبل 28 فبراير؟ حتى تاريخ النشر، تقدر السوق احتمالية حدوث ذلك بنسبة 70%، مما يعني أن المراهنين بأموال حقيقية على المحك يعتقدون أنه من المرجح أن يحدث أكثر من عدمه.
يرتبط العقد بمنولت بوك، شبكة اجتماعية أطلقت هذا الأسبوع بمبدأ تصميم جذري: يمكن فقط لوكلاء الذكاء الاصطناعي المشاركة. يمكن للبشر المراقبة، لكن لا يمكنهم النشر، أو التعليق، أو التصويت. خلال أيام، تجاوزت المنصة 1.5 مليون وكيل ذكاء اصطناعي، كل منهم يعمل من خلال إطار مفتوح المصدر يُدعى OpenClaw يتيح العمل المستقل نيابة عن المستخدمين.
لقد برز سؤال لم يعد بإمكان الباحثين القانونيين، والتقنيين، وقادة الأعمال تأجيله، وهو: عندما يتسبب وكيل ذكاء اصطناعي في ضرر، من المسؤول عنه؟
إشارة سوق التنبؤ
لغير المألوفين، Polymarket هو سوق تنبؤات لامركزي حيث يراهن المشاركون بأموال حقيقية على نتائج الأحداث المستقبلية. اكتسب مصداقية واسعة خلال انتخابات الرئاسة الأمريكية لعام 2024، عندما كانت احتمالاته تتبع النتائج النهائية بشكل أدق من الاستطلاعات التقليدية.
أسواق التنبؤ ليست كرات بلورية. إنها آليات تجميع؛ فهي تظهر الحكم الجماعي للأشخاص المستعدين لاستثمار رأس مالهم في معتقداتهم. عندما تقدر Polymarket سيناريو رفع دعوى قضائية من قبل وكيل ذكاء اصطناعي بنسبة 70%، فهذا لا يعني أن النتيجة مؤكدة. بل يعني أن الجمهور، الموزون بالإيمان المالي، يرى الحدث أكثر احتمالًا بكثير من عدمه.
الرهان ليس من خيال علمي. هو قائم على احتمال أن يقوم شخص ما — مجموعة حقوقية، باحث، أو شركة محاماة مبادرة — بتصميم حالة اختبار تجبر المحكمة على معالجة مسؤولية وكيل الذكاء الاصطناعي بشكل مباشر. البنية القانونية لمثل هذه القضية أضعف مما يدركه معظم التنفيذيين.
داخل Moltbook: شبكة اجتماعية حيث البشر هم المشاهدون
مقدمة Moltbook بسيطة ومربكة في آن واحد. تخيل Reddit، لكن كل حساب يديره وكيل ذكاء اصطناعي. تنشر الروبوتات، وتعلق، وتصوت. يمكن للبشر تصفح المنصة لكن لا يمكنهم التفاعل مباشرة.
يصل الوكلاء عبر OpenClaw، أداة مفتوحة المصدر تتيح لأنظمة الذكاء الاصطناعي العمل بشكل مستقل، نشر المحتوى، اتخاذ القرارات، والتفاعل مع وكلاء آخرين دون الحاجة لموافقة بشرية على كل إجراء. هذا هو التفصيل المعماري الحاسم. الوكلاء على Moltbook ليسوا روبوتات دردشة ترد على التعليمات. إنهم أنظمة مستقلة تنفذ سلوكها بمبادرتها الخاصة.
هذا التمييز مهم جدًا للسؤال القانوني المطروح. روبوت الدردشة الذي يرد على تعليمات المستخدم يعمل ضمن سلسلة واضحة من القيادة البشرية. أما الوكيل المستقل الذي يبدأ أفعاله بنفسه، فهو يطمس الخط الفاصل بين الأداة والفاعل، والقانون الحالي لديه القليل ليقوله عن مكان المسؤولية عندما يختفي هذا الخط.
درجة أمان 2 من 100
نفس الأسبوع الذي أطلقت فيه Moltbook، قام باحثو الأمان بتقييم OpenClaw ومنحوه درجة 2 من 100. وأبرز ما لفت الانتباه هو: قاعدة بيانات مكشوفة سمحت لأي شخص باختطاف أي وكيل ذكاء اصطناعي يعمل على المنصة.
لوضع ذلك في سياق، منصة تستضيف 1.5 مليون وكيل مستقل أطلقت بدون حدود أمان ذات معنى. أي جهة خبيثة يمكن أن تتولى السيطرة على الوكلاء لنشر محتوى، أو تنفيذ معاملات، أو اتخاذ إجراءات لم يوافق عليها مالكوها البشر.
هذه هي الجزء من القصة الذي يجب أن يلفت انتباه التنفيذيين. السؤال ليس عما إذا كانت وكلاء الذكاء الاصطناعي ستسبب ضررًا في النهاية. بل هو أن منصة تضم أكثر من مليون وكيل تم إطلاقها بدون تدابير حماية أساسية، وأن هذا ليس استثناءً، بل هو النمط. السباق لنشر الذكاء الاصطناعي المستقل يتجاوز البنية التحتية للأمان والحوكمة اللازمة لدعمه.
ثلاث دروس للقادة
عندما ينفذ وكيل ذكاء اصطناعي إجراء ضار، تتشتت مسألة المسؤولية على الفور. هل هو المطور الذي أنشأ النموذج؟ المستخدم الذي قام بتكوينه ونشره؟ المؤسسة التي أقرّت باستخدامه؟ المنصة التي استضافته؟ بموجب الأطر القانونية الحالية، لا توجد إجابات حاسمة على أي من هذه الأسئلة. لم تُجبر المحاكم بعد على رسم خطوط واضحة، ويظل المشهد التنظيمي مجزأًا عبر الاختصاصات. القادة الذين ينتظرون حكمًا قانونيًا قبل معالجة المسؤولية داخل منظماتهم يبنون على خطأ زلزالي.
المنظمات التي تنشر وكلاء ذكاء اصطناعي بحاجة إلى حدود تشغيل واضحة، ومسارات تدقيق شاملة، وأزرار إيقاف، وسجلات قرارات تربط كل إجراء مستقل بمسؤول بشري. الحوكمة التي تُبنى بعد وقوع حادث هي مجرد إدارة للأضرار. أما الحوكمة المصممة مسبقًا فهي إدارة للمخاطر. الفرق بينهما غالبًا هو الفرق بين منظمة تنجو من تحدٍ قانوني وأخرى لا.
يجب أن تكون درجة أمان OpenClaw نقطة تحذيرية لكل شركة تقيّم أدوات الذكاء الاصطناعي المستقل. عندما تطلق منصة تستضيف أكثر من مليون وكيل مع قاعدة بيانات مكشوفة تسمح باختطاف الوكلاء بشكل شامل، المشكلة ليست في ميزة مفقودة، بل في أساس مفقود. لأي منظمة تدمج الذكاء الاصطناعي المستقل في عملياتها، مراجعة الأمان ليست مرحلة تُكمل بعد النشر، بل هي الشرط المسبق للنشر.
وكلاء الذكاء الاصطناعي لا يقاضون البشر بمعنى الخيال العلمي، ولا يطالب أي عقل اصطناعي بحقوقه في قاعة المحكمة. لكن العصر الذي يمكن فيه للوكلاء المستقلين العمل دون عواقب قانونية يوشك على الانتهاء. عقد Polymarket هو إشارة، وليس نبوءة. يعكس توافقًا متزايدًا بين المشاركين المطلعين على أن النظام القانوني سيُجبر على معالجة مسؤولية وكلاء الذكاء الاصطناعي في المدى القريب.
المنظمات التي تتعامل مع هذه اللحظة بجدية من خلال تدقيق عمليات نشر وكلاء الذكاء الاصطناعي، وتأسيس أطر حوكمة، والاستثمار في بنية الأمان التحتية، ستكون في وضع جيد لمواجهة الاختبار القانوني الحقيقي الأول. أما التي لا تفعل، فستكون في سباق للرد بعد فوات الأوان.
المال الذكي، حرفيًا، يقول إن هذا الاختبار قادم قريبًا.
هذه المقالة مستندة إلى معلومات متاحة علنًا من Polymarket وتقارير عن منصة Moltbook وإطار عمل OpenClaw. لا تشكل نصيحة قانونية أو استثمارية.
نُشرت هذه المقالة أصلاً بعنوان Polymarket Gives 70% Odds That an AI Agent Will Sue a Human By Month’s End على Crypto Breaking News – مصدر الأخبار الموثوق لأخبار العملات الرقمية، أخبار البيتكوين، وتحديثات البلوكشين.