وفقًا لمتابعة 1M AI News، أدى أسلوب عمل آلية اكتشاف إساءة الاستخدام لدى Anthropic إلى إثارة موجة جديدة من الجدل بعد أن حجبت في عطلة نهاية الأسبوع الماضية أدوات طرف ثالث مثل OpenClaw، وذلك بعد استخدام حدود اشتراك Claude.
قام مؤسس OpenClaw، Peter Steinberger، بإجراء تجربة على X في 5 أبريل: لم يستخدم OpenClaw، بل أرسل طلبًا عاديًا باستخدام معلمة -p الخاصة بأداة سطر الأوامر المملوكة لـ Claude (وهي واجهة أتمتة مدمجة تتيح للمطورين استدعاء Claude عبر السكربتات بشكل مجمّع دون الحاجة إلى إدخال الأوامر يدويًا واحدة تلو الأخرى)، وكانت «المخالفة» الوحيدة هي كتابة جملة واحدة في رسالة التوجيه الخاصة بالنظام: «A personal assistant running inside OpenClaw». ونتيجة لذلك، اعترض Claude فورًا، وأظهر رسالة تفيد بأن التطبيقات التابعة لجهات خارجية يجب أن تقتطع من استخدام إضافي. وبعبارة أخرى، لا يتحقق نظام الكشف من خلال أي أداة قام المستخدم فعليًا باستدعاء Claude، بل يقوم بمسح محتوى رسالة التوجيه؛ وعندما يجد «OpenClaw» يقوم بالحظر.
قام الرئيس التنفيذي لشركة Y Combinator، Garry Tan، بإعادة النشر مع تساؤل: «متى يمكن أن تتوقف هذه الحدود؟ هل يسمح Anthropic فقط بمطالبة المستخدم بإدخال ضغط زر الإدخال (Enter) لكي يُحسب ذلك استخدامًا للاشتراك؟ وهل سيصبح مطلوبًا لاحقًا استخدام FaceID للتحقق؟»
رد مسؤول Claude Code، Boris Cherny، في 7 أبريل، قائلاً إن الفريق يعتقد أن نظام اكتشاف إساءة الاستخدام قد تم تشغيله بشكل مفرط، وهو بصدد التحقيق وإصلاح المشكلة في الوقت نفسه، مع تحسين شروط استخدام معلمة -p.