أخبار Gate، في 17 مارس، نشرت شركة Anthropic على LinkedIn وظيفة “مدير سياسة الأسلحة الكيميائية والمتفجرات عالية القوة”، يتطلب من المتقدمين أن يكون لديهم خبرة لا تقل عن 5 سنوات في مجال الدفاع عن الأسلحة الكيميائية و/أو المتفجرات، وأن يكونوا على دراية بأجهزة التشتت الإشعاعي (القنابل القذرة). وأوضحت Anthropic أن الهدف من هذا المنصب هو منع استخدام أدوات الذكاء الاصطناعي الخاصة بها، Claude، في “الاستخدام المضر والكارثي”، حيث يخشون من أن يُستخدم Claude للحصول على معلومات حول تصنيع الأسلحة الكيميائية والإشعاعية، ويحتاجون إلى خبراء لتقييم مدى كفاية التدابير الأمنية الحالية. كما نشرت شركة ذكاء اصطناعي أخرى وظيفة مماثلة على صفحة التوظيف، تتعلق بالباحث في المخاطر البيولوجية والكيميائية، براتب سنوي يصل إلى 455,000 دولار. وفي هذا الصدد، أعربت الدكتورة ستيفاني هير، مقدمة برنامج “AI Decoded” والباحثة في التكنولوجيا، عن شكوكها قائلة: “هل من الآمن حقًا أن تتعامل أنظمة الذكاء الاصطناعي مع معلومات حساسة حول المواد الكيميائية والمتفجرات والأسلحة الإشعاعية، حتى لو تم إصدار أوامر بعدم استخدام هذه المعلومات؟” وأشارت أيضًا إلى أنه لا توجد حتى الآن أي معاهدة دولية أو لوائح تنظم هذا النوع من العمل أو استخدام الذكاء الاصطناعي مع هذه الأسلحة، “كل ذلك يحدث خارج نطاق الرؤية العامة”.