شركة الذكاء الاصطناعي Anthropic تبحث عن خبير أسلحة لوقف المستخدمين من "الاستخدام الخاطئ"

شركة الذكاء الاصطناعي أنثروبيك تسعى لتوظيف خبير أسلحة كيماوية ومتفجرات عالية الإنتاجية لمنع الاستخدام الخاطئ

قبل 23 دقيقة

مشاركة حفظ

زويا كلاينمان، محررة التكنولوجيا

مشاركة حفظ

صور جيتي

تبحث شركة الذكاء الاصطناعي الأمريكية أنثروبيك عن توظيف خبير في الأسلحة الكيميائية والمتفجرات عالية الإنتاجية لمحاولة منع “الاستخدام الكارثي الخاطئ” لبرمجياتها.

بمعنى آخر، تخشى أن أدواتها الذكية قد تُعطي شخصًا ما معلومات عن كيفية صنع أسلحة كيماوية أو نووية، وتريد خبيرًا لضمان أن تكون حواجز الأمان لديها قوية بما يكفي.

في منشور التوظيف على لينكدإن، تقول الشركة إن على المتقدمين أن يكون لديهم خبرة لا تقل عن خمس سنوات في “الدفاع عن الأسلحة الكيميائية و/أو المتفجرات” بالإضافة إلى معرفة بـ"أجهزة التشتت الإشعاعي" — والمعروفة أيضًا بالقنابل القذرة.

قالت الشركة لـ BBC إن الدور مشابه للوظائف في مجالات حساسة أخرى أنشأتها بالفعل.

أنثروبيك ليست الشركة الوحيدة في مجال الذكاء الاصطناعي التي تتبع هذا النهج.

وقد أعلنت شركة OpenAI، مطورة ChatGPT، عن وظيفة مماثلة. على موقعها الإلكتروني للوظائف، تدرج وظيفة باحث في “المخاطر البيولوجية والكيميائية”، براتب يصل إلى 455,000 دولار (335,000 جنيه إسترليني)، وهو تقريبًا ضعف ما تعرضه أنثروبيك.

لكن بعض الخبراء يحذرون من مخاطر هذا النهج، مؤكدين أنه يمنح أدوات الذكاء الاصطناعي معلومات عن الأسلحة — حتى لو تم توجيهها بعدم استخدامها.

قالت الدكتورة ستيفاني هير، باحثة تكنولوجيا ومقدمة مشاركة لبرنامج BBC التلفزيوني “الذكاء الاصطناعي المشفر”: “هل من الآمن أبدًا استخدام أنظمة الذكاء الاصطناعي لمعالجة معلومات حساسة عن المواد الكيميائية والمتفجرات، بما في ذلك القنابل القذرة والأسلحة الإشعاعية الأخرى؟”

“لا توجد معاهدة دولية أو تنظيمات أخرى لهذا النوع من العمل، واستخدام الذكاء الاصطناعي مع هذه الأنواع من الأسلحة يحدث خارج الأنظار.”

حذرت صناعة الذكاء الاصطناعي باستمرار من التهديدات الوجودية المحتملة التي تفرضها تقنياتها، لكن لم يتم محاولة إبطاء تقدمها.

أصبح الأمر أكثر إلحاحًا مع دعوة الحكومة الأمريكية لشركات الذكاء الاصطناعي، وإطلاقها للحرب في إيران وعمليات عسكرية في فنزويلا.

لينكدإن

إعلان وظيفة شركة أنثروبيك الأمريكية للتوظيف لخبير في الأسلحة الكيميائية والمتفجرات عالية الإنتاجية للانضمام إلى فريق السياسات لديها

تتخذ أنثروبيك إجراءات قانونية ضد وزارة الدفاع الأمريكية، التي صنفتها كمخاطر في سلسلة التوريد عندما أصرت على عدم استخدام أنظمتها في الأسلحة الذاتية بالكامل أو المراقبة الجماعية للأمريكيين.

كتب المؤسس المشارك لأنثروبيك، داريو أموداي، في فبراير أنه لا يعتقد أن التكنولوجيا جيدة بما يكفي بعد، ويجب عدم استخدامها لهذه الأغراض.

قال البيت الأبيض إن الجيش الأمريكي لن يكون خاضعًا لسيطرة شركات التكنولوجيا.

تصنيف المخاطر يضع الشركة الأمريكية في نفس فئة شركة الاتصالات الصينية هواوي، التي تم وضعها على القائمة السوداء لأسباب أمنية وطنية مختلفة.

قالت شركة OpenAI إنها تتفق مع موقف أنثروبيك، لكنها تفاوضت على عقد خاص مع الحكومة الأمريكية، والتي تقول إنها لم تبدأ بعد.

لم يتم إيقاف مساعد أنثروبيك الذكي، المسمى كلود، بعد، وهو لا يزال مدمجًا في أنظمة تقدمها شركة بالانتير ويُستخدم حاليًا من قبل الولايات المتحدة في الحرب بين الولايات المتحدة وإسرائيل وإيران.

الشركات الكبرى تدعم أنثروبيك في معركتها ضد إدارة ترامب

رفعت أنثروبيك دعوى قضائية ضد الحكومة الأمريكية لأنها وصفتها بأنها خطر

قائد سلامة الذكاء الاصطناعي يقول إن “العالم في خطر” ويستقيل لدراسة الشعر

اشترك في نشرتنا الإخبارية “التكنولوجيا المشفرة” لمتابعة أهم أخبار وتوجهات التكنولوجيا في العالم. خارج المملكة المتحدة؟ اشترك هنا.

الذكاء الاصطناعي

العسكرية

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت