Tin tức Gate News, ngày 17 tháng 3, Anthropic đăng tuyển vị trí “Quản lý chính sách vũ khí hóa học và chất nổ có độ nổ cao” trên LinkedIn, yêu cầu ứng viên có ít nhất 5 năm kinh nghiệm trong lĩnh vực phòng chống vũ khí hóa học và/hoặc chất nổ, và hiểu biết về thiết bị phân tán phóng xạ (bom bẩn). Anthropic cho biết, vị trí này nhằm ngăn chặn AI của họ, Claude, bị sử dụng cho “lạm dụng thảm khốc”, lo ngại rằng Claude có thể bị khai thác để lấy thông tin về chế tạo vũ khí hóa học hoặc phóng xạ, cần các chuyên gia đánh giá xem các biện pháp an toàn hiện tại có đủ chặt chẽ hay không. Một công ty AI khác cũng đăng tuyển vị trí tương tự trên trang tuyển dụng, hướng tới nghiên cứu rủi ro sinh học và hóa học, mức lương cao nhất lên tới 455,000 USD. Về vấn đề này, Tiến sĩ Stephanie Hare, đồng dẫn chương trình và nhà nghiên cứu công nghệ của BBC chương trình “AI Decoded”, đặt câu hỏi: “Việc để hệ thống AI xử lý thông tin về hóa chất nhạy cảm, chất nổ và vũ khí phóng xạ, có thực sự an toàn không? Dù đã ra lệnh cho AI không được sử dụng những thông tin này.” Bà cũng chỉ ra rằng hiện tại chưa có bất kỳ điều ước quốc tế hoặc quy định nào điều chỉnh công việc này cũng như việc kết hợp AI với các loại vũ khí như vậy, “mọi thứ này đều diễn ra ngoài tầm nhìn của công chúng”.