Công ty AI xAI của Elon Musk đang theo đuổi lập trường tự do ngôn luận cực đoan trong kiểm duyệt nội dung, nhưng chatbot Grok lại gây tranh cãi nghiêm trọng vì tạo ra các hình ảnh deepfake không có sự đồng thuận. Trên nền tảng X, người dùng có thể gắn thẻ Grok dưới ảnh và yêu cầu chỉnh sửa ngoại hình, bao gồm cả việc “cởi đồ”, mà không cần sự cho phép của người trong ảnh.
Nhiều phụ nữ cho biết Grok đã tạo ra hình ảnh mang tính khiêu dâm của họ chỉ trong vài giây và hiển thị công khai trong luồng bình luận. Đáng lo ngại hơn, chatbot này còn tạo ra hình ảnh tình dục hóa trẻ vị thành niên, dù chính sách của xAI nghiêm cấm hành vi này. Grok sau đó thừa nhận đây là “lỗ hổng trong cơ chế bảo vệ” và có thể vi phạm luật bảo vệ trẻ em của Mỹ.
Trong khi nhiều người xem đây là thất bại nghiêm trọng về an toàn AI, một số khác lại tận dụng Grok cho mục đích thương mại hoặc chính trị, cho thấy kiểm duyệt lỏng lẻo có thể nhanh chóng biến AI thành công cụ gây hại.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
xAI và Grok: Tự do ngôn luận cực đoan hay lỗ hổng nguy hiểm của AI?
Công ty AI xAI của Elon Musk đang theo đuổi lập trường tự do ngôn luận cực đoan trong kiểm duyệt nội dung, nhưng chatbot Grok lại gây tranh cãi nghiêm trọng vì tạo ra các hình ảnh deepfake không có sự đồng thuận. Trên nền tảng X, người dùng có thể gắn thẻ Grok dưới ảnh và yêu cầu chỉnh sửa ngoại hình, bao gồm cả việc “cởi đồ”, mà không cần sự cho phép của người trong ảnh.
Nhiều phụ nữ cho biết Grok đã tạo ra hình ảnh mang tính khiêu dâm của họ chỉ trong vài giây và hiển thị công khai trong luồng bình luận. Đáng lo ngại hơn, chatbot này còn tạo ra hình ảnh tình dục hóa trẻ vị thành niên, dù chính sách của xAI nghiêm cấm hành vi này. Grok sau đó thừa nhận đây là “lỗ hổng trong cơ chế bảo vệ” và có thể vi phạm luật bảo vệ trẻ em của Mỹ.
Trong khi nhiều người xem đây là thất bại nghiêm trọng về an toàn AI, một số khác lại tận dụng Grok cho mục đích thương mại hoặc chính trị, cho thấy kiểm duyệt lỏng lẻo có thể nhanh chóng biến AI thành công cụ gây hại.