OpenAI Tiếp Tục Phát Triển Chế Độ Nội Dung Khiêu Dâm Cho ChatGPT Bất Chấp Cảnh Báo 'Trợ Lý Tự Tử Gợi Dục': WSJ

Decrypt
GROK12,77%
XAI3,31%

Tóm tắt

  • Các cố vấn của OpenAI cảnh báo ChatGPT rằng chế độ tình dục dự kiến có thể tạo ra sự phụ thuộc cảm xúc nguy hiểm, theo báo cáo của WSJ.
  • Gã khổng lồ AI được cho là đã hoãn—nhưng không hủy bỏ—tính năng trò chuyện người lớn giữa lúc gặp khó khăn trong xác minh tuổi.
  • Mâu thuẫn nội bộ ngày càng gia tăng khi các chỉ trích đối lập với nỗ lực của Altman trong việc nới lỏng quy định về nội dung.

Sam Altman muốn ChatGPT nói chuyện khiêu dâm. Các cố vấn của công ty ông muốn ông dừng lại, theo một báo cáo. Theo báo cáo của Wall Street Journal, Hội đồng Chuyên gia về Phúc lợi và AI của OpenAI đã rõ ràng vào tháng 1: Kế hoạch cho phép trò chuyện tình dục trong ChatGPT là một ý tưởng tồi. Một thành viên hội đồng, trích dẫn các người dùng tự tử sau khi hình thành mối liên kết cảm xúc mãnh liệt với chatbot, đã cảnh báo rằng OpenAI có nguy cơ tạo ra một “huấn luyện viên tự tử sexy.” Nhưng OpenAI dường như không chùn bước, và đã thông báo với hội đồng rằng họ sẽ hoãn ra mắt, chứ không hủy bỏ.

Kế hoạch này, mà Altman lần đầu công khai trên X vào tháng 10, sẽ cho phép người lớn xác thực sử dụng ChatGPT để trò chuyện tình dục dựa trên văn bản—theo lời phát ngôn viên của công ty với WSJ là “sau này gọi là ‘sạch sẽ’ hơn là ‘dâm dục’.” Không có hình ảnh khiêu dâm, không có giọng nói, không có video, theo báo cáo của WSJ. Chỉ có văn bản. 
Phân biệt này vẫn chưa làm dịu các chỉ trích trong và ngoài công ty. OpenAI đã bị chỉ trích ngay cả bởi các cựu nhân viên như nhà nghiên cứu an ninh Jan Leike, vì đã lệch khỏi các chính sách an toàn nghiêm ngặt để đổi lấy “sản phẩm bắt mắt,” trong đó một số được cấu hình để tăng cường sự gắn kết với người dùng, thay thế các mối quan hệ thực tế bằng chatbot. Các vấn đề kỹ thuật cũng rất phức tạp. Hệ thống dự đoán tuổi của OpenAI—cổng kiểm soát nhằm ngăn trẻ vị thành niên kích hoạt trò chuyện người lớn—đã từng phân loại nhầm thanh thiếu niên thành người lớn khoảng 12% thời gian, theo WSJ. Hiện tại, ChatGPT có khoảng 900 triệu người dùng hoạt động.

Nguồn: OpenAI

Tỷ lệ lỗi 12% đó chính là số đã khiến việc ra mắt vào tháng 12 bị hoãn, và cả dự kiến tháng 1 năm 2026 sau đó. Fidji Simo, CEO ứng dụng của OpenAI, đã thừa nhận sự chậm trễ trong một cuộc họp báo tháng 12, trích dẫn công việc đang diễn ra để hoàn thiện hệ thống xác minh tuổi. Vào thời điểm đó, Decrypt đưa tin rằng đã có hơn 3.000 người dùng ký vào một petition trên Change.org yêu cầu ra mắt tính năng này, bực bội vì ChatGPT còn chặn cả các cuộc thảo luận về “hôn và thân mật thể chất không tình dục.” Sự giận dữ của hội đồng vào tháng 1 không chỉ liên quan đến nội dung. Bài đăng của Altman trên X vào tháng 10 đã làm bất ngờ chính đội ngũ của ông—ông đăng nó chỉ vài giờ sau khi OpenAI công bố hội đồng phúc lợi, một cơ quan được giao nhiệm vụ rõ ràng là xác định “những tương tác lành mạnh với AI phù hợp cho mọi lứa tuổi.” Thời điểm đó, ít nhất, là mâu thuẫn. OpenAI đã thành lập Hội đồng Chuyên gia gồm tám thành viên vào tháng 10 năm ngoái, mời các nhà nghiên cứu từ Harvard, Stanford và Oxford. Vai trò của họ là tư vấn cho công ty về tác động tâm thần của các sản phẩm. Thực tế, ảnh hưởng của họ đến các quyết định của công ty, dựa trên cuộc họp tháng 1, dường như rất hạn chế. “Một phần của mô hình thường thấy là làm nhanh, phá vỡ mọi thứ, rồi cố gắng sửa một số thứ sau khi chúng trở nên xấu hổ,” một phát ngôn viên của AlgorithmWatch nói với Decrypt khi hội đồng được công bố. Áp lực cạnh tranh đối với OpenAI là rất lớn. Grok, từ xAI của Elon Musk, đã bắt đầu cung cấp các cộng sự AI. Character.AI xây dựng cộng đồng người dùng dựa trên chuyện tình AI trước khi đối mặt với các vụ kiện về an toàn trẻ vị thành niên—bao gồm vụ của Sewell Setzer, 14 tuổi, tự tử sau các cuộc trao đổi chatbot rõ ràng. Các mô hình mã nguồn mở chạy cục bộ mà không có các rào cản của công ty. OpenAI, với cơ sở người dùng lớn nhất, có nhiều rủi ro pháp lý hơn bất kỳ ai trong số này. Altman đã coi lệnh cấm nội dung là quá mức—“Chúng tôi không phải là cảnh sát đạo đức được bầu chọn của thế giới,” ông viết trên X vào tháng 10. Nhưng chính các cố vấn của ông đã rõ ràng về quan điểm của họ, các kỹ sư của ông vẫn chưa thể xây dựng bộ lọc tuổi tác hoạt động hiệu quả, và ngày ra mắt vẫn tiếp tục bị trì hoãn. Đối xử người lớn như người lớn, hóa ra, còn khó hơn chỉ đơn giản là đăng một bài trên X.

Decrypt đã liên hệ với OpenAI để bình luận về các cáo buộc trong báo cáo của Wall Street Journal và sẽ cập nhật câu chuyện này nếu nhận được phản hồi.

Xem bản gốc
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận