Bạn còn nhớ khi hội đồng quản trị loại bỏ Sam khỏi vị trí CEO không? Có thể họ đã nhìn thấy điều gì mà chúng ta chưa thấy.
Có vẻ như một phòng thí nghiệm AI lớn đang triển khai các quy tắc an toàn mới cho các mô hình của họ. Họ đặc biệt tập trung vào việc xây dựng các giới hạn để ngăn chặn các kết quả gây hại. Phương pháp huấn luyện hiện nay bao gồm việc dạy các mô hình cách xử lý các yêu cầu rủi ro mà không thực sự thực thi chúng.
Thời điểm này thật thú vị, phải không? Các biện pháp an toàn này đến sau nhiều tháng tranh luận nội bộ về tốc độ phát triển AI so với trách nhiệm. Khung kỹ thuật liên quan đến việc kiểm tra nhiều lớp trước khi bất kỳ phản hồi nào của mô hình được tạo ra.
Điều khiến tôi chú ý là: họ không chỉ lọc các kết quả nữa. Dữ liệu huấn luyện còn được cấu trúc lại để tích hợp các yếu tố an toàn ngay từ ban đầu. Phương pháp khác so với việc kiểm duyệt phản ứng mà chúng ta đã thấy trước đây.
Tuy nhiên, vẫn còn nhiều câu hỏi về việc liệu các biện pháp bảo vệ này có thể theo kịp tốc độ phát triển của các hệ thống này không. Khoảng cách giữa khả năng và kiểm soát vẫn ngày càng mở rộng.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Việc Sam bị hất khỏi vị trí, bây giờ xem ra thật sự có chút đáng nghi... Những người này thực sự đang làm về các giao thức an ninh hay chỉ là làm cho có lệ thôi?
Xem bản gốcTrả lời0
GasFeeSobber
· 12-10 20:23
Haha, sau chuyện của Sam mới bắt đầu làm giao thức an ninh à? Có chút muộn rồi đấy
Xem bản gốcTrả lời0
YieldFarmRefugee
· 12-10 20:10
Nói trắng ra vẫn là sợ hãi, nghĩ đến là phải nhanh chóng khắc phục.
Bạn còn nhớ khi hội đồng quản trị loại bỏ Sam khỏi vị trí CEO không? Có thể họ đã nhìn thấy điều gì mà chúng ta chưa thấy.
Có vẻ như một phòng thí nghiệm AI lớn đang triển khai các quy tắc an toàn mới cho các mô hình của họ. Họ đặc biệt tập trung vào việc xây dựng các giới hạn để ngăn chặn các kết quả gây hại. Phương pháp huấn luyện hiện nay bao gồm việc dạy các mô hình cách xử lý các yêu cầu rủi ro mà không thực sự thực thi chúng.
Thời điểm này thật thú vị, phải không? Các biện pháp an toàn này đến sau nhiều tháng tranh luận nội bộ về tốc độ phát triển AI so với trách nhiệm. Khung kỹ thuật liên quan đến việc kiểm tra nhiều lớp trước khi bất kỳ phản hồi nào của mô hình được tạo ra.
Điều khiến tôi chú ý là: họ không chỉ lọc các kết quả nữa. Dữ liệu huấn luyện còn được cấu trúc lại để tích hợp các yếu tố an toàn ngay từ ban đầu. Phương pháp khác so với việc kiểm duyệt phản ứng mà chúng ta đã thấy trước đây.
Tuy nhiên, vẫn còn nhiều câu hỏi về việc liệu các biện pháp bảo vệ này có thể theo kịp tốc độ phát triển của các hệ thống này không. Khoảng cách giữa khả năng và kiểm soát vẫn ngày càng mở rộng.