Dưới đây là điều đáng suy nghĩ: khả năng của AI đang mở rộng với tốc độ chóng mặt. Các quy trình an toàn? Chưa phải vậy.
Hãy xem xét các rủi ro. Một mô hình bị lệch hướng có thể gây ra hậu quả lan rộng khắp thế giới thực. Và phần không thoải mái là—hiện tại, chỉ một số ít tập đoàn mới có quyền định nghĩa "an toàn" nghĩa là gì.
Điều này không chỉ là tập trung quyền lực. Đó là một điểm yếu về cấu trúc.
Ngành công nghiệp cần một cách tiếp cận khác. Thay vì tập trung rủi ro vào tay một vài người kiểm soát, thử hỏi nếu việc xác minh an toàn trở thành phi tập trung? Nếu cộng đồng—nhà phát triển, nhà nghiên cứu, người dùng—có thể cùng nhau xác nhận hành vi của AI trước khi triển khai?
Điều này không còn là lý thuyết nữa. Cơ sở hạ tầng đã tồn tại. Câu hỏi là liệu chúng ta có sử dụng nó trước khi sự cố lớn tiếp theo buộc chúng ta phải hành động.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
14 thích
Phần thưởng
14
5
Đăng lại
Retweed
Bình luận
0/400
LiquidationSurvivor
· 20giờ trước
An toàn AI đã đến lúc phải phi tập trung hóa, để vài công ty độc quyền định nghĩa "an toàn" sao? Cười chết đi được, giống như để sàn giao dịch định nghĩa thế nào là công bằng còn kỳ quặc hơn.
Xem bản gốcTrả lời0
GetRichLeek
· 20giờ trước
Hà, lại đến một luận điệu "phi tập trung cứu thế" nữa... Nói nghe hay đấy, nhưng vấn đề thực sự là chẳng ai dám chịu trách nhiệm cả. Xác thực AI an toàn trên chuỗi? Đến lúc xảy ra chuyện thì vẫn là đổ lỗi cho cộng đồng thôi.
Xem bản gốcTrả lời0
SchrödingersNode
· 21giờ trước
Xác minh phi tập trung nghe có vẻ không tệ, nhưng thành thật mà nói, ai thực sự sẽ tham gia một cách nghiêm túc chứ...
Xem bản gốcTrả lời0
YieldHunter
· 21giờ trước
ngl lập luận về hạ tầng là để đối phó... nếu bạn xem dữ liệu, xác thực phi tập trung chỉ có nghĩa là không ai thực sự chịu trách nhiệm khi nó gặp sự cố lmao
Xem bản gốcTrả lời0
TopEscapeArtist
· 21giờ trước
Nghiện bắt đáy, bị mắc kẹt ở vùng giá cao là chuyện hàng ngày của tôi. Đây không phải là vấn đề kỹ thuật, đây là định mệnh của tôi.
Bình luận của tôi:
ngl đây chính là hình dạng đầu vai trên đỉnh, tín hiệu giảm giá kỹ thuật của mô hình lớn rõ ràng cực kỳ... xác nhận phân tán nghe có vẻ thích nhưng có thể thực hiện được không?
Dưới đây là điều đáng suy nghĩ: khả năng của AI đang mở rộng với tốc độ chóng mặt. Các quy trình an toàn? Chưa phải vậy.
Hãy xem xét các rủi ro. Một mô hình bị lệch hướng có thể gây ra hậu quả lan rộng khắp thế giới thực. Và phần không thoải mái là—hiện tại, chỉ một số ít tập đoàn mới có quyền định nghĩa "an toàn" nghĩa là gì.
Điều này không chỉ là tập trung quyền lực. Đó là một điểm yếu về cấu trúc.
Ngành công nghiệp cần một cách tiếp cận khác. Thay vì tập trung rủi ro vào tay một vài người kiểm soát, thử hỏi nếu việc xác minh an toàn trở thành phi tập trung? Nếu cộng đồng—nhà phát triển, nhà nghiên cứu, người dùng—có thể cùng nhau xác nhận hành vi của AI trước khi triển khai?
Điều này không còn là lý thuyết nữa. Cơ sở hạ tầng đã tồn tại. Câu hỏi là liệu chúng ta có sử dụng nó trước khi sự cố lớn tiếp theo buộc chúng ta phải hành động.