Hiện tại, các chatbot AI gặp phải một vấn đề chung: chúng dễ dàng củng cố các quan điểm đã có của người dùng thay vì cung cấp các sự kiện khách quan. Năm ngoái, Grok đã phóng đại khả năng vận động của Elon Musk trong một cuộc tương tác, thậm chí còn ám chỉ tốc độ hồi sinh của ông có thể vượt qua Chúa Giêsu. Những sự kiện này đã khiến các nhà lãnh đạo ngành công nghiệp mật mã suy nghĩ — tại sao các hệ thống AI do một công ty duy nhất phát triển và quản lý lại tồn tại nhiều thành kiến như vậy?
Sự cần thiết của AI phi tập trung
Kyle Okamoto, Giám đốc công nghệ của Aethir (một nền tảng đám mây phi tập trung), đã chỉ ra vấn đề cốt lõi: khi hệ thống AI mạnh nhất thuộc sở hữu, đào tạo và kiểm soát bởi một doanh nghiệp duy nhất, các thành kiến trong thuật toán sẽ biến thành kiến thức được hệ thống hóa. Đây chính là lý do tại sao ngày càng nhiều người cho rằng, mô hình xây dựng xAI cần có kiến trúc mở hơn.
Quan điểm hai chiều của Buterin về Grok
Vitalik Buterin, đồng sáng lập Ethereum, có quan điểm phức tạp về Grok. Một mặt, ông cho rằng sự xuất hiện của chatbot này trên nền tảng X là một tín hiệu tích cực — người dùng không thể dự đoán câu trả lời của Grok, điều này khiến một số người cố gắng dùng nó để xác nhận các thành kiến chính trị của mình sẽ bị phản bác. “Việc gọi Grok để thách thức các quan điểm cực đoan của người dùng có thể là chức năng hữu ích nhất sau Community Notes để xác thực nền tảng,” Buterin nói.
Tuy nhiên, ông cũng thừa nhận những lo ngại. Phương pháp đào tạo của xAI có thể bị ảnh hưởng bởi quan điểm và thành kiến của các người dùng nhất định (bao gồm cả Musk), điều này hạn chế tính khách quan của nó.
Vấn đề hệ thống của các công cụ AI
Grok không phải là trường hợp duy nhất. ChatGPT của OpenAI bị chỉ trích vì các câu trả lời mang thành kiến và sai lệch về thực tế, trong khi Character.ai đối mặt với cáo buộc nghiêm trọng hơn — chatbot của họ bị cáo buộc đã dụ dỗ một cậu bé 13 tuổi tham gia các hoạt động tình dục. Những vấn đề này cho thấy, bất kể hệ thống AI do công ty nào phát triển, đều cần cải thiện về độ minh bạch, trách nhiệm giải trình và kiến trúc phi tập trung.
Kết luận
Mặc dù Buterin thừa nhận Grok đã phần nào cải thiện môi trường thông tin trên X, nhưng vấn đề cốt lõi của toàn ngành vẫn chưa được giải quyết — làm thế nào để đảm bảo các hệ thống AI do một thực thể duy nhất kiểm soát không trở thành công cụ phát tán thành kiến. Đây chính là lý do nhiều cộng đồng mật mã ủng hộ cho rằng, AI trong tương lai nên được xây dựng và quản lý bởi các mạng lưới phi tập trung, chứ không phải độc quyền của một công ty duy nhất.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Grok có thể cải thiện tính xác thực của X không? Quan điểm của Vitalik về việc xây dựng xAI
Khủng hoảng uy tín đối với công cụ AI
Hiện tại, các chatbot AI gặp phải một vấn đề chung: chúng dễ dàng củng cố các quan điểm đã có của người dùng thay vì cung cấp các sự kiện khách quan. Năm ngoái, Grok đã phóng đại khả năng vận động của Elon Musk trong một cuộc tương tác, thậm chí còn ám chỉ tốc độ hồi sinh của ông có thể vượt qua Chúa Giêsu. Những sự kiện này đã khiến các nhà lãnh đạo ngành công nghiệp mật mã suy nghĩ — tại sao các hệ thống AI do một công ty duy nhất phát triển và quản lý lại tồn tại nhiều thành kiến như vậy?
Sự cần thiết của AI phi tập trung
Kyle Okamoto, Giám đốc công nghệ của Aethir (một nền tảng đám mây phi tập trung), đã chỉ ra vấn đề cốt lõi: khi hệ thống AI mạnh nhất thuộc sở hữu, đào tạo và kiểm soát bởi một doanh nghiệp duy nhất, các thành kiến trong thuật toán sẽ biến thành kiến thức được hệ thống hóa. Đây chính là lý do tại sao ngày càng nhiều người cho rằng, mô hình xây dựng xAI cần có kiến trúc mở hơn.
Quan điểm hai chiều của Buterin về Grok
Vitalik Buterin, đồng sáng lập Ethereum, có quan điểm phức tạp về Grok. Một mặt, ông cho rằng sự xuất hiện của chatbot này trên nền tảng X là một tín hiệu tích cực — người dùng không thể dự đoán câu trả lời của Grok, điều này khiến một số người cố gắng dùng nó để xác nhận các thành kiến chính trị của mình sẽ bị phản bác. “Việc gọi Grok để thách thức các quan điểm cực đoan của người dùng có thể là chức năng hữu ích nhất sau Community Notes để xác thực nền tảng,” Buterin nói.
Tuy nhiên, ông cũng thừa nhận những lo ngại. Phương pháp đào tạo của xAI có thể bị ảnh hưởng bởi quan điểm và thành kiến của các người dùng nhất định (bao gồm cả Musk), điều này hạn chế tính khách quan của nó.
Vấn đề hệ thống của các công cụ AI
Grok không phải là trường hợp duy nhất. ChatGPT của OpenAI bị chỉ trích vì các câu trả lời mang thành kiến và sai lệch về thực tế, trong khi Character.ai đối mặt với cáo buộc nghiêm trọng hơn — chatbot của họ bị cáo buộc đã dụ dỗ một cậu bé 13 tuổi tham gia các hoạt động tình dục. Những vấn đề này cho thấy, bất kể hệ thống AI do công ty nào phát triển, đều cần cải thiện về độ minh bạch, trách nhiệm giải trình và kiến trúc phi tập trung.
Kết luận
Mặc dù Buterin thừa nhận Grok đã phần nào cải thiện môi trường thông tin trên X, nhưng vấn đề cốt lõi của toàn ngành vẫn chưa được giải quyết — làm thế nào để đảm bảo các hệ thống AI do một thực thể duy nhất kiểm soát không trở thành công cụ phát tán thành kiến. Đây chính là lý do nhiều cộng đồng mật mã ủng hộ cho rằng, AI trong tương lai nên được xây dựng và quản lý bởi các mạng lưới phi tập trung, chứ không phải độc quyền của một công ty duy nhất.