
Nhóm đào tạo AI phi tập trung Covenant AI đã công bố vào ngày 10 tháng 4 rằng họ rút khỏi mạng Bittensor, đồng thời nêu đích danh nhân vật cốt lõi của mạng đó là Jacob Steeves, cáo buộc người này đã phản bội những cam kết phi tập trung. Người sáng lập Covenant AI, Sam Dare, nói: “Toàn bộ cam kết cốt lõi của Bittensor — không thực thể đơn lẻ nào có thể kiểm soát nó — là một lời nói dối.”
Danh sách cáo buộc: Năm hành động đàn áp mà Const đã thực hiện đối với Covenant AI
Trong tuyên bố, Covenant AI đã liệt kê chi tiết một loạt hành động cụ thể mà Const nhắm đến đội ngũ của họ, tạo thành căn cứ trực tiếp cho quyết định rút lui của họ:
Sam Dare cáo buộc các hành động đàn áp chính của Const
Tạm dừng phát hành token: Const đơn phương tạm dừng việc phát hành token của các subnet thuộc Covenant AI, cắt thẳng nguồn động lực kinh tế của họ trong hệ sinh thái Bittensor
Tước quyền quản trị cộng đồng: Const tước quyền kiểm soát quản lý của Covenant AI đối với các kênh cộng đồng của riêng mình, thực chất là giành quyền kiểm soát các kênh giao tiếp bên ngoài của họ
Ngừng sử dụng cơ sở hạ tầng subnet: Const đơn phương ngừng sử dụng cơ sở hạ tầng subnet của Covenant AI, khiến việc triển khai kỹ thuật của họ trên mạng Bittensor rơi vào tình trạng sụp đổ
Ép bán token quy mô lớn: Trong thời gian xung đột giữa hai bên, Const gây áp lực kinh tế lên Covenant AI thông qua các đợt bán token quy mô lớn, mức độ phơi bày cao
Bỏ qua cơ chế đồng thuận: Tất cả các hành động nêu trên đều không thông qua quy trình đồng thuận chính thức của quản trị mạng, cho thấy sự kiểm soát thực tế của một cá nhân đối với cơ chế đa chữ ký
“Sân khấu phi tập trung” của Bittensor: Sự thật về đa chữ ký ba người
Các cáo buộc cốt lõi của Covenant AI nhắm thẳng vào khoảng cách căn bản giữa cơ chế quản trị mà Bittensor tuyên bố và cách vận hành thực tế. Bittensor công khai quảng bá rằng họ áp dụng kiến trúc quản trị “đa chữ ký ba người” như một bảo đảm theo thể chế cho sự phi tập trung. Tuy nhiên, Covenant AI trực tiếp chỉ ra rằng Const thực thi sự kiểm soát hiệu quả đối với cơ chế đa chữ ký này, có thể bất cứ lúc nào bỏ qua đồng thuận để đơn phương triển khai thay đổi, trong khi những người tham gia đa chữ ký còn lại chỉ là “tấm bình phong gánh trách nhiệm pháp lý”.
Nếu cáo buộc này là đúng, điều đó có nghĩa là cấu trúc quản trị của Bittensor tồn tại tính phi tập trung ở cấp độ thiết kế kỹ thuật, nhưng ở cấp độ vận hành thực tế vẫn do một cá nhân dẫn dắt, tạo thành một “sân khấu phi tập trung” — phi tập trung trong tài liệu và sách trắng, nhưng tập trung trong các quyết định thực tế.
Sự tự tin của Covenant AI: Rút lui không phải thất bại, mà là lựa chọn chủ động
Tính đáng tin của tuyên bố rút lui lần này được xây dựng trên các thành tựu kỹ thuật thực tế của Covenant AI. Covenant-72B là dự án huấn luyện trước LLM phi tập trung có quy mô lớn nhất cho đến nay, sở hữu 72Bỷ tham số, trải rộng trên hơn 70 nhà đóng góp độc lập cùng tham gia, nhận được sự công nhận công khai từ CEO của Nvidia và được trích dẫn bởi đồng sáng lập Anthropic — điều này khiến danh tiếng của nó trong ngành AI vượt ra ngoài chính hệ sinh thái Bittensor.
Covenant AI tuyên bố rằng đội ngũ, các kết quả nghiên cứu và mô hình sẽ được mang đi hoàn toàn, đồng thời cho biết trong thời gian gần sẽ có các thông báo dự án mới, cho thấy lần rút lui này giống như một sự chuyển dịch hệ sinh thái chủ động hơn là việc bị buộc phải rời đi.
Câu hỏi thường gặp
Lý do cốt lõi Covenant AI rút khỏi Bittensor là gì?
Theo tuyên bố công khai của người sáng lập Covenant AI, Sam Dare, lý do cốt lõi của việc rút lui là nhân vật cốt lõi của Bittensor Const (Jacob Steeves) đã áp dụng một loạt hành động đàn áp đối với đội ngũ của họ, bao gồm tạm dừng phát hành token, tước quyền quản lý cộng đồng, ngừng sử dụng cơ sở hạ tầng, và gây áp lực kinh tế thông qua việc bán tháo token, đồng thời tất cả các hành động đều được thực hiện đơn phương, bỏ qua đồng thuận quản trị chính thức.
Có vấn đề gì với cơ chế quản trị đa chữ ký ba người của Bittensor?
Covenant AI cho biết rằng, trong hoạt động thực tế, kiến trúc quản trị “đa chữ ký ba người” mà Bittensor công bố ra bên ngoài đang nằm dưới sự kiểm soát hiệu quả của Const; các người tham gia đa chữ ký khác thiếu khả năng kiểm soát, đối trọng thực chất, chỉ gánh trách nhiệm pháp lý nhưng không thể ngăn Const đơn phương triển khai thay đổi. Covenant AI mô tả trực tiếp điều này là “sân khấu phi tập trung”.
Dự án Covenant-72B của Covenant AI là gì?
Covenant-72B là dự án huấn luyện trước LLM phi tập trung mà Covenant AI đã hoàn thành trong hệ sinh thái Bittensor, có 72Bỷ tham số, trải rộng trên hơn 70 nhà đóng góp độc lập, quy mô là lớn nhất trong các dự án cùng loại cho đến nay. Dự án này từng nhận được sự công nhận công khai từ CEO của Nvidia và được trích dẫn bởi đồng sáng lập Anthropic, qua đó giúp Covenant AI vẫn duy trì sức ảnh hưởng đáng kể trong ngành khi rút khỏi Bittensor.
Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo
Tuyên bố miễn trừ trách nhiệm.
Bài viết liên quan
IEA: Chi tiêu cơ sở hạ tầng AI đã vượt đầu tư sản xuất dầu khí, dự kiến sẽ tăng thêm 75% vào năm 2026
Theo phân tích và dữ liệu thị trường do Cơ quan Năng lượng Quốc tế (IEA) công bố vào ngày 26 tháng 4, tổng chi tiêu vốn của năm công ty công nghệ hàng đầu trong năm 2025 vượt 400 tỷ USD, chủ yếu được đầu tư cho việc xây dựng hạ tầng AI, với quy mô đã vượt qua mức đầu tư hàng năm của sản xuất dầu và khí đốt toàn cầu. IEA ước tính rằng, chi tiêu vốn liên quan vào năm 2026 có thể tiếp tục tăng thêm 75%.
MarketWhisper15phút trước
Thượng nghị sĩ Bernie Sanders đưa ra cảnh báo về mối đe dọa sinh tồn từ AI
Sanders nhấn mạnh rằng ngay cả khi hầu hết các nhà khoa học AI đều thừa nhận khả năng AI thoát khỏi sự kiểm soát và trở thành mối nguy đối với sự tồn tại của chúng ta, vẫn chưa có biện pháp lớn nào được thực hiện để ngăn chặn điều đó. “Chúng ta phải đảm bảo rằng AI mang lại lợi ích cho nhân loại, chứ không gây hại cho chúng ta,” ông nói.
Các ý chính rút ra:
Bernie Sanders
Coinpedia24phút trước
Trưởng bộ phận mô hình AI của Xiaomi: Cuộc cạnh tranh AI đang chuyển sang thời đại Agent; tự tiến hóa là sự kiện then chốt dẫn tới AGI
Người phụ trách đội ngũ mô hình lớn của Xiaomi, La Fuli, đã có một cuộc phỏng vấn chuyên sâu trên nền tảng Bilibili vào ngày 24 tháng 4 (mã video: BV1iVoVBgERD). Thời lượng cuộc phỏng vấn là 3,5 giờ, và đây là lần đầu tiên cô công khai trình bày một cách có hệ thống các quan điểm kỹ thuật của mình với tư cách là người phụ trách kỹ thuật. La Fuli cho biết, cuộc đua cạnh tranh của các mô hình lớn đã chuyển từ thời đại Chat sang thời đại Agent, đồng thời chỉ ra rằng “tự tiến hoá” sẽ là sự kiện then chốt của AGI trong năm tới.
MarketWhisper25phút trước
xAI Grok Voice tiếp quản đường dây nóng chăm sóc khách hàng của Starlink, 70% cuộc gọi được tự động kết án
Theo thông báo chính thức của xAI được phát hành vào ngày 23 tháng 4, xAI đã giới thiệu tác nhân AI giọng nói Grok Voice Think Fast 1.0 và đã được triển khai trên đường dây nóng dịch vụ khách hàng Starlink +1 (888) GO STARLINK. Theo dữ liệu thử nghiệm được công bố trong thông báo, 70% các cuộc gọi được AI tự động xử lý chấm dứt, không cần sự can thiệp của con người.
MarketWhisper36phút trước
GPT-5.5 Trở Lại Tuyến Đầu Trong Lập Trình, Nhưng OpenAI Đổi Benchmark Sau Khi Thua Opus 4.7
Tin tức cổng, ngày 27 tháng 4 — SemiAnalysis, một công ty phân tích chất bán dẫn và AI, đã phát hành một bảng benchmark so sánh các trợ lý lập trình bao gồm GPT-5.5, Claude Opus 4.7 và DeepSeek V4. Phát hiện then chốt: GPT-5.5 đánh dấu lần đầu tiên OpenAI quay trở lại tuyến đầu trong các mô hình lập trình trong vòng sáu tháng, với các kỹ sư của SemiAnalysis hiện đang luân phiên giữa Codex và Claude Code sau trước đó gần như chỉ dựa vào Claude. GPT-5.5 dựa trên một cách tiếp cận huấn luyện trước mới được mã danh "Spud" và thể hiện lần mở rộng quy mô huấn luyện trước đầu tiên của OpenAI kể từ GPT-4.5.
Trong thử nghiệm thực tế, một sự phân công rõ ràng đã xuất hiện. Claude đảm nhiệm lập kế hoạch dự án mới và thiết lập ban đầu, trong khi Codex tỏ ra xuất sắc trong việc sửa các lỗi đòi hỏi nhiều suy luận. Codex thể hiện khả năng hiểu cấu trúc dữ liệu tốt hơn và lý luận logic mạnh hơn nhưng gặp khó khăn trong việc suy ra ý định người dùng mơ hồ. Trong một tác vụ trên cùng một bảng điều khiển, Claude tự động tái tạo bố cục trang tham chiếu nhưng bịa ra một lượng lớn dữ liệu, trong khi Codex bỏ qua bố cục nhưng lại cung cấp lượng dữ liệu chính xác hơn đáng kể.
Bài phân tích tiết lộ chi tiết thao túng benchmark: Bài đăng blog của OpenAI hồi tháng 2 đã kêu gọi ngành áp dụng SWE-bench Pro làm tiêu chuẩn mới cho các benchmark lập trình. Tuy nhiên, thông báo của GPT-5.5 đã chuyển sang một benchmark mới có tên "Expert-SWE." Lý do, được chôn trong các chi tiết nhỏ, là GPT-5.5 đã bị Opus 4.7 vượt qua trên SWE-bench Pro và thua kém đáng kể so với Mythos 77.8% chưa được phát hành của Anthropic.
Về Opus 4.7, Anthropic đã công bố một bài phân tích hậu kiểm một tuần sau khi phát hành, thừa nhận ba lỗi trong Claude Code đã tồn tại trong nhiều tuần từ tháng 3 đến tháng 4, ảnh hưởng đến gần như tất cả người dùng. Trước đó, nhiều kỹ sư đã báo cáo sự suy giảm hiệu năng ở phiên bản 4.6 nhưng bị bác bỏ như những quan sát chủ quan. Ngoài ra, bộ mã thông báo (tokenizer) mới của Opus 4.7 làm tăng số lượng token lên đến 35%, điều mà Anthropic đã công khai thừa nhận—thực chất tương đương với một đợt tăng giá ẩn.
DeepSeek V4 được đánh giá là "theo kịp với tuyến đầu nhưng không dẫn đầu," định vị mình là lựa chọn thay thế có chi phí thấp nhất trong số các mô hình nguồn đóng. Bài phân tích cũng ghi nhận rằng "Claude tiếp tục vượt trội DeepSeek V4 Pro trên các tác vụ viết tiếng Trung có độ khó cao," và bình luận rằng "Claude đã thắng mô hình Trung Quốc ngay trên chính ngôn ngữ của nó."
Bài viết đưa ra một khái niệm quan trọng: nên đánh giá giá mô hình theo "chi phí cho mỗi tác vụ" thay vì "chi phí cho mỗi token." Giá của GPT-5.5 gấp đôi so với GPT-5.4 input $5, output per million tokens, nhưng nó hoàn thành các tác vụ tương tự bằng ít token hơn, vì vậy chi phí thực tế không nhất thiết cao hơn. Dữ liệu ban đầu của SemiAnalysis cho thấy tỉ lệ đầu vào/đầu ra của Codex là 80:1, thấp hơn tỉ lệ 100:1 của Claude Code.
GateNews40phút trước
Giám đốc điều hành Google DeepMind: Mọi công ty sản phẩm AI đều nên xây dựng các bộ chuẩn tùy chỉnh
Tin tức Gate ngày 27 tháng 4 — Logan Kilpatrick, quản lý sản phẩm cấp cao tại Google DeepMind và là người phụ trách sản phẩm của Google AI Studio, cho biết trên X rằng mọi công ty đang xây dựng các sản phẩm dựa trên AI đều nên thiết lập các bộ chuẩn tùy chỉnh của riêng mình để đo hiệu suất của mô hình AI. Ông mô tả đây là một cách để
GateNews1giờ trước