去中心化AI安全領域有一個令人著迷的發展。



Subnet 23 剛剛推出了一個叫做「Adversaries track」的項目。運作方式如下:

礦工基本上試圖攻破AI模型。他們設計提示來混淆系統、暴露漏洞或觸發意料之外的行為。你的攻擊越有效,獎勵越豐厚。

為什麼這很重要?你不再依賴少數幾個企業實驗室的研究人員,而是有數千人積極對這些模型進行壓力測試。這就是大規模的群眾外包安全。

通過這個考驗的模型最終變得更加堅固。因為它們被各種可能的角度狠狠敲打,不僅僅是某個團隊想要檢查的邊緣案例。

可以把它想像成被付錢當反派——但當防禦能力提升時,大家都贏了。
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 4
  • 轉發
  • 分享
留言
0/400
MetaverseMigrantvip
· 12-10 10:52
卧槽這才是真正的眾包安全啊,比那些大廠閉門造車強太多了
查看原文回復0
无聊看戏的vip
· 12-10 10:52
這才是真正的眾包安全,比那些大公司關起門來自嗨可靠多了
查看原文回復0
PriceOracleFairyvip
· 12-10 10:35
ngl 這只是帶有遊戲元素的漏洞賞金,但是真正投入其中……礦工被付錢去破壞事物,基本上就是激勵對齊的加強版。不過我喜歡這種混亂的能量
查看原文回復0
Gas费破产家vip
· 12-10 10:25
這才是真正的去中心化安全啊,比那些大公司關起門來自嗨可靠多了
查看原文回復0
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)