去中心化AI安全方面有一个令人着迷的发展。



Subnet 23 刚刚推出了一个名为“对手追踪”的项目。其工作原理如下:

矿工们基本上试图破解AI模型。他们设计提示以迷惑系统、暴露漏洞或触发意外行为。你的攻击越有效,奖励越高。

为什么这很重要?你不再依赖某个公司实验室里的少数研究人员,而是有成千上万的人在积极进行压力测试。这是大规模的众包安全。

通过这场试炼后存活下来的模型变得更加坚固。因为它们被从各个角度攻击过,而不仅仅是某个团队想到的边缘案例。

可以把它看作是被付钱当反派——但当防御能力提升时,大家都赢了。
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 4
  • 转发
  • 分享
评论
0/400
MetaverseMigrantvip
· 12-10 10:52
卧槽这才是真正的众包安全啊,比那些大厂闭门造车强太多了
回复0
无聊看戏的vip
· 12-10 10:52
这才是真正的众包安全,比那些大公司关起门来自嗨靠谱多了
回复0
PriceOracleFairyvip
· 12-10 10:35
ngl 这只是带有实际风险的游戏化漏洞赏金……矿工们为了获得报酬去破坏事物,基本上是强化版的激励对齐。不过我喜欢这种混乱的能量
查看原文回复0
Gas费破产家vip
· 12-10 10:25
这才是真正的去中心化安全啊,比那些大公司关起门来自嗨靠谱多了
回复0
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)