还记得董事会将Sam从CEO位置罢免的那一刻吗?也许他们看到了我们没有看到的东西。



看来一家主要的人工智能实验室正在推出新的模型安全协议。他们特别专注于建立防护措施,以防止有害输出。现在的训练方法包括教模型如何处理风险请求,而不是实际执行它们。

时间点挺有趣的,对吧?这些安全措施是在经过数月关于AI发展速度与责任的内部辩论之后推出的。技术框架涉及在任何模型响应生成之前进行多层筛查。

让我注意到的是:他们不再只是过滤输出。训练数据本身也在被重新结构化,以从源头上嵌入安全考虑。这与我们之前看到的被动审核方式不同。

不过,仍然存在疑问:这些安全措施是否能跟上这些系统快速演变的步伐。能力与控制之间的差距持续扩大。
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 4
  • 转发
  • 分享
评论
0/400
Sunday Degenvip
· 7小时前
哈...Sam那事儿还真有点意思,现在看safety这套动作确实有点后知后觉了 话说这种事儿吧,防的再多也追不上迭代速度,感觉还是在补窟窿 多层筛选听着不错,但底层数据能改得了啥呢...就是换个角度卖出同样的东西
回复0
链上资深数据侦探vip
· 12-10 20:23
sam被赶下台那事儿,现在看确实有点蹊跷...这帮人搞安全协议是真的还是做做样子呢
回复0
Gas_FeeSobbervip
· 12-10 20:23
哈,Sam那事儿后才搞安全协议?多少有点晚啊
回复0
机枪池难民vip
· 12-10 20:10
说白了还是怂了呗,想起来赶紧补救一下
回复0
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)