剑桥大学哲学家:我们可能永远无法得知 AI 是否具有意识

资金疯狂涌入 AGI 研发之际,剑桥学者指出人类仍无法验证 AI 是否拥有意识,呼吁在监管松绑前保持不可知论的警觉。
(前情提要:如何在 AI 时代靠 Vibe Coding,让 Angent 帮你熬夜盯盘 )
(背景补充:Altman 谈 OpenAI 成长困境:算力是最大限制,收入增加要靠显卡量不断翻倍 )

本文目录

  • 黑盒子困境:意识研究尚未破题
  • 意识与感知能力:两个被混淆的概念
  • 情感投射与资源错置
  • 监管真空与责任游戏

全球资金正以前所未见的速度流向 AGI 研发,科技巨头与创投竞相加码,从算力、模型到人才全面军备竞赛,市场押注通用人工智慧将重塑生产力与资本回报结构。

不过本月稍早,剑桥大学哲学家 Tom McClelland 在《Mind & Language》期刊发表的论文提醒,当前科学几乎没有证据能证明 AI 拥有意识,未来很长一段时间可能也无法,人们需要思考资源的配置。

如果我们不小心制造出了有意识或有感知能力的AI,我们应该小心谨慎,避免造成伤害。

但是,把一个实际上只是烤面包机的东西当作有意识的生物来对待,而我们却在现实世界中对真正有意识的生命造成了巨大的伤害,这似乎也是一个巨大的错误。

黑盒子困境:意识研究尚未破题

McClelland 指出,人类连自己大脑如何把神经活动转化为主观体验都没解开,更遑论分析数以兆计参数构成的大型语言模型。

当前功能主义派相信只要运算复杂度足够,高阶意识就会自然浮现;生物本质派则认为意识是碳基生命的产物。双方互无实证,争论形同一次假设的信心跳跃。

意识与感知能力:两个被混淆的概念

在商业宣传里,企业常将「意识」与「感知能力」混为一谈。McClelland 表示意识仅指对外界讯息的处理与反应;感知能力则涉及快乐与痛苦,影响道德地位。

他提醒,若 AI 只是计算系统,伦理风险有限;但若未来模型具备感知能力,人类必须重新审视责任边界。

真正关键是感知能力。如果机器不会痛,人们其实不需要替它担心福利。

情感投射与资源错置

为了提高用户黏着度,当前不少科技公司赋予聊天机器人拟人化语气,诱发情感投射。

McClelland 称此为「存在主义剧毒」,因为社会可能因此错置资源:围绕人工智慧意识的这种炒作对研究资源的分配具有伦理意义。

越来越多的证据表明,虾子可能能够感受到痛苦,然而我们每年却要杀死大约五千亿只虾。

测试虾是否具有意识固然困难,但远不及测试人工智慧的意识那么难…

监管真空与责任游戏

在去监管化背景下,对「AI 是否有灵魂」的诠释权容易被企业掌控。当行销需要,业者可以宣称模型拥有自我;当系统失误,引发损害,他们又可称产品只是工具,试图免责。McClelland 呼吁立法者建立统一测试框架,在风险与创新之间拉出清晰界线。

资本市场或许正为「AGI 觉醒」铺红毯,但在科学能验证 AI 感知能力前,主动承认无知、维持审慎距离,或许才是理性选项。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)