我剛剛注意到一件相當有趣的事情,在過去五年裡,人工智慧產業創造了一個強大的故事,關於 AGI 存在的威脅。這不是因為有確鑿的證據,而是因為它具有實際的用途。這個故事幫助獲得投資者的資金,吸引政府的注意力,並為整個產業帶來緊迫感。但問題是,當這個故事傳播到世界上時,它不再由創造者控制。



它又回來了,有時甚至會對你開火。看看四月第一周發生了什麼:在4月10日凌晨3:40,於舊金山,一名20歲男子 Daniel Moreno-Gama 投擲燃燒彈攻擊 Sam Altman 的公寓門,火焰燒毀了門口,然後他逃走了。約一小時後,同一人出現在 OpenAI 的辦公室附近,威脅要再次點火,隨後被逮捕。

兩天後,即4月12日凌晨1:40,一輛本田車停在 Altman 另一側的房子旁,乘客伸出手向房子開火。警方逮捕了兩名嫌疑人:Amanda Tom 和 Muhammad Tariq Hussen,兩人都被控以過失射擊和兩起攻擊罪,在48小時內。

第一次攻擊的角色 Daniel Moreno-Gama,對 AI 持悲觀看法。在攻擊前,他在社交媒體上發表文章,配圖來自《沙丘》,用來反駁 AI 失控是生存威脅的說法,並批評科技領導者為了追求“後人類主義”而冒險。

他的核心觀點是:OpenAI 和其他 AI 領導者所說的,不是真正的信仰,而是一種策略。創造有關存在威脅的故事,使他們能同時說三件事:“我們是最危險的技術領導者,我們是最負責任的,因此資金應該流向我們。”

但當這些話傳出去時,它們不再只在投資者會議或軍事辦公室裡。有人認真對待這個故事,在某些情況下,它甚至成為了行動的指令。

看看去年底的事情:2024年12月,聯合健康(UnitedHealthcare)CEO Brian Thompson 被槍殺身亡。嫌疑人 Luigi Mangione,畢業於頂尖大學,留下批評醫療保險產業的留言。這件事在社交媒體上引發奇怪的反應,許多用戶表達同情,甚至有人將他視為反抗的象徵。

之後,安全門被推開,管理層的安全從“特權”變成了“生存必要”。根據 Fortune 的資料,2023年以來,大型企業高管遭受身體攻擊的事件增加了225%。在標普500公司中,2025年的安全支出佔比達到33.8%,而2020年為23.3%。

企業的平均安全支出約為13萬美元,比前一年增加20%,五年內翻倍。

但 AI 產業則不同,不是因為安全風險增加,而是因為創造 AI 的人相信這項技術可能會摧毀文明。這個字眼具有重量。

2024年,十大科技公司CEO的安全支出合計超過4500萬美元。Mark Zuckerberg 花費超過2700萬美元,超過 Apple、Google 和另外四家公司的CEO總和。Google 的 Sundar Pichai 花費827萬美元,較去年增加22%。NVIDIA 的 Huang Jen-hsun 在2025年的支出為350萬美元,增長59%。這些數字顯示出快速上升的趨勢。

Pew Research 在2025年進行的調查顯示,全球28,333名受訪者中,只有16%對 AI 發展感到興奮,而34%表示擔憂。更有趣的是,受教育程度較高、收入較高的人,對 AI 失控的擔憂更大。理解越多的人,越害怕它。

我剛剛看到一則新聞:印第安納波利斯市議員 Ron Gibson 的家在夜間遭槍擊13次,他的8歲兒子被槍聲驚醒。門上貼著手寫的紙條:“禁止建立資料中心”。FBI 已經介入調查。

根據喬治華盛頓大學的研究人員指出,資料中心正成為反科技團體攻擊的目標。這種恐懼並非產業內的秘密,但卻沒有公開說出來。

我們回到2016年,Sam Altman 在懷俄明州建造了一個地下掩體,面積1200平方米,三層,裡面藏有500公斤黃金、5000片碘化鉀、5噸冷凍乾糧和10萬發子彈。同一年,OpenAI 剛成立,他在舞台上說,AI是人類最大的機遇,但同時也在秘密準備足夠的武器,以應對可能失控的情況。這是一個雙重賭注:公開宣稱 AI 會成功,私下則準備應對失控。

第一次攻擊後,Altman 發布了一篇博客,並與孩子們合照,說希望這張照片能阻止下一個人向他家投擲燃燒彈。他接受反對者的道德立場,呼籲進行“較少直接和比較性”的公開討論。

但最有趣的是,他寫道:“我已經評估了媒體故事的力量,低估了它。”他知道這個故事的力量超出預期,也知道它會如何反彈。

在第一次攻擊前一週,《紐約客》刊登了一篇深入採訪 Altman 的文章,由 Ronan Farrow 和 Andrew Marantz 撰寫,訪問了超過100位知情人士。主要爭議點只有兩個詞:“不可信”。文章引用前 OpenAI 董事會成員的話,稱 Altman 是“具有反社會人格的人”,並“不受事實約束”。多位同事描述他反覆改變對 AI 安全的立場。

在他的貼文中,Altman 承認自己傾向於迴避衝突。他建立了一個公共故事:“AI 是存亡威脅”,用來籌集資金和推動監管談判,但最終這個工具卻失控了。

今年2月27日,OpenAI 與美國國防部簽署協議,允許美軍在國防秘密網絡上使用 ChatGPT。同一天,Altman 也表達了支持 Anthropic 限制軍事用途的立場。

反對 QuitGPT 的行動據稱有超過150萬人參與。3月21日,約200人在舊金山遊行,穿越 Anthropic、OpenAI 和 xAI 的辦公室,呼籲三位CEO暫停高階 AI 的開發。倫敦也舉行了史上最大規模的反 AI 示威。

這就是所謂的故事的 boomerang 效應。Altman 在懷俄明州建造的掩體和他雇用的保安,都是為了應對兩種不同的風險:一種來自外部,一種來自他自己所創造的。他私下非常重視這兩種風險,但公開場合只承認其中一種。

這個故事被創造出來,傳播出去,最終卻反彈,撞上了門。
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 回覆
  • 轉發
  • 分享
回覆
請輸入回覆內容
請輸入回覆內容
暫無回覆