我剛注意到一件相當令人擔憂的事情,在過去幾年中,高層管理人員的安全已成為不可忽視的議題。自去年底發生在UnitedHealthcare董事長身上的事件以來,對企業高管的攻擊次數激增了225%,而2023年的攻擊統計數據則是基準。今年的安全花費平均約為13萬美元,比前一年增加了20%。



在人工智慧產業中,這一趨勢更加明顯。2024年,主要AI公司CEO的安全支出總計超過4500萬美元。谷歌的Sundar Pichai的安全費用超過800萬美元,增長了22%;而NVIDIA的CEO的支出高達350萬美元,增幅達59%。

OpenAI的CEO山姆·奧特曼也未能幸免於此情況。在四月的四天內,他的住所遭到兩次攻擊,第一次是燃燒彈,第二次是槍擊。第一起事件的嫌疑人在社交媒體上表示,他擔心AGI的存在風險,這也是OpenAI在公共傳播中一再強調的概念。

有趣的是,正是在這個點上,展現了明顯的矛盾。在公開場合,奧特曼將AI描述為最大的機遇,但同時,他在2016年於懷俄明州建造了地下掩體,配備足夠的武器和糧食,以應對可能的危機。這是一種雙重賭注:公開宣稱AI將取得成功,但私下卻做好了失控的準備。

這兩次攻擊發生在OpenAI與美國國防部簽署協議,允許ChatGPT在國防秘密網絡上運行之後。回應是大城市中反AI示威,以及在一天內,ChatGPT的卸載次數激增了295%。

他所謂的「故事」——關於AI存在風險的敘述——在籌集資金和監管談判中具有一定的作用,但最終,這個工具卻反過來敲響了他的門。他所散播的恐懼反而成為推動某些人反抗的動力。
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言