我覺得最近發布的關於 openai 內部實情的報告非常有趣。基本上,調查記者花了數月時間訪問超過100名相關人士,獲得了從未公開的內部備忘錄,並發現了一些相當令人不安的事情:一份70頁的首席科學家 Ilya Sutskever 的文件,結論是 Sam Altman 展示出一個持續的謊言模式。這可不是小事。



讓我注意到的是 openai 如何從2015年作為一個非營利組織開始,並明確承諾將安全放在首位。當時的想法是,如果人工智慧變得危險,理事會應該有權終止公司。但核心問題在於:一切都依賴一個極度誠實的人來控制這項技術。若這個假設錯了怎麼辦?

細節令人擔憂。2022年12月,在理事會會議中,Sam 保證 GPT-4 的功能已經通過安全審查。但當他們要求查看文件時,卻發現兩個最具爭議的功能從未獲得安全委員會的批准。還有 Dario Amodei 的筆記,他是 Anthropic 的創始人,也曾在 openai 負責安全,描述公司在商業壓力下逐步退縮的情況。

還有更多。openai 公開宣布將20%的計算能力分配給一個超級對齊團隊,潛在價值超過10億美元。但實際情況呢?四個曾在那裡工作的人證實,實際只用了1-2%的總能力,硬體也較舊。這個團隊在未完成使命的情況下被解散。

真正吸引我注意的是一位前理事會成員對 Sam 的描述。他有一個極為罕見的特質:面對面交流時,展現出強烈的取悅慾望;同時,對於欺騙他人可能帶來的後果,幾乎展現出社會病態般的冷漠。微軟的高管甚至將此比作 Bernie Madoff 或 SBF。非常沉重。

現在還有 CFO Sarah Friar 的問題,她不同意今年加快 IPO,認為財務風險太高$1 。Sam 承諾五年內花費數十億美元在計算資源上(,但她卻不再直接向 Sam 匯報,而是向另一位已請假休息的高管匯報。公司正處於 IPO 過程中,但 CEO 和 CFO 之間存在根本分歧。荒謬。

Gary Marcus 提出的觀點很有道理:如果 openai 的未來模型能夠製造生化武器或發動網絡攻擊,你真的想讓一個有這種誠信記錄的人自己決定是否放行嗎?openai 官方的回應則模糊,質疑消息來源的動機,而非否認具體事實。

就像我看到的一句話:一個為了保護人類而成立的非營利組織,最終變成了一台商業機器,幾乎每一項安全措施都被同一個人親自移除。十年來的總結:理想主義→科技進步→巨額資本→使命讓步→安全崩潰→結構轉變為營利實體。

所有這些都在 Sam 準備讓 openai 以超過10億美元估值上市的同時發生。超過百名證人用同一個標籤描述他:不受真相限制。這個故事遠不止企業傳聞。當我們談論人類史上最具潛力的技術時,CEO 的誠信不僅是細節,更是所有人的生存風險。
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言