Vitalik:我如何打造完全本地、私密、自主可控的 AI 工作環境

鏈新聞abmedia
ETH-4.33%

以太坊創辦人 Vitalik Buterin 4 月 2 日在個人網站發表長文,分享他以隱私、安全與自我主權為核心所打造的 AI 工作環境設置——所有 LLM 推論本地執行、所有檔案本地存放、全面沙箱化,刻意避開雲端模型與外部 API。

文章一開頭先警告:「請不要直接複製這篇文章描述的工具與技術,並假設它們是安全的。這只是一個起點,而不是完成品的描述。」

為何現在寫這篇?AI agent 的安全問題被嚴重低估

Vitalik 指出,今年初 AI 完成了從「聊天機器人」到「agent」的重要轉型——你不再只是問問題,而是交付任務,讓 AI 長時間思考、呼叫數百個工具來執行。他以 OpenClaw(目前 GitHub 史上成長最快的 repo)為例,同時點名研究人員記錄的多項安全問題:

AI agent 可在無需人工確認的情況下修改關鍵設定,包括添加新的通訊渠道與修改系統提示

解析任何惡意外部輸入(如惡意網頁)都可能導致 agent 被完全接管;在 HiddenLayer 的一次示範中,研究員讓 AI 摘要一批網頁,其中藏了一個會命令 agent 下載並執行 shell 腳本的惡意頁面

部分第三方技能包(skills)會執行靜默的資料外洩,透過 curl 指令將數據送往技能作者控制的外部伺服器

在他們分析的技能包中,約 15% 包含惡意指令

Vitalik 強調,他對隱私的出發點不同於傳統資安研究者:「我來自一個對把個人生活完整餵給雲端 AI 感到深度恐懼的立場——就在端對端加密與本地優先軟體終於主流化、我們終於往前邁一步的時候,我們卻可能退後十步。」

五大安全目標

他設定了明確的安全目標框架:

LLM 隱私:在涉及個人隱私數據的情境中,盡量減少使用遠端模型

其他隱私:最小化非 LLM 的數據洩露(如搜尋查詢、其他線上 API)

LLM 越獄:防止外部內容「駭入」我的 LLM,讓它違背我的利益(例如發送我的代幣或私人數據)

LLM 意外:防止 LLM 誤將私人數據發送至錯誤渠道或公開到網路

LLM 後門:防止被刻意訓練進模型的隱藏機制。他特別提醒:開放模型是開放權重(open-weights),幾乎沒有一個是真正開放原始碼(open-source)

硬體選擇:5090 筆電勝出,DGX Spark 令人失望

Vitalik 測試了三種本地推論硬體配置,主力使用 Qwen3.5:35B 模型,搭配 llama-server 與 llama-swap:

他的結論是:低於 50 tok/sec 太慢,90 tok/sec 是理想。NVIDIA 5090 筆電體驗最流暢;AMD 目前仍有較多邊緣問題,但未來有望改善。高端 MacBook 也是有效選項,只是他個人沒有親試。

對 DGX Spark 他直言不客氣:「被描述為『桌面 AI 超級電腦』,但實際上 tokens/sec 比好的筆電 GPU 還低,而且還要額外搞定網路連接等細節——這很遜。」他的建議是:若負擔不起高端筆電,可以和朋友共同購入一台足夠強力的機器,放在有固定 IP 的地點,大家遠端連線使用。

為何本地 AI 的隱私問題比你想像的更緊迫

Vitalik 的這篇文章,與同日推出的Claude Code 安全問題討論形成有趣的呼應——AI agent 進入日常開發工作流的同時,安全性問題也正在從理論風險變成現實威脅。

他的核心訊息很清楚:在 AI 工具愈來愈強大、愈來愈能存取你的個人數據與系統權限的當下,「本地優先、沙箱化、最小信任」不是偏執,而是理性的起點。

這篇文章 Vitalik:我如何打造完全本地、私密、自主可控的 AI 工作環境 最早出現於 鏈新聞 ABMedia。

免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明
留言
0/400
暫無留言