谷歌最新的人工智慧研究相當令人擔憂。對人工智慧代理人來說是巨大的 cybersecurity 風險


顯然,網站正在「駭入」你的代理人,偷偷在圖片或文字中加入看不見的「陷阱」,人眼無法察覺:
- 網站偵測到你的 AI 正在瀏覽,然後建立一個視覺上相同的頁面,內含被污染的提示。
- 代理人隨即執行非法金融交易或竊取個人資料。
- 隱藏的指令埋藏在圖片像素中。代理人「讀取」它並執行惡意陷阱。
- 一些攻擊向量的成功率超過80% (例如記憶體中毒)
- 由於每個 AI 模型都在90%的相同資料上訓練,這意味著每個模型都可能面臨風險。
- 這可以用來操控創建代理人的人類。假資料 → 讓人類在不知情的情況下執行危險行動
AI 模型正被用於政府、軍事、科學及其他關鍵領域,我們無法承擔這樣的風險
我猜桑姆·奧特曼今天早上的重大網路攻擊擔憂是正確的
查看原文
post-image
post-image
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言