新研究發現,AI 政治聊天機器人能影響選民

簡而言之

  • 《自然》和《科學》期刊的研究報告指出,AI 聊天機器人在受控選舉情境中能讓選民偏好改變高達 15%。
  • 研究人員發現 AI 在不同政治情境下的準確性不一,並記錄了偏見相關疑慮。
  • 最近一項民調顯示,年輕保守派最願意信任 AI。

Decrypt 的藝術、時尚與娛樂中心


探索 SCENE

康奈爾大學與英國 AI 安全研究院的新研究發現,在受控的選舉環境中,廣泛使用的 AI 系統可能讓選民偏好改變高達 15%。

這些發現發表於《Science》(科學)與《Nature》(自然)期刊,正值各國政府與研究人員檢視 AI 可能如何影響即將到來的選舉周期,同時開發者也努力消除消費者導向模型中的偏見。

「公眾對生成式人工智慧可能被用於政治說服、以及對選舉和民主帶來的影響深感擔憂,」研究人員寫道。「我們運用預先登記的實驗,評估大型語言模型影響選民態度的能力,以回應這些疑慮。」

《自然》期刊的研究在美國、加拿大與波蘭測試了近 6,000 名參與者。參與者先評價一位政治候選人,接著與支持該候選人的聊天機器人互動,然後再次評價該候選人。

在美國部分,針對 2024 年總統大選前的 2,300 人,當聊天機器人的立場與參與者偏好一致時,產生了強化效果。而較大的偏好轉變則發生在聊天機器人支持的是參與者原本反對的候選人。研究人員在加拿大和波蘭也得到了類似結果。

研究還發現,聚焦政策的訊息比以個性為主的訊息更能發揮說服力。

不同對話中的準確性有差異,支持右派候選人的聊天機器人發表不準確陳述的情況,比支持左派候選人的更為常見。

「這些發現帶來令人不安的啟示——AI 的政治說服可以利用模型知識上的不平衡,即便在明確要求保持誠實的情境下,仍然可能散播不均勻的不實訊息,」研究人員表示。

另一項發表在《科學》的研究則探討為何會發生說服效果。該研究針對英國 76,977 名成年人,在 700 多個政治議題上,測試了 19 種語言模型。

「人們普遍擔憂,對話式人工智慧很快就能對人類信念產生前所未有的影響,」研究人員寫道。

他們發現,提示技巧對說服力的影響大於模型規模。鼓勵模型引入新資訊的提示提升了說服力,但降低了準確性。

「鼓勵 LLM 提供新資訊的提示,在說服人們方面最為有效,」研究人員寫道。

這兩項研究發表之際,分析師與政策智庫也在評估選民如何看待 AI 在政府角色中的運用。

根據 Heartland Institute 與 Rasmussen Reports 最近的調查,年輕保守派比自由派更願意讓 AI 參與重大政府決策。年齡在 18 至 39 歲的受訪者被問及是否應讓 AI 系統協助指導公共政策、解釋憲法權利或指揮主要軍隊。保守派表現出最高的支持度。

Heartland Institute 下屬 Glenn C. Haskins 新興議題中心主任 Donald Kendal 表示,選民常常誤判大型語言模型的中立性。

「我一直試圖強調,必須打破人工智慧無偏見這種錯覺。它很明顯具有偏見,而且有些偏見是被動產生的,」Kendal 在接受《Decrypt》採訪時說,並補充道,當企業的訓練決策形塑了 AI 行為時,對這些系統的信任很可能被誤置。

「這些模型是由大型矽谷企業所打造,我們從近年科技審查的爭議可以看到,有些公司在平台內容分發上並不避諱『壓秤』,」他說。「如果同樣的情況發生在大型語言模型上,那我們得到的就是有偏見的模型。」

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)