👀 家人們,每天看行情、刷大佬觀點,卻從來不開口說兩句?你的觀點可能比你想的更有價值!
廣場新人 & 回歸福利正式上線!不管你是第一次發帖還是久違回歸,我們都直接送你獎勵!🎁
每月 $20,000 獎金等你來領!
📅 活動時間: 長期有效(月底結算)
💎 參與方式:
用戶需爲首次發帖的新用戶或一個月未發帖的回歸用戶。
發帖時必須帶上話題標籤: #我在广场发首帖 。
內容不限:幣圈新聞、行情分析、曬單吐槽、幣種推薦皆可。
💰 獎勵機制:
必得獎:發帖體驗券
每位有效發帖用戶都可獲得 $50 倉位體驗券。(注:每月獎池上限 $20,000,先到先得!如果大家太熱情,我們會繼續加碼!)
進階獎:發帖雙王爭霸
月度發帖王: 當月發帖數量最多的用戶,額外獎勵 50U。
月度互動王: 當月帖子互動量(點讚+評論+轉發+分享)最高的用戶,額外獎勵 50U。
📝 發帖要求:
帖子字數需 大於30字,拒絕純表情或無意義字符。
內容需積極健康,符合社區規範,嚴禁廣告引流及違規內容。
💡 你的觀點可能會啓發無數人,你的第一次分享也許就是成爲“廣場大V”的起點,現在就開始廣場創作之旅吧!
新研究發現,AI 政治聊天機器人能影響選民
簡而言之
Decrypt 的藝術、時尚與娛樂中心
探索 SCENE
康奈爾大學與英國 AI 安全研究院的新研究發現,在受控的選舉環境中,廣泛使用的 AI 系統可能讓選民偏好改變高達 15%。
這些發現發表於《Science》(科學)與《Nature》(自然)期刊,正值各國政府與研究人員檢視 AI 可能如何影響即將到來的選舉周期,同時開發者也努力消除消費者導向模型中的偏見。
「公眾對生成式人工智慧可能被用於政治說服、以及對選舉和民主帶來的影響深感擔憂,」研究人員寫道。「我們運用預先登記的實驗,評估大型語言模型影響選民態度的能力,以回應這些疑慮。」
《自然》期刊的研究在美國、加拿大與波蘭測試了近 6,000 名參與者。參與者先評價一位政治候選人,接著與支持該候選人的聊天機器人互動,然後再次評價該候選人。
在美國部分,針對 2024 年總統大選前的 2,300 人,當聊天機器人的立場與參與者偏好一致時,產生了強化效果。而較大的偏好轉變則發生在聊天機器人支持的是參與者原本反對的候選人。研究人員在加拿大和波蘭也得到了類似結果。
研究還發現,聚焦政策的訊息比以個性為主的訊息更能發揮說服力。
不同對話中的準確性有差異,支持右派候選人的聊天機器人發表不準確陳述的情況,比支持左派候選人的更為常見。
「這些發現帶來令人不安的啟示——AI 的政治說服可以利用模型知識上的不平衡,即便在明確要求保持誠實的情境下,仍然可能散播不均勻的不實訊息,」研究人員表示。
另一項發表在《科學》的研究則探討為何會發生說服效果。該研究針對英國 76,977 名成年人,在 700 多個政治議題上,測試了 19 種語言模型。
「人們普遍擔憂,對話式人工智慧很快就能對人類信念產生前所未有的影響,」研究人員寫道。
他們發現,提示技巧對說服力的影響大於模型規模。鼓勵模型引入新資訊的提示提升了說服力,但降低了準確性。
「鼓勵 LLM 提供新資訊的提示,在說服人們方面最為有效,」研究人員寫道。
這兩項研究發表之際,分析師與政策智庫也在評估選民如何看待 AI 在政府角色中的運用。
根據 Heartland Institute 與 Rasmussen Reports 最近的調查,年輕保守派比自由派更願意讓 AI 參與重大政府決策。年齡在 18 至 39 歲的受訪者被問及是否應讓 AI 系統協助指導公共政策、解釋憲法權利或指揮主要軍隊。保守派表現出最高的支持度。
Heartland Institute 下屬 Glenn C. Haskins 新興議題中心主任 Donald Kendal 表示,選民常常誤判大型語言模型的中立性。
「我一直試圖強調,必須打破人工智慧無偏見這種錯覺。它很明顯具有偏見,而且有些偏見是被動產生的,」Kendal 在接受《Decrypt》採訪時說,並補充道,當企業的訓練決策形塑了 AI 行為時,對這些系統的信任很可能被誤置。
「這些模型是由大型矽谷企業所打造,我們從近年科技審查的爭議可以看到,有些公司在平台內容分發上並不避諱『壓秤』,」他說。「如果同樣的情況發生在大型語言模型上,那我們得到的就是有偏見的模型。」