📣 創作者福利來啦!Gate 廣場創作者認證正式上線!
現在在 Gate 申請認證,成功通過即可享受價值 $3,000 的早鳥專屬福利!獲得專屬徽章、現金獎勵、限量週邊,更有機會登上官方榜單,享受更多曝光與特權!
申請門檻超低,只需 500 粉絲 + 積極發帖互動,你也可以成爲社區領袖!
早鳥福利:
🏆 最具影響力創作者 3 名(最多互動):50 USDT + Gate X RedBull 隨行杯+ 精選文章 5 篇
🏆 最佳內容獎 5 名(內容最佳):$50 倉位體驗券+ Gate 平沿帽 + 精選文章 5 篇
🏆 除此之外前50名成功申請者:$50 倉位體驗券
所有成功申請者均可獲得認證創作者徽章+官號 “首批認證創作者榜單” 曝光
海外用戶:Gate 平沿帽 = $20 倉位體驗券,Gate X RedBull 隨行杯 = $30 倉位體驗券
申請步驟:
1️⃣ App 首頁 → 底部進入【廣場】 → 點擊右上角頭像進入個人主頁
2️⃣ 點擊頭像右下角【申請認證】 → 進入認證頁面
3️⃣ 審核通過後,頭像旁將顯示專屬認證徽章,彰顯你的專業與權威!
🎁 專屬福利包含:身分標識、內容推薦、專屬曝光 、活動優先權 、熱門項目合作等!
立即申請,成爲廣場社區領袖,享受更多福利和機會!
詳情閱讀:https://www.gate.com/help/community-ce
大語言模型有非語言推理能力嗎?
來源:量子號
Ars Technica 今天的一篇頭條文章探討了關於大型語言模型是否具有非語言推理能力的問題,並引用研究人員的發現,稱在“潛在空間”中進行處理可以幫助人工智能解決棘手的邏輯問題。怎麼回事呢,我們繼續往下看。
迄今為止,大型語言模型已經取得了巨大的成功,它們使用其轉換器架構有效地預測響應查詢所需的下一個單詞(即語言標記)。然而,當涉及到需要抽象邏輯的複雜推理任務時,一些研究人員發現,通過這種“語言空間”解釋一切可能會導致一些問題,即使對於現代“推理”模型來說也是如此。
現在,研究人員正試圖通過設計模型來解決這些問題,這些模型可以完全在“潛在空間”——即轉換器生成語言之前的隱藏計算層——中計算出潛在的邏輯解決方案。雖然這種方法不會導致大型語言模型的推理能力發生翻天覆地的變化,但它確實明顯提高了某些類型邏輯問題的準確性,併為新的研究指明瞭一些有趣的方向。
等一下,什麼空間?
現代推理模型(例如 ChatGPT 的 o1)傾向於通過生成“思維鏈”來工作。在這些模型中,邏輯過程的每個步驟都表示為一系列自然語言詞標記,並通過模型反饋回來。
在一篇新論文中,Meta 基礎人工智能研究團隊和加州大學聖地亞哥分校的研究人員將這種對自然語言和“單詞標記”的依賴視為這些推理模型的“基本制約因素”。這是因為成功完成推理任務,往往需要對特定的關鍵標記進行復雜的規劃,才能從眾多選項中找出正確的邏輯路徑。
上圖中說明了標準模型每一步都要經過轉換器,與 COCONUT 模型使用隱藏的“潛在”狀態之間的區別。(圖源:Training Large Language Models to Reason in a Continuous Latent Space)
研究人員寫道,在目前的思維鏈模型中,單詞標記通常是為了“文本連貫性”和“流暢性”而生成的,而“對實際推理過程貢獻甚微”。相反,他們建議,“理想的情況是,大型語言模型可以不受任何語言限制地自由推理,然後只在必要時將他們的發現轉化為語言。”
為了實現這一“理想”,研究人員描述了一種“訓練大型語言模型在連續潛在空間中進行推理”的方法,正如論文標題所述。該“潛在空間”本質上是由一組“隱藏”的中間標記權重集組成的,而這些中間標記權重集正是模型在轉換器生成該內部狀態的人類可讀的自然語言版本之前所包含的。
在研究人員的 COCONUT 模型(連續思維鏈)中,這些隱藏狀態被編碼為“潛在思維”,在訓練和處理查詢時,它們會以邏輯順序取代單個書面步驟。研究人員寫道,這就避免了每一步都要轉換成自然語言,並且“將推理從語言空間中解放出來”,從而產生了一條優化的推理路徑,他們稱之為“連續思維”。
視野更開闊
雖然在潛在空間中進行邏輯處理對提高模型效率有一定的好處,但更重要的發現是,這種模型可以“同時編碼多個潛在的後續步驟”。在“潛在空間”中進行邏輯處理,可以實現一種即時回溯,研究人員將其比作在圖中進行廣度優先搜索。而不是在一種“貪婪”的過程中,完全地、逐一地尋找各個邏輯選項。
研究人員寫道,即使模型沒有經過明確的訓練,這種突發的、同步的處理特性也會在測試中得到體現。“雖然模型最初可能不會做出正確的決定,但它可以在一些隱含價值函數的引導下,在連續思維中保持許多可能的選擇,並通過推理逐步消除不正確的路徑,”他們寫道。
這張圖重點展示了不同模型在某些類型的邏輯推理中可能失敗的一些方式。(圖源:Training Large Language Models to Reason in a Continuous Latent Space)
在相對簡單的數學推理測試 ( GSM8K ) 或一般推理 ( ProntoQA ) 測試中,與傳統的思維鏈模型相比,這種多路徑推理並沒有真正提高 COCONUT 的準確性。但研究人員發現,該模型在一組隨機生成的 ProntoQA 式查詢中表現相對較好,這些查詢涉及複雜而曲折的邏輯條件集(例如,“每個蘋果都是水果,每個水果都是食物,等等”)。
對於這些任務,標準的思維鏈推理模型在嘗試解決邏輯鏈問題時,往往會陷入推理的死衚衕,甚至產生完全虛構的規則。先前的研究還表明,這些思維鏈模型輸出的“口頭化”邏輯步驟“實際上可能利用了與共享推理過程不同的潛在推理過程”。
這項新研究加入了越來越多的研究行列,旨在瞭解和利用大型語言模型在其底層神經網絡層面的工作方式。雖然這類研究尚未取得重大突破,但研究人員認為,從一開始就用這種“連續思維”進行預訓練的模型,可以“使模型能夠在更廣泛的推理場景中更有效地泛化”。