Gate 廣場|3/4 今日話題: #美伊局势影响
🎁 化身廣場“戰地觀察員”,抽 5 位幸運兒送出 $2,500 仓位體驗券!
美伊衝突持續升級,霍爾木茲海峽陷入事實性封鎖,伊拉克部分原油生產受影響。能源供應再度緊張,通脹預期抬頭,股市與大宗商品市場波動加劇。
💬 本期熱議:
1️⃣ 你關注到了哪些足以撼動市場的戰爭新進展?
2️⃣ 能源、航運、國防補給、避險資產(黃金/BTC)都受到了哪些影響?
3️⃣ 當前有哪些值得關注的多空機會?
分享觀點,瓜分好禮 👉️ https://www.gate.com/post
布局 Gate TradFi 👉️ https://www.gate.com/tradfi
📅 3/4 15:00 - 3/6 12:00 (UTC+8)
大多數人看到「multi-agent」就覺得需要搭架構。
實際上你只是需要讓模型同時站在三個不同的位置思考。
角色扮演 prompt 做到的事情,跟 agent swarm 的核心機制高度重疊:強迫模型從不同前提出發、製造內部張力、讓結論不是沿著同一條思路滑下去。架構派的做法是把這個過程外顯化,拆成獨立 agent、獨立 context、獨立 call。開銷大,可控性高,適合需要審計的生產環境。
但 90% 的使用情境不需要審計,需要的是一個不只有一種聲音的回答。
這裡有個被低估的工程事實:語言模型本來就是在海量角色的文字上訓練出來的。角色切換對它來說不是模擬,是激活不同的權重分佈。你給它三個角色,它真的會用三種不同的認知結構去處理同一份材料。
複雜度不在工具,在 prompt 有沒有把角色的前提說清楚。
說清楚了,一個 prompt 頂一個 swarm。說不清楚,架構再漂亮也是三個 agent 給你同一個答案。
---Prompt Example---
你現在扮演三個角色,針對以下內容分別獨立思考,然後互相討論。
開始前,先用一句話定義:這份材料要解決什麼問題、要達成什麼具體結果。三個角色都必須基於這個定義出發,不能各自解讀目標。