![]()
新智元報道
編輯:LRST
【新智元導讀】隨著大語言模型(LLM)驅動的多智能體系統快速發展,越來越多的系統被用于軟件工程、科學分析、網頁自動化、組織協作和社會模擬等任務。但一個核心問題始終沒有被系統回答:為什么有些智能體架構可以支持長鏈條、多步驟任務,而另一些系統在規模擴大后會失穩、低效,甚至失去協調能力?這篇綜述試圖回答的,正是大規模智能體系統為何能擴展、為何會失穩,以及未來該如何設計更可擴展的系統結構。
近年來,agent marketplace和agent system都在快速擴張。
一方面,智能體市場中的可用agent數量和類別不斷增長;
另一方面,真實部署的agent system也從少量角色協作,逐步走向包含數十個甚至數百個agent的復雜結構。
這意味著,大規模智能體系統已經不再只是實驗室中的小規模演示,而正在進入更開放、更持續、更復雜的真實運行環境。
![]()
圖1 2025年智能體市場與智能體系統增長趨勢。市場中的智能體數量采用對數坐標顯示,市場類別數和每個系統中的智能體數采用單獨坐標軸顯示,陰影區域表示估計范圍。數據來源:Internet Archive(Wayback Machine)存檔網頁快照,包括OpenAI GPTs、AWS Marketplace和Agent.ai。
圖1展示了這一趨勢:無論是marketplace中的agent數量,還是system中每個任務鏈所涉及的agent數,都在明顯增長。也正因為如此,研究者不能再只關注單個agent的能力,而必須開始回答一個更系統的問題:當agent數量、類型和交互復雜度同時上升時,系統層面的行為究竟由什么決定?
美國埃默里大學(Emory University)、英國牛津大學(University of Oxford)和澳大利亞格里菲斯大學(Griffith University)的研究人員提出了一套三維分類框架,用來統一描述大規模智能體網絡。
第一維是架構拓撲(topology),即系統是中心化(centralized)還是去中心化(decentralized);
第二維是記憶范圍(memory scope),即信息存放在全局記憶(global memory)還是局部記憶(local memory)中;
第三維是更新行為(update behavior),即系統在運行中是靜態(static)還是動態(dynamic)的。三者組合后,一共得到八類典型的大規模智能體網絡。
![]()
論文鏈接:https://www.techrxiv.org/doi/full/10.36227/techrxiv.177127384.46731320/v1
為更直觀地展示這套分類框架,作者將現有大規模智能體系統按照「拓撲(topology)—記憶范圍(memory scope)—更新行為(update behavior)」三個維度組織成一張層級結構圖。通過這張圖可以看到,不同系統雖然都屬于多智能體范式,但它們在中心化或去中心化、全局記憶或局部記憶、靜態或動態更新上的選擇并不相同。這些結構差異進一步決定了系統在協調效率、擴展性、魯棒性和長期行為上的不同表現。
![]()
圖2 大規模智能體網絡的三維分類框架:基于拓撲(topology)、記憶范圍(memory scope)與更新行為(update behavior)的層級組織
圖2可以看作這篇綜述的核心。文章強調,真正決定系統表現的,往往不是智能體數量本身,而是這三種機制如何組合。
中心化系統(centralized systems)更容易統一調度和維持一致性(consistency),適合任務流程明確的場景,但規模變大后容易出現中心瓶頸(central bottleneck);去中心化系統(decentralized systems)更靈活,更適合研究群體涌現(emergence)行為,但也更容易出現局部失調(local miscoordination)和信息漂移(information drift)。
全局記憶(global memory)有利于共享上下文(shared context)和狀態對齊(state alignment),局部記憶(local memory)更貼近真實分布式環境(distributed environment),但也更容易帶來分歧。
靜態系統(static systems)更容易分析和復現,動態系統(dynamic systems)則更適合復雜環境中的長期任務(long-horizon tasks)和自適應協作(adaptive collaboration)。
在此基礎上,文章還進一步提出了一個很重要的判斷:通信協議(communication protocol)雖然重要,但不是大規模智能體網絡最深層的瓶頸。作者指出,更根本的問題是智能體之間世界模型(world model)的不一致。
即使消息傳輸完全正確,不同智能體也可能因為內部知識、偏好和記憶不同,而對同一句話或同一個狀態做出不同解釋。換句話說,傳輸正確,并不等于理解一致。
這種不一致會在系統中逐層放大:在認知層面,會形成信念漂移(belief drift);在行為層面,會帶來合作不穩定;在任務層面,會造成目標偏移(goal divergence);在系統層面,則可能形成非平穩動態(non-stationary dynamics),使整個網絡難以收斂。
基于這些觀察,作者認為未來研究需要更關注幾個方向:更明確的一致性模型(consistency model)、更強的共享狀態控制(state control)、更成熟的路由與通信調度機制,以及面向開放環境的身份、安全和魯棒性設計。
文章還指出,現有評估體系遠遠不夠,因為多數基準仍停留在小規模,而未來真實系統可能需要面對上千到上百萬智能體!
總體來看,這篇綜述的價值不只是總結已有工作,更在于給大規模智能體網絡研究提供了一張結構地圖。它提醒我們:未來系統要真正擴展,關鍵不只是增加智能體數量,而是要解決拓撲、記憶、更新機制和世界模型對齊之間的系統性問題。
參考資料:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6390059
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.