<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      中山大學郭裕蘭團隊:數據充足卻訓練失敗,多智能體到底卡在哪丨CVPR 2026

      0
      分享至

      很多人其實已經在不知不覺中接觸到了多智能體協作帶來的變化。

      電商大促時,倉庫里往往不是一臺機器人在工作,而是一整組機器人同時分揀、運輸、避讓和交接。自動駕駛真正困難的地方,也不只是讓一輛車學會開,而是讓很多輛車在同一條路上彼此配合。現實中的很多復雜任務,本質上都不是單個智能體可以獨立完成的,智能系統也是一樣。

      但現實世界并不會給這些系統太多試錯機會。倉庫機器人撞一次貨架,工業機械臂裝錯一次零件,代價都是真實的。也正因為如此,越來越多研究開始轉向離線強化學習,也就是先利用已有數據訓練策略,而不是依賴實時試錯。

      可一旦從單智能體走向多智能體,難度會迅速上升,因為系統不僅要學會做決策,還要在反饋有限的條件下學會協作。

      這正是當前行業里的一個現實瓶頸。很多方法在實驗環境里效果不錯,但到了離線多智能體場景中,往往很快暴露出問題。

      一方面,真實任務里的獎勵通常非常稀疏,模型很難知道自己到底哪一步做對了。另一方面,多智能體協作還會帶來責任分配問題,也就是最后成功了,卻很難判斷到底是哪一個智能體起了關鍵作用。結果就是,系統明明有大量歷史數據,卻依然學不會穩定協作,更談不上面對新任務時的泛化能力。

      在這樣的背景下,來自中山大學的郭裕蘭團隊提出了 MangoBench,并在研究《MangoBench A Benchmark for Multi-Agent Goal-Conditioned Offline Reinforcement Learning》中,嘗試重新回答一個關鍵問題,也就是當多個智能體不能隨便試錯時,怎樣才能真正學會協作。

      研究團隊沒有繼續依賴傳統獎勵驅動,而是把問題改寫成目標驅動,讓模型圍繞應該到達什么狀態去學習,從而為離線多智能體強化學習提供了一條更清晰的研究路徑。


      論文地址:https://wendyeewang.github.io/MangoBench/

      性能分化的關鍵拐點

      在難度適中的導航任務里,不同方法的表現差距已經很明顯了。中山大學團隊提出的 IHIQL 的成功率能達到 80% 到 95%,說明它大多數時候都能把任務完成好。相比之下,ICRL 只有 40% 到 60%,GCMBC 只有 20% 到 40%,而 GCOMIGA 和 GCOMAR 基本接近 0%,幾乎等于沒學會。

      換句話說,同樣是面對離線數據,有的方法已經能比較穩定地找到路,有的方法卻連基本方向都抓不住。這說明在獎勵很少、反饋很弱的情況下,傳統的離線多智能體方法其實很容易失靈,而分層強化學習方法更容易學出效果。

      當任務再變難一點,這種差距會被進一步放大。所有方法的表現都會下降,但下降的程度并不一樣。IHIQL 雖然也會掉到 30% 到 40%,但至少還保留了一部分完成任務的能力。

      ICRL 和 GCMBC 會掉到 10% 到 20% 左右,其他方法則幾乎完全不行了。可以把它理解成,一開始大家都在考試,題目簡單的時候還能看出誰強誰弱,題目一難,很多方法就直接交白卷了,只有少數方法還能繼續答題。IHIQL 的優勢,正體現在它遇到更復雜的環境時沒有一下子垮掉。

      研究人員還專門看了另一件事,也就是把一個任務交給多個智能體時,具體怎么分工會不會影響結果。比如有的設置是每個智能體負責 4 個部分,有的是每個智能體只負責 2 個部分。

      結果發現,不管是 2×4 還是 4×2,IHIQL 在中等難度任務里都能穩定在約 90% 左右。這個結果可以理解成,它不是只會適應某一種固定分工,而是更像抓住了任務本身該怎么完成,所以換一種分工方式,它照樣能做得不錯。

      到了機械臂任務,這種差別就更容易看出來了。在同步協作的抬欄桿任務里,IHIQL 的成功率在 80% 以上,GCMBC 大約 60%,ICRL 大約 50%,模仿學習方法大約 40%。如果把這些方法想成幾組不同水平的工人,那么 IHIQL 這一組不但完成任務的概率更高,而且訓練時間只有模仿學習方法的約 5%。

      這說明它不只是做得更好,而且學得更快,效率也更高。通俗一點說,就是它不但更會做事,而且更快進入狀態。


      到了更復雜的異步協作任務,情況就不一樣了,原本領先的方法不一定還能繼續領先。以放置食物這個任務為例,這類任務不是大家一起同時發力,而是要一個智能體先完成前面的動作,另一個再接著往下做,所以更考驗先后配合。

      在這種情況下,ICRL 的表現最好,成功率大約在 30% 到 40% 之間,明顯高于 IHIQL 和 GCMBC,模仿學習方法甚至不到 10%。這說明當任務強調步驟之間的銜接時,對比學習方法更容易學到這種順序關系。更重要的是,它不僅做得更好,訓練時間還比模仿學習少了約 93%,也就是說,它不只是更會學,而且學得還更快。

      多目標和單目標的對比,則說明了另一件很容易被忽視的事,那就是測試方式本身也會影響我們對模型的判斷。如果只用一個目標去測試,同一個任務里,IHIQL 是 78%,GCMBC 是 22%,ICRL 是 37%。但換成多目標評估后,它們分別提升到 82%、47% 和 56%。

      這意味著很多方法其實并沒有我們原來想的那么差,只是單目標測試把它們的能力看窄了。換句話說,這些方法學到的并不只是某一個固定動作,而是面對不同目標時,仍然能夠做出調整的能力,也就是更接近真正的泛化。


      在訓練方式的對比里,研究人員發現,并不是拿到更多全局信息,效果就一定更好。分布式方法 IHIQL 在中等任務里成功率大約是 95%,任務規模變大后還有大約 85%,到了超大規模任務也還能保持在 50% 左右。

      相比之下,集中訓練方法 HIQL-CTDE 在中等任務里還有大約 70%,但任務一變復雜,很快就掉到 44%,再往上甚至只剩下 1%,幾乎等于學不動了。

      這個結果可以理解成,分布式方法更像是把問題拆開來,各個智能體先管好自己那一部分,所以任務變難時還能穩住。集中訓練方法看起來掌握的信息更多,但也正因為要同時處理太多全局信息,任務一復雜就容易顧不過來,最后訓練變得越來越不穩定。

      也就是說,在多智能體任務里,信息更多不一定更占優勢,關鍵還是系統能不能把復雜問題處理得足夠清楚。


      把所有實驗結果放在一起看,其實能得出幾個很清楚的判斷。首先,很多方法之所以一到復雜任務就失效,最根本的原因不是模型太弱,而是獎勵信號太少。

      因為在稀疏獎勵條件下,系統大部分時候都得不到明確反饋,很難知道自己到底哪一步做對了,所以訓練很容易陷入混亂。一旦把獎勵變得更密集,性能就會明顯恢復,這說明問題的關鍵不在模型本身,而在學習信號不夠。

      其次,目前表現最穩的還是分層方法。以 IHIQL 為代表的方法之所以更有效,是因為它不是讓模型一次性去解決整個復雜任務,而是把大任務拆成多個更小的步驟來學。

      這樣做的好處是,模型更容易在中間過程里得到反饋,也更不容易在任務變復雜時一下子崩掉。所以從實驗結果來看,分層策略更像是一種讓系統先學會一步一步完成任務的方法,而不是一上來就要求它掌握全部。

      最后,這項研究還說明了多智能體系統最難的地方,其實不只是學會做動作,而是學會彼此配合。在簡單任務里,多智能體有時還能比單智能體做得更好,因為大家分工之后效率更高。

      但一旦任務變復雜,需要更精細的協作和銜接時,問題就會立刻暴露出來。也就是說,真正卡住多智能體系統的,不只是學習能力,而是協同能力,這也是為什么協作會成為整個系統進一步提升表現的最大瓶頸。


      從獎勵驅動到目標驅動

      在實驗設計上,研究團隊先做了一件很關鍵的事,就是把原本的離線數據重新整理了一遍。原始數據里只有狀態和動作,記錄的是系統當時看到了什么、做了什么。

      研究人員在這個基礎上又加進了目標和獎勵,也就是把原來的數據改造成了狀態、動作、目標、獎勵這樣的形式。具體來說,他們會從已有軌跡里隨機挑出一個狀態當作目標,再去判斷當前行為有沒有朝這個目標靠近,然后自動生成對應的獎勵。

      這樣一來,同一批歷史數據就不再只能拿來學一個任務,而是可以圍繞不同目標反復使用,相當于把原有數據的價值放大了。

      這樣做的意義在于,它把原來的學習方式換了一種思路。傳統強化學習更像是讓模型一邊做一邊等反饋,問題是這種反饋往往很少,很多時候模型根本不知道自己到底做得對不對。

      加入目標之后,情況就不一樣了。模型不再只是被動等獎勵,而是會一直圍繞一個明確目標去行動,判斷自己是不是在一步步接近它。換句話說,原本那種模糊又稀少的反饋,被變成了更直接、更容易理解的學習信號,所以模型更容易學出有效策略。

      為了讓結果更可靠,研究團隊在實驗設置上也做得比較嚴謹。運動任務一共訓練了 100 萬步,測試時還會換 5 個不同目標,并用 5 個隨機種子反復驗證,也就是不只看一次結果,而是看它在不同條件下是不是都能穩定表現。

      操作任務也一樣,訓練步數分別是 1.5 萬和 3.88 萬,測試時還用了 100 個隨機種子。這樣做的目的很明確,就是盡量避免某一次訓練碰巧表現好,確保最后看到的結果是穩定的,而不是偶然的。

      在任務安排上,研究人員也不是隨便選幾個場景,而是故意把難度一點點往上加。運動任務從較簡單的迷宮開始,逐漸增加到更復雜的迷宮,最后再加入隨機傳送這樣的高難度設置。

      操作任務則從需要同時配合的同步任務,發展到需要講究先后順序的異步任務。這樣設計,其實是想更系統地觀察模型在不同復雜度下的表現,不只是看它能不能完成任務,更想看它在任務越來越難時,是否還具備泛化能力、長期規劃能力和協作能力。雷峰網

      換句話說,研究團隊想測試的不是模型會不會做一道題,而是題目一旦變難,它還能不能繼續做下去。


      研究人員還專門分析了,為什么 CTDE 這種看上去信息更多的方法,最后反而表現不好。按直覺來說,既然它在訓練時能看到更多全局信息,效果似乎應該更好,但問題恰恰也出在這里。

      因為它看到的東西太多了,全局狀態本質上就是把所有智能體的狀態都拼在一起,這會讓問題一下子變得非常大、非常復雜,模型需要同時處理的內容也會迅速增加。

      除此之外,CTDE 在訓練時和執行時其實并不是完全一致的。訓練階段,模型會利用全局信息來學習;但真正做決策時,每個智能體又只能根據自己的局部信息行動。這樣一來,就會出現一種情況:訓練時學到的東西,到了實際執行時不一定能順利用上,這會讓優化過程變得更困難。

      還有一個更隱蔽的問題在于目標本身。CTDE 一方面要處理整體任務的全局目標,另一方面又要讓每個智能體根據自己的局部目標去行動。這樣就容易出現兩套目標之間對不上的情況,也就是模型的一部分在學整體方向,另一部分卻在學局部細節,最后很難配合到一起。

      所以,CTDE 的問題并不是信息不夠,而是信息太多、結構太復雜,最后讓訓練變得不穩定。表面上看,它像是在幫模型看到更完整的全局;但實際上,正是這種額外的復雜性,讓它在任務一變難時更容易失效。

      從方法到問題本質

      從實驗意義來看,研究團隊最重要的貢獻,不只是提出了一套新方法,而是更清楚地揭示了 Offline MARL 為什么一直很難真正做好。

      研究結果說明,問題的核心并不只是模型能力強不強,而是在訓練過程中存在兩個更根本的障礙。第一個障礙是學習信號太弱,因為 reward 很稀疏,模型在大多數時候得不到明確反饋,Q- function 很難穩定收斂,所以很多方法即使訓練很久,效果仍然很差。

      第二個障礙是責任分配問題,也就是在多智能體協作中,很難判斷到底是哪一個 agent 對最后的成功起了關鍵作用。一旦這個貢獻關系分不清,梯度更新就容易出錯,最后就會出現協作失敗。研究的價值就在于,它把多智能體離線強化學習最深層的困難點明確指出來了。

      研究團隊還說明了 goal-conditioned 真正有效的原因。它的作用并不只是給模型多加一個目標輸入,而是改變了整個學習方式。原來模型主要依賴 reward 來判斷行為好壞,這種信號很少,也不穩定。

      加入目標之后,每個 state 都能和某個 goal 聯系起來,學習信號就明顯變多了,模型也更容易知道自己應該往什么方向調整。

      這樣一來,強化學習就不再只是盲目地追逐獎勵,而更像是在學習如何從當前位置到達目標位置。這種形式比單純依賴 reward 更穩定,也更容易訓練。

      更重要的是,同一個模型可以面對不同目標完成不同任務,這說明模型學到的不是死記硬背的固定動作,而是具有一定泛化能力的行為策略。

      研究人員進一步說明了為什么分層方法會更有效。原因在于,分層方法同時解決了兩個難題。一方面,它通過設置中間目標緩解了稀疏獎勵問題,讓模型在任務還沒有最終完成之前,就已經能得到階段性的反饋。

      另一方面,它把原本很長、很復雜的任務拆成多個更短、更容易處理的小任務,從而減輕了長時間依賴帶來的學習難度。換句話說,分層方法之所以有效,本質上是因為它把一個很難直接學會的大問題,拆成了多個更容易逐步解決的小問題。雷峰網

      這一點對于多智能體任務尤其重要,因為多智能體系統本來就比單智能體更難協調,如果沒有這種結構化拆分,訓練會更加不穩定。

      這項研究對普通人的影響也很實際。現實生活中很多場景并不允許系統反復試錯,比如自動駕駛、倉儲物流、工廠機械臂、醫院輔助機器人等。這些系統一旦出錯,代價往往很高,所以很多時候只能依賴已經收集好的歷史數據進行訓練,也就是離線學習。

      研究團隊所做的工作,本質上是在探索怎樣讓多個智能體在不能隨便試錯的情況下,依然學會穩定協作。這個方向如果繼續發展,未來普通人可能會直接受益于更安全的自動駕駛系統、更高效的物流配送機器人、更穩定的工業自動化設備,以及更可靠的醫療和家庭輔助機器人。

      MangoBench 背后的科研工作者

      汪怡,中山大學在讀一年級博士生,主要研究方向為三維視覺和強化學習,師從郭裕蘭教授,于深圳河套學院實習,完成此論文時期在中山大學讀本科。在 CVPR 等 CCF A 類會議發表多篇論文,參與中國圖學學會“奮發圖強”博士生 workshop,參與 China3DV 墻報展示,曾獲中山大學研究生校長獎學金等。

      鐘檸澤,完成此論文時期在中山大學讀本科,與郭裕蘭教授合作,主要研究方向為機器人,三維視覺和強化學習。在 CVPR/ICLR/ACM MM 等 CCF A 類會議等發表論文,CVPR/NeurIPS/ECCV 審稿人,論文在China3DV/ChinaGraph 大會等展示,現在美國賓夕法尼亞大學 GRASP Lab 讀研究生,與 Vijay Kumar 院長合作。

      符智恒,西澳大學博士,香港理工大學博士后,主要研究方向為三維重建與生成。發表論文共 20 余篇(包括CVPR、ICCV、TIP、ECCV、IJCAI等),英文著作一部 Point Cloud Intelligence 。

      王龍光,中山大學博士后,主要研究方向為底層視覺和三維視覺。以第一作者身份發表 CCF A 類論文共 11 篇,谷歌學術總引用數為 7100 余次。入選中國科協青年人才托舉工程,連續三年入選全球前 2% 頂尖科學家榜單;主持國家及省部級項目 9 項。

      張曄,中山大學副研究員,主要研究方向為空間智能與三維視覺。發表學術論文 30 余篇,主持國家級和省部級項目3項,曾擔任首屆中國空間智能大會本地主席。

      郭裕蘭,中山大學教授,主要研究空間智能與三維視覺。主持國家自然科學基金聯合重點項目等 10 余項,發表學術論文 200 余篇,谷歌學術引用 2 萬余次,入選Clarivate全球高被引科學家。擔任中國圖象圖形學學會三維視覺專委會副主任,IEEE TIP 高級領域編輯(SAE)。曾擔任首屆中國空間智能大會主席,歷屆中國三維視覺大會組委會主席。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      世錦賽25日凌晨戰報,4-4,9-7,趙心童丁俊暉難分勝負,艾倫領先

      世錦賽25日凌晨戰報,4-4,9-7,趙心童丁俊暉難分勝負,艾倫領先

      娛說瑜悅
      2026-04-25 14:10:53
      古蒂:穆里尼奧早已不在巔峰水準,不看好他回歸皇馬

      古蒂:穆里尼奧早已不在巔峰水準,不看好他回歸皇馬

      懂球帝
      2026-04-25 07:41:07
      男子在蔣介石故居對面別墅區,花214.19萬法拍下兩更衣室兩廁所,還有1100余平方米土地使用權,兩年來無法使用

      男子在蔣介石故居對面別墅區,花214.19萬法拍下兩更衣室兩廁所,還有1100余平方米土地使用權,兩年來無法使用

      大風新聞
      2026-04-24 15:13:07
      退休18個月后,他主動走進紀委監委,不是被帶走,是自己去的。

      退休18個月后,他主動走進紀委監委,不是被帶走,是自己去的。

      生活魔術專家
      2026-04-25 12:54:34
      高市沒料到,中國動真格了,中韓朝俄四國同時開火,局勢變成4打1

      高市沒料到,中國動真格了,中韓朝俄四國同時開火,局勢變成4打1

      混沌錄
      2026-04-24 16:39:08
      揭秘武漢江岸區江湖大佬李平貴,橫行江岸20年,斂財數十億!

      揭秘武漢江岸區江湖大佬李平貴,橫行江岸20年,斂財數十億!

      好笑娛樂君每一天
      2026-04-25 01:02:44
      漲價一觸即發,2萬億芯片巨頭火了!下游需求激增,CPU重回AI核心,A股布局公司出爐

      漲價一觸即發,2萬億芯片巨頭火了!下游需求激增,CPU重回AI核心,A股布局公司出爐

      數據寶
      2026-04-25 13:17:38
      初二就輟學!全紅嬋哥哥被批沒文化 回應:能寫出自己名字就不錯

      初二就輟學!全紅嬋哥哥被批沒文化 回應:能寫出自己名字就不錯

      念洲
      2026-04-24 18:05:13
      于康:原江蘇省計劃經濟委員會副主任

      于康:原江蘇省計劃經濟委員會副主任

      藍色海邊
      2026-04-18 08:50:23
      卡斯爾&哈珀合砍60分!楊瀚森得到1籃板 馬刺客場逆轉開拓者

      卡斯爾&哈珀合砍60分!楊瀚森得到1籃板 馬刺客場逆轉開拓者

      北青網-北京青年報
      2026-04-25 14:13:04
      8599 元!iPhone 17 Pro Max 又降價了,比官網便宜 1400 元

      8599 元!iPhone 17 Pro Max 又降價了,比官網便宜 1400 元

      搞機小帝
      2026-04-25 00:05:03
      穆杰塔巴傷情曝光,比外界想象的更嚴重,他用了一招終結斬首戰術

      穆杰塔巴傷情曝光,比外界想象的更嚴重,他用了一招終結斬首戰術

      卷史
      2026-04-25 10:43:06
      德國百年巨頭倒下時,浙江修鞋匠花4500萬買下,如今年入70億

      德國百年巨頭倒下時,浙江修鞋匠花4500萬買下,如今年入70億

      毒sir財經
      2026-04-19 22:12:53
      菲律賓局勢有變,副總統逃往海外,小馬科斯冒險,解放軍開始堵門

      菲律賓局勢有變,副總統逃往海外,小馬科斯冒險,解放軍開始堵門

      諦聽骨語本尊
      2026-04-25 14:46:10
      我在沙特開餐館娶了五位妻子,回國奔喪四個月,再次回去當場愣了

      我在沙特開餐館娶了五位妻子,回國奔喪四個月,再次回去當場愣了

      普陀動物世界
      2026-04-24 17:10:52
      《八千里路云和月》大結局:張汝賢去世,云魁犧牲,萬福玉嬌重逢

      《八千里路云和月》大結局:張汝賢去世,云魁犧牲,萬福玉嬌重逢

      八斗小先生
      2026-04-25 10:44:48
      暴跌60%,多地關店、跑路,暴利的牙科生意,真的要涼透了?

      暴跌60%,多地關店、跑路,暴利的牙科生意,真的要涼透了?

      夢錄的西方史話
      2026-04-25 14:02:38
      見證歷史,中國核動力航母!

      見證歷史,中國核動力航母!

      君臨財富
      2026-04-25 07:55:19
      DeepSeek V4一發布,黃仁勛的預言成真了。

      DeepSeek V4一發布,黃仁勛的預言成真了。

      差評XPIN
      2026-04-25 00:05:11
      中紀委點名反腐!這七大領域將掀起整頓風暴,切莫不當回事

      中紀委點名反腐!這七大領域將掀起整頓風暴,切莫不當回事

      細說職場
      2026-04-24 13:16:47
      2026-04-25 15:31:00
      雷峰網 incentive-icons
      雷峰網
      關注智能與未來!
      69148文章數 656119關注度
      往期回顧 全部

      科技要聞

      DeepSeek V4發布!黃仁勛預言的"災難"降臨

      頭條要聞

      "蚊子大軍"來襲北極圈也被攻破 各地疾控發出重要預警

      頭條要聞

      "蚊子大軍"來襲北極圈也被攻破 各地疾控發出重要預警

      體育要聞

      火箭0-3觸發百分百出局定律:本季加時賽9戰8敗

      娛樂要聞

      鄧超最大的幸運,就是遇見孫儷

      財經要聞

      90%訂單消失,中東旺季沒了

      汽車要聞

      2026款樂道L90亮相北京車展 樂道L80正式官宣

      態度原創

      房產
      數碼
      健康
      家居
      軍事航空

      房產要聞

      新一輪教育大爆發來了!海口,開始瘋狂建學校!

      數碼要聞

      3DMark macOS獨立版終于發布:不用蘋果商店、離線也能跑

      干細胞如何讓燒燙傷皮膚"再生"?

      家居要聞

      自然肌理 溫潤美學

      軍事要聞

      美防長:戰事不會“沒完沒了”

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 国产sm精品调教视频| 欧美日本激情| 阳曲县| 日本强伦姧人妻一区二区| 黄床大片免费30分钟国产精品| 三门县| wwwjizzjizzcom| 搡老熟女老女人一区二区| 久久久国产免费影院| 亚洲成人久久躁狠狠躁| 老太脱裤让老头玩ⅹxxxx| 池州市| 少妇一晚三次一区二区三区| 亚洲人妻一区二区精品| 中文字幕亚洲精品第一页| 久久这里只有精品首页| 青娱乐av| 国产激情视频在线观看的| 国产精品网站在线观看免费传媒| 成人日本有码在线| 麻豆国产原创视频在线播放| 免费观看的av毛片的网站| 内射影院| 东京热A?V无码| 男女xx00xx的视频免费观看| 国产精品青草久久久久福利| 色情无码一区二区三区| 国内自拍偷拍| 精品视频在线观看免费无码| 亚洲一区二区无码影院| 岛国AV网站| 国产高跟鞋丝袜在线播放| 精品无码一区二区三区电影| 柳河县| 国产成人亚洲综合无码| 国产专区一va亚洲v天堂| 在线看片免费人成视频久网下载 | 99在线精品免费视频| 亚洲国产精品久久久天堂麻豆宅男| 亚洲国产成人精品一二区 | 中国孕妇变态孕交xxxx|