<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      ICML 2025 | 大模型能在信息不完備的情況下問出正確的問題嗎?

      0
      分享至



      大語言模型(Large Language Model, LLM)在復雜推理任務中表現卓越。借助鏈式思維(Chain-of-Thought, CoT),LLM 能夠將復雜問題分解為簡單步驟,充分探索解題思路并得出正確答案。LLM 已在多個基準上展現出優異的推理能力,尤其是數學推理和代碼生成。

      然而,當前針對 LLM 推理能力的研究主要集中于被動推理(Passive Reasoning, PR),即在提供完整信息的前提下讓模型進行推理。相比之下,對信息不完備場景下模型推理能力的研究明顯不足。

      這類場景在實際應用中十分常見,例如偵探需要通過詢問和走訪獲取破案線索,醫生需要通過問診收集診斷依據。我們將這類需要主動獲取信息的推理稱為主動推理(Active Reasoning, AR)

      目前關于 AR 的方法和基準研究較少,探索不足,制約了 LLM 在復雜現實場景中的應用。如圖 1 所示,被動推理是直接從給定的充分信息中求解,而主動推理則需要從不完整的信息出發,通過多輪交互來獲取關鍵線索,最終得出結論。可以說,被動推理的核心是找到答案,而主動推理的核心是提出正確的問題。



      圖 1 被動推理(左)與主動推理(右)的示意圖。

      盡管主動推理對實現通用人工智能至關重要,但目前學術界對此關注甚少,LLM 在這方面的能力也亟待一個系統性的評估。為此,我們提出了 AR-Bench,一個旨在全面評估大模型主動推理能力的基準,并進行了一系列深入的實驗分析。

      我們的主要貢獻有如下三點:

      1. 新問題:我們提出了主動推理這一亟待研究的新問題,并系統定義了其相對于被動推理的核心挑戰。
      2. 新基準:我們提出了專門用于評估主動推理能力的基準 AR-Bench ,系統的測試模型在復雜場景中的主動推理能力。
      3. 新發現:我們通過在 AR-Bench 上的全面評測,揭示了當前頂尖 LLM 在主動推理方面的普遍且嚴重的短板,并指出了未來的研究方向。

      接下來,我們將簡要介紹 TMLR 課題組和斯坦福大學合作的 AR-Bench,并展示我們從廣泛地測試實驗中提取出來的重要發現,相關論文已發表于 ICML 2025 會議。



      • 論文標題:From Passive to Active Reasoning: Can Large Language Models Ask the Right Questions under Incomplete Information?
      • 論文鏈接:https://arxiv.org/abs/2506.08295
      • 代碼鏈接:https://github.com/tmlr-group/AR-Bench

      新問題:主動推理

      傳統的 LLM 推理研究,如 CoT,大多遵循被動推理的范式。在這種范式下,模型接收一個包含所有必要信息的問題,然后逐步地推導出最終答案。然而,現實中許多場景都存在著信息不完整的情況。以醫療診斷為例,醫生需要通過與患者互動主動獲取癥狀、病史等關鍵信息,而非被動接收完整數據。這類信息不完整的場景要求 LLM 通過提問、信息探索和動態交互來補充缺失信息,最終完成推理任務。

      我們將這種推理范式定義為主動推理。在 AR 范式下,模型僅獲得部分信息,并且必須通過與外部環境(如數據庫、API 或人類用戶)的交互來主動提問,以獲取缺失的關鍵信息來解決問題。AR 綜合了提問、檢索和迭代推理,是一個更全面、更動態、更具挑戰性的問題解決框架。

      對主動推理問題的探索,有助于我們更好地理解和提升 LLM 在真實、復雜場景下的智能水平,推動其從一個被動的文本處理器,轉變為一個能夠主動解決問題的人工智能體。



      圖 2 PR 要求模型通過一步步推理從給定的問題得到正確答案,而 AR 要求模型分析當前任務,提出一系列關鍵的問題來獲取重要信息,并利用這些信息得到正確的答案。本質上,PR 的核心要求是根據問題得到正確答案,而 AR 的核心要求是提出正確的問題來獲取關鍵的信息。

      新基準:AR-Bench

      為了系統地評估和衡量 LLM 的主動推理能力,我們構建了 AR-Bench (Active Reasoning Benchmark)。AR-Bench 旨在模擬真實世界中的信息獲取場景,它包含三個不同類型的任務,分別對應三種核心的推理能力:

      偵探案件 (Detective Cases, DC):模擬刑事案件調查,模型需要通過提問來搜集線索、分析案情,考驗其常識推理能力。

      情景謎題 (Situation Puzzles, SP):也被稱為 「海龜湯」,模型需要通過 「是 / 否」 問題來揭開一個看似矛盾或離奇情景背后的真相,考驗其邏輯推理和發散思維能力。

      數字猜謎 (Guessing Numbers, GN):經典的主動推理游戲,模型需要根據反饋猜測一個由不重復數字組成的四位數,考驗其符號推理能力。



      圖 3 AR-Bench 中三種任務的示例。

      我們的評估框架采用多輪交互范式,其中提問方 LLM 與扮演信息源的 「回答者」 智能體進行動態對話。該評估體系包含兩個維度:

      1)結果評估:在 DC 和 GN 任務中判斷模型結論與標準答案的匹配度,對于開放式問題 SP 則采用 F1-Score 衡量回答相似度;

      2)過程評估:基于預設關鍵問題(Key Questions),通過 LLM-as-a-judge 方法以交互輪次為粒度評估對話是否有效解決關鍵問題(適用于 DC 和 SP ),而在 GN 任務中則直接計算反饋信息的數字準確率作為過程評分指標。這一綜合評估方案不僅關注最終答案的正確性,更重視模型在交互過程中提出問題的質量和信息獲取的有效性,從而全面刻畫模型的主動推理能力。

      新發現:

      大模型主動推理能力嚴重不足

      我們在 AR-Bench 上對包括 GPT-4o 在內的多個先進 LLM,以及基于 prompting 和基于訓練的推理方法進行了廣泛測試。

      實驗結果(圖 4,5)表明:目前的語言模型和推理方法都無法有效解決AR-Bench 提出的問題,我們發現:

      1. 即使是最先進的 GPT-4o 模型也只能在 GN 任務上達到 35% 的準確率。

      2. 細粒度的指導和基于搜索的方法 (ToT)只能提供非常有限的性能提升。

      3. 基于訓練的方法(SFT, DPO)甚至在一些任務上使模型性能變差。



      圖 4 不同模型在 AR-Bench 上的性能對比。



      圖 5 Llama-3.1-8B 和 Llama-3.1-70B 使用不同方法在 AR-Bench 上的性能對比。

      我們還測試了兩個先進的主動推理方法(Proactive CoT 和 Uncertanty of Thoughts)以及人類在 AR-Bench 上的表現(見圖 6)。我們發現:

      1. 即使是目前提出的先進的主動推理方法也無法提升模型在 AR-Bench 上的性能。

      2. 人類在 AR-Bench 上的推理表現顯著優于目前先進的語言模型。



      圖 6(左)先進的主動推理方法在 AR-Bench 上的性能表現,(右)人類在 AR-Bench 上的表現和 GPT-4o 對比。

      為了更細致的研究語言模型在主動推理上的表現,理解目前模型和方法的不足,我們測量了模型在主動推理交互過程中模型對該任務的解決程度(見圖 7,8),我們發現:

      1. 在交互過程中,模型的收益呈現遞減趨勢,在后期問題質量低下

      2. 較弱的模型問出的問題質量偏低,并且無法對交互機會進行有效利用

      3. 較強的模型能夠利用多輪交互機會,持續獲得有用的信息

      4. 基于搜索的方法在 AR-Bench 中依賴于每一輪評估問題質量的驗證器的可靠性,表現在對 GN 任務有顯著提升 (驗證器基于數值反饋構建,簡單可靠),而在 SP 任務下無法提升推理表現 (驗證器基于自然語言反饋構建,復雜且相對不可靠)。



      圖 7 Llama-3.1-8B 和 Llama-3.1-70B 使用不同方法在 AR-Bench 推理中過程分的變化趨勢。



      圖 8 不同模型在 AR-Bench 各任務上推理中過程分的變化趨勢。

      我們還進行在 AR-Bench 進行了三方面的消融實驗(見圖 9,10,11):

      1. 固定交互信息,探究不同模型的推理能力的表現。

      2. 延長交互的輪數,給予模型更多的機會進行信息獲取,探究模型的表現變化。

      3. 探究在實驗中扮演回答者的模型的可靠性。

      我們發現:

      1. 更大的模型能夠在固定的記錄中提取出更多的有效信息。

      2. 簡單延長交互輪數無法完全解決主動推理任務。

      3. 面對主模型提出的問題,回答者能夠給出可靠的回復。



      圖 9 使用 Llama-3.1-70B 和 Llama-3.1-405B 在交互過程中獲得的交互記錄測試不同模型在給定信息的情況下給出正確結論的能力。



      圖 10 延長交互輪數后,比較模型的推理表現變化。



      圖 11 回答者模型的可靠性驗證。

      為更直觀評估模型在主動推理中的表現,我們系統分析了不同任務中的典型錯誤模式(見圖 12),并通過具體案例深入剖析了模型的失誤原因(見圖 13)。

      我們發現:

      1. 模型會問出寬泛,不具體的問題。

      2. 模型會問出沒有幫助的問題。

      3. 模型在主動推理中會頻繁出現時間線誤解,忽視證據,強行提出未經驗證的假設,以及沒有完全利用符號反饋等典型問題。



      圖 12 GPT-4o 模型在不同任務下的推理正確和推理錯誤的案例分析。



      圖 13 Llama-3.1-8B 和 GPT-4o 在不同任務下的出現的典型錯誤統計。

      總結

      我們的工作系統地定義了主動推理這一重要問題,并構建了 AR-Bench 作為社群的評估工具。我們的實驗結果清晰地表明,當前的大語言模型雖然在被動推理上能力強大,但在更貼近現實的主動推理場景下卻舉步維艱。

      展望未來工作,我們認為 AR-Bench 存在以下拓展方向:

      提升模型的主動推理能力:

      1. 采集小規模但是高質量的微調數據集

      2. 將強化學習推理方法(PPO, GRPO, DAPO)和推理模型適配到主動推理

      3. 為搜索方法開發更先進可靠的驗證器,以提升搜索方法在主動推理上的表現

      將 AR-Bench 拓展到更多的任務和領域:

      1. 醫療場景和定制化代理

      2. 多輪檢索增強生成和工具調用

      3. 模擬真實環境和多模態場景,例如機器人和游戲

      更多的實驗分析和技術細節,請參閱我們的論文及源碼,我們也將持續更新本工作的內容。

      我們希望 AR-Bench 能夠激發更多關于主動推理的研究,推動開發出能夠主動提問、高效探索、真正解決現實世界問題的人工智能。非常感謝大家關注我們的工作!

      課題組介紹

      香港浸會大學可信機器學習和推理課題組 (TMLR Group) 由多名青年教授、博士后研究員、博士生、訪問博士生和研究助理共同組成,課題組隸屬于理學院計算機系。課題組專攻可信基礎模型、可信表征學習、基于因果推理的可信學習等相關的算法,理論和系統設計以及在自然科學上的應用,具體研究方向和相關成果詳見本組 Github https://github.com/tmlr-group。

      課題組由政府科研基金以及工業界科研基金資助,如香港研究資助局新進學者協作研究補助金、優配研究金和杰出青年學者計劃,國家自然科學基金面上項目和青年項目,以及微軟、英偉達、字節跳動、百度、阿里、騰訊等企業的教職科研基金。青年教授和資深研究員手把手帶,GPU 計算資源充足,長期招收多名博士后研究員、博士生、研究助理和研究實習生。此外,本組也歡迎自費的訪問博士后研究員、博士生和研究助理申請,訪問至少 3-6 個月,支持遠程訪問。有興趣的同學請發送個人簡歷和初步研究計劃到郵箱 bhanml@comp.hkbu.edu.hk。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      適合普通人作為日常穿搭的時尚好看又有女人味的網紅打扮

      適合普通人作為日常穿搭的時尚好看又有女人味的網紅打扮

      美女穿搭分享
      2025-12-07 10:32:13
      為何我們總是演習,卻遲遲不進攻臺灣?看看金門島戰役就知道了!

      為何我們總是演習,卻遲遲不進攻臺灣?看看金門島戰役就知道了!

      壹知眠羊
      2025-07-10 08:09:51
      致敬,王剛慶祝足協杯冠軍時背后寫著:獻給我們的主帥塞蒂恩

      致敬,王剛慶祝足協杯冠軍時背后寫著:獻給我們的主帥塞蒂恩

      懂球帝
      2025-12-07 11:54:06
      40歲后才懂:這些年瞎花的錢,全是交了智商稅!

      40歲后才懂:這些年瞎花的錢,全是交了智商稅!

      一桶漿糊要一統江湖
      2025-10-27 17:35:07
      金晨紅毯臉崩連上三熱搜!金晨到底有沒有醫美動臉,網友吵翻了

      金晨紅毯臉崩連上三熱搜!金晨到底有沒有醫美動臉,網友吵翻了

      露珠聊影視
      2025-12-05 23:20:30
      香港一校花好漂亮, 身高173cm,體重46kg 美的讓人移不開眼

      香港一校花好漂亮, 身高173cm,體重46kg 美的讓人移不開眼

      阿廢冷眼觀察所
      2025-12-07 10:52:52
      2100枚核彈24小時待命,張召忠曾發出警告:一旦開戰,無處可逃

      2100枚核彈24小時待命,張召忠曾發出警告:一旦開戰,無處可逃

      諦聽骨語本尊
      2025-12-07 14:44:36
      提起楊虎城被殺一事,晚年張學良一直表示:我至今也不明白為什么

      提起楊虎城被殺一事,晚年張學良一直表示:我至今也不明白為什么

      興趣知識
      2025-12-07 17:58:03
      記者透露字母三意向下家,尼克斯出局火箭在列,一人比字母更適合

      記者透露字母三意向下家,尼克斯出局火箭在列,一人比字母更適合

      拾叁懂球
      2025-12-06 23:18:19
      張文宏直言:不管你信不信,老人過了80歲,基本都有如下7個現狀

      張文宏直言:不管你信不信,老人過了80歲,基本都有如下7個現狀

      黃河新流域
      2025-09-28 13:34:43
      有人說“建這個紀念堂,我是不贊成的,這也并非毛主席的意愿…”

      有人說“建這個紀念堂,我是不贊成的,這也并非毛主席的意愿…”

      阿芒娛樂說
      2025-12-07 10:52:45
      山西男籃撿到寶了!193cm后衛實力強勁,3場比賽場均30+

      山西男籃撿到寶了!193cm后衛實力強勁,3場比賽場均30+

      籃球專區
      2025-12-07 19:59:23
      1900 個航班被取消,日本報復來了,要明搶釣魚島,中方反制來了

      1900 個航班被取消,日本報復來了,要明搶釣魚島,中方反制來了

      議紀史
      2025-12-06 20:55:05
      72歲曾志偉和紅顏知己現身日本大阪逛商場購物,手牽手很親密

      72歲曾志偉和紅顏知己現身日本大阪逛商場購物,手牽手很親密

      陳意小可愛
      2025-12-06 01:59:29
      青島知名國企換將,去年人均薪酬約22萬

      青島知名國企換將,去年人均薪酬約22萬

      華美商業
      2025-12-07 19:47:55
      中央定調,延遲退休實施!男性生于1973至1977年,繳費幾年能退休?

      中央定調,延遲退休實施!男性生于1973至1977年,繳費幾年能退休?

      王五說說看
      2025-11-21 06:53:42
      重磅!多省市啟動對招投標項目全面“倒查13年”,什么信號?

      重磅!多省市啟動對招投標項目全面“倒查13年”,什么信號?

      識局Insight
      2025-12-06 21:32:22
      59年王耀武被特赦,周總理勸許世友原諒,許大哭:這輩子都不可能

      59年王耀武被特赦,周總理勸許世友原諒,許大哭:這輩子都不可能

      芊芊子吟
      2025-12-04 20:40:04
      男友被判死緩,丈夫慘死獄中,48歲劉芳菲與朱時茂合體令人意外

      男友被判死緩,丈夫慘死獄中,48歲劉芳菲與朱時茂合體令人意外

      冷紫葉
      2025-10-29 17:02:53
      8球1助攻!摩洛哥鋒霸閃耀土超,開價2400萬歐,意甲兩豪門搶瘋了

      8球1助攻!摩洛哥鋒霸閃耀土超,開價2400萬歐,意甲兩豪門搶瘋了

      零度眼看球
      2025-12-07 18:07:49
      2025-12-07 21:27:00
      機器之心Pro incentive-icons
      機器之心Pro
      專業的人工智能媒體
      11862文章數 142509關注度
      往期回顧 全部

      科技要聞

      漲幅最高20%!戴爾、聯想等PC廠計劃漲價

      頭條要聞

      日方軍機滋擾中國海軍訓練 吳江浩大使提出嚴正交涉

      頭條要聞

      日方軍機滋擾中國海軍訓練 吳江浩大使提出嚴正交涉

      體育要聞

      梅開48度!2年半,這是梅西在邁阿密的一人一城

      娛樂要聞

      林俊杰AAA頒獎禮,韓娛愛豆均站起鞠躬

      財經要聞

      五糧液降價?回應來了

      汽車要聞

      傳奇超跑電動形態重生 雷克薩斯LFA純電概念車

      態度原創

      數碼
      教育
      藝術
      手機
      家居

      數碼要聞

      AMD銳龍7 9850X3D現身跑分:比9800X3D提升4.7%

      教育要聞

      海淀官宣!“積極探索延長義務教育年限”,釋放了哪些重磅信號?

      藝術要聞

      他單身,偷拍了5萬個姑娘,但所有女人竟都愛他!

      手機要聞

      消息稱蘋果iPhone 18系列測試屏下3D解鎖、拼接微透玻璃

      家居要聞

      白味湯館 當代宴飲儀式

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 中文有无人妻VS无码人妻激烈 | 午夜亚洲www湿好爽| 51国产偷自视频区视频| 男人av无码天堂| 国产老熟女伦老熟妇露脸| 彭州市| 国产午夜精品久久久久免费视| 午夜dj在线观看免费视频| 好吊妞| 3?p在线| 无码66| 久久精品国产99国产精品| 亚洲成av人片一区二区| 乱人伦人妻系列| 制服丝袜亚洲在线| 精品成人A片久久久久久船舶| 日本欧美大码aⅴ在线播放| 色婷婷一区二区三区四区成人网| 国产精品人成视频免| 日韩1级| 99久久久无码国产精品免费 | 中文字幕无码人妻aaa片| 国产精品高清一区二区三区| 国产女人18毛片水真多18精品| 屄视频| 亚洲无码资源| 国产精品激情| 亚洲国产成人AⅤ片在线观看| 亚洲国产熟女第一页| 大陆一区视频观看| 欧美老熟妇videos极品另类| 无码中文字幕人妻在线一区| 一区无码| 色欲天天综合| 中文字幕有码无码av| 内射干少妇亚洲69XXX| 91狠狠爱| 无码一区二区三区免费| 夜夜高潮夜夜爽夜夜爱爱| 久久久久久av| 26uuu欧美日本|