![]()
新智元報道
編輯:KingHZ 好困
【新智元導讀】ICLR 2026投稿破紀錄達19000篇,錄用率僅28.18%,平均分5.39創三年最低。評審系統漏洞曝光之后,作者們仍曬出喜報,如北大張銘組中5篇,慶祝努力收獲。
放榜了!
頂會ICLR,在評審員和作者互相開盒之后,錄用結果來了。
ICLR 2026可謂「一片混亂」:先是評審結果惹爭議,多名投稿人經歷投稿分數全0;后有評審系統被爆出漏洞,審稿人全員裸奔。
終于,ICLR 2026帶來了一線希望,錄用通知從1月25日發出——
![]()
據Paper Copilot統計,ICLR 2026總投稿論文再創新高,為19000篇;錄用率只有28.18%,對應的平均得分為5.39、最低分為2.50、最高分為8.50,均為最近三年最低水平;Poster錄用率為28.18%,為最近3年新高。
![]()
投中的作者發帖慶祝,苦盡甘來,努力終有收獲,但并非沒有爭議,特別是關于LLM濫用的爭議。
順便提一句,本屆ICLR將于2026年4月23日至27日在巴西里約熱內盧舉行。
![]()
網友紛紛曬出成績單
多名作者在國內外社交平臺發文,祝賀ICLR 2026喜創佳績。
我們先看一下國內平臺上大家曬出的「成績單」。
北大張銘教授組頂會ICLR中5篇:
![]()
![]()
![]()
![]()
![]()
MIT教授、清華校友韓松投稿ICLR的第十年,聯合戰隊生產力大爆發,投中至少9篇:
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
TAMU計算機系助理教授涂正中,喜提5篇ICLR。
![]()
![]()
![]()
![]()
![]()
港科大田澤越ICLR+4:
![]()
上海交通大學酈洋和團隊投中3篇:
1. 基于掩碼生成的類自監督學習范式MaskCO,在TSP上相比SOTA實現了超過99%的gap縮減,并帶來10倍的加速。
2. 面向組合優化的掩碼擴散框架NEXCO,將解的解碼過程內化為擴散模型的原生機制,在保證約束滿足的同時顯著提升解的質量與推理效率。
3. 面向組合優化問題的統一表示學習框架ConRep4CO,實現跨問題的預訓練,顯著提升表示質量、泛化能力及下游優化性能。
![]()
南洋理工加小俊和團隊取得了優異成果。
據介紹,本次他參與了三篇ICLR 2026論文,其中一篇是共同一作,兩篇是通訊作者,分別聚焦LLM安全對齊 / 多模態越獄安全評測 /文言文越獄攻擊等方向。
![]()
![]()
![]()
清華在讀博士生李凱的兩篇一作論文順利拿下「雙殺」,并且還把Paper、Code和Dataset全都開源了。
Work 1: Dolphin 高效音視頻語音分離,小海豚游得快!
Paper:https://huggingface.co/papers/2509.23610
Space: https://huggingface.co/spaces/JusperLee/Dolphin
Work 2: AudioTrust Audio LLM 的可信度評估Benchmark。
Paper: https://huggingface.co/papers/2505.16211
Dataset: https://huggingface.co/datasets/JusperLee/AudioTrust
![]()
![]()
中科大梁錫澤ICLR+2,方向包含大模型多領域RL、大小模型協同推理。
![]()
多領域RL方面,他們提出了RLCGPO算法,在數學、代碼、科學、創意寫作4個領域的7個基準上取得平均+2.3分提升,并帶來更快的獎勵增長(例如訓練50步后獎勵提升達到基線的2–3倍);同時每步額外開銷僅2–5%。
![]()
在大小模型協同推理領域,他們提出了Latent Guidence框架,使小模型相較其獨立基線的準確率最高提升13.9%、速度提升2倍,同時整體推理速度比大模型快至4倍。
![]()
華師大王嘉寧,同樣ICLR+2:
R-Horizon:大模型長程推理分析與RL優化
ScienceBoard:面向AI for Science的Agentic工作流評估
![]()
港科大(廣州)宋文軒,作為共一和project lead參與的兩篇VLA文章都接收了,分別代表了兩條路線上的探索(VLA的視覺表征學習和diffusionVLA),兩篇工作均已開源(均Github 100+ stars)
Spatial Forcing: https://spatial-forcing.github.io/
Unified Diffusion VLA:https://arxiv.org/abs/2511.01718
![]()
英偉達謝恩澤,參與的SANA Video和Fast dLLM系列都中了 ICLR 2026!
在線性注意力應用于Diffusion視覺生成的基礎之上,這次他們在Diffusion LLM語言模型上的研究也取得了一些不錯的進展。
![]()
北大任韜,ICLR 2026投中兩篇論文,聚焦于LLM和Diffusion的后訓練強化學習算法,從風險度量和隨機梯度估計的角度給出了一些不同的看法。
![]()
港科大(廣州)陳晉泰,關于「心電全景圖(Electrocardio Panorama)」的Nef-Net v2正式被錄用。
![]()
v2版本已經實現了對任意時長、任意心電設備的覆蓋,效果已經遠超初代。他認為更重要的是落地:
發論文從來不是目的,現在如果目標僅僅是發一篇頂會并不難。真正的意義在于我們將心電全景圖的應用向臨床又推進了一大步。我們的v3已經在路上。
復旦仝競奇等在被接收的工作中,發現游戲任務訓練可以提升AI的通用推理能力。
論文鏈接:https://arxiv.org/abs/2505.13886
代碼倉庫:https://github.com/tongjingqi/Game-RL
數據與模型:https://huggingface.co/datasets/Code2Logic/GameQA-140K
![]()
![]()
![]()
![]()
國外社交平臺上,也很熱鬧。
被譽為諾獎風向標之一的斯隆研究獎得主、OSU教授Yu Su實驗室中了11篇,激動發帖:「OSU NLP Group中了11篇,涉及智能體記憶、安全、評估、機制解釋性以及面向科學的AI等話題。」
![]()
與合作者一起,普林斯頓的博士后LingYang,在「大模型和擴散語音模型上」上一人中了4篇:
![]()
香港中文大學博士后Yafu Li,投中了6篇,而且全部開源,對推理、強化學習和多模態理解可以看看。
![]()
在讀博士Qiushi Sun參與的3篇論文被ICLR 2026接收。
![]()
作為第一作者,網友Egor Cherepanov有4篇論文被接收。
![]()
國內高校一些學生解鎖「首篇頂會論文」成就,甚至還有大二學生!
![]()
因誤報虛構參考文獻,被ICLR 2026桌面拒稿,最后柳暗花明,Yu-Xiang Wang分享了「有史以來ICLR中稿論文」最低的一篇的故事。
![]()
根據傳言,中一篇ICLR等頂會論文,作者就可以正式稱自己為「AI研究員」,恭。和新AI研究員一起分享這些喜悅吧。
![]()
![]()
![]()
![]()
![]()
在此,恭喜所有ICLR 2026論文作者。
但AI研究社區涌現出了新的問題,不容小覷。
AI頂會之亂,ICLR之殤
最大問題不是審稿人信息被泄露,投稿人和審稿人直接對線,而是評審質量的下滑。
比如,AI開始反噬AI研究。
此前,卡內基梅隆大學教授Graham Neubig使用Pangram Labs的AI文本檢測工具EditLens,發現ICLR公開的75800條評審意見21%被高度懷疑「完全由AI生成」。
![]()
AI寫論文,AI評閱!AI頂會ICLR完成「AI閉環」,1/5審稿意見純AI給出
這種AI濫用現象并沒有得到解決:
![]()
![]()
![]()
![]()
ICLR2025發布了評審或元評審過程中使用LLM的相關政策:
![]()
不過,ICLR似乎沒有提出合適的機制,確保AI評審的質量,只是要「評審人對評審內容負有最終責任」、遵守學術倫理。
有投稿人直言,100%的評審意見全是AI生成的。
![]()
有網友直言,受夠了整個匿名評審這套游戲——
即使拿到了高分,即使多數審稿人都表示文章可以接收,只要一個審稿人就能推翻錄用結果。
更糟糕的是,你可能收不到任何解釋。
![]()
審稿人的偏見在匿名審稿中似乎看不到如何被糾正。
![]()
![]()
![]()
![]()
更不要說,審稿人的學術品味也不一定足以勝任頂會審稿工作。
國內人大副教授劉勇,從事大模型基礎理論研究,就有多篇論文被「誤殺」。
他感慨道「搞理論的本來不容易,希望審稿人專業點」,呼吁給理論研究留下「火種」。
參考資料:
https://x.com/hashtag/ICLR26
https://x.com/ysu_nlp/status/2015905215535538558
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.