機器之心編輯部
昨晚深夜,ICLR 2026 官方正式向投稿者發送了今年的論文接收結果通知。
作為機器學習領域的頂級會議, ICLR 2026 將于 2026 年 4 月 23 日至 27 日在巴西里約熱內盧舉行。官方今年收到了有效投稿約 19000 篇,總錄取率約為 28%,該錄取率涵蓋了所有經過同行評審的完整論文投稿,無論其是否撤稿。
網友曬出成績單
錄用通知一出來,網友們也坐不住了。社交平臺上,很快被各種成績單刷屏:
![]()
有的研究者不止一篇被錄取:
![]()
甚至還有實驗室在這一屆一口氣拿下 8 篇論文。截圖一放出來,評論區立刻炸開了鍋,清一色的都是羨慕與感嘆。
![]()
被拒稿,可能不是論文的問題
今年的 ICLR 可以說是「史上最亂」的一屆,先是第三方機構對審稿意見的系統性統計發現,其中有21% 完全由 AI 生成;后有OpenReview 評審大開盒,波及到了 ICLR 2026 超過 10000 篇投稿;接著 AI 生成內容檢測平臺GPTZero 掃描了 300 篇投稿論文,發現其中有 50 篇在論文引用上至少包含一處明顯的幻覺內容。
然而,這場鬧劇并未結束。
研究者 Eldar Kurti? 公開展示了一段離譜的審稿意見:一名審稿人在反饋意見中表示該論文「缺少與 FlexPrune 的具體比較」。不過 Kurti? 調查發現,似乎并不存在名為 FlexPrune 的主流基準方法。
![]()
更離譜的是,領域主席在隨后的裁定中,直接采信了這一錯誤意見,并將其定性為論文的「致命缺陷」,最終以此為由做出拒稿決定。
該貼發布后迅速走紅,目前已獲得數萬次瀏覽及大量研究者的共鳴,矛頭直指 LLM 在同行評審中的濫用。
![]()
![]()
不少學者質疑,該審稿意見極有可能是通過 GPT 或 Grok 等 AI 工具自動生成的。由于 AI 存在「幻覺」特性,容易編造看似專業實則虛假的方法名。而 Meta-Reviewer 的疏忽,導致這種錯誤未能被糾正,反而成為了拒稿的定論。
這位網友則表示,在評分分別為 8 / 6 / 6 / 6、且評審意見整體偏正面的情況下,論文仍被拒稿。最讓人難以接受的并不是拒稿本身,而是 Meta-Review 給出的理由。AC 無視了所有評審的一致支持,額外提出了兩個新的質疑(而且這些質疑本身還存在事實性錯誤),并聲稱:所有評審意見都較為表面(盡管勉強高于評審的最低要求門檻)。
![]()
不管怎樣,拒稿并不等于否定你的研究價值,很多經典論文也曾遭遇過拒稿。
最后,也歡迎被錄取的作者投稿機器之心,讓更多人看到你們的研究。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.