近日,神經(jīng)信息處理系統(tǒng)大會(Conference and Workshop on Neural Information Processing Systems, NeurIPS)公布了2025年會議論文錄用結(jié)果。令人矚目的是山東省初三學(xué)生姬世豪作為第一作者的研究成果 “Credal Transformer: A Principled Approach for Quantifying and Mitigating Hallucinations in Large Language Models”(Credal Transformer:一種量化和緩解大語言模型幻覺的原則性方法)被NeurIPS 2025 Workshop on Reliable ML錄用。
當(dāng)前,大語言模型在文本生成方面展現(xiàn)了非凡的能力,但其廣泛應(yīng)用面臨著一個(gè)嚴(yán)峻挑戰(zhàn)——幻覺現(xiàn)象,即模型會生成事實(shí)錯(cuò)誤但置信度極高的斷言。這一問題嚴(yán)重制約了LLMs在關(guān)鍵領(lǐng)域的可靠性。姬世豪的研究指出,幻覺問題的根源可能深植于Transformer架構(gòu)本身,特別是其注意力機(jī)制中的Softmax函數(shù)。該函數(shù)會將潛在的、模糊的注意力分?jǐn)?shù)強(qiáng)制歸一化為單一的概率分布,從而在每一層都丟棄了關(guān)于模型不確定性的關(guān)鍵信息。這種“人造確定性”在模型深層傳播和累積,最終導(dǎo)致模型對虛構(gòu)內(nèi)容產(chǎn)生過度自信的預(yù)測。針對這一核心問題,該研究提出了 Credal Transformer,一種新穎的模型架構(gòu)。該架構(gòu)用憑證注意力機(jī)制(Credal Attention Mechanism, CAM)取代了標(biāo)準(zhǔn)的注意力機(jī)制。CAM基于證據(jù)理論,不再生成單一的注意力向量,而是輸出一個(gè)憑證集,即一個(gè)由多種可能分布構(gòu)成的凸集。該集合的大小直接、可微地度量了模型的認(rèn)知不確定性。當(dāng)模型有充分證據(jù)時(shí),該集合會收縮為單一精準(zhǔn)的分布,表現(xiàn)與標(biāo)準(zhǔn)注意力機(jī)制類似;而當(dāng)證據(jù)不足時(shí),該集合會擴(kuò)大,明確地表達(dá)了模型對于“知識盲區(qū)”的認(rèn)知。實(shí)驗(yàn)結(jié)果表明,Credal Transformer在多個(gè)任務(wù)上表現(xiàn)出色。它能夠通過產(chǎn)生高熵輸出來有效識別分布外的未知輸入,并準(zhǔn)確量化輸入中的模糊性。在問答任務(wù)基準(zhǔn)測試中,當(dāng)面對無法回答的問題時(shí),該模型能夠主動(dòng)選擇棄權(quán),從而顯著減少了高置信度的錯(cuò)誤回答。該成果不僅為解決大模型幻覺問題提供了一個(gè)具體的、可落地的架構(gòu)方案,更倡導(dǎo)了一種將不確定性量化作為模型內(nèi)在核心功能的設(shè)計(jì)范式。Credal Transformer為開發(fā)更可靠、更值得信賴,且能夠“自知其無知”的下一代人工智能系統(tǒng)奠定了堅(jiān)實(shí)的理論與架構(gòu)基礎(chǔ)。
NeurIPS是人工智能和機(jī)器學(xué)習(xí)領(lǐng)域的國際頂級學(xué)術(shù)會議,以其嚴(yán)格的評審標(biāo)準(zhǔn)和巨大的學(xué)術(shù)影響力而著稱,每年吸引全球頂尖學(xué)者與行業(yè)領(lǐng)袖參與。
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.