![]()
來源:AI知新
當GPT-4o能流暢對話、Llama 3能生成高質量代碼,當大語言模型(LLM)滲透到工作、生活的每一個角落,我們難免會產生一種錯覺:通用人工智能(AGI)似乎觸手可及。
但一篇最新發表在arXiv(論文編號:arXiv:2603.15381)的研究,卻給狂熱的AI行業潑了一盆冷水。這篇由圖靈獎得主Yann LeCun等頂尖學者參與的論文,提出了一個振聾發聵的判斷:當前主流LLM,本質上從未真正“學會學習”,而這正是它們無法突破瓶頸、抵達真正智能的核心原因。關鍵真相:LLM的“學習”,只是“偽裝”出來的優化。
我們總以為,LLM在和人類交互的過程中會不斷進步——比如通過提示詞引導變得更精準,通過微調適配特定任務,通過RAG檢索最新信息。但論文明確指出:這些都不是真正的“持續學習”,只是對一個固定系統的“外部修飾”。
簡單來說,LLM在完成預訓練的那一刻,就相當于被“凍住”了。它的核心知識體系、內部表征的邏輯的,不會因為后續的每一次交互、每一個新問題而自主更新——就像一個背誦了海量題庫的學霸,能完美應對熟悉的題目,卻無法從新題目中總結規律、補充自身的知識漏洞。
這和人類的學習模式有著本質區別:我們會在與人交流、解決問題、觀察世界的過程中,不斷修正認知、積累經驗,甚至推翻舊有的錯誤觀點。但LLM做不到,它所有的“進步”,都依賴于人類提供的外部輔助:
提示詞工程:相當于給學霸劃重點,讓它優先調用熟悉的“題庫內容”,卻不會讓它學會新的解題思路;
微調:相當于針對特定題型專項訓練,提升某一領域的正確率,卻無法讓它具備跨領域的自主遷移能力;
RAG:相當于給學霸配了一個工具書,遇到不會的問題可以查資料,但它不會把工具書里的知識內化成自己的能力,下次遇到類似問題,依然需要依賴工具書。
更關鍵的是,這種“外部修飾”式的優化,無法解決LLM的核心痛點:它們本質上是“模式擬合與統計預測的高手”,卻不是“具備自主認知的智能體”。這也是為什么我們總會遇到LLM“時靈時不靈”的情況——在熟悉的場景里表現驚艷,在陌生場景、長鏈推理或需要穩定世界認知的任務中,卻頻繁出錯、漏洞百出。
就像2024年全球因LLM“幻覺”導致的經濟損失達127億美元,金融領域的信貸評估、法律領域的判例檢索、醫療領域的診斷建議中,都曾出現LLM編造事實、推理斷裂的問題,本質上就是因為它無法通過持續學習修正自身的認知偏差。瓶頸在哪?未來又該往哪走?
一種主流觀點認為,LLM的能力上限,早已被“訓練后不自發更新”的架構鎖死。部署后的LLM,缺少像生物體那樣從持續經驗中形成“可積累、可修正”的知識體系——它們不會“記教訓”,不會“總結經驗”,更不會“主動探索”,因此難以適應動態變化的真實世界,也無法具備穩定一致的認知能力。這就像傳統持續學習中面臨的“災難性遺忘”困境,只是LLM的瓶頸更隱蔽:它甚至沒有“遺忘”的資格,因為它從未真正“記住”并內化新的知識。
也有觀點認為,我們不必全盤否定提示詞、微調與RAG的價值。這些技術雖然不等同于“在線學習”,但在工程層面,確實能顯著提升LLM的任務表現與可控性——比如CLOB框架通過提示詞操作實現了無需參數修改的持續學習,大幅提升了工業場景中的響應效率,只是這種改進更像是“外部補丁”,而非模型內部能力的自進化,無法從根本上突破瓶頸。
還有討論聚焦于“規模擴展”的爭議:有人認為,只要繼續擴大模型參數、增加訓練數據,LLM就可能涌現出更接近通用智能的能力;但更多人認為,規模只是“量的積累”,無法實現“質的飛躍”。如果不引入更強的交互學習、可驗證記憶與世界建模機制,LLM即便參數再大,也依然會在跨場景泛化、因果理解與長期一致性上遭遇天花板——就像再強大的計算器,也無法擁有自主思考的能力。
而最受關注的,莫過于Yann LeCun的研究轉向。作為AI領域的頂尖學者,他參與了這篇論文的研究,同時正全力投入“世界模型”的研發,這被很多人視為行業趨勢的信號:下一階段的AI競爭,將從“更大的語言模型”,轉向“能在環境中學習、形成可操作內部模型的智能體系統”。
其實,理解LLM的瓶頸,無需復雜的技術知識,抓住三個核心層面,就能看透問題的本質。
第一層:分清“訓練后改進”與“持續學習”。很多人混淆了這兩個概念——前者是“外部輔助下的表現優化”,后者是“模型自身的認知升級”。LLM能通過外部手段變得“更好用”,但無法變得“更聰明”,因為它的核心認知的不會因為交互而改變,知識載體始終停留在預訓練的參數空間,無法像CLOB框架那樣實現知識向語義空間的遷移與動態更新。
第二層:明白“不持續學習”為何是致命瓶頸。真實世界是動態變化的,新的知識、新的場景、新的問題不斷出現。如果LLM無法自主從交互中積累經驗、修正認知,就只能在“預訓練的知識邊界內”活動——熟悉的場景游刃有余,陌生的場景手足無措。這也是為什么LLM在多步推理、反事實推理中表現拉胯,因為這些任務需要持續的認知迭代,而這正是它的短板。
第三層:看清未來的突破方向。論文中提到的“認知科學視角”“自主連續學習”“世界模型”,其實指向了同一條路徑:未來的AI,不該只是“語言預測器”,更該是“具備自主學習能力的智能體”——它能在與環境的交互中,形成可更新的內部模型、可驗證的記憶與可自我修正的學習循環,就像LeCun團隊提出的三系統架構,通過System A(觀察學習)、System B(主動學習)和System M(元控制)的協同,模擬人類的學習過程,實現真正的終身學習。
結語:規模之外,范式革新才是關鍵
不可否認,LLM是AI發展史上的重要里程碑,它讓我們看到了人工智能的巨大潛力。但我們必須清醒地認識到:LLM的強大,只是“統計預測的勝利”,而非“自主智能的突破”。
Yann LeCun的轉向、最新論文的警示,都在告訴我們:僅靠擴展模型規模、優化外部輔助技術,無法讓LLM抵達真正的智能。想要突破瓶頸,需要的是學習機制與體系結構的范式革新——從“讓模型學會答題”,到“讓模型學會學習”;從“語言預測器”,到“能感知、能思考、能進化的智能體”。
或許,真正的通用人工智能,從來不是“訓練出一個完美的模型”,而是“創造出一個能自主成長、持續進化的智能系統”。承認局限,才能突破局限。
未來,當AI能像人類一樣,在交互中積累經驗、在試錯中修正認知、在探索中突破邊界,真正的智能突破,才會如期而至。
閱讀最新前沿科技趨勢報告,請訪問21世紀關鍵技術研究院的“未來知識庫”
![]()
未來知識庫是 “21世紀關鍵技術研究院”建 立的在線知識庫平臺,收藏的資料范圍包括人工智能、腦科學、互聯網、超級智能,數智大腦、能源、軍事、經濟、人類風險等等領域的前沿進展與未來趨勢。目前擁有超過8000篇重要資料。每周更新不少于100篇世界范圍最新研究資料。 歡迎掃描二維碼或訪問https://wx.zsxq.com/group/454854145828進入。
截止到2月28日 ”未來知識庫”精選的百部前沿科技趨勢報告
(加入未來知識庫,全部資料免費閱讀和下載)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.