![]()
新智元報(bào)道
編輯:桃子 好困
【新智元導(dǎo)讀】LeCun不忍了,三周后從Meta「提桶跑路」,臨走前狠扇了硅谷所有人一巴掌:你們信奉的大模型全是泡沫,根本通往不了AGI!
大模型是一條死路,無法通往AGI!
在今天的最新一期深度訪談中,LeCun直言不諱指出:
所謂的ASI路線——不斷訓(xùn)練LLM,用更多合成數(shù)據(jù)喂模型,雇上幾千人在后訓(xùn)練階段「管教」系統(tǒng),再折騰出一些RL的新技巧。
在我看來,完全是胡說八道!
這條路根本行不通,而且永遠(yuǎn)都不可能成功。
![]()
任職12年,即將暴走M(jìn)eta的65歲圖靈獎(jiǎng)得主,在公眾場(chǎng)合的觀點(diǎn)愈加偏激了。
這場(chǎng)近2小時(shí)的對(duì)談中,LeCun的觀點(diǎn)一針見血——
硅谷對(duì)不斷「堆大」LLM的癡迷是一條死路;
搞AI最難的問題在于,它依舊是「阿貓阿狗」的智能,而非類人的水平。
如今,他正把一生的學(xué)術(shù)聲譽(yù)押注在一條截然不同的AI路線之上,即「世界模型」。
訪談中,LeCun還分享了創(chuàng)業(yè)公司AMI(Advanced Machine Intelligence)正在構(gòu)建的「世界模型」——
在抽象表征空間中進(jìn)行預(yù)測(cè),而不是簡(jiǎn)單地像素級(jí)輸出。
幾天前,LeCun在與谷歌DeepMind大佬Adam Brown一場(chǎng)激辯中,同樣提出他的經(jīng)典論點(diǎn):
LLM沒那么聰明,畢竟一只貓或一個(gè)孩子僅用少得多的數(shù)據(jù)就能理解世界。
Token預(yù)測(cè)全是泡沫,物理世界才是真相。
有網(wǎng)友辣評(píng)道,「Meta在AI領(lǐng)域失敗,LeCun是罪魁禍?zhǔn)住埂?/p>
還有人表示,「LeCun很聰明,在Meta保持沉默現(xiàn)在開始發(fā)聲了」。
![]()
65歲創(chuàng)業(yè),再造一個(gè)FAIR
播客開場(chǎng),主持人問道,「從Meta這樣大公司跳出來,從0起步,是什么感覺」?
LeCun坦言,雖然他此前也參與過創(chuàng)業(yè),但這次的AMI意義非凡。這次的獨(dú)特之處在于一種新現(xiàn)象,即投資者也愿意為其買單。
這要是放在以往,是不可能的。
歷史上,像貝爾、IBM、施樂PARC這樣的大實(shí)驗(yàn)室,都一同壟斷了企業(yè)的財(cái)力。
如今,行業(yè)風(fēng)向正在轉(zhuǎn)變。FAIR通過開源推動(dòng)了生態(tài)的發(fā)展,但近年來越來越多實(shí)驗(yàn)室選擇閉源,OpenAI、谷歌,甚至Meta也不例外。
在LeCun看來,這種閉源趨勢(shì),不利于真正突破性的研究。
因此,他決定在Meta外部創(chuàng)辦AMI,專注于「世界模型」,并計(jì)劃延續(xù)開放研究的傳統(tǒng)。
除非你把論文發(fā)表出來,否則就不能稱之為真正的研究。要不然,你很容易陷入一種自欺欺人的狀態(tài)。
![]()
看得出,LeCun這番言論一定程度上,暗示28歲上司Alexandr Wang的做法——
此前曾爆出,F(xiàn)AIR實(shí)驗(yàn)室想要發(fā)論文,必須經(jīng)過MSL批準(zhǔn)后才可以。
![]()
LeCun再次強(qiáng)調(diào),「如果真的想要突破,需要讓你的員工發(fā)表論文。沒有別的辦法。這是目前很多行業(yè)正在遺忘的事情」。
![]()
下一步,AMI的目標(biāo)不僅是研究,還會(huì)打造實(shí)際的產(chǎn)品,比如與世界模型、規(guī)劃有關(guān)的,并成為智能系統(tǒng)的核心供應(yīng)商。
接下來的話題,又回到了LeCun老生常談的事情。
LeCun放話:LLM走不通
他明確表示,當(dāng)前的LLM或基于LLM的AI智能體,處理語言尚可,但在可靠性、數(shù)據(jù)效率、多模態(tài)處理上遠(yuǎn)遠(yuǎn)不足。
我已經(jīng)說了快十年了,世界模型才是解決這一問題的「正確方法」。
![]()
「世界模型」能夠預(yù)測(cè)一個(gè)動(dòng)作或一系列動(dòng)作的后果,然后系統(tǒng)通過優(yōu)化得出一系列動(dòng)作,即找出哪一系列動(dòng)作能最好地完成設(shè)定的任務(wù),這就是「規(guī)劃」。
因此,LeCun認(rèn)為,智能的一個(gè)重要部分是能夠預(yù)測(cè)行動(dòng)的后果,然后將其用于規(guī)劃。
「世界模型」是設(shè)計(jì)用來處理,高維、連續(xù)和嘈雜的模態(tài)數(shù)據(jù),LLM完全不行。
![]()
真正有效的方法是,學(xué)習(xí)一個(gè)抽象的表示空間,消除關(guān)于輸入的不可預(yù)測(cè)的細(xì)節(jié),并在表示空間中進(jìn)行預(yù)測(cè)。
這就是,JEPA(聯(lián)合嵌入預(yù)測(cè)架構(gòu))的想法。
![]()
論文地址:https://arxiv.org/pdf/2509.14252
將近有20年的時(shí)間,LeCun一直確信,構(gòu)建智能系統(tǒng)的正確途徑是通過某種形式的「無監(jiān)督學(xué)習(xí)」。
他回顧了自己的研究歷程——
早在2000年代初中期,便開始探索無監(jiān)督學(xué)習(xí),并嘗試通過自編碼器(Autoencoders)來學(xué)習(xí)表示,但發(fā)現(xiàn)表示包含關(guān)于輸入的所有信息是個(gè)錯(cuò)誤。
后來,他意識(shí)到需要「信息瓶頸」(Information Bottleneck),限制表示的信息量。
2015年,ResNet(殘差網(wǎng)絡(luò))出世,徹底解決了深層網(wǎng)絡(luò)架構(gòu)訓(xùn)練問題,也是從這時(shí)起,LeCun開始重新思考:
如何推動(dòng)實(shí)現(xiàn)人類水平的AI?
他意識(shí)到,強(qiáng)化學(xué)習(xí)等方法,基本上無法scaling,且樣本效率極低,于是開始聚焦「世界模型」。
最初嘗試,他在像素級(jí)預(yù)測(cè)視頻,但發(fā)現(xiàn)這行不通,真正的突破在于表示層(Representation Level)進(jìn)行預(yù)測(cè)。
JEPA的發(fā)展克服了早期孿生網(wǎng)絡(luò)(Siamese Networks)的模型坍塌(Collapse)的問題,通過Barlow Twins、VICReg優(yōu)化表示空間。
最近的Latent Euclidean JEPA,進(jìn)一步推進(jìn)了這一思路。
![]()
論文地址:https://arxiv.org/pdf/2511.08544
對(duì)于LLM局限背后的原因,LeCun分享了數(shù)據(jù)質(zhì)量方面的「苦澀的教訓(xùn)」(Bitter Lesson)。
訓(xùn)出一個(gè)性能還不錯(cuò)的LLM,需要互聯(lián)網(wǎng)上大約30萬億Token(約10^14字節(jié))的文本數(shù)據(jù)。
LLM需要巨大的內(nèi)存,來存儲(chǔ)這些孤立的事實(shí)。
相較之下,這僅相當(dāng)于大約15,000小時(shí)的視頻——YouTube上30分鐘的上傳量。
一個(gè)4歲孩子醒著時(shí)看到的視覺信息,大約是16,000小時(shí)。
去年發(fā)布的V-JEPA 2模型,就是在相當(dāng)于一個(gè)世紀(jì)時(shí)長(zhǎng)視頻數(shù)據(jù)上訓(xùn)練的,雖然字節(jié)數(shù)更多,但視頻數(shù)據(jù)的冗余性正是自監(jiān)督學(xué)習(xí)所需的。
現(xiàn)實(shí)世界數(shù)據(jù)的結(jié)構(gòu)比文本豐富得多,這也是為什么LeCun堅(jiān)稱,只靠文本訓(xùn)練永遠(yuǎn)無法達(dá)到人類水平的AI。
關(guān)于理想化的「世界模型」,LeCun回應(yīng)了主持人對(duì)《星際迷航》全息甲板(Holodeck)的比喻:
人們誤以為,「世界模型」必須重現(xiàn)世界所有的細(xì)節(jié),這不僅錯(cuò)誤,還會(huì)有害。
「世界模型」是在抽象表示空間中的模擬器,只模擬現(xiàn)實(shí)中相關(guān)的部分。
![]()
不僅如此,LeCun相信合成數(shù)據(jù)很有用。但有些基本概念是我們通過經(jīng)驗(yàn)習(xí)得的,而不是天生的。
然而,LLM并不真正理解這些,只是被微調(diào)出來給出正確答案,更像是「反芻」而非真懂。
炮轟硅谷單一文化
針對(duì)硅谷LLM狂熱的文化,LeCun的批評(píng)尤為尖銳。
他指出,AI行業(yè)存在一種危險(xiǎn)的「羊群效應(yīng)」——
競(jìng)爭(zhēng)太過激烈,大家都害怕走偏路線而落后,于是OpenAI、谷歌、Meta、Anthropic等科技巨頭幾乎都在做同一件事。
那便是,瘋狂堆疊LLM。
![]()
這導(dǎo)致,硅谷形成了「單一的文化」,甚至這背后多少帶著點(diǎn)優(yōu)越感。
LeCun警告,一旦深陷「戰(zhàn)壕」,就只能拼命往前沖,因?yàn)檎l也承擔(dān)不起被競(jìng)爭(zhēng)對(duì)手甩開的風(fēng)險(xiǎn)。
但更大的風(fēng)險(xiǎn)是,被完全不同方向、出乎意料的一套技術(shù)顛覆,它甚至可能解決完全不同的問題。
JEPA的理念,即所謂的「世界模型」,恰恰與這條主流路線完全不同,能處理LLM很難應(yīng)付的數(shù)據(jù)。
LeCun甚至毫不客氣地說——
如果你不想變成硅谷口中「被LLM洗腦了」(LLM-pilled)的人,便不會(huì)相信這樣一條路徑:
只要不停地訓(xùn)練LLM,用更多合成數(shù)據(jù),去授權(quán)更多數(shù)據(jù),再雇上成千上萬的人來做后訓(xùn)練,在強(qiáng)化學(xué)習(xí)(RL)上不斷加點(diǎn)新花樣,你就能一路走到ASI。
我認(rèn)為這完全是扯淡,這條路根本不可能成功!
![]()
「沒錯(cuò),你必須逃離那種文化」。
他還透露,即使在硅谷的各家公司內(nèi)部,也有不少人心里很清楚:這條路走不通!
![]()
![]()
因此,擺脫這種單一文化,正是LeCun創(chuàng)辦AMI的動(dòng)因之一。
他透露,AMI這家公司是全球性的,總部將設(shè)在巴黎,其全球其他幾個(gè)地方,包括紐約設(shè)立分辦公室。
AGI是胡扯
「類人AI」還需5-10年
當(dāng)被問及AGI時(shí)間線,LeCun先澄清:不存在「通用智能」這種東西!
這個(gè)概念完全沒有意義,因?yàn)樗潜辉O(shè)計(jì)用來指代人類水平的智能,但人類智能是超級(jí)專業(yè)化的。
所以AGI這個(gè)概念完全是胡扯。
![]()
話又說回來,他還是認(rèn)為,我們會(huì)擁有在所有領(lǐng)域都和人類一樣好或更好的機(jī)器。
「但這不會(huì)是一個(gè)單一事件,這將是非常漸進(jìn)的」。
他樂觀地預(yù)測(cè)道,如果未來兩年,能在JEPA、世界模型、規(guī)劃等方向取得重大進(jìn)展。
我們可能在5-10年內(nèi),看到接近人類智能,也許是狗的智能水平的AI。
但這已是極度樂觀。
更現(xiàn)實(shí)的是,AI歷史上多次出現(xiàn)未預(yù)見的障礙,需要我們發(fā)明新概念實(shí)現(xiàn)超越。
那可能需要20年,甚至更久。
![]()
有趣的是,LeCun認(rèn)為最難的部分不是從狗到人類,而是達(dá)到狗的水平——
一旦你達(dá)到了狗的水平AI,你基本上就擁有了大部分要素。
從靈長(zhǎng)類動(dòng)物到人類,除了大腦的大小差異之外,還缺的是「語言」。
語言基本上由韋尼克區(qū)(Wernicke area)以及布羅卡區(qū)(Broca area)處理。
而LLM已經(jīng)在語言編碼/解碼上表現(xiàn)不錯(cuò),或許能充當(dāng)大腦的韋尼克區(qū)和布羅卡區(qū)。
![]()
LeCun稱,我們現(xiàn)在正在研究的是前額葉皮層,那是「世界模型」所在的地方。
離職Meta,三周倒計(jì)時(shí)
訪談中,LeCun還談及了Meta AI的重組。
他表示,Alexandr Wang并非接替他的位置,而是統(tǒng)管Meta所有AI相關(guān)研發(fā)和產(chǎn)品,包括四個(gè)主要部門:
FAIR(長(zhǎng)期研究)
GenAI Lab(專注前沿LLM構(gòu)建)
AI基礎(chǔ)設(shè)施
模型轉(zhuǎn)化為實(shí)際產(chǎn)品的部門
重磅的是,LeCun透露,自己將在Meta再待三個(gè)星期。(估計(jì)1月初,正式告別Meta了)

FAIR現(xiàn)在由紐約大學(xué)Rob Fergus領(lǐng)導(dǎo),正被推向「更短期的項(xiàng)目」——
較少?gòu)?qiáng)調(diào)發(fā)表論文,更多專注于協(xié)助GenAI Lab進(jìn)行LLM和前沿模型的研究。
GenAI Lab也有一個(gè)首席科學(xué)家,專注于LLM,其他組織更像是基礎(chǔ)設(shè)施和產(chǎn)品。
看得出,Meta重組重心完全放在了LLM,這也是LeCun選擇出來創(chuàng)業(yè)的部分原因。
此外,LeCun還點(diǎn)評(píng)了一些大模型公司,包括SSI、Physical Intelligence、Thinking Machines等。
Ilya創(chuàng)立的SSI,甚至包括他們的投資人,都不知道這家公司要做什么。
![]()
給年輕人的建議:別學(xué)CS
訪談的最后,主持人問道,「如果你今天重新開始AI職業(yè)生涯,會(huì)專注哪些技能和方向」?
LeCun的回答直擊要害,學(xué)習(xí)那些「保質(zhì)期長(zhǎng)」(long shelf life)的知識(shí),以及能讓你「學(xué)會(huì)如何學(xué)習(xí)」的東西。
因?yàn)榧夹g(shù)演變得太快了,你需要具備快速學(xué)習(xí)的能力。
他開玩笑地說,「保質(zhì)期長(zhǎng)的東西,往往不是計(jì)算機(jī)科學(xué)」。
所以,作為一個(gè)計(jì)算機(jī)科學(xué)教授,我勸大家別學(xué)計(jì)算機(jī)科學(xué)。
![]()
不過,LeCun還是給出了一些具體的建議,其中包括:
深入學(xué)習(xí)數(shù)學(xué)(微積分、線性代數(shù)、概率論)、建模基礎(chǔ),尤其是能與現(xiàn)實(shí)世界聯(lián)系的數(shù)學(xué)(工程學(xué)科中常見);
電氣工程、機(jī)械工程等傳統(tǒng)工程專業(yè),能提供控制理論、信號(hào)處理、優(yōu)化等對(duì)AI極有用的工具;
物理學(xué)也是絕佳選擇:物理學(xué)的核心就是「如何表征現(xiàn)實(shí)以建立預(yù)測(cè)模型」——這正是智能的本質(zhì);
計(jì)算機(jī)科學(xué)只需學(xué)到能熟練編程和使用計(jì)算機(jī)的程度(即使未來AI寫代碼,你仍需懂底層);
別忘了學(xué)點(diǎn)哲學(xué)。
LeCun強(qiáng)調(diào),這些基礎(chǔ)能讓你在AI快速變化中始終站穩(wěn)腳跟,而不是被短期熱點(diǎn)牽著鼻子走。
參考資料:
https://x.com/ziv_ravid/status/2000654377258745912?s=20
https://www.the-information-bottleneck.com/ep20-yann-lecun/
https://youtu.be/ykfQD1_WPBQ
秒追ASI
?點(diǎn)贊、轉(zhuǎn)發(fā)、在看一鍵三連?
點(diǎn)亮星標(biāo),鎖定新智元極速推送!
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.