
11月26日,前OpenAI聯(lián)創(chuàng)兼首席科學(xué)家、SSI聯(lián)創(chuàng)兼首席科學(xué)家伊利亞·蘇茨克維(Ilya Sutskever)在接受采訪時做出重磅論斷:AI的擴展(Scaling)時代已經(jīng)終結(jié)!
整場播客長達1小時36分鐘,在這場深度對話中,Ilya Sutskever提出,當下算力規(guī)模已經(jīng)十分龐大,僅靠算力堆砌已經(jīng)無法讓模型實現(xiàn)更大的突破,他直言:“我們正從擴展時代回歸到研究時代,如今只是擁有了更強大的計算機。”
當前,AI存在嚴重的“評估表現(xiàn)與現(xiàn)實應(yīng)用脫節(jié)”割裂問題,Ilya Sutskever認為是因為其泛化能力不足。他提到了一個關(guān)鍵點,AI的一大瓶頸是沒有類似人類的感官和情緒等“價值函數(shù)”,因此提出嘗試通過預(yù)訓(xùn)練讓模型獲得“情緒驅(qū)動的決策能力”,構(gòu)建出關(guān)心所有“有情生命”的AI。
訪談核心信息如下:
1、泛化能力是AI發(fā)展的瓶頸:Ilya Sutskever認為,當前頂尖AI存在嚴重的“評估表現(xiàn)”與“現(xiàn)實應(yīng)用”脫節(jié),其核心問題在于模型的泛化能力遠不如人類。
2、人類的情緒相當于AI的“價值函數(shù)”:他提出顛覆性觀點:“情緒”是人類進化形成的、內(nèi)置的“價值函數(shù)”,能為決策提供即時反饋,這是AI目前缺失的關(guān)鍵能力。
3、堆砌算力已無法突破,“擴展時代”已經(jīng)終結(jié):Ilya Sutskever認為,當下,以堆砌數(shù)據(jù)、算力為核心的“擴展時代”已經(jīng)結(jié)束,AI發(fā)展正回歸“研究時代”,需要新范式突破。
4、人類擁有比AI更好的“學(xué)習(xí)算法”:人類在樣本效率和持續(xù)學(xué)習(xí)上的優(yōu)勢,源于某種更根本、更優(yōu)越的底層學(xué)習(xí)機制,而非僅僅是進化賦予的“先驗知識”。
5、SSI是純粹的“研究公司”:Ilya Sutskever透露,其創(chuàng)業(yè)公司SSI不參與算力競賽,其核心身份是一家專注于突破性研究的“研究時代”公司。
6、超級智能是“能學(xué)會做所有事”的智能:對于什么是超級智能這個問題,Ilya Sutskever將超級智能定位為一個“能夠?qū)W會做所有事”的成長型心智。
7、讓人們看到AI的強大,才能更好地治理:在AI治理方面,Ilya Sutskever主張通過“漸進式部署和公開展示”,讓人們親自感受AI的能力與風(fēng)險。
8、應(yīng)該構(gòu)建“關(guān)心有情生命的AI”:Ilya Sutskever認為,業(yè)界應(yīng)該構(gòu)建關(guān)心所有“有情生命”的AI,他認為這比只關(guān)心人類更根本,也更簡單。
9、預(yù)訓(xùn)練導(dǎo)致模型趨同:Ilya Sutskever認為,預(yù)訓(xùn)練是導(dǎo)致各公司模型同質(zhì)化的根源,而強化學(xué)習(xí)才是產(chǎn)生差異化的路徑。
以下為Ilya Sutskever播客實錄(有刪減):
編譯 | 王涵
轉(zhuǎn)載自 | 智東西
![]()
![]()
AI決策的困境
源于缺少情緒的“價值函數(shù)”
Dwarkesh Patel:人們提出過一些關(guān)于人類類比預(yù)訓(xùn)練的說法。我很想聽聽你的看法,為什么它們可能是錯誤的。一種是把人生命最初的18年、15年或13年看作預(yù)訓(xùn)練,這個階段他們不一定有經(jīng)濟產(chǎn)出,但他們在做一些讓他們更好地理解世界之類的事情。另一種是把進化看作某種進行了30億年的搜索,最終產(chǎn)生了人類生命的實例。
我很好奇你是否認為這兩種說法中的任何一種與預(yù)訓(xùn)練類似。如果不把人類畢生學(xué)習(xí)比作預(yù)訓(xùn)練,你會如何看待它?
Ilya Sutskever:我認為這兩者與預(yù)訓(xùn)練都有一些相似之處,而預(yù)訓(xùn)練試圖扮演這兩者的角色。但我認為也存在一些很大的差異。預(yù)訓(xùn)練的數(shù)據(jù)量是非常、非常驚人的。
Dwarkesh Patel:是的。
Ilya Sutskever:不知何故,人類即便只接觸了預(yù)訓(xùn)練數(shù)據(jù)中極小的一部分,掌握的知識量遠不如模型,但對已知內(nèi)容的理解卻深刻得多。哪怕是15歲的少年,也不會犯AI現(xiàn)在常犯的那些錯誤。
還有一點值得思考:這會不會和進化之類的機制有關(guān)?答案或許是肯定的,而且我認為進化在這方面可能更具優(yōu)勢。神經(jīng)科學(xué)家研究大腦的一種常用方法,是觀察大腦不同部位受損的人,他們常會表現(xiàn)出各種令人意想不到的奇特癥狀,這其實非常有趣。
我想到一個相關(guān)案例:有個人因中風(fēng)或事故導(dǎo)致腦損傷,情緒處理能力被破壞,再也感受不到任何情緒。他依然口齒清晰,能解決簡單謎題,測試中表現(xiàn)得完全正常,但就是沒有了喜怒哀樂,也沒有了活力。這讓他的決策能力變得極差:選一雙襪子要花好幾個小時,還會做出糟糕的財務(wù)決策。
這一案例恰恰說明了內(nèi)在情緒對我們成為“可行的行為主體”有多重要。回到你關(guān)于預(yù)訓(xùn)練的問題:或許如果能從預(yù)訓(xùn)練數(shù)據(jù)中充分提取所有有用信息,也能獲得這種類似“情緒驅(qū)動的決策能力”,但這種能力能否從預(yù)訓(xùn)練中習(xí)得,目前還不確定。
Dwarkesh Patel:“那個”是指什么?顯然不直接是情感。它似乎像是某種幾乎像價值函數(shù)一樣的東西,告訴你任何決策的最終回報應(yīng)該是什么。你認為那種東西不會從預(yù)訓(xùn)練中隱式地產(chǎn)生嗎?
Ilya Sutskever:我認為有可能,我只是說這不是100%顯而易見的。
Dwarkesh Patel:但那到底是什么?你如何看待情感?情感的機器學(xué)習(xí)類比是什么?
Ilya Sutskever:它應(yīng)該是某種價值函數(shù)類的東西。但我不認為有一個很好的機器學(xué)習(xí)類比,因為目前價值函數(shù)在人們所做的工作中并不扮演非常突出的角色。
Dwarkesh Patel:也許值得為聽眾定義一下什么是價值函數(shù),如果你愿意的話。
Ilya Sutskever:當然,我很樂意展開說。目前強化學(xué)習(xí)訓(xùn)練智能體的常規(guī)做法是這樣的:給神經(jīng)網(wǎng)絡(luò)一個問題,讓模型去解決。模型可能要執(zhí)行數(shù)千甚至數(shù)十萬次行動或思考,最終生成一個解決方案,這個方案會被評分。
而這個分數(shù)會作為訓(xùn)練信號,應(yīng)用到模型解決問題過程中的每一個行動上。這就意味著,如果任務(wù)本身耗時很長,比如訓(xùn)練一個需要長時間才能完成的任務(wù),模型在給出最終解決方案并獲得評分前,根本不會有任何學(xué)習(xí)進展。這是強化學(xué)習(xí)的樸素做法,據(jù)稱o1、R1采用的就是這種方式。
價值函數(shù)的作用則不同,它相當于“時不時(而非必須等到最后)告訴你當前做得好還是壞”。這個概念在某些領(lǐng)域比其他領(lǐng)域更有用,比如下棋時,你丟了一個棋子,顯然是出錯了,沒必要等到棋局結(jié)束,才知道剛才的行為是糟糕的,進而推導(dǎo)出導(dǎo)致這個錯誤的先前步驟也有問題。
價值函數(shù)能幫你縮短等待最終結(jié)果的時間。比如你在做數(shù)學(xué)題或編程任務(wù),嘗試探索某個特定解決方案或方向,經(jīng)過一千步思考后,發(fā)現(xiàn)這個方向完全沒希望。
一旦得出這個結(jié)論,你就能在一千步之前,也就是當初決定沿著這條路徑探索的時候,就獲得一個獎勵信號,相當于告訴自己“下次遇到類似情況,不該選這條路”,這比等到給出最終解決方案時再反饋要早得多。
Dwarkesh Patel:這在DeepSeek R1的論文中提到過——軌跡空間如此之廣,以至于可能很難學(xué)習(xí)從中間軌跡到價值的映射。而且考慮到,例如在編程中,你可能會有一個錯誤的想法,然后你會回溯,然后改變一些東西。
Ilya Sutskever:這聽起來像是對深度學(xué)習(xí)缺乏信心。當然這可能有難度,但深度學(xué)習(xí)沒有做不到的事情。我認為價值函數(shù)應(yīng)該是有用的,完全期待它們現(xiàn)在或?qū)頃怀浞掷谩?/p>
我提到那個情緒中樞受損的人,更多是想說明:人類的價值函數(shù),或許是通過進化硬編碼的方式,由情緒進行重要調(diào)節(jié)的。而這一點,可能對人類在世界上有效行動至關(guān)重要。
Dwarkesh Patel:這正是我想問的。關(guān)于情感與價值函數(shù)的關(guān)聯(lián),有件很有趣的事:情感既有極強的實用性,又相對易于理解,這一點非常令人印象深刻。
Ilya Sutskever:我有兩個回應(yīng)。首先,我確實同意,比起我們所學(xué)的知識以及正在討論的這類AI,情感是相對簡單的。它們甚至簡單到能用人類易懂的方式描述出來,我覺得這會是件很酷的事。
但就效用而言,復(fù)雜性與魯棒性之間存在權(quán)衡:復(fù)雜的事物可能用處很大,但簡單的事物在極廣泛的場景下也同樣高效。我們的情感大多源自哺乳動物祖先,在進化為人科動物后只經(jīng)歷了輕微微調(diào)。
當然,我們還擁有不少哺乳動物可能缺乏的社會性情感,但這些情感并不復(fù)雜。也正因為這份簡單,它們在如今這個與遠古截然不同的世界里,依然能很好地為我們服務(wù)。
不過情感也會出錯。比如我們的直覺饑餓感,我不確定饑餓算不算情緒,但在食物充裕的當下,它顯然沒能很好地指導(dǎo)我們的飲食選擇。
![]()
算力規(guī)模已觸頂
AI的未來重回“研究時代”
Dwarkesh Patel:人們總在談?wù)摂U展數(shù)據(jù)、擴展參數(shù)、擴展算力。有沒有更通用的視角來理解“擴展”?還有其他哪些可擴展的維度?
Ilya Sutskever:我認為有一個視角可能是正確的:機器學(xué)習(xí)過去的運作方式,是人們不斷嘗試各種方法,只為得到有趣的結(jié)果。
后來,“擴展”出現(xiàn)了。隨著擴展定律的提出和GPT-3的問世,所有人突然意識到“我們應(yīng)該擴展”。這正是語言影響思維的典型例子:“擴展”只是一個詞,卻極具力量,因為它明確告訴了人們該做什么。于是大家紛紛行動:“讓我們嘗試擴展事物”。而你問“我們在擴展什么?”,答案在當時就是預(yù)訓(xùn)練,它是一套特定的擴展配方。
預(yù)訓(xùn)練的重大突破,核心在于證實了這套配方的有效性:只要將適量算力、數(shù)據(jù)與特定規(guī)模的神經(jīng)網(wǎng)絡(luò)結(jié)合,就能產(chǎn)生成果;而且按比例放大這些要素,效果還會更好。企業(yè)尤其青睞這種方式,因為它提供了一種低風(fēng)險的資源投入路徑。
相比之下,把資源投入研究要難得多。做研究需要這樣號召:“研究人員們,去探索并拿出新成果”,而獲取更多數(shù)據(jù)、更多算力則簡單直接得多。你能確定從預(yù)訓(xùn)練中一定能有所收獲。
根據(jù)推特上的一些討論,Gemini似乎找到了從預(yù)訓(xùn)練中挖掘更多價值的方法。但問題在于,預(yù)訓(xùn)練終有耗盡數(shù)據(jù)的一天,數(shù)據(jù)的有限性是顯而易見的。到那時該怎么辦?要么進行某種強化版預(yù)訓(xùn)練,一套與以往不同的配方;要么轉(zhuǎn)向強化學(xué)習(xí),或者嘗試其他方向。
而現(xiàn)在,算力已經(jīng)達到了前所未有的規(guī)模,從某種意義上說,我們又回到了需要依賴研究的時代。
換種說法或許更清晰:2012年到2020年(允許一定誤差范圍),是研究的時代;2020年到2025年左右,則是擴展的時代。因為所有人都在說“這太神奇了,必須繼續(xù)擴展、不斷擴展”,核心就圍繞 “擴展” 這一個詞。
但如今規(guī)模已經(jīng)足夠龐大,還有人堅信“即便現(xiàn)在規(guī)模很大,只要再投入100倍資源,一切就會徹底不同”。不可否認,結(jié)果肯定會有變化,但要說僅靠擴大100倍規(guī)模就能帶來質(zhì)變,我并不認同。
所以,我們其實是回到了研究的時代,只是如今擁有了更強大的計算機。
Dwarkesh Patel:這是個非常有趣的說法。但我還是想問剛才提出的問題:我們在擴展什么,擁有一個“配方”意味著什么?我想我并不清楚在數(shù)據(jù)、算力、參數(shù)、損失是否存在一個非常清晰、幾乎像物理定律一樣的關(guān)系,就像在預(yù)訓(xùn)練中存在的那樣。我們應(yīng)該尋求的是哪種關(guān)系?我們應(yīng)該如何思考這個新配方可能是什么樣子?
Ilya Sutskever:我們已經(jīng)看到擴展方向的轉(zhuǎn)變:從預(yù)訓(xùn)練轉(zhuǎn)向了強化學(xué)習(xí),現(xiàn)在人們正在著力擴展強化學(xué)習(xí)。根據(jù)推特上的討論,目前強化學(xué)習(xí)消耗的算力甚至超過了預(yù)訓(xùn)練,因為強化學(xué)習(xí)需要進行極長的推演,生成這些推演本身就需要大量算力,而每次推演能帶來的學(xué)習(xí)收益又相對有限,因此確實會耗費巨額算力。
但我甚至不覺得這能稱之為“擴展”。我更想問:“你現(xiàn)在做的事情,是利用算力最高效的方式嗎?有沒有更具成效的算力使用方法?”我們之前聊過價值函數(shù),或許當人們熟練運用價值函數(shù)后,就能更高效地利用資源。如果能找到全新的模型訓(xùn)練方法,你可能會疑惑:“這算擴展,還是只是合理利用資源?”我認為這個邊界已經(jīng)變得有些模糊。
從這個角度來說,當我們回歸研究時代,情況會是這樣:“讓我們試試這個、這個和這個,再試試那個、那個和那個——哦,看,有趣的現(xiàn)象出現(xiàn)了。”我認為行業(yè)將會回到這種探索狀態(tài)。
Dwarkesh Patel:如果真的回歸研究時代,退一步說,我們最需要深入思考現(xiàn)有配方的哪個部分?你提到了價值函數(shù),現(xiàn)在人們已經(jīng)在現(xiàn)有配方中嘗試相關(guān)應(yīng)用,比如“LLM-as-a-Judge”等。你可以說這也算一種價值函數(shù),但聽起來你心里想的是更根本的東西。我們是否應(yīng)該徹底重新思考預(yù)訓(xùn)練,而不只是在流程末尾添加更多步驟?
Ilya Sutskever:關(guān)于價值函數(shù)的討論很有意思。我想強調(diào),價值函數(shù)會讓強化學(xué)習(xí)更高效,這一點很重要。但我認為,任何用價值函數(shù)能做到的事,沒有它也能實現(xiàn),只是速度會慢很多。最核心的問題是,這些模型的泛化能力遠遠不如人類。這一點非常明顯,也是個極其根本的問題。
![]()
人類擁有更好的“學(xué)習(xí)算法”
這是AI尚未掌握的優(yōu)勢
Dwarkesh Patel:那核心就在于泛化能力。這可以拆成兩個子問題:一是樣本效率,為什么模型學(xué)習(xí)所需的數(shù)據(jù)量比人類多得多?
二是拋開數(shù)據(jù)量不談,為什么教會模型我們想要的東西,比教會人類難得多?對人類來說,我們不一定需要可驗證的獎勵,比如你現(xiàn)在可能正在指導(dǎo)一些研究人員,只需和他們交流、展示代碼和思考方式,他們就能領(lǐng)悟你的思路和做研究的方法。
你不需要為他們設(shè)定繁瑣的定制化流程,比如“這是課程的下一部分,現(xiàn)在開始;哦,這次訓(xùn)練不穩(wěn)定,重新調(diào)整”。這兩個問題可能存在關(guān)聯(lián),但我更想探討第二個,因為它更接近持續(xù)學(xué)習(xí),而第一個問題則聚焦樣本效率。
Ilya Sutskever:關(guān)于人類的樣本效率,有一個可能的解釋是進化。進化賦予了我們一些最有用的基礎(chǔ)信息。對于視覺、聽覺和運動等能力,有充分理由認為進化給了我們很多先天優(yōu)勢。
比如人類的靈巧度遠超現(xiàn)有技術(shù)。就算讓機器人在模擬環(huán)境中大量訓(xùn)練,它們能變得靈巧,但在現(xiàn)實世界中讓機器人像人類一樣快速掌握新技能,似乎還遙不可及。
這里可以說:“運動能力對我們所有祖先都至關(guān)重要,所以在運動方面,我們可能擁有難以置信的先天先驗知識。”
視覺領(lǐng)域也可以用同樣的邏輯解釋。我記得楊立昆(Yann LeCun)說過,孩子只需10小時練習(xí)就能學(xué)會開車,我們的視覺系統(tǒng)非常強大。
至少我五歲時就對汽車極度著迷,我敢肯定當時我的汽車識別能力已經(jīng)足以支撐駕駛。一個五歲孩子接觸的數(shù)據(jù)量并不多,大部分時間都待在父母家,數(shù)據(jù)多樣性很低,但視覺能力已經(jīng)很出色。
但這可能也是進化的結(jié)果,而語言、數(shù)學(xué)和編程領(lǐng)域,情況或許就不同了。
Dwarkesh Patel:但人類在這些領(lǐng)域的學(xué)習(xí)能力似乎仍然優(yōu)于模型。顯然,模型在語言、數(shù)學(xué)和編程上比普通人表現(xiàn)更好,但它們的學(xué)習(xí)能力也比普通人強嗎?
Ilya Sutskever:不,顯然不是。我的意思是,語言、數(shù)學(xué)和編程,尤其是后兩者,說明,讓人擅長學(xué)習(xí)的關(guān)鍵,可能不是復(fù)雜的先天先驗知識,而是某種更根本的東西。
Dwarkesh Patel:為什么會是這樣?
Ilya Sutskever:想想人類表現(xiàn)出高度可靠性的技能。如果這項技能在數(shù)百萬年甚至數(shù)億年間,對我們的祖先都至關(guān)重要,你可以說人類擅長它是因為進化,我們擁有進化而來的先天先驗知識,以某種不顯而易見的方式編碼,讓我們天生擅長這項技能。
但如果人類在一個最近才出現(xiàn)的領(lǐng)域(比如數(shù)學(xué)、編程),依然表現(xiàn)出強大的能力、可靠性、魯棒性和學(xué)習(xí)能力,那就更能說明,人類可能只是擁有更好的機器學(xué)習(xí)機制,就這么簡單。
Dwarkesh Patel:我們該如何理解這種機制?它對應(yīng)的機器學(xué)習(xí)類比是什么?
它有幾個有趣的特點:需要的樣本更少,更接近無監(jiān)督學(xué)習(xí)。比如青少年學(xué)開車,他們不是在接受預(yù)設(shè)的、可驗證的獎勵,而是通過與機器和環(huán)境的互動學(xué)習(xí),所需樣本量少得多,看起來更接近無監(jiān)督學(xué)習(xí),而且魯棒性更強?
Ilya Sutskever:魯棒性強得多,人類的魯棒性確實令人震驚。
Dwarkesh Patel:你有統(tǒng)一的思路解釋為什么這些特點會同時存在嗎?什么樣的機器學(xué)習(xí)類比能實現(xiàn)類似效果?
Ilya Sutskever:你一直問的問題是,青少年司機如何在沒有外部教師的情況下自我糾正、從經(jīng)驗中學(xué)習(xí)?答案是他們有自己的價值函數(shù),一種通用的感知,而且這種感知在人類中極其魯棒。除了成癮等少數(shù)例外,人類的價值函數(shù)實際上非常、非常可靠。
比如青少年開始開車時,立刻就能感知到自己開得怎么樣、有多糟糕、有多不自信。然后他們會觀察、調(diào)整,學(xué)習(xí)速度非常快,10個小時后就能上路行駛。
Dwarkesh Patel:人類顯然已經(jīng)有了這樣的解決方案,但我好奇他們是如何做到的,以及為什么這對AI來說如此困難?我們需要如何重新定義模型的訓(xùn)練方式,才能實現(xiàn)類似的效果?
Ilya Sutskever:這是個很好的問題,我對此有很多看法。但不幸的是,我們所處的環(huán)境并不允許自由討論所有機器學(xué)習(xí)想法,這就是其中之一。很可能存在實現(xiàn)的方法,我認為這是可行的,人類本身的存在就證明了這一點。
不過可能還有一個障礙:人類的神經(jīng)元可能比我們想象的進行了更多計算。如果這是真的,而且起到了重要作用,那么事情可能會更困難。但無論如何,我確實認為這指向了某種機器學(xué)習(xí)原理的存在,我對此有一些見解,但可惜的是,環(huán)境不允許我詳細討論。
![]()
SSI只專注于研究,在“直奔超智能”與“漸進部署”間尋找平衡點
Dwarkesh Patel:我很好奇,你說我們回到了研究時代,而你2012到2020年就身處那個階段。如果真的回歸,現(xiàn)在的氛圍會是怎樣的?
比如,即便AlexNet之后,實驗所需的計算量仍在不斷增加,前沿系統(tǒng)的規(guī)模也在擴大。你覺得現(xiàn)在這個研究時代,依然需要巨大的計算量嗎?是否需要回溯舊論文、挖掘過往研究?
你曾在谷歌、OpenAI、斯坦福這些地方待過,經(jīng)歷過研究氛圍更濃厚的時期。我們該對現(xiàn)在的科研社區(qū)抱有怎樣的期待?
Ilya Sutskever:擴展時代的一個后果是,“擴展”吸走了所有關(guān)注。因為所有人都聚焦于此,大家開始做同樣的事情。到最后,市場上的公司數(shù)量甚至超過了真正有價值的想法數(shù)量。硅谷有句諺語說“想法廉價,執(zhí)行力才是一切”,這話有道理,但我也看到有人在推特上反問“如果想法真的廉價,為什么現(xiàn)在沒人有好想法?”,我覺得這也說到了點子上。
從瓶頸角度看,研究進展受兩個因素制約:一是想法,二是實現(xiàn)想法的能力,這包括算力和工程能力。比如回到90年代,當時人們其實有不少好想法,但苦于沒有足夠強大的計算機驗證,只能做小規(guī)模演示,無法說服他人,所以那時的瓶頸是算力。
而到了擴展時代,算力大幅增長。雖然仍有“需要多少算力”的疑問,但如今的算力已經(jīng)足夠支撐想法驗證。舉個例子,AlexNet只用了兩塊GPU,Transformer的實驗也只用到8到64塊2017年的GPU,換算到現(xiàn)在大概也就兩塊GPU的性能。甚至o1的推理過程,也算不上計算量最大的操作。
所以,研究確實需要一定算力,但絕非必須用到有史以來最頂級的算力。當然,如果你想構(gòu)建當前最優(yōu)的系統(tǒng),更多算力會有幫助——尤其是在大家都處于同一范式下時,算力會成為核心競爭優(yōu)勢之一。
Dwarkesh Patel:我想請教這段歷史,因為你親身經(jīng)歷過。聽起來當時用較少的計算量就能發(fā)展核心想法,但Transformer并沒有立刻走紅。它之所以成為大家爭相實驗、構(gòu)建的基礎(chǔ),是因為在越來越高的計算量水平上得到了驗證,對嗎?
Ilya Sutskever:沒錯。
Dwarkesh Patel:如果SSI有50個不同的想法,在沒有其他前沿實驗室那樣的算力支持下,怎么判斷哪個是下一個Transformer,哪個只是脆弱的構(gòu)想?
Ilya Sutskever:我可以說說我的看法。簡單來說,SSI用于研究的計算量其實并不小,背后的邏輯很簡單。
SSI已經(jīng)籌集了30億美元(約合人民幣213.1億元),這絕對是一筆巨款。你可能會說“其他公司籌集的資金更多”,但要知道,那些公司的很多算力都用于推理任務(wù),大額資金也常指定用于推理。
而且,若要推出需要推理支持的產(chǎn)品,還需要大量工程師、銷售人員,很多研究資源也得投入到產(chǎn)品相關(guān)功能的開發(fā)中。所以,扣除這些之后,真正留給核心研究的資源差距,并沒有表面上那么大。
另外,如果你在做的是差異化的事情,真的需要用頂級規(guī)模來驗證嗎?我完全不這么認為。對我們來說,現(xiàn)有的算力足夠讓我們自己,也讓其他人相信我們做的事情是正確的。
Dwarkesh Patel:有公開估計稱,像OpenAI這樣的公司,每年僅實驗方面的花費就有50到60億美元(約合人民幣355.2億元到426.2億元),這還不包括推理等其他開支。也就是說,他們一年的研究實驗花費,比你們的總資金還多。
Ilya Sutskever:這取決于資金的用途。他們以及其他類似公司,對訓(xùn)練算力的需求要大得多——涉及更多工作流、更多模態(tài),要做的事情更繁雜,資源自然就分散了。
Dwarkesh Patel:SSI將如何盈利?
Ilya Sutskever:我的回答是,目前我們只專注于研究,盈利的答案會隨著研究推進自然顯現(xiàn)。我相信會有很多可行的方向。
Dwarkesh Patel:SSI的計劃仍然是直奔超級智能嗎?
Ilya Sutskever:也許吧。我認為這有其價值——不受日常市場競爭的干擾,能專注研究,這是很大的優(yōu)勢。但有兩個原因可能讓我們改變計劃:一是務(wù)實考量,如果實現(xiàn)超級智能的時間線比預(yù)期長得多;二是,讓強大的AI問世并影響世界,本身就是一件極具價值的事。
Dwarkesh Patel:那為什么你們的默認計劃是直奔超級智能?OpenAI、Anthropic等公司的思路很明確:“先推出較弱的AI,讓公眾逐漸適應(yīng)、做好準備”。直接構(gòu)建超級智能,為什么可能是更好的選擇?
Ilya Sutskever:我來分析一下利弊。支持直奔超級智能的理由是,市場競爭會帶來巨大壓力,迫使你做出艱難權(quán)衡。如果能隔離這些干擾,專注研究,直到準備充分再推出產(chǎn)品,而不是倉促上陣,這是很大的優(yōu)勢。
但反對的理由也同樣成立:“讓世界看到強大AI的實際用處,是推廣它的唯一方式”。
Dwarkesh Patel:我覺得不止是推廣……
Ilya Sutskever:是“傳播AI”,不是傳播想法,是讓AI真正落地。
Dwarkesh Patel:你說的“傳播AI”是什么意思?
Ilya Sutskever:假設(shè)你寫了一篇關(guān)于AI的文章,描述它會怎樣、能做什么,讀者可能只會覺得“這篇文章很有趣”。但如果人們親眼看到AI正在做這些事、實現(xiàn)這些功能,那種沖擊力是無可比擬的。所以我認為,讓AI公開落地有很大好處,這也是我們可能不會完全“直奔超級智能”的原因之一。
Dwarkesh Patel:我覺得還有更深層的原因。在人類其他工程和研究領(lǐng)域,沒有哪個最終產(chǎn)物是僅憑“思考如何讓它更安全”就變得安全的。比如現(xiàn)在每英里的飛機失事率比幾十年前低得多,Linux系統(tǒng)的漏洞比以前難發(fā)現(xiàn)得多,核心原因都是這些系統(tǒng)被廣泛部署到現(xiàn)實世界中——人們發(fā)現(xiàn)故障、糾正問題,系統(tǒng)才變得更健壯。
我不認為AGI和超人類智能會是例外,尤其是考慮到(我希望之后能討論這個話題),超級智能的危害可能不只是“惡意回形針優(yōu)化器”那么簡單。它是一種極其強大的存在,我們甚至無法想象人們會如何與它互動、用它做什么。逐步接觸它,似乎是分散風(fēng)險、幫助人們做好準備的更好方式。
![]()
超級智能會“在實踐中學(xué)習(xí)”
Ilya Sutskever:關(guān)于這一點,我認為即使是“直奔超級智能”的方案,也會包含逐步發(fā)布的過程,這是計劃中固有的一部分。關(guān)鍵在于,你首先發(fā)布的是什么。
其次,你一直倡導(dǎo)的“持續(xù)學(xué)習(xí)”,我認為非常重要且正確。這里可以用“語言如何影響思維”來解釋——有兩個術(shù)語塑造了大家的認知:AGI(人工通用智能)和“預(yù)訓(xùn)練”。
先說說AGI這個術(shù)語。它的出現(xiàn)其實是對“狹義AI”的回應(yīng)。回溯歷史,早期的跳棋AI、國際象棋AI、游戲AI,雖然能在特定領(lǐng)域表現(xiàn)出色(比如擊敗卡斯帕羅夫),但功能極其單一,被稱為“狹義AI”。于是有人提出,我們需要的是“通用AI”——一個能勝任所有事情的AI,這個術(shù)語也因此受到廣泛關(guān)注。
再看“預(yù)訓(xùn)練”,尤其是預(yù)訓(xùn)練的核心配方。現(xiàn)在人們做強化學(xué)習(xí)的方式,可能正在淡化預(yù)訓(xùn)練留下的認知烙印,但預(yù)訓(xùn)練有個特點:投入越多,模型在各方面的表現(xiàn)都會或多或少均勻提升。“預(yù)訓(xùn)練催生AGI”的觀念也隨之深入人心。
但問題在于,AGI和預(yù)訓(xùn)練的邏輯在某種意義上“超出了目標”。如果你結(jié)合預(yù)訓(xùn)練的背景思考AGI,會發(fā)現(xiàn)人類其實并不是AGI——我們確實有基礎(chǔ)技能,但缺乏大量專業(yè)知識,反而極度依賴持續(xù)學(xué)習(xí)。
所以,假設(shè)我們成功造出了安全的超級智能,該如何定義它?它在持續(xù)學(xué)習(xí)的曲線上會處于什么位置?
我想象中的超級智能,就像一個15歲的少年,求知欲強、渴望工作,但懂得并不多,卻是個優(yōu)秀的學(xué)習(xí)者。它會像人類一樣,去當程序員、當醫(yī)生,在實踐中學(xué)習(xí)。因此,部署本身就會包含一個試錯學(xué)習(xí)的過程,它不是一個“成品”,而是一個“成長型”存在。
Dwarkesh Patel:我明白了。你說的超級智能,不是一個已經(jīng)掌握經(jīng)濟中所有工作技能的成品心智——比如早期OpenAI章程中對AGI的定義是“能做人類所有工作”,而你提出的是“能夠?qū)W會做所有工作”的心智,這才是超級智能。
Ilya Sutskever:是的。
Dwarkesh Patel:一旦有了這種學(xué)習(xí)算法,它就會像人類勞動者加入組織一樣,被部署到世界中。
Ilya Sutskever:完全正確。
Dwarkesh Patel:這可能會帶來兩種結(jié)果,也可能都不會發(fā)生。第一,這個高效的學(xué)習(xí)算法變得超人類,在機器學(xué)習(xí)研究領(lǐng)域達到甚至超越你的水平,進而推動自身不斷進化,變得越來越強。
第二,即便沒有發(fā)生這種情況,如果你有一個單一模型(這是你明確提出的愿景),它的多個實例被部署到經(jīng)濟的不同領(lǐng)域,從事不同工作,在實踐中持續(xù)學(xué)習(xí)、掌握所有人類能掌握的技能,同時整合所有學(xué)習(xí)成果——那么即便沒有軟件層面的遞歸自我改進,這個模型在功能上也會成為超級智能。畢竟人類無法像這樣整合彼此的心智。
你認為廣泛部署會引發(fā)某種“智能爆炸”嗎?
Ilya Sutskever:我認為我們很可能會經(jīng)歷快速的經(jīng)濟增長。對于廣泛部署,有兩個相互沖突的論點:一方面,一旦擁有能快速學(xué)習(xí)的AI,且沒有法規(guī)限制(當然法規(guī)可能會存在),市場會有強大的動力推動它們的部署。
通過廣泛部署實現(xiàn)快速經(jīng)濟增長,我認為是非常可能的。但增長速度有多快,很難預(yù)測。一方面,我們有了高效的“勞動者”;另一方面,世界規(guī)模龐大,各類事務(wù)的發(fā)展速度不同。而且不同國家的規(guī)則可能不同,規(guī)則更友好的國家,經(jīng)濟增長可能會更快。這些都難以預(yù)判,但快速增長是大概率事件。
![]()
應(yīng)該構(gòu)建“關(guān)心有情生命”的AI
Dwarkesh Patel:在我看來,這是一種非常不穩(wěn)定的局面。從極限角度看,我們知道這種情況是可能的:如果有一個學(xué)習(xí)能力和人類相當,但能以人類無法做到的方式整合不同實例的“大腦”,它在物理層面是可行的——人類和數(shù)字計算機都是現(xiàn)實存在的,只需將兩者的優(yōu)勢結(jié)合就能實現(xiàn)。
它的潛力也極其強大。“經(jīng)濟增長”只是一種說法,戴森球本質(zhì)上就是極致的經(jīng)濟增長。但更直接的是,它可能在極短時間內(nèi)爆發(fā)式進化:SSI雇傭的員工大概六個月后能產(chǎn)生凈生產(chǎn)力,人類學(xué)習(xí)速度已經(jīng)很快了,而這個“東西”的進化速度會快得多。你如何看待讓這個過程平穩(wěn)推進?為什么SSI有能力做好這件事?這正是我想知道的SSI的相關(guān)計劃。
Ilya Sutskever:我思維上的一個轉(zhuǎn)變是,現(xiàn)在更重視AI的漸進式部署和提前落地。關(guān)于AI,一個核心難題是我們討論的都是尚未存在的系統(tǒng),很難真正想象它們的形態(tài)。
我認為,人們很難真正“感知”AGI。我們可以談?wù)撍拖衲贻p時談?wù)撃昀系母惺芤粯印軐υ挕⒛車L試想象,卻始終無法真切體會,直到親身經(jīng)歷。
圍繞AGI及其未來力量的諸多疑問,根源都在于它太難以想象了。未來的AI會截然不同,它將極具力量,而AI和AGI的核心問題,本質(zhì)上就是“力量”的問題。
當力量達到極致時,會發(fā)生什么?過去一年我想法的一個轉(zhuǎn)變(這個轉(zhuǎn)變可能會反過來影響公司計劃)是:如果無法想象,就必須展示。我堅信,大多數(shù)從事AI工作的人也無法真正想象它,因為它和我們?nèi)粘K姷囊磺卸继灰粯恿恕?/p>
我還有一個預(yù)測:隨著AI變得更強大,人們的行為會發(fā)生改變,會出現(xiàn)各種前所未有的情況。比如,無論好壞,前沿公司和政府將在其中扮演關(guān)鍵角色;你已經(jīng)能看到一些苗頭——激烈競爭的公司開始在AI安全領(lǐng)域合作,OpenAI和Anthropic已經(jīng)邁出了第一步,這是我三年前在演講中就預(yù)測過的。
我還認為,當AI的強大變得更顯而易見時,政府和公眾會更有意愿采取行動,而“展示AI”正是推動這一切的重要力量。
第二點,AI正在被構(gòu)建,我們需要做什么?目前,人們覺得AI不夠強大,很大程度上是因為它常犯錯誤。但我認為,當AI開始讓人真正感受到“強大”時,所有AI公司處理安全的方式都會發(fā)生巨大轉(zhuǎn)變——他們會變得極度謹慎。這是我的預(yù)測,我們可以拭目以待。現(xiàn)在大家對AI安全的重視不足,本質(zhì)上是因為看著今天的AI,很難想象未來的AI會有多強大。
第三點,公司應(yīng)該致力于構(gòu)建什么?現(xiàn)在大家都執(zhí)著于“自我改進的AI”,這只是因為有價值的想法太少了。但我認為存在更好的方向,而且最終所有人都會認同——那就是構(gòu)建“穩(wěn)健對齊、明確關(guān)心有情生命”的AI。
值得一提的是,構(gòu)建關(guān)心所有有情生命的AI,可能比只關(guān)心人類的AI更容易,因為AI本身也可能是有情識的。就像人類的鏡像神經(jīng)元和對動物的同理心(雖然強度有限,但確實存在),這可能是一種涌現(xiàn)屬性——用模擬自身的回路去模擬他人,這是最高效的方式。
Dwarkesh Patel:但即使讓AI關(guān)心有情生命,我不確定解決對齊問題后,這是否是該優(yōu)先做的事,未來大多數(shù)有情生命可能都是AI——萬億、甚至千萬億個AI,人類只占極小一部分。如果目標是讓人類在未來文明中保持某種控制權(quán),這似乎不是最好的標準。
Ilya Sutskever:確實,這可能不是最優(yōu)標準。我說三點:第一,關(guān)心有情生命本身有其價值,值得被考慮;第二,如果能列出一份簡短清單,給出這類情況下公司可參考的方向,會很有幫助;第三,如果能以某種方式限制最強大超級智能的力量,將從根本上緩解許多擔(dān)憂。具體如何實現(xiàn)我不確定,但對于真正強大的系統(tǒng)來說,這至關(guān)重要。
Dwarkesh Patel:在討論對齊問題之前,我想深入聊聊:超級智能的上限在哪里?你如何定義它?基于“學(xué)習(xí)效率”的思路,它只是學(xué)習(xí)新技能、新知識的速度極快?還是擁有更龐大的策略庫?
它是否存在一個單一、凝聚的核心“自我”?如果存在,你覺得它相對于人類文明,會是類似“神”的存在,還是只是另一個智能體,或是智能體集群?
Ilya Sutskever:在這個領(lǐng)域,不同人有不同直覺。我認為它肯定會極其強大。最可能的情況是,多個這樣的AI會在大致相同的時間被創(chuàng)造出來。如果集群規(guī)模足夠大——比如達到大陸級別——它的力量會難以想象。我能說的是,對于這種級別的AI,如果能以某種方式約束它們,或者建立相關(guān)協(xié)議,會是一件好事。
超級智能的擔(dān)憂核心是什么?如果一個系統(tǒng)足夠強大,即使你讓它“專注關(guān)心有情生命”,最終結(jié)果也可能不是我們想要的——就是這么簡單。
順便說一句,答案可能是:不要以常規(guī)方式構(gòu)建強化學(xué)習(xí)智能體。人類其實是“半強化學(xué)習(xí)智能體”——我們追求一個獎勵,然后情緒或其他因素讓我們厭倦,轉(zhuǎn)而追求另一個獎勵。
市場是短視的智能體,進化也是如此——在某些方面極其聰明,在另一些方面又非常愚蠢。
這個討論的難點在于,我們談?wù)摰氖巧形创嬖凇⒁膊恢廊绾螛?gòu)建的系統(tǒng)。我堅信,現(xiàn)在人們正在做的事情會有進展,但最終會走向瓶頸——它會持續(xù)改進,但不會成為那個終極“它”。我們還不知道如何構(gòu)建“它”,而關(guān)鍵就在于理解“可靠的泛化能力”。
還有一點:對齊困難的根源,可能是學(xué)習(xí)人類價值觀的能力很脆弱,優(yōu)化這些價值觀的能力也很脆弱——而這些都是“不可靠泛化”的體現(xiàn)。為什么人類泛化能力更強?如果AI的泛化能力大幅提升,會發(fā)生什么?這些問題目前都沒有答案。
Dwarkesh Patel:人們?nèi)绾卧O(shè)想AI的平穩(wěn)發(fā)展?你已經(jīng)勾勒了它的演變路徑:持續(xù)學(xué)習(xí)的智能體、極其強大、可能有多個不同的AI。你如何看待多個“大陸規(guī)模”的計算智能并存?這有多危險?我們?nèi)绾谓档惋L(fēng)險?如何在保護某種均衡的同時推進——畢竟可能存在未對齊的AI和惡意行為者?
Ilya Sutskever:這就是我支持“關(guān)心有情生命的AI”的原因之一。我們可以爭論它的好壞,但如果前N 個具有決定性意義的系統(tǒng)真的關(guān)心、熱愛人類(或類似的價值導(dǎo)向),顯然能讓事情順利推進——當然,這需要實際實現(xiàn)。
但長期來看,如何實現(xiàn)均衡?我有一個答案,雖然我并不喜歡,但必須考慮。
短期內(nèi),強大AI普及的世界可能會實現(xiàn)“普遍高收入”,大家都過得很好。
長期均衡的一種可能:每個人都擁有一個聽從自己指令的AI,這很好——但如果這種狀態(tài)無限持續(xù),人類會逐漸脫離參與:AI為人賺錢,人類只需說“很好,繼續(xù)”,最終不再是文明的參與者。這是一種不穩(wěn)定的狀態(tài)。
我要提前說明,我不喜歡這個解決方案,但它確實是一個選項:讓人類通過某種“Neuralink++”技術(shù),變成“半AI形態(tài)”。這樣一來,AI理解的事物,人類也能同步理解——認知是整體傳輸?shù)摹.擜I處于某種場景時,人類也能完全參與其中,這可能就是均衡的答案。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.