修個 bug 可以來回把同一個錯誤引回來,寫代碼能繞一圈又走回原地。
但幾乎所有 AI 公司都堅信,只要把模型做大、把數據堆滿、把算力扔進去,智能就會自動涌現。這套規模定律(Scaling Law)曾經是硅谷最堅定的信仰。
![]()
在隱退許久并創立新公司 SSI(Safe Superintelligence)后,前 OpenAI 首席科學家 Ilya Sutskever 用一種極其冷靜的語調,宣告「Scaling 的時代結束了,我們重新回到了研究時代。」
最近一場 Ilya 與 Dwarkesh Patel 的深度對話中,他不僅給出了,對于 AI 未來的技術路線圖,更重要的是,他深刻地回答了,為什么現在的 AI 即使再強,也依然不像人。
播客鏈接:https://x.com/dwarkesh_sp/status/1993371363026125147
為什么 AI 是個高分低能的優等生
我們總覺得現在的 AI 很強,它們能在編程競賽、數學競賽、各種榜單上拿金牌,每次有新的模型發布,也是一次次刷新著各種 benchmark。但 Ilya 指出了一個讓他感到困惑的現象。
![]()
▲ 最新發布的 Claude 4.5 Opus 模型,在編程相關的榜單,已經拿到了 80.9 分
他說我們在用 vibe coding,要 AI 寫代碼時,AI 可能寫到某個地方,出現了一個 Bug。我們直接告訴它:「這兒有個錯誤。」AI 會說:「天吶你是對的,我馬上改。」 然后它解決了這個 Bug,又引入了另一個 Bug。 你再指出,它又改回了第一個 Bug。 它就在這兩個 Bug 之間無限循環,顯得極其笨拙。
他的解釋提到了這說明 AI 的「泛化能力(Generalization)」出了問題。為了解釋這個詞,Ilya 用不同的學生打了一個比方。
![]()
想象兩個學生都在學編程,學生 A 代表 AI, 極其刻苦,練了 10000 個小時。他背下了所有的題庫,記住了所有的解題套路。考試時,只要見過類似的題,他就能拿滿分。
學生 B 代表人類,他只是覺得編程競賽很酷,花了 100 個小時聯系,但他真正理解了編程的邏輯,擁有了某種直覺,也能做得很好。長期來看,誰會在職業生涯中走得更遠?他說一定是學生 B。
而現在的 AI 就像學生 A。所謂的智能,很大程度上是靠海量數據強行記憶出來的;它們在特定問題的龐大、增強數據集上過度訓練,使它們在任務上表現出色,但不一定擅長泛化到其他領域。
一旦遇到訓練數據之外的微小變動,比如修復一個重復出現的 Bug,它缺乏那種舉一反三的泛化能力。
從堆算力回歸拼創意
但這種海量數據的訓練方式也不是完全沒有用。在過去五年里,AI 行業的發展基本上都是遵循著所謂的「規模定律 Scaling Law」,從一開始的還是以百萬參數來衡量的大模型,現在都來到了萬億參數。GPU 顯卡算力的消耗,規模更是未雨綢繆,要卷上天際。
![]()
這種把一定量的算力,和一定量的數據混合進一個神經網絡里的方案,也成了所有大模型開發的必備流程,即預訓練。在預訓練階段,不需要思考用什么數據,因為答案是所有數據,它是人類投射到文本上的整個世界。
而 Ilya 認為,「Scaling」這個詞,本身就固定了我們的思維。它暗示著我們只需要做一件事:加算力,加數據,保持配方不變,把鍋搞大一點,就能做出好菜。
他說這樣的法則,讓大公司很舒服,因為這是一種「低風險」的投資。相比于需要靈感和運氣的研究,大公司不需要雇傭科學家去苦思冥想,只需要「加數據、加算力」,而模型變強的結果是可預測的。
但現在,瓶頸來了。數據不夠了,預訓練數據,我們的互聯網文本語料是有限的,而且已經快被用光了;有專門的研究結構統計過,現在互聯網上 AI 內容的比例,已經是超過我們人類輸出的內容。
![]()
其次是邊際效應,把模型再做大 100 倍,也許會有提升,但不會帶來質變。
Ilya 也提到了最近在 X 上,有人說 Gemini 3 似乎解決了預訓練的一些問題。而此前 The Information 也曾報道奧特曼擔心 Google 的發展會影響 OpenAI,甚至已經讓他感受到壓力。
其中一部分的原因,正是 GPT-5 的推出,遇到了預訓練上的問題,即隨著預訓練數據的增加,模型并沒有像之前一樣表現出智能的提升。反而 Gemini 確找到了突破的方法,奧特曼在內部備忘錄里說,OpenAI 也必須解決預訓練的問題,或許才能再次超過 Google。
![]()
▲ Google DeepMind 研究副總裁 Oriol Vinyals 提到 Gemini 3 的秘密,是解決了預訓練的問題
我們回到了研究時代。只不過這一次,我們有了更大的計算機。
Ilya 把過去這段時間的研究,分成了兩個階段。2012 年到 2020 年是研究時代,大家都在試錯,尋找新方法。而 2020 年到 2025 年,是擴展時代,大家都在盲目擴建,算力在擴建,越來越多的 AI 公司在出現。
而現在,單純的大力出奇跡已經行不通了,或者說單純靠 Scaling 的紅利吃盡了,我們又回到了研究時代。只不過這一次,我們是在用 Scaling 時代建立起來的巨型計算機來做研究,這是一個有著大型算力的研究時代。
總的來說,Ilya 并沒有否認預訓練和 Scaling 的巨大成功,但他認為這是一種用錢換智能的,低風險暴力美學,而現在這種模式已經觸到了天花板,AI 行業必須回歸到拼想法、拼直覺、拼創新的硬核研究階段。
尋找直覺:AI 缺失的那塊拼圖
如果單純的數據堆疊無法產生真正的智能,那人類的秘訣是什么?Ilya 給出的答案是:情感(Emotions)。
他提到了一個腦損傷患者的案例,這個人失去了情感能力,雖然智商正常、能言善辯,卻連穿哪雙襪子都要糾結幾個小時。 這說明情感不僅是情緒,它本質上是一個價值函數(Value Function)。
![]()
不過 Ilya 說目前沒有找到很合適的概念,來類比情緒在機器學習中的角色,所以用價值函數來替代。
為了解釋什么是價值函數,Ilya 提到了少年學開車的例子, 一個青少年,可能只需要練 10 個小時甚至更少,就能學會開車上路。他不需要像現在的自動駕駛 AI 那樣,在模擬器里撞車幾百萬次才能學會避讓。
為什么?因為人類自帶了一個極其強大的價值函數,這個價值函數就像一個內置評價器,一旦偏離車道,我們人類會感到緊張,而這相當于一種負反饋。
那么依賴情緒的價值函數,和我們之前一直聽到的強化學習,區別又是什么呢?
Ilya 說在沒有中間價值函數的強化學習里,通常要等到任務徹底結束,AI 才知道自己是贏了還是輸了;但價值函數就像是我們的直覺或內心評分系統。當我們下棋丟了一個子,不需要等到這盤棋下完,我們心里立馬會「咯噔」一下,這步棋下錯了。
那個學開車的少年,不用等到真的壓線丟分了才會改正,而是只要開得稍微偏離車道,他立刻會感到緊張或不自信。這種實時的、內在的反饋機制,讓他能極其高效地從少量經驗中學習。
![]()
對于傳統的強化學習,他的看法是這是一種天真且低效率做法。在傳統的強化學習中,模型需要嘗試成千上萬次動作或思考步驟,直到產出一個最終的解決方案,然后根據這個最終結果的好壞獲得一個評分,即訓練信號。
這意味著在得出最終解之前,模型完全沒有進行任何學習。這種方法需要消耗大量的計算資源來進行漫長的推演,但每次推演帶來的學習量卻相對較少。
而價值函數不需要等到最后,它能提供中間過程的評價;在每一步都給出信號,指引方向,從而極大地壓縮了搜索空間,提高了學習速度。
目前的 AI 缺乏這種高效的內心評分系統。如果我們能讓 AI,擁有類似人類情感或本能的價值判斷能力,它就能擺脫對海量數據的依賴,真正像人一樣高效學習。
Ilya 的下一步是直通超級智能
既然認定了拼算力的時代已經過去,而強大的價值函數或許又會成為新的 AI 方法,那 Ilya 的新公司 SSI(Safe Superintelligence)打算怎么做?
他的答案帶著一種極其理想主義的色彩,直通超智能,他們選擇去攻克那個最根本的難題,實現可靠的泛化。
![]()
Ilya 直言,現在的 AI 行業陷入了一場老鼠賽跑。為了在市場競爭中存活,公司被迫不斷發布半成品,被迫在產品體驗和安全性之間做艱難的權衡。SSI 想要做的是從這種商業噪音中抽離出來,閉門造車,直到造出真正的超級智能。
但有趣的是,Ilya 這種「閉關修煉」的想法正在發生動搖。他開始意識到,漸進式發布可能才是安全的必經之路。
為什么?因為人類的想象力是貧瘠的。如果你只是寫文章、發論文告訴大家AI 會很強,大家只會覺得這是科幻小說。只有當人們親眼看到 AI 展現出某種令人不安的力量時,所有人、包括競爭對手,才會真正感到害怕,從而變得更加關注安全 。
![]()
Ilya 預言,隨著 AI 變得越來越強,現在打得不可開交的科技巨頭們,最終會在 AI 安全策略上走向趨同。
播客里他也提到了,SSI 與 OpenAI、Google 那些大型實驗室相比,雖然籌集的資金較少,但用于純研究的計算能力比表面上看是更多的。他說那些大公司將大量的計算資源用于產品推理,并擁有龐大的工程和銷售團隊,導致其資源分散。Ilya 認為 SSI 擁有足夠的計算能力,來證明其想法是正確的。
當被問及盈利模式時,Ilya 只是淡淡地說,我們只專注于研究,賺錢的問題以后自然會有答案。主持也提到了之前 SSI 的前 CEO(聯合創始人)選擇了離開,然后加入 Meta,在 Meta 希望收購 SSI 時。
Ilya 特意澄清,「他是唯一一個去 Meta 的人。」 他建立 SSI 不是為了在商業市場上套現,而是為了那個唯一的、純粹的目標,在那個不可逆轉的奇點到來之前,把安全的超級智能造出來。
重新定義 AGI,一個 15 歲的少年
那我們距離 AGI 還有多遠?Ilya 給出的預測是 5 到 20 年。
但他提醒我們要警惕「AGI」這個詞。因為預訓練模型讓我們產生了一種錯覺,以為 AGI 就是一個什么都懂的百科全書。但 Ilya 心目中的超級智能,更像是一個絕頂聰明的 15 歲少年。
這個少年可能還沒學過法律或醫學,但他擁有極致的學習效率。你讓他去學醫,他可能幾天就能讀完人類所有的醫學文獻,并開始做手術。
而在這一愿景中,最讓人細思極恐的概念是融合(Amalgamation)。
![]()
人類的悲哀在于知識無法直接復制。這個人學會了開車,另一個人還是得從頭練起,但 AI 不一樣。Ilya 描述了一個場景,數百萬個 AI 分身在經濟體的不同角落工作,有的在寫代碼,有的在打官司。它們在各自學習,然后將所有的經驗融合進同一個大腦。
這種集體進化的速度,才是他所認為的 AGI。
面對這樣一個能夠瞬間融合萬千經驗的超級大腦,人類又該何去何從?
![]()
Ilya 給出了兩個層面的思考。首先是給 AI 的設定。不要只讓它愛人類,因為這太狹隘了。未來的 AI 自己也將是有知覺的生命體,應該利用同理心的原理,讓它關愛所有有知覺的生命,可能是比代碼更穩固的安全防線。
其次是人類的退路。如果每個人都有一個比自己聰明百倍的 AI 智能體,人類會不會淪為歷史的旁觀者?Ilya 給出了一個他坦言「自己并不喜歡,但可能是唯一解」的答案:腦機接口(Neuralink)。
只有當人類選擇與 AI 融合,讓 AI 的理解直接變成我們的理解,我們才能在那個奇點之后,依然是這個世界的主角。
播客的最后,Dwarkesh 問了那個所有人都想問的問題:作為 AI 領域的傳奇,你是如何一次次押對方向的?
![]()
Ilya 的回答很像個藝術家:「尋找美感。」
在那些數據都不支持你的至暗時刻,唯有對美、簡潔和生物學合理性的自上而下的信念,能支撐你走下去。因為神經網絡模仿了大腦,而大腦是美的,所以它一定是通往智能的正確道路。
這或許就是 Ilya 所說的「研究時代」最需要的品質:在算力之外,保留一份對智能本質的詩意直覺。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.