全文 2,000字 | 閱讀約 6 分鐘
![]()
(John Schulman 訪談:ChatGPT 本可以提前幾年出現)
AI 競賽看起來像兩件事:搶人才,搶算力。
但真正決定勝負的,往往不在可見的戰場上。
2025 年 12 月 18 日,John Schulman 接受了一期播客訪談。
他是 OpenAI 聯合創始人之一、ChatGPT 核心技術作者,現任 Thinking Machines Lab 首席科學家。
訪談剛開始,他就說了件事:
把現在的完整研究方法帶回 2018 或者2019 年,幾個人、一年就能做出 GPT 3.5 級別的系統。
言下之意,決定 AI 突破的,可能不是我們以為的那些東西。
第一節|ChatGPT 遲到的真正原因
那到底是什么卡住了?
Schulman 的判斷基于工程路徑的反推:
微調方式的選擇
后訓練的配方組合
數據集構造策略
訓練調度的工程優化
這些都不是天才一拍腦袋的結果,而是一次次試錯積累出來的。
Schulman 說:
“ChatGPT 之所以能成型,不是因為有了更強的模型,而是因為我們知道怎么用當時能用的工具把它做出來。”
換句話說,模型的參數可以少一點,GPU 的規模可以減一點,但哪一環卡住了、哪里該先做、誰來負責調試、怎么評估效果,這些決策能力,才決定了能不能做成。
他提到的 nanoGPT 就是一個典型:一個人寫代碼,半年時間,在一臺機器上完成。
這說明,很多 AI 突破,算力只是基礎,真正的瓶頸在工程能力。
這也是為什么 Schulman 強調,機制比資源重要。真正能復用的,是一套把復雜工作做成的方法,而不是多堆幾塊卡、多招幾位博士。
當我們今天復盤 ChatGPT 的誕生,看到的不只是一次模型演進,更是一套工作方法的建立過程。
這一點,往往才是后來實驗室最難跨越的門檻。
第二節|那些沒做出來的項目,教會了 OpenAI 什么?
很多人以為 OpenAI 一開始就奔著 AGI 去了。
其實不然。在 John Schulman 的描述中,早期的 OpenAI 更像是一家半學術、半實驗室的公司,十幾個人各自做感興趣的項目,兩三人成組,自由探索,像是大學里自帶預算的研究生。
但這種狀態沒維持多久。隨著 Dota 項目的推進,他們開始嘗試把十幾位研究者、工程師、工具開發人員拉到一個項目中:
怎么分工?誰盯訓練?數據怎么統一處理?
這一系列問題逼著 OpenAI 從各自為戰,開始學會系統協同推進。
John 點名了幾個項目做得不夠好的原因:比如 Universe,這個早期強化學習平臺,目標是構建一個海量交互環境,但工具鏈不成熟、運行復雜,數據也不能泛化,最終沒做起來。
他總結說:
"這想法是對的,只是早了十年。"
這種對失敗的態度,恰恰體現了 OpenAI 的核心能力:他們不斷試錯,但每次都能從失敗中提取經驗。一次項目走不通,就收縮范圍,聚焦在最能驗證有效性的那一塊,然后組團隊、搭流程,變成可復制的方法。
問題是,怎么讓這套方法在團隊里真正用起來?
在 Schulman 看來,這不是設 KPI,也不是增加人手,而是研究人員如何在合作中保持創造力、產出質量和方向感。
他講了兩種典型的研究團隊管理方式:
一種是親自盯每一行代碼,給出技術反饋、架構建議,甚至參與具體實現;
另一種則是以信任為主,研究負責人只把握大方向,讓成員自行推進。
有意思的是,他說這兩種方式都可能成功,重點不在風格,而在團隊目標是否清晰、人員是否匹配、能不能持續交付成果。
“如果你是探索型研究,讓人自由發揮可能更好;但要做確定性強的工程項目,就得盯得緊。”
聽起來像管理技巧,其實是技術機構的護城河。比的不是誰最聰明,而是誰能持續讓不同類型的人在不同階段發揮作用。OpenAI 的早期成長,很大一部分靠的不是單點技術突破,而是讓研究和工程真正融合的能力。
這種能力不只是組織形式,也體現在怎么立項、怎么驗收、失敗了怎么辦。
很多公司內部的研究項目,不是不聰明,而是沒人寫技術文檔,沒人回顧失敗原因,也沒人推動項目做到能被他人接手。
這種機制差距,開始不會立刻顯現,但一旦規模拉大、項目變多,差異就會放大。
真正的機制壁壘:不是某個產品的包裝,而是團隊內部如何判斷、如何協作、如何把一個模糊想法推進成穩定成果的能力。
第三節|Thinking Machines 在賣什么?
講完 OpenAI 的成長路徑,再看 Thinking Machines 的創業選擇,就會發現一條清晰的延續線。
Thinking Machines Lab 由 OpenAI 前 CTO Mira Murati 于 2025 年 2 月創立,John Schulman 擔任首席科學家,核心團隊幾乎都來自 OpenAI。2025 年 7 月,這家成立不到半年的公司完成 20 億美元種子輪融資,估值 120 億美元。
很多人的第一反應是:這家公司自己沒訓練大模型,憑什么估值這么高?
Schulman 這樣回應:
“我們不是在比誰參數更多,而是在重建研發流程,讓更多人能做出真正有用的模型。”
這正是 Tinker 的設計初衷。它不是一個新模型,而是一套開放工具,讓研究者能自己寫微調邏輯,而不用再去搭集群、配環境、搶芯片。
想自己寫 loss 函數?可以。
想控制每個訓練 step 的行為?也可以。
想基于開源模型做定制訓練?只需要寫 Python 腳本,其余交給平臺。
這不是又一個訓練平臺,而是把重點從模型轉向流程:
從模型為中心,變成工作流程為中心。
按 Schulman 的說法:過去很多優秀研究者,想試一個想法,可能要先搭一周服務器,配三種框架,調一堆數據接口,最后還可能因為代碼集成問題放棄。
而 Tinker 試圖做的,是把這些環節壓縮成一個可以被調度、復用、改寫的基礎單元。就像早期 OpenAI 內部那種工程和研究混合的組織方式,只不過這次是以產品形式對外提供。
更重要的是,這套設計不是為幾個大公司準備的,而是為那群下一輪突破的研究者:
可能是小型 AI 團隊,
也可能是企業內的應用開發者,
或是高校實驗室和獨立研究者。
Thinking Machines 做的,不是再造另一個 OpenAI 模型,而是把過去 OpenAI 內部才有的組織協作能力打包成服務,讓更多人可以拿來用、直接用、自己調。
這不是技術突破,而是讓 AI 能力真正下沉的開始。
結語|真正的壁壘
2018 年技術上就能做出 ChatGPT,但沒人做出來。
不是因為算力不夠,是因為沒人知道該怎么做。
知道怎么做,是一種能力。這種能力藏在日常協作里、藏在失敗復盤里、藏在項目推進的每個判斷里。
OpenAI 用了七年建立這套能力。Thinking Machines 試圖用產品的方式,讓更多人不用再花七年。
這才是真正的壁壘。
識自AI
本文由AI深度研究院出品,內容整理自 John Schulman 于 2025年12月18日播客訪談等網上公開素材,屬評論分析性質。內容為觀點提煉與合理引述,未逐字復制原訪談材料。未經授權,不得轉載。
星標公眾號, 點這里 1. 點擊右上角 2. 點擊"設為星標" ← AI深度研究員 ? ← 設為星標
參考資料:
https://www.youtube.com/watch?v=29BYxvvF1iM
https://www.podchemy.com/notes/john-schulman-on-dead-ends-scaling-rl-and-building-research-institutions-1fda9584-e1d8-54d4-8ae6-8a393eaa0529
https://podcasters.spotify.com/pod/show/cursorai/episodes/John-Schulman-on-dead-ends--scaling-RL--and-building-research-institutions-e3cgpdl
來源:官方媒體/網絡新聞
排版:Atlas
編輯:深思
主編: 圖靈
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.