![]()
說句實(shí)在話,AI圈最近幾年太熱鬧了!
模型越堆越大,公司越融越多,但真正能“造出ChatGPT”的人,其實(shí)沒幾個(gè)。
![]()
而John Schulman,就是那個(gè)親手把ChatGPT從實(shí)驗(yàn)室?guī)У侥闶謾C(jī)里的人。
如今他離開OpenAI、又離開Anthropic,轉(zhuǎn)身創(chuàng)辦Thinking Machines Lab,到底在下一盤什么棋?
![]()
![]()
咱們很多人以為,ChatGPT之所以聰明,是因?yàn)樗昧松先f億參數(shù)、燒了幾億美元算力。
但John Schulman直接“潑冷水”:“就算回到2015年,只要有今天的認(rèn)知,我們也能用GPT-2級(jí)別的模型做出類似ChatGPT的效果。”
![]()
這話聽著玄乎,其實(shí)核心就一點(diǎn):預(yù)訓(xùn)練只是打底,后訓(xùn)練才是點(diǎn)睛之筆。
過去行業(yè)迷信“大力出奇跡”,拼命堆數(shù)據(jù)、擴(kuò)模型。
可Schulman團(tuán)隊(duì)早就發(fā)現(xiàn),通過高質(zhì)量的監(jiān)督微調(diào)(SFT)和人類反饋強(qiáng)化學(xué)習(xí)(RLHF),一個(gè)中等規(guī)模模型完全可以表現(xiàn)出遠(yuǎn)超其參數(shù)量的“智能感”。
![]()
比如,用精心構(gòu)造的對(duì)話數(shù)據(jù)微調(diào)GPT-2,它就能像聊天助手一樣回應(yīng)用戶,而不是胡亂生成網(wǎng)頁片段。
認(rèn)知差,比算力差更致命。
現(xiàn)在回頭看,OpenAI早期的成功,不是因?yàn)橛布鄰?qiáng),而是因?yàn)樗麄兟氏日莆樟恕叭绾巫屇P吐犜挕钡墓こ谭椒ㄕ摗?/strong>
![]()
而這一點(diǎn),正是大多數(shù)后來者至今沒摸透的。
![]()
2025年2月,Schulman正式加入由前OpenAI CTO米拉·穆拉蒂創(chuàng)立的Thinking Machines Lab,并出任首席科學(xué)家。
就在2026年初,這家低調(diào)的新創(chuàng)公司發(fā)布了首款產(chǎn)品——Tinker。
![]()
周叔查了官方資料,Tinker不是又一個(gè)大模型,而是一個(gè)專為大語言模型微調(diào)設(shè)計(jì)的高度可配置API平臺(tái)。
它的目標(biāo)很明確:把AI訓(xùn)練從“黑箱煉金術(shù)”變成“透明工程學(xué)”。
目前行業(yè)現(xiàn)狀有多荒誕?開發(fā)者寫一堆腳本,混雜各種數(shù)據(jù),一按運(yùn)行鍵,幾十萬美元就沒了。
![]()
結(jié)果不好?沒人知道是數(shù)據(jù)問題、損失函數(shù)問題,還是調(diào)度策略問題。
整個(gè)過程不可復(fù)現(xiàn)、不可調(diào)試、不可解釋。
而Tinker要做的,就是引入“原語”(primitives)——就像編程里的基礎(chǔ)指令一樣,把訓(xùn)練流程拆解成可組合、可監(jiān)控、可迭代的模塊。
![]()
你可以精確控制每一批數(shù)據(jù)的分布、每一次梯度更新的邏輯,甚至能像調(diào)試代碼一樣回溯訓(xùn)練中的每一個(gè)決策點(diǎn)。
從另一個(gè)角度看,這其實(shí)是AI開發(fā)范式的遷移:從依賴天才研究員的直覺,轉(zhuǎn)向依靠標(biāo)準(zhǔn)化工具鏈的工程效率。
正如Schulman所說:“今天我們?nèi)钡牟皇歉蟮哪P停歉斆鞯挠?xùn)練方式。”
![]()
![]()
除了工具層面的革新,Schulman對(duì)技術(shù)趨勢(shì)的判斷也極具前瞻性。
他在多次訪談中強(qiáng)調(diào):RLHF依賴人類標(biāo)注,這條路快走到頭了。
為什么?因?yàn)槿祟悩?biāo)注又貴又慢,而且認(rèn)知天花板太低。
未來的突破,在于模型能自我評(píng)估、自我改進(jìn)——就像AlphaZero不靠人類棋譜,自己下幾百萬盤棋就能超越所有人類。
![]()
下一代AI必須能在視覺、語言、動(dòng)作等多模態(tài)原生空間里聯(lián)合推理。
比如,看到一段視頻,不僅能描述內(nèi)容,還能理解物理規(guī)律、預(yù)測(cè)物體運(yùn)動(dòng)、甚至規(guī)劃操作步驟。
![]()
而Thinking Machines Lab的Tinker平臺(tái),正是為這類復(fù)雜訓(xùn)練場(chǎng)景設(shè)計(jì)的。
它支持多階段、多目標(biāo)、多模態(tài)的聯(lián)合微調(diào),讓研究者能快速實(shí)驗(yàn)“自進(jìn)化”算法,而不被工程瑣事拖垮。
說白了,未來的競(jìng)爭(zhēng)不在模型大小,而在“訓(xùn)練智能”的深度。
![]()
![]()
John Schulman的轉(zhuǎn)身,不只是一個(gè)人的職業(yè)選擇,更是整個(gè)AI行業(yè)從“野蠻生長(zhǎng)”邁向“精耕細(xì)作”的信號(hào)。
當(dāng)算力紅利見頂,真正的壁壘將回歸到數(shù)據(jù)工程、訓(xùn)練機(jī)制與工具鏈效率。
對(duì)于創(chuàng)業(yè)者而言,與其追逐千億參數(shù)的幻影,不如深耕垂直場(chǎng)景、打磨微調(diào)工藝。
因?yàn)锳I的未來,屬于會(huì)“調(diào)教”模型的人,而不只是會(huì)“堆”模型的人。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.