本文為《麻省理工科技評論》“糾偏熱潮”(Hype Correction)專題系列的一部分,該系列旨在重置人們對 AI 的預(yù)期:AI 是什么、它能帶來什么、以及我們接下來該走向何處。
撰文 | James O'Donnell
![]()
(圖源:MIT TR)
每當(dāng)你聽到一種近乎離奇的說法,描述 AI 將來能做什么,最后往往都會(huì)發(fā)現(xiàn),即便山姆·奧特曼不是第一個(gè)提出這種說法的人,他也通常是背后最有說服力、影響力最大的那位推手。
十多年來,他在硅谷一直以頂級募資高手和演說者著稱。OpenAI 在 2020 年前后的一系列早期發(fā)布,為大語言模型的狂熱鋪好了舞臺;而 2022 年 11 月 ChatGPT 的上線,則把奧特曼推上了全球舞臺,讓他得以拋出一套新的論點(diǎn):這些模型映照著人類智能,并可能為一個(gè)更健康、更富足的技術(shù)烏托邦推開大門。
從始至終,奧特曼的話語都在設(shè)定議程。他把未來的超級智能 AI 描繪成福報(bào)還是災(zāi)難,往往取決于他當(dāng)下想營造怎樣的效果、要為哪些事情募資,或是此刻哪家科技巨頭看起來最像他最棘手的對手。
回顧奧特曼這些年的公開表態(tài),會(huì)發(fā)現(xiàn)他的世界觀在一定程度上推動(dòng)了今天的 AI 繁榮。即便在硅谷一眾鼓吹者之中,他也格外愿意把一些尚無定論的問題當(dāng)作已經(jīng)被解答了來談,比如大語言模型是否具備人類思維的要素,語言是否也能產(chǎn)生智能。
他談?wù)?AI 時(shí)所說的內(nèi)容,往往很難在當(dāng)下被驗(yàn)證,但它會(huì)讓人相信一件事:我們走在 AI 這條路上,終點(diǎn)可能無比美好,也可能極其可怕,而 OpenAI 需要天文數(shù)字的資金,才能把它引向“正確的目的地”。從這個(gè)意義上說,他堪稱完美的“帶貨人”。
為了理解他的聲音如何塑造我們對 AI 能力的認(rèn)知,我們幾乎讀完了他關(guān)于這項(xiàng)技術(shù)說過的所有話(我們曾申請采訪奧特曼,但未能安排)。
用他自己的話,就能看到我們?nèi)绾巫叩浇裉臁?/p>
1
2014 年:傲慢是美德還是惡習(xí)?
2014 年時(shí),奧特曼正領(lǐng)導(dǎo)創(chuàng)業(yè)加速器 Y Combinator,但在硅谷之外幾乎無人知曉。在一篇回應(yīng)《彭博商業(yè)周刊》關(guān)于硅谷傲慢現(xiàn)象的博文中,他同意傲慢確實(shí)可能走向過頭。“問題出在,有人在做某個(gè)東西時(shí),它看起來仍像個(gè)玩具,卻宣稱這將改變世界,”奧特曼寫道,“這只會(huì)把人惹毛。”
2
2015 年:OpenAI 誕生于“布道式”狂熱
OpenAI 成立于 2015 年,公開目標(biāo)是創(chuàng)造通用人工智能(AGI)以造福人類。創(chuàng)始團(tuán)隊(duì)寫道:“具備人類水平的 AI 將給社會(huì)帶來多大益處令人難以想象;同樣地,如果它被錯(cuò)誤地使用,對社會(huì)造成的傷害也同樣難以想象。”奧特曼后來回憶,在早期階段,OpenAI 的創(chuàng)始人們根本不知道自己未來會(huì)做出大語言模型。他們?yōu)榱俗非?AGI,把各種方向都往“墻上扔”,比如嘗試讓機(jī)器人解魔方。
在當(dāng)時(shí),相信 AGI 的可能性仍是一種相當(dāng)邊緣的觀點(diǎn)。
他后來對《連線》說:“2015 年我們在招聘時(shí),一名 AI 研究者如果說自己認(rèn)真對待 AGI,幾乎會(huì)被視為職業(yè)生涯的終結(jié)。但我就想要那些認(rèn)真對待的人。”
他在強(qiáng)調(diào)其威脅時(shí),幾乎和強(qiáng)調(diào)其益處一樣直白。在 2015 年 2 月的一篇博文中,奧特曼寫道,盡管超級智能的實(shí)現(xiàn)還要很多年,但超越人類的機(jī)器智能“很可能是對人類持續(xù)存在的最大威脅”。
同一篇文章里,奧特曼也對這樣一種想法感到驚奇:人類智能或許可以被歸結(jié)為一套需要理清的算法。“我們把當(dāng)前的機(jī)器智能貶為廉價(jià)把戲,”他寫道,“但也許我們自己的智能,不過是一堆廉價(jià)把戲涌現(xiàn)出來的組合。”
3
2019 年:奧特曼給 AI 列了一份很長的“待辦清單”
在 OpenAI 的早期,奧特曼對 AI 的烏托邦愿景十分堅(jiān)定。2019 年 2 月,他說:“我們有潛力消除貧困、解決氣候變化、治愈大量人類疾病,并以驚人的方式教育世界上的每一個(gè)人。”在同一次采訪中,他還表示自己更愿意選擇 AI 放射科醫(yī)生而不是人類放射科醫(yī)生,并稱后者很快就會(huì)過時(shí)(這一點(diǎn)并未成為現(xiàn)實(shí))。
不過,盡管奧特曼相信“能造福人類的 AGI”不僅可能而且很可能實(shí)現(xiàn),他對它會(huì)從哪種技術(shù)路徑中誕生并不預(yù)設(shè)。他也不假設(shè)追求 AGI 會(huì)如何賺錢。2019 年他接任 OpenAI CEO 時(shí)說:“我們完全不知道將來可能如何產(chǎn)生收入。”
4
2020 年1 月:OpenAI 發(fā)表后來聲名大噪的“規(guī)模定律”論文
隨著大語言模型崛起,一切變得不再那么抽象。LLM 在 2017 年真正起步,而在 2020 年 1 月 OpenAI 發(fā)表了一篇后來廣為人知的論文,提出模型越大通常越聰明,這給 LLM 帶來了關(guān)鍵助推。
2 月:奧特曼提前和未來“打起了嘴仗”
一個(gè)月后在一場“爐邊談話”中,奧特曼承認(rèn)這種增長模式終會(huì)放緩,但他預(yù)測不久的將來會(huì)充斥著把 AI 稱作泡沫的人,而這些人終將被證明是錯(cuò)的。“我們會(huì)在指數(shù)級進(jìn)步曲線上上下起伏,會(huì)有下行階段,可能持續(xù)數(shù)月甚至數(shù)年,”他說,“但人們太急著說它現(xiàn)在就要不靈了,過去八年一直如此,而進(jìn)步卻像一部不停上行的電梯一樣,勢不可擋。”
5
2021 年春:奧特曼開始談“財(cái)富再分配”
2021 年春天,在 OpenAI 發(fā)布了多個(gè)早期語言模型之后,奧特曼寫了一篇長博文,談技術(shù)進(jìn)步將帶來的社會(huì)經(jīng)濟(jì)沖擊。“這場技術(shù)革命無法阻擋,”他說,“而當(dāng)這些智能機(jī)器反過來幫助我們造出更智能的機(jī)器時(shí),創(chuàng)新會(huì)進(jìn)入遞歸循環(huán),從而加速革命的速度。”
奧特曼認(rèn)為,AI 帶來的生產(chǎn)率提升會(huì)讓勞動(dòng)力和商品的價(jià)格斷崖式下跌。若要讓這種變化惠及全社會(huì),我們就需要新的、激進(jìn)的財(cái)富再分配方式,比如讓所有美國人都能獲得由政府發(fā)放的、美國最大企業(yè)的股份。
他后來還暗示,促使這類變革發(fā)生的“無限智能”可能在 2030 年前后就會(huì)到來
6 月:隨著 GPT-3 推出,奧特曼開始把 LLM 直接等同于人類智能
在此之前,奧特曼通常不會(huì)直接宣稱“大語言模型將成為引發(fā)這些巨變的技術(shù)”。但 OpenAI 推出 GPT-3 后,這一點(diǎn)發(fā)生了變化。這似乎就是他開始更直接地把大語言模型與人類智能相提并論的時(shí)刻。
他在接受《紐約時(shí)報(bào)》采訪時(shí)說:“一旦你擁有一個(gè)系統(tǒng),能夠吸收對世界的觀察、學(xué)習(xí)理解這些觀察,而其中一種方法就是預(yù)測接下來會(huì)發(fā)生什么,我認(rèn)為這已經(jīng)非常接近智能了。”
奧特曼說,在大語言模型中,我們能看到某種像人腦一樣運(yùn)作的東西。“我的理解與信念是,你就是能量在神經(jīng)網(wǎng)絡(luò)中流動(dòng),”他說,“感知輸入進(jìn)來,在你腦中的神經(jīng)網(wǎng)絡(luò)里循環(huán),然后你的一些肌肉就動(dòng)起來。就是這樣。”只不過,與大腦不同,AI 可以被無限擴(kuò)展、無限運(yùn)行:“當(dāng)你考慮把規(guī)模做大時(shí),它能走到多遠(yuǎn)并不存在上限。”
在當(dāng)時(shí),科技圈之外幾乎沒人知道大語言模型是什么。在業(yè)內(nèi)人士看來,它們的規(guī)模化確實(shí)令人印象深刻,但批評者認(rèn)為,把它們視為人腦的模擬是站不住腳的,因?yàn)樗鼈儫o法推理。它們令人興奮,但也只是 AI 技術(shù)自助餐中的一道菜,任何試圖構(gòu)建 AGI 的專家都可能會(huì)取用其中若干種技術(shù)。
6
2022 年2 月:奧特曼給出路線圖
在 2022 年 2 月的一場研討會(huì)上,奧特曼對大語言模型能否兌現(xiàn)烏托邦承諾給出了一些保留意見,但這些保留并不意味著技術(shù)存在明確上限。他只是說,不能只靠把模型做大,還需要更多東西。后來回看,他所說的內(nèi)容幾乎就像 OpenAI 的路線圖。
他說:“我認(rèn)為,當(dāng)我們創(chuàng)造出能做更多事情的模型時(shí),我們就會(huì)更接近 AGI。這些模型可以處理不同模態(tài)、可以學(xué)習(xí)、可以在很長的時(shí)間跨度上運(yùn)行、可以完成復(fù)雜目標(biāo)、可以挑選它們需要的訓(xùn)練數(shù)據(jù)來做出人類會(huì)做的事情,能讀某個(gè)興趣領(lǐng)域的書,能做實(shí)驗(yàn),或者能打給一個(gè)聰明朋友。我認(rèn)為這會(huì)讓我們更接近某種讓人感覺像 AGI 的東西。”
11 月:ChatGPT 上線,生成式 AI 的“大爆炸”
2022 年 11 月,OpenAI 上線 ChatGPT。它用一個(gè)任何人都能對話的界面,把大語言模型帶進(jìn)大眾視野。
奧特曼把它視為通往他所憧憬的 AI 未來的一步,盡管他也意外于“推開大門”的竟然是大語言模型。他后來寫道:“我們一直在抽象意義上知道,某個(gè)時(shí)刻會(huì)出現(xiàn)一個(gè)拐點(diǎn),AI 革命將由此啟動(dòng)。但我們不知道那會(huì)是哪一個(gè)時(shí)刻。令我們驚訝的是,結(jié)果就是這一刻。”
12 月:回?fù)襞u者
延續(xù)他此前對《紐約時(shí)報(bào)》那種把人類智能簡化描述的方式,奧特曼在這段時(shí)間開始為大語言模型辯護(hù),反擊批評者。ChatGPT 發(fā)布后不久,他發(fā)帖寫道:“i am a stochastic parrot, and so r u”,用以嘲諷語言學(xué)家艾米莉·本德(Emily Bender)等人的批評。他們認(rèn)為,大語言模型只是模仿人類語言,無法從中推理,因此無法發(fā)現(xiàn)訓(xùn)練數(shù)據(jù)之外的任何東西。(2024 年 9 月,當(dāng) OpenAI 試驗(yàn)推理模型來解決這一問題時(shí),奧特曼又一次嘲諷了這一批評,寫道:“stochastic parrots can fly so high...”)
7
2023 年:奧特曼徹底轉(zhuǎn)向“末日敘事”
2023 年的大部分時(shí)間里,奧特曼都在全球巡回討論一個(gè)問題:AI 會(huì)不會(huì)殺死我們所有人?2023 年 1 月,他說:“我認(rèn)為最糟糕的情況是,我們所有人都會(huì)面臨著終結(jié)。”當(dāng)時(shí)他開始與白宮和國會(huì)頻繁交流,討論如何防止 AI 引發(fā)災(zāi)難(但并未提供任何證據(jù)證明 LLM 具備造成這種災(zāi)難的能力)。
奧特曼有時(shí)也會(huì)承認(rèn),人們對這項(xiàng)技術(shù)的期待過高。2023 年 3 月他對《紐約時(shí)報(bào)》說:“對這些系統(tǒng)的熱炒,即便從長期看我們希望的一切最終都對,但短期內(nèi)已經(jīng)完全失控。”但即便這樣的讓步,也只是在談某個(gè)模型或某種實(shí)現(xiàn)的具體問題,從未承認(rèn)大語言模型本身可能存在根本性限制。
8
2024 年:商界全面“上頭”
2024 年,大語言模型的內(nèi)在限制并沒有顯著刺破 AI 的熱潮。商界希望“萬物皆 AI”,英偉達(dá)股價(jià)翻了三倍,OpenAI 的營收也隨之上升。奧特曼預(yù)測,到 2025 年底,AI 智能體可能會(huì)“加入勞動(dòng)力大軍”,并改變企業(yè)的產(chǎn)出。
9
2025 年1 月:奧特曼宣稱大語言模型將帶來 AGI
在奧特曼看來,持續(xù)進(jìn)步的大語言模型讓追求 AGI 變得更具體、更可觸。“我們現(xiàn)在有信心,知道如何構(gòu)建我們傳統(tǒng)意義上理解的 AGI。”他寫道。
盡管如此,烏托邦式承諾仍然差那么一點(diǎn)才夠得著。他說:“我們喜歡我們目前的產(chǎn)品,但我們來這里是為了那個(gè)輝煌的未來。超級智能工具可以極大加速科學(xué)發(fā)現(xiàn)與創(chuàng)新,超越我們憑自身能力所能做到的程度,并進(jìn)而大幅提升富足與繁榮。”
9 月,OpenAI 達(dá)成大量交易
如今,奧特曼把能源與芯片的供給視為 AI 驅(qū)動(dòng)的烏托邦未來的主要限制因素。
9 月,他表示按 AI 目前的發(fā)展軌跡,它很快可能既能治愈癌癥,也能為地球上每個(gè)學(xué)生提供定制化輔導(dǎo)。他寫道:“如果我們受限于算力,就必須在兩者之間選擇優(yōu)先級。沒人想做這種選擇,所以我們?nèi)ソò伞!彪S后 OpenAI 宣布與多家云計(jì)算公司達(dá)成多項(xiàng)合作,并啟動(dòng) Stargate 計(jì)劃,這是一項(xiàng)規(guī)模 5000 億美元的合資項(xiàng)目,旨在在美國各地建設(shè)新的 AI 數(shù)據(jù)中心。
近期:AI 樂觀情緒
2025 年末,圍繞 AI 的整體情緒開始變化,對泡沫的擔(dān)憂也在上升。奧特曼則開始暗示,烏托邦式的未來或許并沒有那么遙遠(yuǎn)。11 月,OpenAI 發(fā)布了一些案例,展示頂尖大學(xué)的項(xiàng)目如何把 GPT-5 當(dāng)作某種研究助理,用來提出想法并回顧已有發(fā)現(xiàn)。奧特曼稱其為“我們預(yù)計(jì)很快會(huì)看到更多類似事物的首次預(yù)覽”。
這篇材料發(fā)表的前一個(gè)月,其中一位主要作者不得不收回一種說法,即 OpenAI 的模型攻克了被稱為“厄爾多什問題”(Erdos problems)的一些此前未解的數(shù)學(xué)難題。事實(shí)上,模型只是從網(wǎng)絡(luò)上一些不太為人所知的角落找到了已發(fā)表的解法,而這些解法并非人類普遍知曉。
12 月,奧特曼又回到 AI 在醫(yī)療與教育上的承諾,稱人們正在把 ChatGPT 當(dāng)作家教使用,也在用它幫助診斷自己的疾病。
(他或許指的是一些口口相傳的成功案例,卻忽略了這樣的事件:有人聽從 AI 的醫(yī)療建議,因溴化物中毒險(xiǎn)些喪命。)
總體而言,奧特曼并沒有欺騙世界。OpenAI 確實(shí)開啟了一場真實(shí)的技術(shù)革命,日益強(qiáng)大的語言模型吸引了數(shù)以百萬計(jì)的用戶。即便是懷疑者也會(huì)承認(rèn),LLM 的對話能力令人驚嘆。
但奧特曼的熱潮敘事,始終更依賴一種哲學(xué)層面的“明天”的到來,而不是關(guān)注在“今天”現(xiàn)有的能力本身。這種展望也非常順手地構(gòu)成了爭取更多資本、爭取更友好監(jiān)管的理由。早在大語言模型出現(xiàn)之前,他就設(shè)想過一種強(qiáng)大到需要財(cái)富再分配的 AI,就像他也曾設(shè)想人類在其他星球殖民一樣。一次又一次,關(guān)于終點(diǎn)的承諾,關(guān)于富足、超級智能、更健康更富有的世界,總是先出現(xiàn),證據(jù)后出現(xiàn)。
即便 LLM 最終真的撞上天花板,也很難相信他對技術(shù)烏托邦未來的信念會(huì)因此動(dòng)搖。畢竟,這種愿景從來就不真正取決于當(dāng)下某個(gè)模型的具體細(xì)節(jié)。
https://www.technologyreview.com/2025/12/15/1129169/a-brief-history-of-sam-altmans-hype/
本文經(jīng)授權(quán)轉(zhuǎn)載自微信公眾號“麻省理工科技評論APP”。
![]()
特 別 提 示
1. 進(jìn)入『返樸』微信公眾號底部菜單“精品專欄“,可查閱不同主題系列科普文章。
2. 『返樸』提供按月檢索文章功能。關(guān)注公眾號,回復(fù)四位數(shù)組成的年份+月份,如“1903”,可獲取2019年3月的文章索引,以此類推。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.