![]()
新智元報(bào)道
編輯:傾傾
【新智元導(dǎo)讀】OpenAI大神Noam Brown剛發(fā)了一份碳基生物的《死亡通知書》,直接把硅谷和推特看炸了。2026年,當(dāng)AI不再是你的工具,而是你的老板時(shí),你準(zhǔn)備好失業(yè)了嗎?
1997年,《紐約時(shí)報(bào)》曾引用普林斯頓天體物理學(xué)家Piet Hut的神預(yù)言:
電腦要想戰(zhàn)勝人類圍棋手,可能需要100年,甚至更久。
結(jié)果呢?僅僅過了19年,AlphaGo就把李世石按在地上摩擦。
這種盲目自信的循環(huán),直到今天還在繼續(xù)。
就在幾小時(shí)前,OpenAI的研究員Noam Brown甩出了一張時(shí)間表。
![]()
看完這張圖,硅谷的精英們沉默了,推特的評論區(qū)炸鍋了。
這不是技術(shù)進(jìn)化史,這是碳基生物的《死亡通知書》。
人類最擅長的游戲:無賴式「移動(dòng)球門」
直說吧,人類最擅長的從來不是圍棋或數(shù)學(xué),而是「耍賴」。
就像這樣——
每當(dāng)AI攻克一個(gè)領(lǐng)域,我們立馬改口:「切,那只是暴力計(jì)算,不是真正的思維」。
這招精神勝利法,用了40年,現(xiàn)在終于不好使了。
1987年:笑AI不懂「規(guī)劃」
當(dāng)時(shí)的輿論普遍認(rèn)為,國際象棋不僅是計(jì)算,更需要深遠(yuǎn)的戰(zhàn)略規(guī)劃。
人類相信,機(jī)器只能看幾步,而人類能看到「局」。
直到1997年深藍(lán)擊敗卡斯帕羅夫,我們被迫改口:大家被迫改口:「好吧,象棋只是算術(shù),圍棋才是藝術(shù)。」
![]()
1997年:吹A(chǔ)I沒有「直覺」
這是人類堅(jiān)守最久的陣地。
圍棋的落子講究「棋感」,那是玄學(xué),是藝術(shù),是不可言說的美學(xué),是人類靈魂的護(hù)城河。
結(jié)果大家都知道了。AlphaGo不僅贏了,還下出了人類幾千年來從未想過的招法。
不管是「玄學(xué)」還是「棋感」,在AI眼里不過是高維度的概率分布。
你引以為傲的直覺,只是算力不夠時(shí)的腦補(bǔ)。
2016年:賭AI學(xué)不會(huì)「詐唬」
這曾是心理學(xué)家的最后防線。
德州撲克這種不完全信息博弈,不僅要算牌,還得會(huì)騙人、會(huì)偷雞。機(jī)器懂個(gè)屁的人心?
Noam Brown親手埋葬了這個(gè)幻想。
他搞出的Pluribus在六人桌德州撲克里,把頂尖人類牌手騙得底褲都不剩。
![]()
那一刻大家才驚恐地發(fā)現(xiàn):連「騙人」這種獨(dú)屬于人類的狡黠,AI都比我們更專業(yè)。
2023年的裂痕:當(dāng)「邏輯」不再神圣
如果說下棋打牌是「雕蟲小技」,那創(chuàng)造力和邏輯推理總該是人類的自留地了吧?這里可是數(shù)學(xué)家和藝術(shù)家的圣殿
但Noam Brown的時(shí)間表,冷酷地記錄了這兩座大廈的崩塌:
2019年:AI無法創(chuàng)造藝術(shù)? Midjourney和Sora出來后,插畫師和導(dǎo)演已經(jīng)在天臺上排隊(duì)了。
2023年:AI做不了奧數(shù)? 就在數(shù)學(xué)界還在爭論LLM是不是「只會(huì)背書的鸚鵡」時(shí),2024年DeepMind的AlphaProof在IMO拿到了銀牌。
這可不是簡單的死記硬背,IMO題目需要極富創(chuàng)造性的輔助線構(gòu)造和嚴(yán)密的邏輯推導(dǎo)。
曾經(jīng)我們認(rèn)為,機(jī)器只能做加減乘除,不能做數(shù)學(xué)證明。
現(xiàn)在的現(xiàn)實(shí)是:機(jī)器不僅能做證明,還能在最變態(tài)的奧數(shù)賽場上,和全球最聰明的人類大腦硬剛。
Judgment是人類獨(dú)有的?做夢!
Noam Brown把這個(gè)節(jié)點(diǎn)定在2026年,絕不是危言聳聽。
在此之前,AI更像是你的「超級實(shí)習(xí)生」。它幫你寫代碼、畫圖、做表,但最后還得你來拍板。
什么是「Judgment」?它是CEO決定裁員還是擴(kuò)張的魄力;是VC在一堆爛項(xiàng)目里押注下一個(gè)字節(jié)跳動(dòng)的眼光。
我們一直以為這是只有人類才能掌握的「灰度藝術(shù)」。
![]()
現(xiàn)在,隨著OpenAI Operator等Agentic AI的爆發(fā),AI正在從「Chatbot」進(jìn)化為「Boss」。
知名AI研究者Nikolai Yakovenko一針見血:
只要判斷力和品味可以被量化,AI就會(huì)瞬間秒殺人類。或者更殘忍點(diǎn)——它會(huì)重新定義什么是「好品味」。
![]()
所謂的商業(yè)直覺或?qū)徝溃贏I眼里只是一堆尚未被標(biāo)記的數(shù)據(jù)。
只要你能給出反饋信號,AI就能通過強(qiáng)化學(xué)習(xí),找到那個(gè)你根本想都想不到的最優(yōu)解。
最后的避難所:這種「勝利」有點(diǎn)凄涼
面對這張咄咄逼人的時(shí)間表,評論區(qū)有個(gè)高贊反駁,成了人類最后的倔強(qiáng):
AI唯一永遠(yuǎn)無法做到的事情,就是替你愛你的孩子。
![]()
這句話聽起來很溫暖,但細(xì)想之下,卻透著一股徹骨的寒意。
當(dāng)我們面對智力挑戰(zhàn),不敢談邏輯、不敢談創(chuàng)造、不敢談決策,只能哆哆嗦嗦地躲進(jìn)「愛」這個(gè)生物學(xué)避難所時(shí),說明我們在智力維度上已經(jīng)全面投降了。
這不叫防守,這叫物種降維。
這就好比馬車夫?qū)ζ囁緳C(jī)喊:「你永遠(yuǎn)無法體會(huì)揮舞鞭子的快感!」
司機(jī)點(diǎn)點(diǎn)頭,一腳油門絕塵而去,連尾燈都看不見。
![]()
回顧這40年,我們犯的最大錯(cuò)誤,就是把我們目前還不理解的計(jì)算,傲慢地命名為「靈魂」。
1987年,我們把搜索樹叫「規(guī)劃」;
1997年,我們把模式識別叫「直覺」;
2026年,我們將把多目標(biāo)權(quán)衡叫「決策」。
Noam Brown這份清單,就是一份無情的「人類祛魅指南」。它一層層剝掉人類的特殊性,直到今天,剝到了內(nèi)核——決策權(quán)。
2026年,把決策交給AI,就像當(dāng)年把開方計(jì)算交給計(jì)算器一樣自然。
我們終將習(xí)慣這一點(diǎn),就像習(xí)慣沒有尾巴一樣。
唯一的問題是:當(dāng)手腳被替代,連大腦的判斷都被托管后,你打算用什么證明自己還在握著命運(yùn)的方向盤?
或者說,在這個(gè)被算法接管的世界里,你,還重要嗎?
參考資料:
https://x.com/polynoamial/status/2015874457307644058
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.