這篇文章原本只是我用來闡述自己在 2026 年對大模型的看法、以及長期規劃的一段附錄。但它本身,其實是一篇 Wolfram 對 AI、以及未來科學范式的重磅闡述。值得反復、深度研讀。文章發表于 2024 年 3 月,可它真正“在信息密度上擊中我”的時刻,卻發生在 2025 年底。他在那個時候早就給我們指出了AI的實質。
這種時間差,正是我和頂尖科學家之間的距離:同一段文字,寫出來的時候已經在指向未來;而我需要經歷一段現實世界的摩擦、項目的失敗與重建、對“系統如何在時間中承擔責任”的反復撞墻,才終于讀懂它到底在說什么。
更重要的是:理解這篇文章并不需要博士學位,也不需要某種“高深門檻”。在某種意義上,AI 的確推動了知識的平權,不僅僅是“更容易獲取知識”,更是讓我們有能力去洗刷、篩出真正有價值的知識。它把很多過去只能靠身份、圈層、期刊來錨定的所謂“學術權威”,重新拉回到一個更樸素也更嚴苛的標準:能否解釋世界,能否落地驗證,能否復現。
在論文數量爆炸的時代,許多學界論文除了花錢發表、互相引用、幫助作者獲取職稱之外,并不產生任何真實的增量價值;更糟的是,可復現性本身都越來越可疑。相較之下,Wolfram 的前瞻性反而遠遠沒有被大眾真正認識到。我甚至認為,他已經是下一代科學范式的奠基者之一,只是這個事實還沒有被“主流敘事”及時吸收。
當然,要真正讀懂這篇文章,你需要先對一個概念有基本直覺:計算的不可約性。我很多年前第一次讀 Wolfram 的《A New Kind of Science》時,幾乎完全不知道他在講什么。后來,靠 6 到 10 年的人生與項目體驗,才慢慢的領會他這個“不可約”。
也正因此,他在我心目中成為了極其靠前的重磅人物。而且,他仍然在世、仍在積極研究、仍在持續輸出。這意味著:他現在說的每一句話,都不是“過去完成時”的學術結論,而是仍在推進中的范式構建。他說的每句話,我都很在意。有很多引用不是這篇文章,而是集合他的演講和其他文獻,這里不贅述了。
AI 不可能“do everything / solve science”
- 社會上有人相信 AI 最終能“做一切”
- 他把“科學”作為終極壓力測試:能不能把幾百年累積的科學未解問題一口氣解決?
- 他的答案是“inevitably and firmly no”
注意:他不是在否認 AI 的實用價值,而是在否認一種“終局式全能”敘事。
“there’s a somewhat widespread belief that eventually AI will be able to ‘do everything’” (Writings by Stephen Wolfram)
包括很多一開始懷疑的,一開始狂熱的。AI can’t do everything, 也是我現在非常想強調的事情。他給我們一種定位型的指引。這個要跟他對齊,當你能做的事情范圍縮小的時候,其實你能做的事情反而“多了”。因為你的精度提高了,你的定位清晰了,至少對我來說是這樣。
“So what about science?” (Writings by Stephen Wolfram)
然后他給出“科學為何是終極壓力測試”的理由:科學是人類文明最大智識工程,但仍然沒做完——所以最能檢驗“do everything”的含義。
“the single largest intellectual edifice of our civilization” (Writings by Stephen Wolfram)
“there are still all sorts of scientific questions that remain.” (Writings by Stephen Wolfram)
不是說“AI 能不能幫科學”,而是問——能不能把剩下的全部收尾。
“So can AI now come in and just solve all of them?” (Writings by Stephen Wolfram)
“the answer is inevitably and firmly no.” (Writings by Stephen Wolfram)
不行!
“But that certainly doesn’t mean AI can’t importantly help…” (Writings by Stephen Wolfram)
這個就很重要了,他這個but! AI特別擅長什么,就是我們該去研究的事情。有價值的事情。
他給 AI 的“現實定位”:語言接口 + 傳統智慧的高層自動補全
- LLM 是一種新的 linguistic interface(語言接口),能把人類意圖接到既有計算能力上(他自己的例子是 Wolfram Language)。
- LLM 還能根據“conventional scientific wisdom(慣常科學智慧)”做 high-level autocomplete:給“慣常答案 / 慣常下一步”。
這一段很關鍵:
他承認 LLM 很強,但強在——把既有范式用得更順,而不是生成“新范式的真發現”。
1) LLM 是新的 “linguistic interface(語言接口)”
“At a very practical level, for example, LLMs provide a new kind of linguistic interface to the computational capabilities that we’ve spent so long building in the Wolfram Language.” (Writings by Stephen Wolfram)
2) LLM 作為“高層自動補全”:基于“conventional scientific wisdom”
“And through their knowledge of ‘conventional scientific wisdom’ LLMs can often provide what amounts to very high-level ‘autocomplete’…” (Writings by Stephen Wolfram)
“…for filling in ‘conventional answers’ or ‘conventional next steps’ in scientific work.” (Writings by Stephen Wolfram)
好,我想把 linguistic interface 這個詞單拎出來說,因為它太重要了。
我們現在對它的想象還非常狹窄:基本等同于“一個大模型對話窗口”,再加上一些普通的編程應用。說白了,吾輩乃凡人,我們大多數人目前也就停留在這一層:開個窗口,丟個 prompt,得到一段看起來挺像樣的輸出,然后覺得世界被改寫了。
但問題是:光是“接口”本身,就有巨大的系統性開發空間。
并不是你現在只想到窗口,這個世界就只剩窗口。窗口只是最原始、最粗糙的一種接口形態。
所謂 “AI vibe coding” 的爽感,本質上也只是接口升級帶來的短期快感:你以前要燒腦半天的工作,現在一個 prompt 立刻給你一份“能跑起來”的東西,于是你很爽…但就到此為止了嗎?如果把這當成終點,那我們其實只是把一個新的“文本老虎機”換進了工作流。
真正關鍵的不是“它能給你答案”,而是:這個接口能不能承載現實世界的責任。
我在很多文章里反復強調過幾個詞:
可復現、可審計、可遷移。
這是任何進入“現實決策”的系統必須具備的制度屬性。(你去看看任何組織流程,法律流程,裁判流程,審計流程,這里不贅述)
因為你放眼看去:
人類的日常生活、組織協作、公司治理、甚至國家治理——大量關鍵決策,歸根到底都是一種 linguistic interface:我們用語言提出議題、描述風險、交換承諾、寫下制度、做出裁決,然后把這些語言變成行動與后果。
那問題來了:這些決策能靠大模型嗎?你敢信嗎?
單個模型的決策天然具有強烈的環境依賴:同一句話、同一個問題,換個上下文就變;而 prompt 里寫的約束,本質上是軟約束,不是機器可執行的 if-else。更危險的是:模型為了“完成語言”,為了給你一個看起來像答案的答案,它是會主動忽略約束的。因為它的目標函數不是“遵守制度”,而是“產出連貫文本”。Predict the next token!
它不會說:Error (跟一個編號)。
它必須給你結果。它的默認行為是把不確定性偽裝成確定性,把不可判定偽裝成可裁決。
這個問題解決了嗎?
沒有嘛。
我們有沒有一種接口架構,能讓語言進入系統時:
- 約束是硬的,可編譯、可驗證的
- 出錯是允許的,能明確 throw error / require override
- 決策是可回放、可追責的,而不是一次性的文本會話
- 輸出進入現實之前必須經過制度化的審計與門控
如果沒有,那我們現在享受的“vibe coding”爽感,本質上還只是低風險場景的煙花。離真正能承載人類社會的決策系統,還差一整條制度化的工程鴻溝。難道這個不值得開發者投資資源,精力去研究嗎?難道這不是一條推演出來的職業康莊大道嗎?(笑)對于我們這種非科研,偏應用向的開發者來說。
他把科學史抽象成兩次表征革命:數學表征 → 計算表征
他接下來提出一個更深的判斷框架:
- 300 年前:科學的躍遷來自“用數學表示世界”
- 現在:我們正在經歷“用計算表示世界”的躍遷(他認為這是更根本的范式)
這一步其實是在“抬高標準”:
如果你問他 AI 是否“改變科學”,你得先說明:AI 到底是在工具層幫忙,還是在表征層帶來新的科學范式。
“Three centuries ago science was transformed by the idea of representing the world using mathematics.” (Writings)
“And in our times we’re in the middle of a major transformation to a fundamentally computational representation of the world (and, yes, that’s what our Wolfram Language computational language is all about).”
工具層 vs 范式層”的問法
“So how does AI stack up?” (Writings)
“Should we think of it essentially as a practical tool for accessing existing methods, or does it provide something fundamentally new for science?” (Writings)
什么意思啊,理解這個對于初次接觸他理念的人來說有些陌生。“computational irreducibility(計算不可約性)”確實它不是一個“技術術語”,而是一個世界觀開關:它在說,很多系統不是“更聰明就能跳步”,而是必須把計算做完(實在看不明白的,一定要去研究元胞機的機制);你能做的,往往只是找到一些“可約口袋”,在局部壓縮、在局部預測。記住可約口袋這個詞。
Demis Hassabis 在談自然界可建模性時,我認為他的意思是差不多的。他對Lex Fridman 的那次訪談,我其實在X上寫了很多文章,但是現在不大好找了。后來我就把我想寫的長篇文章都放在Substack. 他說的,當時他類比的蛋白質折疊,就是類似這種口袋。意思是一個非常廣闊的天地,總有一些人踩出來的小路,找到這條小路,你就爽歪歪。沒找到,你就brute force. 他背后就是“口袋可約 / 否則暴力”的結構:
“if there’s not [patterns]… you have to do brute force.” (Lex Fridman)
以及他解釋為什么很多自然問題“看起來組合爆炸,但仍可被模型化”的關鍵點:
“there’s some structure… some gradient you can follow.” (Lex Fridman)
把這兩句和 Wolfram 放在一起讀,
- Wolfram 說:整體不可約會阻止你“系統性跳步”,但總有“pockets of reducibility(可約口袋)”。
- Demis 說:如果空間里有結構(梯度/景觀),你就能有效搜索;如果沒有結構,那就只能 brute force。(Lex Fridman)
所以“他和 Demis 很相似——不可約性”,
世界并不保證處處有捷徑。所謂智能,很多時候只是更快地找到哪些地方有結構、哪些地方沒結構。
而“不可約性”如“浩瀚煙海”,就在于它會把你從“能力崇拜”直接拉回到計算與制度:
- 什么時候必須模擬、必須枚舉、必須做完計算;
- 什么時候可以壓縮、可以抽象、可以形成敘事;
- 以及最關鍵的:當你把 AI 接進現實決策時,哪些部分不能讓它“猜過去”,必須落到可復現、可審計、可報錯的硬結構里。
說真的,我自己也在學習過程中,只能跟大佬們學習一些哲學的根基和思想。具體能實現人家的百分之一,也是賺到了。
最核心的硬論證:計算不可約性 = AI 無法越過的“物理級上限”
這篇文章的發動機就是“computational irreducibility(計算不可約性)”。
- 把自然系統當作計算過程:系統自己在“算”它的演化
- 我們(或 AI)要預測它,也必須做計算
- Principle of Computational Equivalence:這些計算的“計算強度”在原則上相當
- 所以你不能指望 AI 系統性地“jump ahead”跳過演化步驟
- 因而“完全 solve science”不可能
你想要的那種“終局捷徑”,在許多系統上根本不存在。不是你訓練不夠,是世界不給你捷徑。
這個就更難理解了。我們拆開說一下:
1、把自然系統當作計算過程:系統自己在“算”它的演化
Wolfram 先把“世界=計算過程”作為底層前提拋出來:
“we can think of everything that happens as a computational process.” (Writings)
“The system is doing a computation to determine its behavior.” (Writings)
這里他不是說“我們用計算去模擬世界”,而是說:世界本身就在計算。
2、我們(或 AI)要預測它,也必須做計算
緊接著他把預測者(人或 AI)放回同一個“計算”框架里:
“We humans—or, for that matter, any AIs we create—also have to do computations” (Writings)
“to try to predict or ‘solve’ that behavior.” (Writings)
意思是:你想“知道它會怎樣”,你也得付出計算步驟,不是靠“更像人類的直覺文本”就能免單。
3、Principle of Computational Equivalence:這些計算在原則上相當
他用 PCE(計算等價原理)把“為什么沒法系統性跳步”釘死:
“the Principle of Computational Equivalence says that these computations are all at most equivalent in their sophistication.” (Writings)
這句是整段的“物理級硬釘子”:系統在算,你也在算,但計算強度上限是同階,所以不存在一個普遍可用的“上帝視角捷徑”。
4、所以不能指望 AI 系統性地 “jump ahead” 跳過步驟
他幾乎是用你那句 “jump ahead” 的原詞來寫的:
“we can’t expect to systematically ‘jump ahead’ and predict or ‘solve’ the system” (Writings)
“it inevitably takes a certain irreducible amount of computational work” (Writings)
關鍵詞是 systematically:
不是說“某些局部場景偶爾能跳一下”,而是說不存在一套普適方法能長期穩定地跳過演化本身。這個跳一下,就是他說的可約口袋。
5、因而“完全 solve science”不可能:上限來自不可約性
他把結論落到“科學能力的上限”:
“we’ll ultimately be limited in our ‘scientific power’ by the computational irreducibility of the behavior.” (Writings)
并且把“終局捷徑不存在”的直白句子補上(這句對你很重要):
“there just won’t be any way—with AI or otherwise—to shortcut just simulating the system step by step.” (Writings)
這個嘛,就開始變得很玄、很微妙了。我的理解是:世界在算(當然我也很難解釋“世界在算”到底是什么意思)。我打個比方啊,你的 DNA 是不是在“算”你身體里的蛋白質結構?這其實更像一個比喻:世界本身在按它自己的規則推進狀態,就像一個過程在自己跑。與此同時,你也在算對不對?你用你的腦子、你的紙筆、你的電腦、你的模型,試圖提前知道它會怎么變。
關鍵在于:你倆這兩種“算”,在本質上是同級的。你不是站在世界之外拿著遙控器的人,你也是世界內部的一個計算裝置。你想用一個計算去壓過另一個計算、系統性地“跳步”,大多數時候是不可能的。你的計算不會比世界更高明(只可能更低級,呵呵),因為你能做的終究還是在同一個物理宇宙里跑規則。你能贏的情況,往往只是你恰好找到了一個“捷徑口袋”!不是你變成了上帝,而是這個系統在某個尺度上允許被壓縮、允許被簡化、允許被提前說出一點東西。(這一點很重要,我們作為人類不可自大)。
而且凡是計算,必耗能。這個蘭道爾原則,一切的一切,就不多說了。這句話我越來越把它當作一種現實世界的底層稅收。你想知道更多細節,就要付出更多步數;你想更精確、更可復現、更可追責,就要付出更多結構化成本。你可以用語言糊弄一時,但一旦要落到執行,就必須交賬:時間賬、算力賬、能量賬、甚至人類注意力賬。所謂“不可約”,就是說:在很多地方,這份賬你躲不掉。
所以當我們把目光從“AI 能不能做一切”移到“AI 能不能幫我們做決策”時,問題就突然變得尖銳:如果世界的演化本來就需要一步步算出來,那一個模型憑什么在不付出同等成本的情況下,給你一個看起來像結論、像裁決的答案?更要命的是,模型為了把語言續寫下去,它傾向于把不確定性也包裝成“可說的結果”,而不是像真正的系統那樣:該報錯就報錯,該停機就停機,該要求更多信息就要求更多信息。(我剛才說的這個報錯很重要,我在另一篇有仔細闡述,這是我最近系統的重要心得。不能報錯的系統很危險! )
于是我才認為真正需要被工程化的,不是“讓 AI 更會回答”,而是讓語言接口具備能量守恒般的制度約束。讓它在該昂貴的時候昂貴,在該停下來的時候停下來;讓它能承認“這里沒有捷徑”,而不是給你一個廉價的幻覺。否則,我們就會把本來必須付出的計算成本,偷偷轉嫁成另一種更隱蔽的成本:誤判、誤信、錯把擬合當結論、錯把順滑當可靠。
這也是為什么我一直強調那幾個詞:可復現、可審計、可遷移。它們不是“工程潔癖”,而是在不可約的世界里,唯一能讓語言進入現實決策而不崩盤的硬條件。因為你無法戰勝世界的計算,你唯一能做的,是承認哪里必須算、哪里可以壓縮,然后把這一切寫成結構,讓系統在時間里對自己的每一次判斷負責。
這個真是我解釋的極限了,再多的我也解釋不了了。
所以關鍵是什么,Wolfram的最大價值,對我的極大啟發,就是在這里,告訴你我們的目標是找無數個“可約口袋”。
關鍵細節:不可約性并不等于“什么都不能做”
這里很多人會誤讀。
Wolfram 的說法是:
- 整體不可約
- 但必然存在無窮多 “pockets of reducibility(可約口袋)”
- 科學之所以可能,是因為我們通常就在這些口袋里工作:規律、模型、壓縮、理解,都來自口袋
所以他的結論其實是二段式:
1、AI 不可能讓我們系統性跳過不可約性
2、AI 可能幫助我們更快地找到可約口袋
這也解釋了他為什么一邊說“終局不可能”,一邊又愿意談很多“AI 在科學里能干嘛”。
不是要躺平!
1、他先拋出關鍵問題:既然不可約,科學為什么仍可能?
他緊接著問:
“But given computational irreducibility, why is science actually possible at all?” (Writings)
這句是在把讀者從“絕望/虛無”里拽出來:你都說不能跳步了,那科學豈不是不成立?所以我跟你說了,大部分人都在誤解他,他不是在唱衰。
核心答案:整體不可約,但必然存在無窮多“可約口袋”
“口袋理論”:
“whenever there’s overall computational irreducibility, there are also an infinite number of pockets of computational reducibility.” (Writings)
“口袋是什么”:
“there are always certain aspects of a system about which things can be said using limited computational effort.” (Writings)
以及“科學為何靠口袋”:
“these are what we typically concentrate on in ‘doing science’.” (Writings)
所以我們要怎么做?
AI 不能系統性越過不可約(終局不可能)
口袋之外仍有不可約帶來的問題與驚訝:
“there are limits to this—and issues that run into computational irreducibility.” (Writings)
“we just can’t answer” / “surprises” (Writings)
他再次重申“不能 shortcut 全部演化”:
“there just won’t be any way—with AI or otherwise—to shortcut… step by step.” (Writings)
AI 不可能讓我們系統性跳過不可約性,我們人類之渺小是沒有改變的,靠AI無法挑戰上帝。
AI 可能幫助更快找到“可約口袋”
還是口袋理論
“AI has the potential to give us streamlined ways to find certain kinds of pockets of computational reducibility.” (Writings)
這里的關鍵詞是 streamlined ways:不是“證明一切/解決一切”,而是“更順滑地找到某類口袋”。
為什么他能一邊否定“終局”,一邊談很多“AI 能干嘛”
因為在他這套框架里:
- 不可約性負責解釋:為什么“solve science / do everything”不可能(上限)
- 可約口袋負責解釋:為什么科學仍然能做、工具仍然有用(空間)
- AI則被放在一個非常具體的位置:在口袋的發現與利用上加速,而不是在不可約處創造捷徑 (Writings)
給我們的啟示就是牢記AI能干嘛,并且盡量在自己的領域里找到自己的niche,一種能夠借助AI發現的某種“可約口袋”。
神經網絡擅長“粗略對”,不擅長“細節全對”
這篇文章后面的內容演示了一系列的實驗:
- 預測函數:訓練能擬合過去,但未來細節崩
- 預測元胞自動機:簡單部分對,復雜部分細節錯;越錯越發散
- 預測三體:簡單軌道能記住,復雜軌道就不行
- autoencoder 壓縮:能壓縮“像訓練集”的東西;遇到不可約性就壓不動
他總結為
ML 往往“roughly right”,但“nailing the details”不是它強項。
這就是他對“LLM/NN 在科學里會撞墻”的經驗層支撐。
他對 AlphaFold 這種“成功案例”的哲學解釋:成功的很大一部分來自“人類判據”
- 蛋白折疊本身不是人類任務
- 但“我們關心什么算對”(形狀、功能、二級結構等)是人類判據
- 因而神經網絡能成功,可能部分是因為它抓住了與人類感知/分類標準對齊的可約口袋
- 但遇到更復雜或“異域”的蛋白,仍可能出現“surprises”與失效
這段背后的哲學味道是:
AI 的成功往往是“在人類定義的可用標準里成功”,而不是“在全客觀的微觀真實里成功”。
這個地方確實又開始“玄”回來了,但它和我們上文提到的 Demis Hassabis / AlphaFold 的關系,反而是非常具體、非常落地的。
Demis 是當世神童,AlphaFold 也確實開啟了一個時代。他和 Wolfram 都是我長期關注的科學家,但在這里我想先澄清一點:Wolfram 并不是在否認 AlphaFold 的成就。相反,他是在用 AlphaFold 這樣的成功案例,去解釋一個更底層的結構性觀點:AI 的重大突破,往往不是“解決了世界的全部微觀真實”,而是“精準命中了一個可約口袋”。
他倆的語言太不一樣了,他們兩個很難被認為是同一個語言體系吧。但是我認為他們在這方面是同構的。
也就是說,Wolfram 想強調的不是“AI 不行”,而是“AI 行的時候,它到底行在什么地方”。
在他的表述里,蛋白折疊這個物理過程本身并不“以人類為中心”;但我們評價 AlphaFold 的“成功”,也從來不是要求它預測每一個原子在每一個時刻的精確位置。我們要的是一種人類可用、可驗證、可服務于生物學目標的結果:總體結構是否對、關鍵特征是否對、功能相關的形狀是否對。換句話說,我們定義的“什么算對”,本身就落在一個可壓縮、可概括、可泛化的結構區域里。
于是 AlphaFold 的偉大之處就顯現出來了:它不是用“更聰明的語言”去解釋世界,而是用極強的學習能力,在巨大的數據與結構約束之下,找到了那一類“反復出現的、穩定的、可復用的規律”。這就是 Wolfram 所說的那種 pocket of computational reducibility(可約口袋):在整體可能不可約、不能系統跳步的世界里,仍然存在一些可以被壓縮、被建模、被可靠利用的局部區域。AlphaFold 的勝利,就是把這一塊區域抓得異常精準、并且工程化到了可規模化使用的程度。
所以當 Wolfram 提到 “eye of the beholder(觀察者的判據)” 時,他并不是在貶低 AlphaFold 的科學性;科學與工程真正落地時,總是圍繞人類關心的指標、尺度、判據來定義成功。而“可約口袋”恰恰常常就是在這些判據與尺度上出現的。它讓復雜世界在某個層級變得可壓縮、可預測、可操作。
我認為Wolfram是認同AlphaFold模式的:
AlphaFold 并不是“打穿了不可約性”,而是“找到了不可約世界里最值錢的一塊可約口袋”。
延續我剛才那段“可約口袋”的說法,我還想再多說幾句,把它和 Demis 的表述扣在一起——因為這兩個人在哲學底色上其實是相通的。
Demis 在采訪里反復強調一個點:再強的系統,如果它產出的“知識結構”我們看不懂、解釋不了,就會變成風險。他談到 AI 能做出超出我們“自己設計或理解”的東西,但馬上補一句:真正的挑戰是要確保這些系統“建出來的知識數據庫”,我們理解里面到底是什么。這句話非常關鍵:它把“能力”硬生生拉回到“可理解/可解釋”的人類責任邊界上。
在另一段對話里(Lex 訪談),他還用了一個很形象的類比:即便出現“天才級的好招”,也不必然是神秘不可理解的。更像頂尖棋手走出一手你想不到的棋,但事后他們能解釋“為什么這步成立”;而且他直接說:能用簡單方式解釋你在想什么,本身就是智能的一部分。(Lex Fridman)
把這兩段 Demis 的話翻譯成 Wolfram 的語言,其實就是我說的那句:交互層面(linguistic interface)可以大量用 AI 做潤滑——把人類的意圖變得更易表達,把復雜計算變得更易調用,把結果變得更易敘事、更易吸收;但真正進入“科學/決策的主權區”的東西,必須是可理解、可驗證、可追責的結構,而不是“看起來像答案的文本”。
也因此,Wolfram 才會把 LLM 的現實價值定位在“語言接口”和“高層 autocomplete”:它能把既有計算能力用得更順,能把“慣常科學智慧”補全成“慣常答案/慣常下一步”。
潤滑交互可以很強,但裁決世界不能靠順滑。
“Science as Narrative” 是他對“人類在科學里的不可替代性”的落點
他強調:
- 科學傳統上是把世界鑄造成“人能想、能講的敘事”
- 不可約性意味著:很多地方你只能給出“100 步計算”,但這不是人類敘事
- 人類敘事需要“waypoints(可吸收的中間路標)”:熟悉的定理、概念塊、語言構件
- Wolfram Language 的設計本質上就是在制造這種“可吸收路標”
- AI 也許能幫忙起名字/對齊詞匯,但不保證任何可約口袋都能被人類概念覆蓋(他叫 interconcept space)
這部分基本回答了我前面一直在說的“心理沉浸/接口協議”(或者我下一篇文章,這兩篇文章是互相引用的)的那條線:
LLM 很強的是“敘事與接口”;但科學推進真正依賴的是可計算、可復現、可組織的結構路標。
1、科學是“把世界鑄造成可被人類思考的敘事”
Wolfram 先把“科學=敘事工程”定義出來:
“the essence of science… [is] … casting it in a form we humans can think about” (Stephen Wolfram Writings)
“provide a human-accessible narrative”
科學要把世界變成人類可吸收的表示。
我看不懂不是也白搭嗎?這個問題看起來很多此一舉,其實現在是有爭議的。因為有大量的人開始將科學“黑箱化”。
2、不可約性意味著:很多時候你只能給出“100 步計算”,但這不是人類敘事
他直接說“不可約性讓這種敘事很多時候不可能”。
“computational irreducibility… shows us that this will… not be possible” (Stephen Wolfram Writings)
“It doesn’t do much good to say ‘here are 100 computational steps’”
這句幾乎就是我另一篇文章“模型不能 throw error、必須給結果”的反面鏡像:人類敘事不是把步驟砸過來,而是把它組織成可吸收的結構。
3、人類敘事需要“waypoints”:可吸收的中間路標(定理/概念塊/構件)
要想把“非人類的計算鏈”變成人類敘事,你需要路標:
“we’d need ‘waypoints’ that are somehow familiar”
“pieces that humans can assimilate”
“熟悉的定理、概念塊、語言構件”:它們本質上是認知壓縮點,把不可約的長鏈切成可理解的段落。
4、Wolfram Language 的設計本質上就是在制造這種“可吸收路標”
他把這件事直接提升為“計算語言設計的使命”:
“capture ‘common lumps of computational work’ as built-in constructs”
“identifying ‘human-assimilable waypoints’ for computations”
而且他也承認這件事有硬上限:
“we’ll never be able to find such waypoints for all computations”
5、AI 也許能幫起名字/對齊詞匯,但并不保證可約口袋都能被人類概念覆蓋
他在這一段的核心警告是:就算 AI 能從計算里挖出某種“可約表示”,也未必能貼回到我們已有概念體系里。
“not part of our current scientific lexicon”
“there often won’t be… a ‘human-accessible narrative’ that ‘reaches’ them”
意思是:口袋可能存在,但我們的詞典里沒有詞;AI 可以起名字,但不保證這名字能真正成為“人類可用的路標”。
Wolfram 在這里等于把 LLM 的“強”放回它最擅長的位置:敘事與接口。但他同時在提醒:
真正推動科學(以及你更關心的治理/決策系統)的是 “可計算、可復現、可組織的結構路標”——而不是一段順滑的對話。
LLM 可以讓你“感覺理解了”,但只有路標(可執行構件/可審計中間態)才能讓你真的“能復現、能遷移、能追責”。
其實我個人也不大理解這個Waypoints 具體指代什么。
他最終押注的架構:AI + 計算范式(computational paradigm)
文章末尾他說:
- AI 是新的“leveraging reducibility”的方式(抓可約口袋)
- 但在“根本發現潛力”上,它比不過真正的計算范式 + 不可約計算(枚舉、模擬、系統探索)
- 最能推進科學的是二者結合
換成人話就是:
- AI:負責導航、候選、直覺、接口、人類化、跨域類比
- 計算系統:負責可驗證推導、可復現執行、枚舉探索、嚴謹結構化
- 不可約計算:負責真正的“新地形發現”(不是“像論文”的文本創新)
這部分我就更迷糊了。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.