![]()
來源:老胡說科學
1900年,希爾伯特在巴黎提出第六問題的時候,其實沒有人真正知道他在要什么。后人常把這道題簡化成“把物理學公理化。”但如果你真按字面去理解,就會發現這幾乎是一個不可能完成的任務。物理不是幾何,物理方程來自實驗、近似、修補和工程經驗,而不是從定義和公理中推演出來的。希爾伯特當然知道這一點,他真正盯上的,是一個更具體、也更危險的問題:同一個物理系統,在不同尺度下寫出來的方程,是否真的在數學上彼此一致。
最典型的例子就是氣體。
如果你站在分子尺度上看氣體,每一個分子都是一個微小的剛性球,按照牛頓第二定律運動,發生彈性碰撞,沒有任何概率、沒有任何統計,只是一套確定性的微分方程。你給定初始條件,理論上就能算出未來的一切。
如果你稍微拉遠一點視角,不再追蹤每一個粒子,而是關心“某個區域里速度大概在這個范圍內的粒子有多少”,那么你會寫下玻爾茲曼方程。
![]()
這是一個統計方程,它描述的是概率密度如何隨時間演化,碰撞不再是“這一對粒子什么時候撞上”,而是“在統計意義下,碰撞如何改變分布”。
再把視角拉到工程尺度,你甚至連概率分布都不要了,直接用密度、速度、溫度這些宏觀量,寫出納維–斯托克斯方程,把氣體當成連續介質來處理。
![]()
物理學家對這三套描述之間的關系,心里非常清楚。他們知道在適當條件下,用哪一套方程都能得到一致的預測。但數學家不接受“心里清楚”。數學要的是:你能不能從第一套方程出發,通過極限過程,嚴格推導出第二套?
這件事卡住了一百多年。
困難不在于牛頓定律,也不在于玻爾茲曼方程本身,而在于兩者之間那片幾乎無法描述的中間地帶。
![]()
假設你真的想從牛頓定律出發,你就必須面對一個現實:氣體里不是十個粒子,而是趨近于無窮多個;每一個粒子都會發生碰撞,而且碰撞的時間、順序、對象都可能不同。任何一次演化,都對應著一段極其復雜的“碰撞歷史”。
數學家把這些歷史畫成圖,圖的節點是碰撞時刻,線段是粒子在兩次碰撞之間的運動軌跡。問題是,這樣的圖不僅數量巨大,而且結構極其復雜。隨著時間推移,可能出現同一對粒子多次相遇的情況,這在物理上叫“再碰撞”。一旦允許再碰撞,圖的復雜度會呈現災難性的增長。
1970年代,蘭福德曾經取得過一次重要進展。他證明了:如果你只看極短的時間區間,把所有可能的碰撞圖加起來,極限確實會給出玻爾茲曼方程。但這個“極短”短到什么程度?短到在物理上幾乎沒有意義。時間稍微拉長一點,再碰撞開始出現,整個證明立刻失效。
接下來的五十年里,幾代數學家都在試圖跨過這道坎。他們換過方法,換過表述,換過技術工具,但始終無法控制再碰撞帶來的爆炸。這個問題在圈內逐漸形成了一種共識:也許在長時間尺度下,微觀到中觀的極限,本身就是不可證明的。
直到2025年。
這一次的突破,來自于一種非常不“數學家本能”的想法。研究者沒有再試圖去精確控制所有可能的碰撞歷史,而是反過來問了一個問題:在所有這些天文數量的碰撞圖中,真正“危險”的那些,占多大比例?
這個問題一旦被提出來,整個局面就變了。
他們發展出一種新的分解方法,可以把一張極其龐大的碰撞圖拆解成許多局部結構清晰的小塊。通過這種拆解,他們發現,再碰撞雖然在邏輯上可能發生,但在統計意義下,其概率衰減得極快。換句話說,那些讓數學家頭疼了半個世紀的壞情況,在真正的極限過程中,幾乎從不發生。
這并不是一句物理直覺,而是一個可以量化、可以估計、可以放進不等式里的事實。一旦這一點被嚴格證明,剩下的工作就突然變得可控了。研究者不再需要追蹤所有路徑,只需要證明:忽略這些極少數的“病態路徑”,不會影響整體極限。
于是,一個在1900年被提出、在1975年被部分觸及、又在半個世紀里被反復宣判“可能做不到”的問題,終于在數學上被完整貫通。牛頓的確定性世界,在長時間、無限粒子、零直徑的極限下,嚴格收斂到玻爾茲曼的統計世界。
這不是對物理學的“重新解釋”,而是第一次在真正意義上,用數學證明了尺度之間的自洽性。
更重要的是,這種證明方式本身,已經超出了氣體動力學的語境。它展示了一種全新的范式:當系統復雜到無法逐一控制時,真正可行的道路不是更精細的追蹤,而是證明“失控的部分在整體中消失”。
這正是2025年數學發生變化的第一個信號。
隨機幾何終于可控了如果說希爾伯特第六問題解決的是“從微觀到宏觀,世界為什么會變得平滑”,那么 2025 年發生的另一件大事,解決的則是一個看起來更抽象、但同樣根本的問題:在極其復雜的幾何世界里,什么才是“典型情況”。
這個故事的起點,繞不開一個人:Maryam Mirzakhani。
在她之前,雙曲曲面一直被認為是一類“太難整體理解”的對象。它們處處負曲率,局部看像馬鞍,整體卻可以扭曲、纏繞到幾乎無法直觀想象。
![]()
你沒法把它們完整嵌入三維空間,只能用抽象方式描述。正因為如此,它們在數學和物理中反復出現:從動力系統到量子混沌,從數論到統計物理,雙曲幾何幾乎無處不在。
但問題是:太多了。
雙曲曲面的空間本身是一個高維、非緊的對象。你可以問無數問題,比如“有多少條閉測地線”“這些測地線通常長什么樣”“曲面整體是否連通”。可一旦你開始認真算,就會立刻發現:極少數非常極端的曲面,會完全主宰你的計算結果。
Mirzakhani在2000年代做的一件事,第一次改變了這一切。她找到了一種方法,能夠精確計算“長度不超過L的閉測地線有多少條”,并且給出了隨L增長的漸近公式。這個結果的意義并不在于“數出了多少條線”,而在于:它第一次讓人有可能對“隨機雙曲曲面”提出嚴肅的問題。
比如,你可以開始問:如果我從所有可能的雙曲曲面中“隨機選一個”,它通常長什么樣?
其中一個最核心的量,叫做譜隙。它來自拉普拉斯算子的第一個非零特征值,取值介于0到1/4之間。直觀地說,這個數刻畫了曲面的“整體連通性”。譜隙越大,曲面上不同區域之間的路徑越多,信息擴散得越快;譜隙越小,曲面就越“松散”,容易被細長的脖子、狹窄的通道分割。
長期以來,數學家知道1/4是理論上的最優上界,也知道存在一些非常特殊的曲面,其譜隙接近這個極限。但真正的問題是:典型的曲面如何?
直覺告訴人們,大多數曲面應該“長得不錯”,譜隙接近1/4。但要證明這一點,卻極其困難。障礙來自一種被稱為“纏繞測地線”的結構:某些閉測地線會在局部區域反復繞圈,數量極多。這些測地線雖然在整體中極為罕見,但它們一旦出現,就會在統計上產生巨大的權重,把平均值徹底拉偏。
這正是Mirzakhani未能跨過的最后一道坎。她的公式足夠精美,卻對這些極端情形缺乏有效的“過濾機制”。
多年之后,兩位數學家,Nalini Anantharaman和Laura Monk,重新回到了這個問題。他們很快意識到,單靠雙曲幾何內部的技術,已經走到了盡頭。問題不在于公式不夠精確,而在于:你根本不應該把所有曲面一視同仁地平均。
真正的轉機,來自一個看似無關的領域:隨機圖論。
2000年代初,數學家Joel Friedman曾證明過一件事:幾乎所有的大隨機正則圖,都是“最優展開子”,也就是說,它們的譜隙幾乎達到理論極限。這個結論的證明異常復雜,但在其核心,隱藏著一個關鍵技巧:利用M?bius反演,把“壞的結構”從整體平均中系統性地剝離出去。
Anantharaman和Monk意識到,她們面對的困境,本質上和Friedman面對的是同一個問題。極少數結構復雜、局部異常的對象,正在扭曲整體統計行為。與其試圖直接控制這些對象,不如換一種方式,讓它們在計算中自然抵消。
她們把這一思想移植到了雙曲幾何中,通過改寫 Mirzakhani 的計數公式,引入一種精細的反演過程。這個過程的效果非常“殘酷”:那些包含大量纏繞測地線的曲面,被自動壓制了權重,而結構均勻、連通性良好的曲面,開始主導平均行為。
最終,她們證明了一件長期被認為“幾乎不可能精確表述”的事實:在適當的意義下,幾乎所有雙曲曲面的譜隙都趨近于1/4。
這不是在說“存在很多好曲面”,而是在說:如果你閉上眼睛,從這個幾何宇宙里隨便抓一個,十有八九,它的連通性已經接近理論極限。
這個結論的深層意義,并不在于雙曲幾何本身,而在于它為量子混沌、動力系統、甚至數論問題,提供了一種可靠的“背景假設”。它告訴研究者:在研究復雜系統時,可以放心地把“極端例外”當作真正的例外,而不是被迫圍繞它們構建理論。
從更宏觀的角度看,這件事和希爾伯特第六問題的解決,形成了一種奇妙的呼應。一個是在粒子層面處理幾乎不發生的再碰撞,一個是在幾何空間中排除極少數病態曲面。它們共同指向同一個方向:現代數學正在學會如何與“復雜性”共存,而不是被它吞沒。
三維空間拒絕被壓縮如果說前兩件事分別解決了“尺度之間如何銜接”和“復雜幾何中的典型結構”,那么2025年的第三件事,解決的是一個更底層、也更危險的問題:空間本身,到底允許多極端的幾何行為。
這個問題的起點,來自1917年日本數學家Sōichi Kakeya的一個看似游戲般的提問。他問的是:如果你有一根無限細的針,把它旋轉一整圈,掃過所有方向,那么它所覆蓋的最小區域能有多小?這個問題在二維里已經足夠反直覺,而它真正引爆數學界,是在幾十年后人們意識到:這個問題并不關乎針,而關乎空間如何被方向填滿。
20世紀初,Abram Besicovitch給出了一個震撼性的結果。他證明,在二維平面中,你可以構造一個面積為零的集合,卻仍然包含“每一個方向的一根單位線段”。
也就是說,從測度的角度看,這個集合幾乎不存在,但從方向的角度看,它卻什么都有。這類集合后來被稱為Kakeya集。
這個結果直接擊穿了人們對“大小”的直覺。面積不再是衡量幾何復雜度的合適工具,數學家不得不引入分形維數,來描述這些看不見、卻無處不在的結構。到了1970年代,Roy Davies證明了一個關鍵事實:在二維中,任何Kakeya集,哪怕面積為零,其分形維數也必須是2,也就是“滿維”。
于是一個大膽的猜想自然浮現出來:在任意維度中,Kakeya集都必須是滿維的。
![]()
這就是Kakeya猜想。
問題在于,從二維走向三維,幾何世界發生了質變。二維里的“方向”本質上是一維的圓,而三維里的方向空間是一個球面,結構復雜得多。針不再只是“轉一轉”,而是可以以極其豐富的方式彼此錯開、交織、靠攏又分離。
在三維里,Kakeya集通常被想象成無數根極細的管子,每一根指向不同方向。猜想要求證明的是:無論你如何安排這些管子,只要方向足夠豐富,它們就不可能被壓縮進一個低維結構里。
幾十年來,人們嘗試過各種方法,但始終卡在一個核心障礙上:管子之間可以高度重疊,而且這種重疊在局部看起來完全合法。你很難排除這樣一種情況:在無數個微小區域里,大量管子恰好擠在一起,整體卻依然覆蓋了所有方向。
一個重要的轉折,來自Charles Fefferman。他在研究Fourier分析時發現,Kakeya問題并不是一個孤立的幾何怪題,而是和調和分析中一整套關于Fourier變換的核心猜想緊密相連。這一發現讓Kakeya猜想從“幾何怪物”,變成了整個分析理論塔基的一塊基石。如果Kakeya在三維失敗,那么一連串更宏大的猜想都會隨之崩塌。
盡管如此,真正的進展依然極其緩慢。
直到近幾年,一個新的結構性洞察逐漸浮現。Larry Guth指出,如果三維 Kakeya 猜想存在反例,那么這個反例不可能是“均勻的”,它必須呈現出一種“顆粒化”的形態:空間中會出現大量微小區域,在每個區域里,許多管子高度集中,而這些區域彼此之間又有某種組織結構。
這個觀察并沒有直接解決問題,但它改變了戰場。問題不再是“管子會不會重疊”,而是“這些重疊區域之間,能否再彼此高度重疊”。
2022年,Hong Wang和Joshua Zahl先解決了一個特殊但重要的情形:所謂“粘性Kakeya集”,也就是指向相近方向的管子,在空間中也彼此靠近。這一結構限制了自由度,使得分析變得可能。這一結果被普遍視為“終點就在前方”的信號。
真正的挑戰,是非粘性的情形。在這里,管子可以在方向上完全無序地散布,幾乎沒有任何表面上的規律。Wang和Zahl沒有試圖消滅這種混亂,而是利用Guth的“顆粒”視角,對混亂本身進行分層。他們證明:任何一個點,都不可能同時屬于太多顆粒;而顆粒之間的相互作用,也受到嚴格限制。
這一步至關重要。它意味著,即便局部存在高度重疊,整體上也無法形成持續的壓縮效應。剩下的工作,是把這一結構性限制,通過一種被稱為“尺度歸納”的方法,逐步向更大尺度推進。
尺度歸納在這個問題中曾經屢屢失敗,因為哪怕每一步只損失一點點精度,經過多次迭代后,結論也會徹底失效。Wang和Zahl的關鍵發現是:顆粒結構恰好提供了控制損失的機制。每一次放大尺度,混亂都會被重新分配,而不會無限累積。
于是,在2025年,他們完成了最后一步證明:任何三維Kakeya集,其分形維數必然等于3。空間拒絕被壓縮。方向的豐富性,強制帶來了體積。
這件事的真正價值,并不在于“針到底能不能省地方”,而在于它為調和分析、偏微分方程以及信號處理領域的一整套方法,提供了可靠的幾何地基。許多長期懸而未決的問題,其難點都在于類似的“方向疊加是否會失控”,而三維Kakeya的解決,第一次給出了一個明確的答案:在足夠高的復雜度下,空間本身會反擊。
把這三件事放在一起看,會發現一種非常清晰的時代特征。無論是氣體中的再碰撞、雙曲曲面中的纏繞測地線,還是 Kakeya 集中的顆粒重疊,2025年的數學,不再試圖逐一消滅異常,而是證明:異常無法統治整體。
閱讀最新前沿科技趨勢報告,請訪問21世紀關鍵技術研究院的“未來知識庫”
![]()
未來知識庫是 “21世紀關鍵技術研究院”建 立的在線知識庫平臺,收藏的資料范圍包括人工智能、腦科學、互聯網、超級智能,數智大腦、能源、軍事、經濟、人類風險等等領域的前沿進展與未來趨勢。目前擁有超過8000篇重要資料。每周更新不少于100篇世界范圍最新研究資料。 歡迎掃描二維碼或訪問https://wx.zsxq.com/group/454854145828進入。
截止到2月28日 ”未來知識庫”精選的百部前沿科技趨勢報告
(加入未來知識庫,全部資料免費閱讀和下載)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.