【文/觀察者網專欄作者 心智觀察所】
YouTube 上近日出現了一條題為《為什么量子計算機可能永遠無法成功》的科普視頻,引發了廣泛關注。截至目前,該視頻的觀看量已超過 19 萬,點贊數約 1 萬,評論逾 1400 條。對于一條以基礎物理與前沿科技為主題的科普視頻,這樣的傳播效果實屬罕見。
![]()
這條視頻發布于 2025 年的最后一天,意味深長。在主流輿論仍在炒作量子計算議題的背景下,這樣一則帶有強烈質疑意味的作品,顯得格外醒目,也為新一年中量子計算的發展前景投下了一層不確定的陰影。
視頻播主是 Sabine Hossenfelder。她是一位受過嚴格學術訓練的理論物理學家,曾長期從事量子引力及相關基礎物理研究,目前任職于德國的科研機構。近年來,她以科普作者和視頻創作者的身份受到廣泛關注,其作品風格以質疑科技神話、反對科研敘事中的浮夸與炒作而著稱。與常見的“科技過度樂觀主義”不同,Hossenfelder 更強調物理定律、工程可行性以及社會與人文環境對技術發展的制約。她的立場并非否定新理論或新技術本身,而是主張在理論不確定性尚未澄清之前,對宏大技術承諾必須保持足夠的理性審慎。
作為科學傳播者,Hossenfelder 也具備相當可觀的影響力。她運營的 YouTube 頻道目前擁有約 170 萬訂閱者,累計觀看量接近 3 億次,在基礎物理與科學文化領域中堪稱明星級別。此外,她還長期作為博客作者與專欄撰稿人,在 Nature、New Scientist、Quanta Magazine 等國際媒體發表文章,并出版了多本科普著作。這些經歷,使她在科學傳播領域同時具備專業背景與公共影響力。
在本文后面的注釋 [1] 中附有該視頻核心內容的中文文字記錄。為保持中立及客觀性,文字紀錄全部由機譯生成,并附上英文原稿供讀者對照參考。以下內容,則是我基于該視頻所作的一些初步分析與評論。
量子計算面臨的重大挑戰可分為以下三個層面。
第一層:量子計算的物理基礎仍處在未經驗證的邊界區間
任何具有實用意義的大規模量子計算機,都必須建立并操控一個超大規模、深度糾纏的量子系統,而這正是量子力學尚未被驗證過的邊界區間。然而,量子力學在這一極端區間——多體、宏觀、長期維持并可反復操控的高階糾纏態——從未被直接觀測或系統檢驗過。量子計算的物理基礎并非建立在已被充分驗證的量子力學適用范圍之內,而是建立在將其向大規模、多體、高度糾纏狀態進行外推的前提之上。眾所周知的事實是,物理系統尺寸增大時,量子效應為何會退化、在何種條件下退化,至今仍是一個懸而未決的物理基礎問題。
在這一視角下,“噪聲”也就不再只是工程層面的不完美,而可能來自原則上不可消除的物理背景,例如中微子或引力波等極其微弱卻普遍存在的擾動。因此問題并非只是“現有技術還不夠成熟”,而是量子計算所設想的那種可持續、可操控的超大規模糾纏態,是否能夠在自然界真實存在?
第二層:量子計算并未構成通用意義上的算力躍遷
即便假定量子計算工作條件在上述物理的邊界區間依舊成立,量子計算本身仍未必能夠實現通用意義上的算力躍遷。
量子計算之所以被寄予“指數級加速”的期待,并不僅僅因為它使用了量子態,而是基于一種隱含的前提:自然界允許將量子疊加與干涉,當作一種可擴展、可累積、可反復調用的計算資源。在這一設想中,量子系統被理解為能夠在指數增長的狀態空間中并行演化,并通過干涉機制提取計算結果,從而在問題規模持續擴大時,與經典算法拉開數量級上的差距。
然而,視頻中所呈現的一系列觀點,正是對這一前提本身提出了質疑。如果自然界在更底層的計算意義上并不支持無限精度、無限可區分狀態,或可被穩定提取的并行性——例如其演化在本體上更接近離散、逐步的更新過程——那么量子算法的“指數優勢”就可能主要停留在形式層面,而難以轉化為可隨規模放大的實際加速度[2]。
在這種圖景下,量子計算或許能夠在小規模、特定結構的問題上表現出優勢,但這一優勢并不會隨著系統規模的提升而無限延伸。有理論估算認為,量子計算在規模上可能無法超過約 500 至 1000 個邏輯量子比特;而現有較為樂觀的判斷,則普遍將具有商業意義的應用門檻放在約 100 至 150 個邏輯量子比特左右。若這些估算接近真實,那么量子計算即便可行,其有效應用區間也將相當狹窄。
第二層質疑的并不是量子計算“能否運行”,而是進一步追問:即便它能夠運行,其所帶來的算法加速是否足以構成一種長期、通用的計算能力躍遷。在這一意義上,量子計算面臨的挑戰,并不只在于實現本身,還在于其加速潛力是否能夠支撐人們對它所寄予的高度期待。
第三層:量子計算所依賴的理論本身可能仍需要修正
在這個層面上,討論不再局限于量子計算的物理實現或算法效果,而是觸及其更深層的理論前提:量子力學在極端復雜系統中是否仍然保持其標準形式。這一問題并非針對量子計算的,對量子力學可能需要修正的理論探索一直存在。
在若干修正模型中,波函數坍縮不再被視為一種僅與觀測相關的抽象規則,而被引入為一種真實的、客觀的物理過程。自發局域化模型正是其中具有代表性的一類。在這一類模型中,量子疊加并非原則上可以無限期維持,而是會隨著系統規模與復雜度的增長,以一定概率自發坍縮。
在與量子計算相關的估算中,有研究指出:如果采用自發局域化模型,一個擁有約一百萬個超導量子比特的量子計算機,其量子態的退相干時間可能僅為毫秒量級。相關作者據此指出,這樣的時間尺度可能足以破壞在大型設備上運行具有實際意義的量子算法。需要強調的是,這種限制并非源于工程噪聲、控制誤差或環境耦合,而是來自理論層面對量子力學的根本性修正。
在這一圖景下,量子計算面臨的并不是“尚未解決的技術問題”,而是一種更為根本的可能性:即便工程與算法層面的困難被克服,支撐大規模量子疊加的理論前提本身,也未必在所有復雜度尺度上成立。如果此類修正模型在某種形式上接近真實,那么量子計算的可行性將不再僅由技術進步決定,而將直接受限于自然規律本身。
綜上所述,量子計算面前存在三重根本性約束:其一,量子計算所依賴的物理邊緣區間上,量子力學的適用性與正確性必須得到驗證;其二,量子計算所帶來的算法加速,是否具備隨規模增長而完成算力躍遷的潛力;其三,支撐大規模量子疊加的理論前提,是否在高度復雜的物理系統中仍然成立。唯有這三項條件同時滿足,量子計算所承載的宏大技術承諾才具備成立的基礎。
注釋
[1] 《為什么量子計算機可能永遠無法成功》視頻文字實錄
視頻時段:(1:11~5:23)
我并不認為在未來幾十年內,量子計算機會有很好的應用場景,但那是另一回事。今天我想討論的是那些認為量子計算機可能永遠無法真正運作的人。
有些物理學家會討厭我,因為我給懷疑者留出了空間。但我認為在這里必須保持謹慎。我們并沒有任何證據表明,量子計算機會按照量子物理所預測的方式運作。這是一片尚未被檢驗的領域。我們從未能夠測量過如此大規模的糾纏。相反,我們知道,當物體變得更大時,其量子效應會消失,而我們并不理解其中的原因。因此,我反而有些驚訝,為什么懷疑的聲音沒有更多。當然,有時我也會覺得,其實沒有人真正知道任何東西是如何運作的,我們只是假裝知道而已,所以或許我也不該感到驚訝。
話雖如此,確實有一些人認為量子計算機會敗于噪聲引發的錯誤。數學家兼計算機科學家 Gil Kalai 就曾提出,量子計算機必然存在不可避免的噪聲,這將阻止它們獲得相對于傳統計算機的真正優勢。物理學教授 Robert Alicki 也提出了類似的觀點:如果對噪聲進行現實建模,那么在量子計算機中糾錯將變得不可能。
而同樣是數學家和計算機科學家的 Leonid Levin 則認為,由于來自中微子或引力波的不可避免的微弱噪聲,要在足夠高的精度下維持量子相干性將是不可能的。
這三位都擁有該領域相關的學術背景,因此他們并非隨意發表意見的人。不過,他們都沒有給出定量預測,這也是我認為物理學界并未給予他們太多關注的原因。
此外,還有一些物理學家認為量子力學并非基礎性的理論,而這就是為什么有人認為量子計算機行不通。比如 Stephen Wolfram 認為,世界在根本層面上是離散的,而量子物理也不例外。在他的模型中,他主張:“量子計算機最終不會占據優勢。”
接下來是 Gerard ’t Hooft 的細胞自動機理論。這同樣是一種離散的、逐步演化的理論,在他看來,這是量子物理的底層結構。他認為,“將一個擁有數百萬位數字的整數分解為其素因子是不可能的。”
Tim Palmer 也認為量子物理在最終意義上必須是離散的。他計算得出,我們無法超過大約 500 到 1000 個邏輯量子比特。大多數估計認為,具有商業意義的應用大約會在 100 到 150 個量子比特左右變得可行。因此,如果 Palmer 是對的,那么我們能夠使用量子計算機的區間將只有一個非常狹窄的窗口。
此外,還有一些對量子力學進行修正的普遍設想,例如自發局域性或 Penrose 的坍縮模型。在這兩種模型中,波函數的坍縮被視為一種真實的物理過程,而不是某種我們不被允許討論的“神秘現象”。
在前一種情況下,也就是自發局域化模型中,相關估算認為,一個擁有大約一百萬個超導量子比特的量子計算機,其退相干時間約為一毫秒。作者們得出的結論是,這“可能會破壞在大型設備上運行具有實際意義的量子算法”。而在 Penrose 的模型中,我前幾天自己做了一個估算,發現只有在擁有 10^18 個或更多超導量子比特的情況下,才可能觀察到由引力誘導的坍縮效應。
我想再次強調,這種對量子計算的懷疑態度目前只來自少數人。大多數物理學家并不認為它是合理的。話雖如此,板塊構造學說和細菌學說曾經也被視為邊緣觀點,但它們后來被證明是正確的。這也是我希望你了解這些觀點的原因。就我個人而言,如果量子計算機成功了,我會慶祝;如果它們失敗了……我同樣會慶祝。
English Original 視頻時段:(1:11~5:23)
I don’t see a good use case for quantum computers anywhere in the next decades, but that’s a different story. Today I want to look at those who think quantum computers will never properly work.
Some physicists will hate me because I give room to the sceptics. But I think one has to be careful here. We have no evidence that quantum computers will indeed work as quantum physics predicts. This is untested territory. We’ve never been able to measure such large amounts of entanglement before. Instead, we know that when objects become larger, their quantum effects go away. And we don’t understand why. So I am actually somewhat surprised that there isn’t more scepticism. Then again, sometimes I think that no one knows how anything works anyway, we’re all just pretending we do, so maybe I shouldn’t be surprised.
That said, there have been some who think that quantum computers will fall victim to errors induced by noise. The mathematician and computer scientist Gil Kalai, for example, has argued that quantum computers must have inevitable noise that will prevent them from ever reaching a true advantage against conventional computers. Then there is Robert Alicki, a physics professor, who has similarly argued that if one models noise realistically, then it becomes impossible to correct errors in quantum computers. And Leonid Levin, also a mathematician and computer scientist, has argued that it’ll be impossible to maintain coherence at sufficiently high precision due to inevitable tiny noise from neutrinos or gravitational waves.
These three all have relevant degrees in the field, so it’s not like they’re random guys with an opinion. However, neither of them has made quantitative predictions, which is why I think physicists don’t pay much attention to them.
There are also a few physicists who think that quantum mechanics isn’t fundamental and This is why quantum computers won’t work. Stephen Wolfram, for example, thinks that the world is fundamentally discrete, and that includes quantum physics. In his model, he has argued, “quantum computers aren’t going to come out ahead.”
Then there is Gerard ’t Hooft with his cellular automaton theory. This is also a discrete, step-by-step theory that, he believes, underlies quantum physics. He thinks that “factoring a number with millions of digits into its prime factors will not be possible.”
Tim Palmer, who also believes that quantum physics must ultimately be discrete, has calculated that we can’t go beyond 500 or 1000 logical qubits. Most estimates say that commercially interesting applications will become possible around 100 or 150 qubits. So, if Palmer is right, there’s only a small window in which we can use quantum computers.
Then there are the general expectations from modifications of quantum mechanics, such as spontaneous localization or Penrose’s collapse model. These are both models in which the collapse of the wavefunction is a real physical process and not some kind of magical thing that we’re not allowed to talk about.
In the former case, spontaneous localization, the estimate says that a quantum computer with about a million superconducting qubits will have a decoherence time of about a millisecond. The authors conclude that this “could spoil the quantum computation of practical algorithms on large devices.” In Penrose’s model, I did an estimate for this the other day and found one wouldn’t see evidence of gravitationally induced collapse until 10^18 superconducting qubits or more.
I want to stress again that this quantum computing scepticism comes from a small minority. Most physicists don’t believe it is justified. Then again, tectonic plate drift and germ theory were once considered fringe opinions, yet they turned out to be correct. This is why I want you to know about this. Personally, what I’ll do if quantum computers work, is that I’ll celebrate, and if they don’t work… I’ll also celebrate.
[2]關于“離散”“算法加速”與量子計算優勢的計算前提
為了說明第二層正文中所涉及的概念背景與理論語境,其目的并非為某一具體觀點背書,而是澄清量子計算算法承諾背后所隱含的計算假設。
在關于量子計算的討論中,“離散”一詞常常被誤解為量子力學中早已確立的事實,例如能級離散、粒子量子化或測量結果呈現離散譜。但這些意義上的“離散”,并非第二層討論的核心。這里真正涉及的,是一種更強、更具爭議性的主張:自然界在最根本的計算意義上,是否只允許有限精度、有限可區分狀態,以及逐步、不可并行跳躍的演化結構。
在主流量子力學的標準表述中,量子系統的狀態空間是連續的,其演化由連續的幺正變換描述,原則上允許任意精細的相位差異與指數增長的態空間結構。量子計算的算法承諾,正是建立在這一圖景之上:量子疊加與干涉被視為一種可擴展、可累積、可反復調用的計算資源,從而有可能在問題規模擴大時,持續放大與經典算法之間的差距。
而第二層討論中涉及的“本體論離散”觀點,則對這一圖景提出了根本性的限制設想。在這類設想中,自然界在底層更接近一種有限狀態、逐步更新的計算結構;量子力學則被視為一種在中等尺度上有效的描述方式,而非自然界“計算能力”的直接接口。在這種情況下,即便量子系統在形式上呈現出指數增長的態空間,其可被物理區分、操控和穩定利用的自由度,仍可能存在嚴格上限。
一旦這一限制成立,其直接后果并不在于量子算法“是否存在”,而在于其可實現的實際加速度是否能夠隨規模持續放大。若可區分狀態數、相位精度或并行性提取能力在物理上受到限制,那么量子算法的優勢就可能只在小規模或特定結構的問題中顯現,而難以構成一種通用、可擴展的計算范式躍遷。第二層正文中所提到的“窗口期”判斷,正是這一邏輯在應用層面的自然推論。
為了避免概念混淆,下表對幾種常被混為一談的“離散”含義作一對照說明:實驗層面:能級、自旋、測量結果呈離散譜(主流,已驗證但不足以保證算法加速)。建模層面:用格點、有限維空間近似(主流,屬計算方法,不涉物理本體)。本體/計算層面:自然僅支持有限狀態和精度、逐步演化(爭議,若成立將直接限制可提取的算法加速)。
需要強調的是,這類關于計算前提的討論,目前既非實驗定論,也非物理學界共識。它們的意義并不在于“否定量子計算”,而在于提醒:量子計算的算法承諾,依賴于一組關于自然計算能力的隱含假設,而這些假設本身尚未被直接驗證。
[3] Gil Kalai
How Quantum Computers Fail: Noise and Quantum Error Correction
[4] Gerard ’t Hooft
The Cellular Automaton Interpretation of Quantum Mechanics
[5] Stephen Wolfram
A New Kind of Science(關于離散計算的相關章節)
![]()
本文系觀察者網獨家稿件,文章內容純屬作者個人觀點,不代表平臺觀點,未經授權,不得轉載,否則將追究法律責任。關注觀察者網微信guanchacn,每日閱讀趣味文章。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.