在量子計算領域,量子比特的錯誤率控制一直是一個重大挑戰。 量子比特極其脆弱,即使很小的環境干擾也會導致量子信息丟失。 為了解決這個問題,科學家們提出了量子糾錯編碼的技術——將多個物理量子比特組合成一個邏輯量子比特,通過冗余編碼來抵抗錯誤。
盡管在這一技術的幫助下,當前最先進的量子處理器能夠實現高達 99.9% 的門操作保真度,但仍遠未達到量子算法所需的 10?1? 量級的誤差率。因此,如何通過量子誤差糾正技術提升計算可靠性,成為學界和工業界的核心挑戰。
現在,Google量子人工智能團隊在其最新一代超導處理器 Willow 上取得了重要突破。他們成功實現了一種邏輯誤差低于表面碼閾值的量子誤差糾正方案,讓糾錯量子計算 30 年來“低于閾值”的目標成為現實。
相關成果已經發布于 Nature[1]。
![]()
圖丨相關論文(來源:Nature)
1995 年 MIT 教授彼得·肖爾(Peter Shor)首次提出了量子糾錯的概念,他設計了第一個量子糾錯碼——肖爾碼(Shor Code)[2]。這一突破性的研究首次證明了量子信息盡管極其脆弱,卻可以通過編碼分布在多個物理量子比特上,以實現錯誤的檢測和糾正。肖爾碼通過保護一個量子比特免受相位和振幅翻轉錯誤的影響,為量子計算的可行性提供了理論支撐。
![]()
圖丨Peter Shor(來源:MIT)
在肖爾碼之后,穩定子碼和表面碼等更復雜的糾錯方案相繼被提出。其中,表面碼(Surface Code)因其良好的錯誤抑制性能和對硬件要求的相對可實現性,成為容錯量子計算的核心技術。
表面碼(surface code)通過將量子比特排列成 d×d 的方形陣列,理論上,陣列越大,邏輯量子比特就越穩定,性能也會越好。但實際上,擴大陣列也會帶來更多出錯機會。如果物理量子比特的錯誤率過高,這些額外錯誤會壓倒糾錯能力,使得擴大陣列反而會降低處理器性能。
只有當物理量子比特的錯誤率足夠低時,量子糾錯才能彌補這些額外錯誤。這個臨界錯誤率就被稱為量子糾錯門檻。
而Google 團隊在 Willow 上首次實現了這一點。在 Willow 的錯誤糾正實驗中,當將陣列從 3×3 擴展到 5×5 再到 7×7 時,每次擴展都能將編碼錯誤率降低 2.14 倍。這一結果證實了量子糾錯理論的指數級錯誤抑制效果。
更重要的是,7×7 陣列實現的邏輯量子比特展現出了超越物理極限的性能——其壽命達到 291±6 微秒,是其最佳物理量子比特壽命(119±13微秒)的 2.4 倍。這標志著量子糾錯首次實現了“超越平衡點”(beyond breakeven)的里程碑。
![]()
(來源:Google)
這些突破得益于 Willow 處理器在多個技術層面的創新。通過改進制造工藝、優化參與率工程和電路參數,新一代處理器的量子比特展現出了優異的相干性能:弛豫時間(T1)從此前的約 20 微秒提升到 68 微秒,自旋回波相干時間(T2,CPMG)達到 89 微秒。這種基礎性能的提升直接反映在了更好的糾錯效果上:雖然操作保真度只提高了約 2 倍,但編碼后的錯誤率卻改善了約 20 倍。
其次,團隊開發了兩種高精度解碼器:一個是經過處理器數據微調的神經網絡解碼器,另一個是增加了匹配綜合的相關最小權重完美匹配解碼器集成。這些解碼器能夠準確地從測量量子比特獲取的奇偶校驗信息中推斷出錯誤的位置和類型。
在錯誤糾正過程中,系統首先將數據量子比特初始化為 ZXXZ 表面碼的邏輯本征態,然后重復執行錯誤糾正周期。在每個周期中,測量量子比特都會從相鄰的數據量子比特中提取奇偶校驗信息,這些信息隨后被發送到解碼器進行處理。特別重要的是,每次 syndrome 提取之后,系統都會執行數據量子比特泄漏移除(DQLR)操作,這個步驟確保了量子比特不會長時間停留在高能泄漏態。
![]()
(來源:Google)
由此,Willow得以實現上述出色的邏輯誤差抑制能力。
除了量子糾錯性能外,Willow 處理器在隨機線路采樣(RCS)基準測試上也取得了驚人成果。它在不到 5 分鐘內完成了一項運算,這項運算即使在當今最快的超級計算機 Frontier 上運行也需要 10 億億億年(102?年)。
![]()
圖丨RCS 測試結果(來源:Google)
在穩定性測試中,研究團隊在 72 量子比特處理器上進行了長達 15 小時的持續實驗,系統保持了平均 A=2.18±0.07 的穩定錯誤抑制性能。即使在最長達 100 萬個周期的實驗中,性能也沒有顯著降低。這種長期穩定性對于未來實現實用的量子算法至關重要。
研究團隊還實現了實時解碼,這對未來的實用量子計算具有重要意義。在距離為 5 的碼上,實時解碼系統實現了平均 63 微秒的解碼延遲,能夠跟上 1.1 微秒的快速糾錯周期。這表明,超導量子計算平臺可以滿足大規模容錯量子算法所需的嚴格時序要求。
但研究中也還存在一些挑戰。在重復碼實驗中,團隊觀察到每小時會出現一次相關錯誤爆發,這些錯誤會在約 400 微秒的時間尺度上衰減,導致了 10?1? 的錯誤下限。雖然這個錯誤率已經相當低,但要達到某些量子算法所需的 10?? 錯誤率,目前的方案仍需要使用 1457 個物理量子比特構建的距離 27 邏輯量子比特。
![]()
圖丨重復代碼性能隨重復代碼大小而變化。與 Sycamore 相比,團隊實現了 10,000 倍的改進,但觀察到錯誤底線約為每周期10 -10 個邏輯錯誤。(來源:Google)
此外,隨著系統規模擴大,解碼延遲也會增加。目前在距離為 5 的碼上測得的 50-100 微秒解碼延遲預計會隨著碼距增加而增長。這可能會影響未來大規模量子計算機的運行速度,需要進一步優化。
盡管如此,Willow 處理器的未來依然值得期待。在過去一年中,其編碼性能提升了 20 倍。如果能保持這種指數級的進步,實用的大規模量子計算機或許比預期更快到來。
參考資料:
1.https://www.nature.com/articles/s41586-024-08449-y
2.https://journals.aps.org/pra/abstract/10.1103/PhysRevA.52.R2493
3.https://blog.google/technology/research/google-willow-quantum-chip/
4.https://research.google/blog/making-quantum-error-correction-work/
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.