近日,美國康奈爾大學團隊給光學計算機成功減了肥,讓它縮小了 90% 以上,但性能卻幾乎沒有下降。這意味著我們距離一個萬物智能的世界更近了,比如智能手表有望搭載一個能以光速思考的 AI 助手,汽車可能擁有匹敵人類的視覺系統。
![]()
圖 | 李彥棟(來源:李彥棟)
相關論文的第一作者、康奈爾大學博士后李彥棟開發出針對光學系統的模型壓縮與簡化策略,將光學神經網絡的物理尺寸縮小到傳統設計的 1%–10%, 同時保持推理準確率基本不變。
研究進一步表明,隨著光學計算系統體積的增大,其推理準確率的提升會逐漸趨緩,需要不斷擴大架構規模,才能獲得有限的性能提升。這意味著,在許多應用場景中,通過優化結構與資源分配,在有限尺寸內實現高效計算,往往比單純追求更大規模更為關鍵。
![]()
(來源:https://www.nature.com/articles/s41467-025-63453-8)
在傳統電子計算中,信息以電壓的形式存在,通過晶體管在電路中不斷調控來完成運算。而在光計算中,信息被編碼在光的物理特征中,例如光的強度、相位、偏振和頻率。這些光信號在器件內部或不同光學器件之間傳播時,會嚴格按照物理規律發生變化。正是這些受控的物理變化過程,本身就構成了一種模擬計算。更重要的是,這些光學器件并非一成不變。通過設計或調控器件的結構和參數,人們可以讓光在傳播過程中執行特定的數學運算,從而實現所需要的計算功能。
隨著 AI,尤其是大模型的快速發展,計算系統正面臨能耗、速度等多方面的挑戰。光計算正是在這些關鍵維度上,展現出獨特的潛在優勢。
首先是能效優勢。與電信號在金屬導線中傳輸相比,光在許多材料中的傳播損耗要低得多。在計算規模足夠大的情況下,例如超大規模矩陣運算,用于調控光學器件的能耗相對于整體計算來說可以忽略不計。這使得光計算在大規模計算任務中,具備顯著優于傳統電子計算的能效潛力。
然后是信息通量優勢。光在信息承載能力上具有天然優勢。在空間維度上,自由空間光學系統可以輕松支持上百萬個空間模式同時調控;在頻譜維度上,光的帶寬處于太赫茲量級,可支持成百上千個頻域模式并行處理。
最后是速度優勢。光計算的運算速度,本質上由光穿過器件的時間決定。雖然在現代電子處理器中,電信號的傳播速度本身也接近光速。但在處理光信號時,電子處理器仍然需要進行光電轉換。光計算的關鍵優勢在于:當輸入信號本身就是光時,可以用光學器件對其直接進行處理,從而避免光電轉換所帶來的時間延遲。這種低延遲特性在 AI 視覺相關應用中非常關鍵,例如自動駕駛、增強現實和具身智能等場景。
![]()
(來源:https://www.nature.com/articles/s43588-024-00657-w)
既然光計算優勢顯著,尤其適合超大規模計算,為什么還沒有在實際系統中廣泛應用?一個重要原因是,現有光計算設備往往體積較大。
光計算系統依賴特定形式的非定域性:某個輸出結果需要依賴來自多個空間位置的輸入信息。這要求光在器件內部進行橫向的信息交換,而不僅僅是沿傳播方向前進。
在復雜計算任務中,不同輸出依賴的輸入區域往往高度重疊。為了避免相互干擾,系統需要支持大量互相獨立的橫向傳播通道,而這些并行通道通常只能通過增加器件厚度來實現。因此,隨著計算復雜度的提高,光計算設備往往不可避免地變得更厚、更大。
![]()
(來源:https://www.nature.com/articles/s41467-025-63453-8)
李彥棟的研究靈感,來自 AI 領域廣泛應用的神經網絡剪枝。在 AI 中,剪枝通過刪除冗余或不重要的參數與連接,在盡量保持性能不變的前提下,顯著降低模型規模和計算復雜度,已成為邊緣計算和大模型加速的關鍵技術。
但在光學計算中,真正需要“剪掉”的并不是參數數量,而是整個系統的物理尺寸。圍繞這一核心問題,李彥棟針對兩種主流光學平臺——自由空間光路和光子芯片——提出了面向物理約束的剪枝策略。
在自由空間光路中,要讓器件變薄,關鍵在于讓每個輸出主要依賴附近的局域輸入,而不是與整個輸入平面耦合,即限制光所需的橫向“信息交換范圍”。基于這一物理直覺,他在訓練過程中引導光學神經網絡形成“本地稀疏結構”,通過懲罰遠距離連接并重新排列神經元位置,將非定域連接壓縮到局部區域。結合常規權重剪枝后,器件厚度可降至傳統設計的 2%–25%,同時顯著改善規模定律(Scaling Law):計算規模擴大 100 倍,器件厚度僅增加約 10 倍,而不再是傳統設計的線性 100 倍增長。
在光子芯片平臺上,若所有輸入與輸出完全耦合,所需器件數量會隨規模平方增長,成為小型化瓶頸。對此,他提出將計算結構引導為塊對角形式,把高度耦合的運算拆分為多個相互獨立的小模塊。這種設計雖然犧牲了部分全局耦合,但模型性能基本保持,同時所需器件數量大幅下降,使系統的規模定律從平方級改善為準線性。在超大規模計算場景下,相比傳統設計,所需器件數量可減少約 99%,為超大規模片上光計算提供了可行路徑。
在嚴格證明規模定律改進的同時,李彥棟將這套剪枝策略應用到實際的光學神經網絡中,設計了小型化的光子芯片模塊,用于替換目標檢測模型 Faster R-CNN 中的大規模矩陣運算。通過將這部分計算轉移到光學模塊,60% 以上的 GPU 側參數被移除,顯著減輕了 GPU 的計算負擔。
![]()
(來源:李彥棟)
小型化、可擴展光學神經網絡的突破,并不是終點,而是新的起點。它引出了更深層次的問題:從信息論的角度,應該如何理解光學系統的計算與信息處理能力?
與此同時,李彥棟也期待這一方向能夠催生新的應用范式——將光計算視為一種全新的計算資源,或許可以像量子計算一樣,構建基于光學計算的云平臺,讓更多研究者和開發者能夠低門檻地接觸、試用,并開發直接適配光學硬件的高效算法。
“小型化光學系統的設計,仍然高度依賴我們對物理規律和系統約束的理解。”李彥棟表示,“我希望模型能夠自主‘理解’物理規律、任務目標、資源投入與回報,進而演化為具備完全自動優化能力的智能體,讓算法與物理系統協同進化,為未來的智能硬件打開更大的想象空間。”
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.