光計算堪稱人工智能領域的“新摩爾定律”。它一舉突破電子芯片的縮放極限,不僅能實現更快的運算速度、更低的功耗,更能在矩陣運算中達成“算力規模越大,效率越高”的顛覆性突破。
半個多世紀以來,摩爾定律一直是半導體行業的發展綱領,它定義了芯片算力提升、能效優化與成本下降的節奏。通過每兩年左右將晶體管密度提升一倍,工程師們實現了算力的指數級增長與成本的持續降低,為移動設備普及、互聯網崛起筑牢了技術根基。
但如今,人工智能正在打破這個延續多年的增長曲線。
電子芯片的縮放時代,到頭了
訓練和部署大型神經網絡,需要的算力增長速度,早已甩開了晶體管工藝進步的追趕步伐。當下最先進的大模型動輒擁有數千億參數,訓練一次就要動用數千塊GPU,耗電量更是達到MW甚至GW別。即便半導體工藝不斷迭代、專用加速芯片層出不窮,算力的實際提升幅度也已陷入瓶頸,而功耗卻在一路飆升。
這就形成了一個無解的悖論:我們手握海量數據、坐擁更優算法、面臨空前的算力需求,但單純依靠電子芯片的縮放,已經走不通了。目前,數據中心的耗電量占到了全球總用電量的1%—2%,而AI負載正成為耗電增長的最大推手。有預測顯示,到2028年,僅美國數據中心的耗電量就將占到全國總供電量的12%,是當前的三倍之多。
也正因如此,光計算的登場,才顯得如此刻不容緩。
一場顛覆計算底層邏輯的革命
光計算的核心變革,是用光子取代電子,承擔特定計算任務——尤其是作為AI核心工作負載的矩陣乘法運算。不同于電子芯片依靠晶體管與片上電阻傳輸電荷,光計算系統直接將數據編碼進光束,利用光的物理特性完成數學運算。
光計算在AI加速領域的表現,遠超純電子系統。
光子天生就具備電子難以企及的優勢。由于光子之間不會像電子那樣產生相互作用,它們在傳播過程中不會因電阻產生熱量,這讓超低成本、高帶寬的運算成為可能。更關鍵的是,光可以輕松實現并行處理——多束光線能同時傳輸和處理信息,算力效率呈幾何級提升。
其實光計算并非全新概念,相關研究早在數十年前就已啟動。但直到最近,技術成熟度與市場應用需求才雙雙達標,讓光計算真正具備了落地價值。如今,光學技術已經深度融入數據中心:最初只是用于機柜間的遠距離數據傳輸,現在正逐步滲透到機柜內部的短距離連接場景。
光學互聯技術的普及,又推動了光交換技術的落地——比如谷歌早在近十年前就已部署相關設備。而硅光子學、集成光電子學的技術突破,再加上模擬計算與AI概率算法的融合,共同將光計算推向了產業化爆發的臨界點。
兩大技術路線對決:集成光子 vs 3D光學
光計算并非只有一條賽道,這個領域已經分化出兩條截然不同的技術路線,各自有著獨特的優勢與取舍。
集成光子技術,是將光限制在波導(蝕刻在硅或其他材料上的狹窄通道)內傳輸,能夠實現類似傳統集成電路的緊湊型、芯片級設計。這種方案的最大優勢,是能與現有的半導體制造工藝無縫兼容。但它的短板也十分明顯:光在波導中傳播會產生損耗,高密度集成的元件之間會出現熱串擾,導致性能下降;同時,芯片的二維平面結構,也限制了并行運算的潛力。
3D(自由空間)光學技術則另辟蹊徑。它讓光在三維空間中自由傳播,擺脫了波導的束縛。這不僅徹底解決了集成光子技術的損耗與串擾問題,更解鎖了真正的大規模并行運算能力。在自由空間光學系統中,光束可以在三個空間維度上同時完成分裂、調制與重組。這意味著,電子或集成光子系統需要數千步串行操作才能完成的矩陣運算,在3D光學系統中一步就能搞定。
![]()
借助三維空間的獨特優勢,光計算開辟出全新的縮放定律——算力越強,效率越高。
總部位于英國牛津的Lumai公司,正是3D光學路線的踐行者,該公司正在研發基于這一技術的AI加速器。其架構原理十分巧妙:輸入向量由光源陣列進行編碼,再通過透鏡在三維空間中展開,覆蓋整個矩陣的寬度;矩陣權重則由空間光調制器(比如電子顯示面板)實現,面板上每個像素的亮度都會對穿過的光線進行調制,本質上就是在完成乘法運算。
最后,透鏡會將經過調制的光線重新匯聚,生成輸出向量。在這套方案中,作為AI推理核心瓶頸的乘積累加運算,幾乎不消耗任何能量;系統功耗主要集中在光源、光電轉換、矩陣更新以及數字控制電路上。
更值得一提的是,3D光學方案完全可以基于成熟的商用技術落地——激光器、透鏡等元件都能針對光計算場景做優化,具備大規模量產的成本優勢。而它最大的亮點,是清晰可見的縮放潛力:隨著元件密度和精度的提升,并行運算的規模將呈平方級增長,而非線性增長,這為算力的持續突破預留了巨大空間。
光計算AI加速器的架構邏輯
光計算系統并非要取代通用處理器,而是作為算力增強的協處理器存在。關鍵的洞察在于:AI推理工作負載中,80%—90%的運算周期都消耗在矩陣向量乘法上,而這恰恰是光計算最擅長的領域。
一套混合架構應運而生:用光計算核心負責矩陣運算,用數字電子系統處理其余任務。
?光計算核心:利用光子完成矩陣向量乘法。
?數字控制單元:基于ASIC或FPGA的控制器,負責處理非線性激活、歸一化、數據格式轉換以及系統調度。
最終成型的協處理器,可以通過PCIe插槽直接接入標準數據中心基礎設施,與現有軟件棧無縫兼容,同時讓推理任務的速度和能效實現量級級的躍升。
光計算AI加速器,完美適配標準數據中心的硬件形態。
近期的多項技術驗證,都印證了這種架構的可行性。微軟研究院的模擬光計算機(AOC),在優化問題與AI推理任務中實現了百倍能效提升,輕松解決了傳統計算機難以處理的復雜銀行交易與核磁共振成像重建問題。
Lumai公司的架構則進一步拓展了這一技術的邊界。根據其技術路線圖,相比純硅基芯片,該方案的算力能提升50倍,而功耗僅為前者的10%左右——這種每瓦AI Token的能效表現,是純硅基方案難以企及的高度。
犧牲精度換能效?這筆買賣很劃算
由于光計算系統工作在模擬域,工程師可以通過調整信號強度,直接控制能耗:降低信號振幅,就能減少整體運算功耗。如果再搭配優化的量化算法,讓模型精度與模擬信號相匹配,就能在保證模型準確率的前提下,實現功耗的大幅下降。可以說,光計算的模擬特性,為系統設計提供了更多靈活度。
破解AI的存算瓶頸困局
在AI工作負載中,內存帶寬與算力之間的關系,遠比人們想象的更復雜。雖然大家常說AI任務受限于內存,但實際情況會因運算類型、模型架構與部署場景的不同而有巨大差異。
注意力機制層與全連接網絡中的稠密矩陣乘法,屬于典型的算力密集型任務——而這正是光計算的主場。一次完整的矩陣向量運算,在光計算系統中一個周期就能完成;反觀數字脈動陣列,則需要數百個周期,還伴隨著大量數據搬運操作,無論延遲還是能耗都遠遜于光計算。
理想的系統級解決方案,是為不同類型的運算匹配最合適的技術。比如,針對大模型預填充階段的大規模矩陣乘法,可以部署算力優化的光加速器;而面對內存受限的任務,則可以選用集成額外內存的光計算方案。這種混合策略,能夠精準擊破不同場景下的性能瓶頸,而非用一種方案包打天下。
光計算的縮放魔法:越大越強,越算越省
光計算最令人驚嘆的特性,尤其是3D光計算,在于算力規模越大,能效反而越高。這與傳統電子芯片形成了鮮明對比——后者的芯片規模越大、速度越快,功耗就會不成比例地飆升,能效提升則越來越乏力。
我們以AI模型的核心運算——光矩陣向量乘法為例:運算所需的光能量與向量寬度N呈線性關系,而運算吞吐量卻與N2呈正相關,因為每個輸出值都依賴于所有輸入值的計算。
由此,一條顛覆式的縮放定律誕生了:
能耗 ∝ N,算力 ∝ N2 → 能效 ∝ N
換句話說,光計算的規模越大,能效優勢就越明顯。
與傳統硅基芯片不同,光計算的縮放,不依賴晶體管的微型化,而是依靠提升光向量寬度、優化光電轉換效率與提高光時鐘頻率。更關鍵的是,這些技術方向還有巨大的挖掘空間;反觀電子芯片,想要提升算力,只能不斷堆砌晶體管,最終導致復雜度、功耗與發熱量同步失控。
算力革命的下半場,由光主導
光計算為算力拓展了多條超越電子芯片的縮放路徑:
1.向量寬度縮放:正如前文所述,矩陣規模越大,能效越高。更大的光計算系統,能實現更優的每焦耳性能,完美適配數據中心與大模型推理場景。
2.元件效率提升:調制器、探測器、光源等核心元件的光電轉換效率,每一代都會有顯著進步,而這些提升會直接轉化為系統級的能耗降低。
3.更高的光時鐘頻率:光信號的調制與探測頻率可以達到數十甚至上百吉赫茲。隨著光電子接口技術的發展,時鐘頻率還會持續攀升,且不會像電子開關那樣產生嚴重的熱損耗。
這些趨勢共同指向一個結論:光計算不僅會追上硅基芯片的算力水平,更會在晶體管技術觸及天花板后,引領算力繼續指數級增長。
新定律開啟新世代
如果說摩爾定律定義了電子芯片微型化與集成化的時代,那么下一個算力時代,將由計算介質的多元化來定義——為不同的任務,匹配最合適的物理介質。光子不會取代電子,而是作為電子的最佳搭檔,在AI核心運算場景中發光發熱,解鎖與AI發展軌跡相匹配的算力增長新曲線。
在這個全新的范式中,技術進步的衡量標準不再是晶體管數量,而是能否充分利用光的速度與并行特性,賦能AI計算。而隨著這些特性的深度挖掘,每焦耳能耗能完成的運算量,也會迎來質的飛躍。
未來的計算圖景已然清晰:算力的持續增長,不再依賴晶體管的不斷縮小,而是源于對物理規律的更精妙運用。
原文:https://www.allaboutcircuits.com/industry-articles/the-new-moores-law-why-optical-computing-could-redefine-scaling-for-ai/
邀請函
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.