
科技媒體 livescience 11 月 24 日發布博文,報道稱來自芬蘭阿爾托大學的研究團隊成功演示名為“并行光學矩陣-矩陣乘法器”(POMMM)的新一代光學計算基礎架構,旨在解決人工智能(AI)模型訓練和執行中的核心瓶頸。
IT之家援引博文介紹,現代 AI 模型,尤其是大語言模型(LLM),其性能受限于處理“張量”(Tensor)數據的速度。
Tensor 是 AI 模型中用于組織數據的加權結構,處理速度的上限直接決定了模型規模的上限。POMMM 架構的出現,為突破這一限制提供了全新思路。
傳統光計算雖然在小規模下比電子計算更快、更節能,但存在一個致命缺陷:難以并行處理。與可以大規模串聯以指數級提升算力的圖形處理器(GPU)不同,大多數光學系統只能線性運行。
因此,盡管光計算潛力巨大,但開發者普遍傾向于選擇 GPU 的并行處理優勢。像 OpenAI、Google 等公司開發的頂級 AI 模型,正是依賴數千塊 GPU 并行運行才得以實現。
POMMM 技術能夠利用單次相干光的傳播過程,完成整個矩陣與矩陣的乘法運算。其核心原理在于,通過空間光調制器將數字張量編碼為光的相位和振幅,光束穿過實現傅里葉變換的透鏡組后,運算結果以干涉圖像的形式被高速探測器捕捉。整個算術過程在光的“飛行”中瞬間完成,無需電子環路或內存讀取,實現了物理層面的“自然同步計算”。
![]()
研究團隊基于現成的光學元件搭建了原型機,在標準光學平臺上耗時六個月完成組裝。測試結果顯示,對于最大 50x50 的矩陣,該原型的平均絕對誤差(MAE)低于 0.15,歸一化均方根誤差(RMSE)則保持在 0.1 以下。
這一精度已能滿足許多邊緣推理應用的需求。盡管當前原型機的能效僅為 2.62 GOP/J(每焦耳執行 26.2 億次操作),遠低于頂尖 GPU,但其潛力巨大。團隊強調,這項技術的優勢在于其擴展性與速度,運算延遲可達納秒級,遠勝于電子計算的微秒級。
為了加速技術驗證和社區發展,研究團隊已在 GitHub 上開放了所有代碼和數據。這種透明化的做法增強了外界對該技術突破的信心,并吸引了全球光子學實驗室和 AI 加速器開發者的關注。
研究人員指出,探測器的動態范圍和校準漂移是目前需要攻克的難題,但未來的技術路線圖非常清晰。通過將空間光調制器和探測器陣列等關鍵部件集成到低損耗的氮化硅光子芯片上,能效有望實現百倍提升。
根據團隊預測,集成了專用光子芯片的原型機有望在三年內問世,預計能將能效提升至 300 GOP/J,遠超電子 GPU 目前約 30 GOP/J 的能效瓶頸。不過,考慮到封裝、溫控和激光器集成等工程挑戰,距離實現大規模量產可能還需要五年以上的時間。
來源:IT之家
▼ 往期熱文推薦 ▼
【溫馨提示】文中部分圖片來源網絡,版權歸屬原作者,若有不妥,請聯系告知修改或刪除。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.