![]()
去年這時候,Nvidia手里攥著500億美元的AI算力訂單,已經讓市場瞳孔地震。今年GTC 2026,黃仁勛把這個數字改成了1萬億——不是"預計",是"solid backlog"(確定 backlog)。與此同時,OpenAI和Anthropic的年化收入雙雙沖到250億美元左右,兩三年前還是零。
這個數字背后有個更狠的趨勢:推理(inference)正在吃掉所有算力預算。ChatGPT那種一問一答的"單次射擊"AI已成往事,深度推理和智能體(agentic AI)讓單次查詢處理的token數量暴漲幾個數量級。用戶不會等,速度就是生死線。
OFC 2026(光纖通信大會)和GTC 2026今年撞期,一個在洛杉磯,一個在圣何塞。老參會者注意到一個微妙轉向:幾年前這里還是電信設備的天下,如今滿眼都是數據中心AI的光電方案。兩個會場被同一股力量擰在一起——AI算力需要光學互連(optical interconnect)來喂飽。
從海底電纜到機架頂部:光纖的兩次征服
光學互連早就征服過互聯網。跨洋、跨大陸的高帶寬光纖連接,是互聯網骨架的骨架。隨后它拿下了數據中心的橫向擴展鏈路(scale-out links),那些架頂交換機上一捆捆亮黃色的線纜,全是光纖。
現在,第三波征服要來了。未來五年,所有高帶寬數據互連都將變成光學——不是"可能",是"即將"。
驅動這個判斷的有三條硬邏輯:
第一,AI需求指數級爬坡,沒有見頂跡象。黃仁勛在GTC 2026展示的帕累托曲線(Pareto curve)有兩個軸:批量處理(batch)追求單用戶低TPS下的最大吞吐量,而智能體場景要高TPS響應速度。新發布的Rubin架構兩頭兼顧,與Groq LPX集成后,高響應場景能再提一個數量級。
第二,電力是硬天花板。超大規模云廠商(hyperscalers)占Nvidia需求的60%,他們自建芯片的同時,CapEx仍在飆升。原因很現實:同樣1兆瓦電力,新架構能帶來2倍到35倍的吞吐量提升。每瓦特算力就是真金白銀。
第三,2028年的Feynman架構預告了1000+ GPU的巨型pod。這種規模下,銅纜的物理極限暴露無遺——距離、帶寬密度、功耗,全數觸頂。
三種材料、三項技術:光學的武器庫
實現全光數據中心,需要三類材料并肩作戰:CMOS(傳統硅基電路)、磷化銦(InP, indium phosphide)、硅光(SiPho, silicon photonics)。
激光器、共封裝光學(CPO, co-packaged optics)、光路開關(OCS, optical circuit switch)將無處不在。CPO把光學引擎塞進芯片封裝,消滅電信號在PCB上的損耗;OCS讓光路可編程重構,拓撲靈活性碾壓傳統電交換。
這些不是實驗室概念。OFC 2026的人潮和熱情說明,產業鏈已經在為量產做準備。
銅纜的黃昏?
數據中心里還有大量銅纜在服役,尤其是機架內部的短距連接。但"短距"的定義正在收縮。當GPU pod膨脹到1000+規模,當CPO把光學端口推到芯片邊緣,銅的性價比優勢區間被不斷擠壓。
這不是"銅死光生"的戲劇敘事,是物理極限下的成本重算。帶寬密度每翻一倍,銅的功耗和信號完整性代價就陡峭一分。光學方案在下行成本曲線,銅在上行。
五年窗口期,足夠讓新建數據中心徹底倒向全光架構。存量改造會慢一些,但CapEx的投票權在超大規模云廠商手里——而他們正是最激進的那批。
黃仁勛的1萬億訂單里,有多少已經內定了光學互連的升級路徑?OFC會場的人潮,有多少工程師正在把PPT里的CPO和OCS變成產線圖紙?這兩個問題,大概指向同一個答案。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.