11月27-28日,被譽為“年度科技與商業風向標”的36氪WISE2025商業之王大會,在北京798藝術區傳導空間落地。
今年的WISE不再是一場傳統意義上的行業峰會,而是一次以“科技爽文短劇”為載體的沉浸式體驗。從AI重塑硬件邊界,到具身智能叩響真實世界的大門;從出海浪潮中的品牌全球化,到傳統行業裝上“賽博義肢”——我們還原的不僅是趨勢,更是在捕捉在無數次商業實踐中磨煉出的真知。
我們將在接下來的內容中,逐幀拆解這些“爽劇”背后的真實邏輯,一起看盡2025年商業的“風景獨好”。
![]()
光聯芯科 CEO 陳超
以下是真知創投合伙人、光聯芯科CEO 陳超先生的演講實錄,經36氪編輯:
大家下午好!我是來自光聯芯科的陳超。非常高興有機會跟大家分享,我的演講主題是“算力·無界 光互連是通往AGI的必由之路”。
在正式開始之前,我想邀請大家來先看一組圖片,這三張圖由Open AI Sora多模態大模型生成的,算力規模不同,從左到右別用到了300張GPU、1250張GPU和10000張GPU,從左到右也是圖片質量越來越好。那么,我們是否可以做一個基本假設:所用算力的多少能決定一個AI智能的高低。
2012年,AlexNet橫空出世,代表著深度學習在計算機視覺領域的重大突破。2015年,DeepMind在《Nature》上發表了一篇文章,它將深度學習和強化學習相結合,第一次讓人工智能有了自主學習復雜任務的能力。2016年,AlphaGo出現,AI第一次在圍棋領域戰勝了人類的頂尖選手。2022年,ChatGPT出現,AI第一次從專業領域走入大眾視野。再到今年GPT-5的出現,距離ChatGPT有3年的時間,我相信在座的各位或線上的朋友,或多或少都會用各種AI工具提效。
回顧整個AI的發展歷程,如果把1956年第一次達特茅斯會議看成AI的開始,到現在也有將近70年的時間。為什么過去10年AI有了突飛猛進的進展,而不是在前60年?因為AI的進化是算力驅動的,過去十年間算力的增長超過10億倍,就是10的9次方,可以說是年對年的算力增長是將近10倍。
訓練一個AlexNet模型,只用到兩張英偉達的GTX580,AlphaGo則用了1920個CPU+280個GPU,GPT-3使用了1萬個英偉達的G100,達到萬張的級別。GPT-5用到了約20-30萬張英偉達的H100,這個數量級已經很大。如果我們走向通用人工智能AGI,未來GPT-6、GPT-7需要多少算力才能達到AGI?
根據硅谷前沿科技分析師的預測,達到AGI需要大約10的41次方FLOPs的等效算力。我們現在目前的算力水平在10的25次方左右,也就是說我們還有大概10的16次方的差距。如果我們假設在軟件算法層面能跨越10的8次方的差距,那么剩下的10的8次方,一定要在硬件芯片的算力層面去提升。也就是說,實現AGI需要現在的算力規模提升1億倍,這是一個非常大的數字。
按照現在算力行業的進行軌跡,我們能否達到AGI?
不能。為什么?因為算力行業面臨了兩大挑戰,有帶寬的瓶頸、也有能耗的問題。
先來看帶寬。互連帶寬嚴重限制了算力的發展,互連帶寬的增速顯著低于算力增速。過去20年間,單芯片算力的提升倍數是6萬倍。存儲帶寬只提升了100倍,與前者相差600倍。互連帶寬只提升了30倍,更小,只有算力提升的兩千分之一。整個計算集群的性能,被帶寬嚴重限制,而不是被算力所限制。
我們來看一個具體的案例,馬斯克的Grok3大模型由Colossus算力集群訓練,一共用到約20萬塊英偉達H100芯片。這樣大規模的集群,幾個層級的互連帶寬分別表現如何?可以看到,芯片最里面,顯存帶寬是4TB每秒。往外走,兩張GPU之間的連接是NVLink,帶寬是0.9TB每秒,對比前面已經小了5倍左右。再往外走,服務器和服務器之間需要用IB網絡互連,帶寬是0.05TB每秒,對比NVLink帶寬,又小了將近20倍。
從芯片內往外走到服務器,層層受限。互連帶寬已經成了層層卡點,限制了整個算力集群的性能,這就是為什么很多算力集群的利用率、芯片的利用率只有20%-30%,而達不到80%-90%滿轉的狀態。
再來看能耗。我們來看兩個對比,右邊是三峽水電站和大亞灣核電站的總裝機容量,分別是22.5GW和6GW,吉瓦是一個很大的數字。
左邊是全球在建的數據中心的規劃量級。Stargate由Open AI和微軟共同打造、耗資1000億美元的超級算力中心,規劃總容量5GW,幾乎相當于一個大亞灣核電站的總裝機容量。xAI是馬斯克旗下,和沙特人工智能公司、英偉達合作籌建的一個超級算力中心,規模是6.6GW,甚至超過大亞灣核電站總裝機容量,約是三峽的三分之一。一個算力中心相當于一個核電站的發電量,未來我們要實現AGI,算力需擴張到1億倍,全球的電力用來做運算都是不夠的。這條路走不通,問題出在哪里?
這是英偉達NVL72超節點正面跟反面的照片,如果我們把反面的背板放大,會看到很多銅做的銅纜,這些銅纜加起來超過兩英里。銅這種介質有一個問題:隨著傳輸速率的不斷提升,會受到趨膚效應的影響。即銅只有表面去做信號的傳導,銅里面沒有任何電流經過。這意味著銅所代表的電互連在帶寬和功耗上已經走到了物理極限,兩英里長的銅纜,算力中心90%的能耗都用在搬運數據而非計算上,是一個巨大的浪費。
銅做不到的事情,怎么辦?我們用光。
光互連是突破算力瓶頸的最優解。從1998年全球第一條服務于互連網的海底光纜鋪設成功,我們就解決了從千公里到萬公里的光的通信、光的連接能力。過去十年到二十年,數據中心蓬勃發展,我們有了相干光模塊、數通光模塊等,解決了從一公里到數百公里的光的連接能力。一公里以內,幾百米到幾厘米之間,我們可不可以用光去解決連接問題?答案是可以。我們可以用芯片出光,去解決幾百米內到幾厘米之間光的連接問題。用電做計算,用光做互連,因為我們相信,光互連本質上是光通信在數據通信領域的進一步延伸跟下沉。
光聯芯科就是打造下一代AI計算集群光互連解決方案的提供商,可以做到芯片直接出光,為算力公司提供大帶寬、低功耗、低延時的下一代光互連的解決方案。
未來的數據中心都是由綠色能源的光纖來互連,一排排地復制,能耗非常低,但帶寬非常大。我們希望將帶寬能效積能夠提升4個數量級以上,也就是1萬倍以上。
這是我們的產品展示。右邊是我們用國產的晶圓廠制造的硅光晶圓,展示的是晶圓級的系統測試平臺。左邊是我們發布的第一代高速收發的OIO高速光引擎評估板。可以看到,左邊的光纖拉出來可以連到GPU里面,做到GPU之間的光互連。
光聯芯科的企業愿景是助力國產算力行業走出中國自己的半導體平行生態。我經常會想到一個類比:在燃油車領域,我們很難去直線追趕BBA,但是我們另辟蹊徑,用電動車,現在已經完全彎道超車。在半導體領域,是否可以同樣另辟蹊徑?如果把英偉達跟臺積電等高端設計公司比作燃油車賽道,我們可否換條賽道彎道超車?用國產的算力、國產的互連和國產的晶圓制造廠,雖然單顆芯片的算力距離國外有一定差距,但是我們完全可以在整體算力集群的性能和功耗上超越國外,我們可以走出一條中國獨有的半導體突圍之路。
展望2030年,未來的算力中心會是什么樣的?未來的算力世界又會是什么樣?我相信,那時很多人都用上了低軌衛星互連網,跟地面用激光通信,用光做連接。骨干網會用光纖做連接,數據中心會有光模塊、光互連、光交換等去連接,我們期待一個全光互連的新時代。
謝謝大家!這是今天我的分享。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.