![]()
新眸原創·作者 | 李小東
英偉達沒有在CES 2026上發布任何新的顯卡。
取而代之的,黃仁勛用近兩個小時,詳細闡述了一個名為Vera Rubin的全新AI超算架構,以及一組足以改寫行業規則的數字:
在Rubin上運行AI推理,吞吐量提升十倍,訓練萬億參數模型所需的GPU數量,可以減少到上一代Blackwell的四分之一,而每個token的成本降至十分之一。
這件事可能埋了個信號。
它或許預示,在傳統消費級GPU這條線上,通過制程和架構微迭代帶來的性能提升,其邊際效應正在減弱,或者說,已不足以支撐一個激動人心的發布會。
以下是我們就此事的一些思考。
01
關于沒有新顯卡與Rubin的商業模式
理解Rubin,關鍵在于轉變視角。
它不是一個更快的GPU,你可以把它視為一套極度垂直整合的AI計算系統。英偉達設計了六顆功能各異、但深度耦合的專用芯片去進行打包:
Vera CPU(負責AI數據流調度)、Rubin GPU(核心算力單元)、NVLink 6(超高帶寬內部互聯)、ConnectX-9 SuperNIC(AI專用網絡)、BlueField-4 DPU(卸載存儲與安全任務)、Spectrum-6以太網交換芯片。
六塊芯片協同工作,目標是將整個數據中心機柜整合為一臺無縫的“巨型AI計算機”。
![]()
Rubin解決的,是系統規模化的難題,不是單顆芯片的性能極限。讓算力的堆疊,從“手工組裝賽車引擎”變為“標準化汽車工廠流水線”,至于帶來的效率提升和成本下降,是系統級優化的必然結果。
這種模式,確實與谷歌通過TPU及其互聯技術打造自家AI基礎設施的思路異曲同工。英偉達的Rubin,正是面向那些與谷歌有相似需求的客戶——即需要處理海量Token、訓練和運行萬億參數模型的超大規模AI廠商或云服務商。
對比英偉達在這之前的商業模式,有一些從“賣鏟子”到“賣生產力車間” 的商業模式的轉向。它帶來的性能提升(如10倍推理吞吐)和成本下降(1/10的Token成本),是這種專用化、系統級優化所能釋放的潛力。
但它的限制也在于此。
Rubin的威力只有在處理其預設的、高度并行化的AI計算負載時才能完全釋放。對于圖形渲染、通用科學計算或小規模模型推理等場景,其復雜性和成本可能并不劃算。它瞄準的是一個龐大但特定的“主航道”市場。
02
關于對現有AI硬件生態的沖擊
Rubin的出現,會不會讓“囤積高端GPU”作為核心競爭力的時代,開始進入倒計時?
如果說,Rubin真的能夠達到市場普及,隨之而來就要面對一些尷尬情況:
對于第一波靠買賣或租賃算力(如H100集群)的廠商,他們的商業模式將承受巨大壓力。當新一代系統能以低得多的單位成本提供推理服務時,舊有集群的性價比優勢會迅速喪失,除非他們能快速升級到新架構。
而對于那些早期投入巨資自建GPU集群的AI公司,他們的處境更為微妙。這些硬件資產短期內不會報廢,依然能用于研發和現有服務。
但問題在于未來的競爭維度。
當新入場的玩家可以憑借Rubin級別的廉價算力,輕松獲得與你相當的推理能力時,你之前用巨額資本構筑的算力壁壘,戰略價值就會急劇縮水。競爭將更快地、更徹底地轉向模型算法本身的優越性、數據的獨特性和閉環,以及產品與市場的契合度。
英偉達自身的角色,也會因此在演變。它確實在向“AI時代的高通”靠攏,即提供核心的、標準化的計算模塊。但Rubin所展現的集成度,又比手機SoC復雜得多,更接近于提供一整套參考設計和系統解決方案。
未來,如果其超算架構(如DGX SuperPOD)以云服務形式被大規模交付,那么它還將附加一層“運營商”的屬性,直接向終端用戶輸出AI算力服務。
03
關于Token平價時代的窗口期問題
Rubin所承諾的“平價推理時代”,其窗口期的長短,取決于兩個關鍵變量:Rubin的銷量爬坡速度,以及現有巨頭模型能力的迭代速度。
如果Rubin能在2026年下半年如期規模上市,并快速被主要云廠商(如AWS、Azure、GCP)部署,那么這個“平價算力”的接入點就會迅速普及。
窗口期可能并不長。在這段時間里,存量公司必須完成從“依賴硬件規模”到“依賴軟件和生態優勢”的關鍵轉型。
具體來說,他們可能需要:利用現有算力優勢,加速訓練出具有代際差異的模型,建立足夠高的算法壁壘;將業務迅速與具體商業場景深度綁定,形成數據閉環和客戶粘性,讓算力成本不再是決定性因素;積極探索基于現有模型的創新應用和生態,在平價算力浪潮到來前,占據用戶心智和市場份額。
當大家獲取先進算力的成本拉平時,那些僅靠算力堆砌而無獨特技術或產品護城河的公司,優勢可能很快蒸發。
04
關于AI泡沫與下一代種子選手
需要注意的是,Rubin的大規模投入,是為AI商業價值的全面實現,拆除了最大的成本和規模障礙,但它本身并不能自動創造價值。
簡單來說,解決的是“成本可不可行”問題,而不是“需求存不存在”問題。
AI泡沫論常質疑的是:天價訓練成本能否產生與之匹配的商業價值?Rubin將成本打下來,實際上是大幅降低了驗證商業價值的門檻。
更多的創業團隊可以用可承受的成本,去測試更激進、更復雜的AI想法。因此,接下來的邏輯不是泡沫破裂,行業可能正從依靠資本堆砌的蠻力階段,進入一個更健康、更依賴創新而非資本的篩選階段。
最先能有效利用Rubin級別算力的創業者,未必是現在資金最雄厚的,但一定是對AI原生應用有最深洞察、最能發揮廉價推理潛力的團隊。他們可能是下一代“殺手級應用”的種子選手。
從這個角度來看,長遠一些,以往算力的天價成本導致只有少數玩家能入場,他們的故事建立在“我有稀缺算力”的基礎上,商業價值驗證被推遲。
Rubin之后的新邏輯是,算力門檻驟降,入場玩家會激增。當然,這可能會導致大量同質化應用涌現,市場競爭會瞬間變得極為殘酷。因為許多僅僅依靠“我有AI功能”的應用將迅速失去價值,因為它們無法在成本相近的情況下提供獨特優勢。
真正的價值創造者(擁有獨特數據、精妙算法、深刻行業洞察的團隊)會脫穎而出,而裸泳者會更快暴露。所以,Rubin的到來可能并不意味著泡沫結束,恰恰是一輪更劇烈的淘汰賽開始。
05
關于不推新顯卡的深層原因
作為天才銷售大師的黃仁勛,在這次CES全球大會上沒有推銷顯卡,這件事本身是很值得討論的,我們甚至可以合理猜測,在半導體物理邊界下,已經逼近創新極限?
在傳統GPU的晶體管微縮競賽中,持續實現代際性能飛躍的難度確實在增加。與此同時,AI數據中心市場的增長曲線和利潤空間,已經形成了絕對的戰略引力。
在先進封裝、HBM內存等產能可能依然全局緊張的背景下,英偉達選擇將資源(研發、產能、市場聲量)絕對優先地投入到決定其未來的AI基礎設施戰場,有一定的必然性。
另一方面,在過去一年里,英偉達的行業統治地位或多活動受到不少挑戰,尤其是來源于谷歌這類科技公司的一些顛覆。
在缺乏制程紅利或架構顛覆性突破的情況下,匆忙推出小幅升級的產品,反而可能打亂市場節奏、影響現有產品線(如RTX 40系)的銷售。英偉達有資本選擇等待一個更合適的發布時機。
06
更實際的問題
拋開以上,還有兩個非常實際的問題:一是從現有架構遷移到Rubin的更新成本與收益是否匹配;二是新架構下硬件必然會存在的穩定性與魯棒性風險。
對于從業者來說,從Blackwell或更早架構遷移到Rubin,遠不止一次簡單的硬件采購。
最典型的例子,集成六種尖端芯片、采用全液冷設計的Rubin系統,其單機柜或單托盤的價格必然極其昂貴,會顯著高于當前一代系統。
還有他們的計算邏輯,客戶不會單純為了當前的算力付費,他們要購買一張通往下一代AI成本結構的門票。核心比較指標非“總擁有成本(TCO)”,而是 “單位智能成本(Cost Per Intelligence)”——即處理每萬億token、訓練每個萬億參數模型的綜合開銷。
那劃不劃得來呢?對于極度稀缺、高速迭代的前沿模型研發(如追求AGI的實驗室)和超大規模AI云服務商來說,答案很可能是肯定的。
即便硬件單價高,但若能將其服務的天量Token推理成本降低一個數量級,或在競品之前以數月時間優勢推出更強大的模型,這筆投資就能在極短時間內通過市場領先地位和更低的運營成本收回。這是為生存和領先而戰。
除了這些,還有遷移與適配的隱性成本。比如,Rubin的NVFP4張量核心、新的內存層次(如由BlueField-4驅動的上下文存儲平臺)以及CPU-GPU協同模式,都需要對現有的深度學習框架、模型架構和調度軟件進行深度優化,甚至重寫部分代碼。這需要投入大量工程師時間和驗證成本。
決策者還要考慮什么時候回本,比如:
基于Rubin更低廉的Token成本,自己的業務量(推理請求、模型訓練任務)將增長多少?新架構帶來的能效提升,能節省多少電力成本?與“維持舊系統,但承擔更高邊際成本和逐漸喪失競爭力”的路徑相比,提前投資Rubin的凈現值(NPV)是否為正?
對于大多數企業,這個平衡點可能不會立即到來。
另一方面,關于穩定性與魯棒性,是這種系統級極致創新的天然反面。
對于任一硬件工藝,復雜度激增必然帶來故障點的擴散。傳統的GPU集群有一兩個出現問題,任務可遷移解決。但Rubin是一個超級有機體,內部(Vera CPU、Rubin GPU、NVLink 6、DPU、超級網卡)精密耦合,任何一個關鍵部件的異常,都可能影響整個系統的協同效率。
對于工程師來說,故障診斷難度大概率也會上升。當性能問題或錯誤出現時,排查的根源可能是硬件(六種芯片中的任何一種)、固件、驅動、互聯協議或系統軟件中的任何一環。這種深度集成使得傳統“分而治之”的調試方法變得異常困難。
我們也注意到,針對這幾個風險,老黃在演講中回應了幾項特性,如全鏈路機密計算與加密、徹底重新設計的供電與冷卻、通過DPU實現“卸載”與“隔離”。
只不過,無論設計多么精妙,一套如此復雜的新系統,也必須經過大規模、長時間、多樣化實際工作負載的淬火才能得到驗證。
按照以往的經驗,早期采用者將不可避免地承擔“共同測試者”的角色,與英偉達一同發現并解決那些在實驗室中無法預見的問題。
這個過程可能需要更長時間。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.