北京時間 1 月 6 日凌晨 5 點多,英偉達創始人兼 CEO 黃仁勛在 CES 2026 發表了主題演講,演講核心只有幾個字——物理 AI。期間有一頁 PPT 暫時沒展示出來,他自嘲道演講場地在拉斯維加斯所以應該是有人中了頭獎導致的。期間,他和兩臺小機器人的互動,成為了本次演講的名場面之一。
![]()
會上最重磅的發布便是 Vera Rubin。黃仁勛以美國天文學家維拉·魯賓(Vera Rubin)的劃時代發現為引,揭曉了下一代 AI 超級計算平臺 Vera Rubin。
黃仁勛強調,AI 的發展正面臨根本性挑戰:模型規模每年增長十倍、推理過程從單次生成演變為多步思考、訓練與推理所需算力呈指數級飆升。為突破傳統芯片迭代的物理極限,英偉達做出了一個決定性選擇,不再進行局部優化,而是對計算基礎設施的每一個層級進行徹底的、協同的、系統性的重新發明。
![]()
Vera Rubin 平臺全棧重構:六款芯片齊上,用物理 AI 探索更多未識之地
Vera Rubin 平臺并非某一芯片的升級,而是一場涉及六大核心芯片的深度協同設計。
![]()
第一個是 Vera CPU:這是一款定制設計的服務器級 CPU,采用空間多線程架構,在 88 個物理核心上實現 176 個線程的全性能執行,其 I/O 帶寬與能效比相較前代實現翻倍,專為驅動 AI 超級計算負載而優化。
第二個是 Rubin GPU:這是 Vera Rubin 平臺的計算核心,其 AI 浮點性能達到上一代 Blackwell GPU 的五倍。引人注目的是,這一性能飛躍是在晶體管數量僅增加 60% 的基礎上實現的,其秘密在于 MVFP4 張量核心。該核心是一個具備自主調度能力的處理器單元,能實時分析 Transformer 模型各層的計算特性,動態調整數據精度與計算路徑,從而在保證關鍵計算精度的同時,最大化整體吞吐效率。黃仁勛表示,這一設計有望成為未來 AI 計算芯片的架構標準。
第三個是 BlueField-4 DPU:數據處理單元的里程碑之作。它不僅是卸載網絡、存儲和安全任務的協處理器,更肩負著革命性的新使命,即管理 AI 的上下文記憶系統。
第四個是 ConnectX-9 智能網卡:與 Vera CPU 協同設計,提供每秒 1.6TB 的超高帶寬,并支持可編程的 RDMA 與數據路徑加速,允許云服務商和 AI 實驗室自定義數據流。
第五個是 Spectrum-X 以太網交換機:黃仁勛表示這是全球首款集成硅光子學(Co-Packaged Optics)的以太網交換機,擁有 512 個 200Gb/s 端口。它并非傳統以太網交換機的升級,而是專為 AI 數據中心東西向流量模式設計的 AI 原生網絡,解決了 AI 作業突發性、多對多通信帶來的延遲與擁塞難題。
第六個是第六代 NVLink 交換機芯片:單個芯片即可提供每秒 400Gb 的交換能力,通過背板上的創新設計,在一個 Vera Rubin 機架內部構建了高達每秒 240TB 的 GPU 間互聯帶寬,這個數字是全球互聯網總截面帶寬的兩倍以上,確保 144 個 GPU 芯片能如同一個巨型處理器般無縫協作。
![]()
據黃仁勛介紹,Vera Rubin 平臺的硬件集成度達到了新高度。全新的液冷計算托盤完全摒棄了電纜和軟管,所有芯片通過定制基板緊密互聯,使系統組裝時間從數小時縮短至幾分鐘。
每個托盤集成了 2 顆 Vera CPU、4 顆 Rubin GPU、1 顆 BlueField-4 DPU 和 8 顆 ConnectX-9 網卡,構成一個 100 PetaFLOPS 的 AI 計算單元。多個托盤通過 NVLink 交換機在機架內構成 Rubin Pod,再通過 Spectrum-X 交換機在數據中心規模橫向擴展。
![]()
演講中,黃仁勛花了大量篇幅闡述 AI 推理的獨特挑戰,即不斷增長的上下文記憶。隨著模型支持更長的對話、存儲更多的臨時知識,傳統的 GPU 高帶寬內存已無法容納。
Vera Rubin 的解決方案是:在每個機架內,通過四顆 BlueField-4 DPU 直接管理一個高達 150TB 的共享、持久、高速的上下文內存池。該內存池通過超低延遲的機架內網絡(與 GPU 互聯同技術)與所有 GPU 直連,可以動態地為每個 GPU 分配高達 16TB 的專用上下文空間。這相當于為每個 GPU 配備了一個容量擴大 16 倍、且速度遠超傳統網絡存儲的外部大腦,徹底解決了長上下文 AI 應用的核心瓶頸。
![]()
盡管性能飆升,Vera Rubin 平臺堅持使用 45 攝氏度溫水冷卻,無需能耗巨大的冷水機組,這一設計預計能為全球數據中心節省約 6% 的總電力消耗。Vera Rubin 平臺還首次實現了全路徑硬件加密的機密計算,從 GPU 到 GPU,從 CPU 到 DPU,所有內部總線數據均被加密,為多租戶 AI 云服務提供了芯片級的安全隔離。
此外,系統級的動態功率平滑技術能夠有效吸納 AI 計算中特有的瞬時功率尖峰,允許數據中心以更接近平均功耗的容量進行供電配置,避免了巨額的基礎設施過度投資。
![]()
黃仁勛用三組數據總結了 Vera Rubin 的商業價值:
首先是研發速度:訓練一個 10 萬億參數規模的下一代前沿大模型,所需集群規模僅為使用 Blackwell 系統的四分之一,極大加速了從研究到產品的迭代周期。
其次是基礎設施效率:在同等功耗和空間下,一個 Vera Rubin 數據中心的 AI 計算吞吐量預計將達到基于 Hopper 架構數據中心的約 100 倍,直接轉化為驚人的營收能力提升。
再次是推理成本:大規模 AI 服務的 token 生成成本,預計將降至當前水平的約十分之一,為 AI 服務的普及和商業化掃清了關鍵障礙。
![]()
此次發布標志著英偉達的戰略定位已從領先的 AI 芯片供應商演變為 AI 時代全棧計算基礎設施的定義者和提供者。黃仁勛強調,英偉達的使命是構建從硅光子、芯片、系統、軟件到開發工具的完整堆棧,從而讓全球每一個開發者都能擁有探索 AI 下一個前沿的能力。
![]()
計算機產業正面臨前所未有的雙重平臺轉移
事實上,黃仁勛在此次演講中將 Vera Rubin 平臺的發布留在了末尾,而他在前面的演講也很值得關注。
黃仁勛開篇即指出,計算機產業每 10 至 15 年經歷一次平臺重置,從大型機到 PC,再到互聯網、云和移動。但當前這次變革截然不同:“這次有兩個同時發生的平臺轉移。”其核心是計算范式的根本性轉變。
![]()
他表示:“你不再編程軟件,而是訓練軟件;你不在 CPU 上運行它,而是在 GPU 上運行它。”應用程序不再只是預編譯和回放,而是能夠理解上下文,并根據意圖實時生成每一個像素、每一個 token。這意味著價值數十萬億美元的傳統計算堆棧正在被加速計算和 AI 現代化改造。每年數千億美元的風險投資和全球企業研發預算的顯著部分,正從傳統方法轉向 AI。
黃仁勛將未來 AI 應用的核心框架定義為智能體。它不再是單一的對話模型,而是一個具備推理、研究、使用工具、規劃能力的多模態、多模型協同系統。他以開源代碼助手 Cursor 和 AI 搜索引擎 Perplexity 為例,說明智能體如何通過組合不同模型包括專有前沿模型和本地定制模型和工具,來解決前所未有的復雜問題。
他強調,開放模型的興起是去年 AI 領域最重大的進展之一。以 DeepSeek R1 等為代表的開源模型,雖然目前比前沿專有模型可能落后約六個月,但其快速發展激活了全球 AI 界。開放模型降低了參與 AI 革命的門檻,使初創公司、大型企業、研究機構乃至各個國家都能基于此構建自己的 AI 解決方案。
![]()
英偉達自身也在通過 DGX Cloud 超級計算集群,在蛋白質結構預測(OpenFold)、氣候氣象(ForecastNet)、世界模型(Cosmos)、機器人(GR00T)等多個前沿領域,構建和開源其前沿AI 模型。黃仁勛表示,英偉達不僅開源模型,還開源用于訓練的數據集和全套工具鏈(Nemo 系列庫),旨在讓每個公司、每個行業、每個國家都能成為這場 AI 革命的一部分。
如前所述,物理 AI 是本次演講的主題詞,它指的是讓 AI 理解并安全地與物理世界互動。黃仁勛宣布,這是英偉達耕耘八年的領域,其核心支柱是三臺計算機架構:用于訓練的 AI 超級計算機、用于部署的邊緣推理計算機,以及用于合成數據生成和仿真的數字孿生計算機。
演講中,他發布了英偉達的開放世界基礎模型 Cosmos。它通過海量視頻、真實駕駛數據和 3D 仿真進行預訓練,能理解物理定律、生成逼真且物理合理的視頻、進行軌跡預測和推理。黃仁勛稱其為將計算轉化為數據的關鍵,可用于解決自動駕駛等場景中難以窮盡的長尾問題。
基于此,英偉達推出了其首個端到端訓練的自動駕駛 AI 系統——Alpha Maye。它不僅從傳感器輸入直接控制車輛,還能解釋其決策的理由和即將采取的行動軌跡。該系統融合了人類示范數據與 Cosmos 生成的海量合成數據。
![]()
黃仁勛宣布,首款搭載該系統的梅賽德斯-奔馳 CLA 車型(剛獲 NCAP 最高安全評級)將于 2026 年一季度在美國上路,并陸續推向全球市場。他強調,該解決方案從芯片(如下一代 DRIVE Thor)、軟件棧到安全系統均為英偉達與奔馳深度合作開發,并同時向更廣泛的汽車行業生態系統開放。
他斷言,未來十年,自動駕駛的轉折點已經到來,這將是第一個大規模的主流物理 AI 市場。而三個計算機架構和仿真技術,正推動更廣泛的機器人革命。現場亮相的多款機器人合作伙伴產品也預示著,從物流機器人到人形機器人,一個龐大的新產業正在成型。
![]()
他同時宣布,英偉達的 CUDA-X 加速庫、物理 AI、智能體模型正深度集成到 Cadence、Synopsys 和西門子等行業巨頭的 EDA(電子設計自動化)、CAE(計算機輔助工程)和數字孿生平臺中。
這意味著,未來的芯片和工廠將在虛擬世界中由 AI 輔助設計和優化,并由機器人自動化生產。黃仁勛對現場的機器人說道:“你們(指機器人)將在這些平臺內被設計、被制造、被測試。”這標志著 AI 技術完成了一個循環:從由芯片產業孕育,到如今以更強大的能力,反過來徹底革新芯片設計與高端制造本身。
![]()
莎士比亞在戲劇《暴風雨》中說道:“凡是過去,皆為序章(What's past is prologue.)。”黃仁勛的演講也表明了 AI 仍然正在引發一場覆蓋所有層級的計算革命,也說明黃仁勛意圖帶領英偉達用物理 AI 來開辟新的天地。
參考資料:
https://www.nvidia.cn/events/ces/
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.