![]()
這是英偉達 5 年來,第一次在 CES 上沒發消費級顯卡。
CEO 黃仁勛闊步走向 NVIDIA Live 的舞臺中央,還是去年那件亮面鱷魚皮衣。
![]()
與去年單獨主旨演講不同,2026 年的黃仁勛密集趕場。從 NVIDIA Live 到西門子工業 AI 對話,再到聯想 TechWorld 大會,48 小時內橫跨三場活動。
上一次,他在 CES 發布了 RTX 50 系列顯卡,而這一次,物理 AI 和機器人技術成為了全新的主角。
Vera Rubin 計算平臺登場,依舊是買越多省越多
發布會期間,愛整活的老黃直接把一臺 2.5 噸重的 AI 服務器機架搬上了舞臺,也因此引出了本次發布會的重點:Vera Rubin 計算平臺,以發現暗物質的天文學家命名,目標只有一個:
加速 AI 訓練的速度,讓下一代模型提前到來。
![]()
通常來說,英偉達內部有個規矩:每代產品最多只改 1-2 顆芯片。但這次 Vera Rubin 打破了常規,一口氣重新設計了 6 款芯片,并全面進入生產階段。
究其原因,伴隨著摩爾定律的放緩,傳統性能提升方式已經跟不上 AI 模型每年 10 倍的增長速度,所以英偉達選擇了「極致協同設計」——在所有芯片、整個平臺各個層級上同時創新。
![]()
這 6 款芯片分別是:
1. Vera CPU:
- 88 個 NVIDIA 定制 Olympus 核心
- 采用 NVIDIA 空間多線程技術,支持 176 個線程
- NVLink C2C 帶寬 1.8 TB/s
- 系統內存 1.5 TB(為 Grace 的 3 倍)
- LPDDR5X 帶寬 1.2 TB/s
- 2270 億個晶體管
![]()
2. Rubin GPU:
- NVFP4推理算力50PFLOPS,是前代 Blackwell的5倍
- 擁有 3360 億晶體管,比 Blackwell 晶體管數量增加了 1.6 倍
- 搭載第三代Transformer引擎,能根據 Transformer 模型需求動態調整精度
![]()
3. ConnectX-9 網卡:
- 基于 200G PAM4 SerDes 的 800 Gb/s 以太網
- 可編程 RDMA 與數據通路加速器
- 通過 CNSA 與 FIPS 認證
- 230 億個晶體管
![]()
4. BlueField-4 DPU:
- 專為新一代 AI 存儲平臺而構建的端到端的引擎
- 面向 SmartNIC 與存儲處理器的 800G Gb/s DPU
- 搭配 ConnectX-9 的 64 核 Grace CPU
- 1260 億個晶體管
![]()
5. NVLink-6 交換芯片:
-連接 18 個計算節點,支持最多 72 個 Rubin GPU 像一個整體協同運行
- 在 NVLink 6 架構下,每個 GPU 可獲得 3.6 TB 每秒的 all-to-all 通信帶寬
- 采用 400G SerDes,支持 In-Network SHARP Collectives,可在交換網絡內部完成集合通信操作
![]()
6. Spectrum-6 光以太網交換芯片
- 512 通道,每通道 200Gbps,實現更高速數據傳輸
- 集成臺積電 COOP 工藝的硅光子技術
- 配備共封裝光學接口(copackaged optics)
- 3520 億個晶體管
![]()
通過 6 款芯片的深度整合,Vera Rubin NVL72 系統性能比上一代 Blackwell 實現了全方位的提升。
在 NVFP4 推理任務中,該芯片達到了 3.6 EFLOPS 的驚人算力,相比上一代 Blackwell 架構提升了 5 倍。在 NVFP4 訓練方面,性能達到 2.5 EFLOPS,實現 3.5 倍的性能提升。
存儲容量方面,NVL72 配備了 54TB 的 LPDDR5X 內存,是前代產品的 3 倍。HBM(高帶寬內存)容量達到 20.7TB,提升 1.5 倍。在帶寬性能上,HBM4 帶寬達到 1.6 PB/s,提升 2.8 倍;Scale-Up 帶寬更是高達 260 TB/s,實現了 2 倍增長。
盡管性能提升如此巨大,晶體管數量只增加了 1.7 倍,達到 220 萬億個,展現了半導體制造技術上的創新能力。
![]()
工程設計上,Vera Rubin 同樣帶來了技術突破。
以前的超算節點要接 43 根線纜,組裝要 2 小時,還容易裝錯。現在 Vera Rubin 節點采用 0 根線纜,只有 6 根液冷管線,5 分鐘搞定。
更夸張的是,機架后面布滿了總長近 3.2 公里的銅纜,5000 根銅纜構成 NVLink 主干網絡,實現 400Gbps 傳輸速度,用老黃的話來說,:「可能有幾百磅重,你得是體格很好的 CEO 才能勝任這份工作」。
在 AI 圈里時間就是金錢,一個關鍵數據是,訓練一個 10 萬億參數模型,Rubin 只需 Blackwell 系統數量的 1/4,生成一個 Token 的成本約為 Blackwell 的 1/10。
![]()
此外,雖然 Rubin 的功耗是 Grace Blackwell 的 2 倍,但性能提升遠超功耗增長,整體推理性能提升 5 倍,訓練性能提升 3.5 倍。
更重要的是,Rubin 相比 Blackwell 吞吐量(每瓦-每美元可完成的 AI Token 數)提升10倍,對于造價 500 億美元的千兆瓦數據中心來說,這意味著營收能力將迎來直接翻倍。
過去 AI 行業的最大痛點是,上下文內存不夠用。具體來說,AI 在工作時會生成「KV Cache」(鍵值緩存),這是 AI 的「工作記憶」。問題是,隨著對話變長、模型變大,HBM 內存顯得有些捉襟見肘。
![]()
去年英偉達推出 Grace-Blackwell 架構擴展內存,但還是不夠。而Vera Rubin 的方案是在機架內部署 BlueField-4 處理器,專門管理 KV Cache。
每個節點配 4 個 BlueField-4,每個背后有 150TB 上下文內存,分配到 GPU 上,每塊 GPU 額外獲得 16TB 內存——而 GPU 自帶內存只有約 1TB,關鍵是帶寬保持 200Gbps,速度不打折。
但僅有容量還不夠,要讓分布在幾十個機架、上萬塊 GPU 上的「便簽」像同一塊內存那樣協同,網絡必須同時做到「夠大、夠快、夠穩」。這就輪到 Spectrum-X 登場了。
Spectrum-X 是英偉達推出的全球首款「專為生成式 AI 設計」的端到端以太網網絡平臺,最新一代的 Spectrum-X 采用臺積電 COOP 工藝,集成硅光子技術,512 通道×200Gbps 速率。
老黃算了筆賬:一個千兆瓦數據中心造價 500 億美元,Spectrum-X 能帶來 25% 吞吐提升,相當于節省 50 億美元。「你可以說這個網絡系統幾乎是『白送』的。」
安全方面,Vera Rubin 還支持保密計算(Confidential Computing)。所有數據在傳輸、存儲、計算過程中全程加密,包括 PCIe 通道、NVLink、CPU-GPU 通信等所有總線。
企業可以放心把自己的模型部署到外部系統,不用擔心數據泄露。
DeepSeek 震驚了世界,開源和智能體是 AI 主流
重頭戲看完,回到演講開始。黃仁勛一上臺就拋出了一個驚人的數字,過去十年投入的約 10 萬億美元計算資源,正在被徹底現代化。
但這不僅僅是硬件的升級,更多的是軟件范式的轉移。他特別提到了具備自主行為能力(Agentic)的智能體模型,并點名了 Cursor,徹底改變了英偉達內部的編程方式。
![]()
最讓現場沸騰的,是他對開源社區的高度評價。黃仁勛直言,去年 DeepSeek V1 的突破讓全世界感到意外,它作為第一個開源推理系統,直接激發了整個行業的發展浪潮。PPT 上,我們熟悉的國產玩家 Kimi k2 和 DeepSeek V3.2 分別是開源第一和第二。
黃仁勛認為,雖然開源模型目前可能落后最頂尖模型約六個月,但每隔六個月就會出現一個新模型。
這種迭代速度讓初創公司、巨頭、研究人員都不愿錯過,包括英偉達在內。
所以,他們這次也沒有只賣鏟子,推銷顯卡;英偉達構建了價值數十億美元的 DGX Cloud 超級計算機,開發了像 La Proteina(蛋白質合成)和 OpenFold 3 這樣的前沿模型。
![]()
▲ 英偉達開源模型生態系統,涵蓋了生物醫藥、物理 AI、智能體模型、機器人以及自動駕駛等
而英偉達 Nemotron 模型家族的多款開源模型,也成為這次演講的亮點。其中包含語音、多模態、檢索生成增強以及安全等多個方面的開源模型,黃仁勛也提到,Nemotron 開源模型在多個測試榜單上表現優秀,并且正在被大量的企業采用。
物理 AI 是什么,一口氣連發幾十款模型
如果說大語言模型解決了「數字世界」的問題,那么英偉達的下一個野心,很明顯是要征服「物理世界」。黃仁勛提到,要讓 AI 理解物理法則,并在現實中生存,數據是極其稀缺的。
在智能體開源模型 Nemotron 之外,他提出了構建物理 AI(Physical AI)的「三臺計算機」核心架構。
![]()
- 訓練計算機,也就是我們熟知的,由各種訓練級顯卡構建的計算機,像圖片中提到的 GB300 架構。
- 推理計算機,運行在機器人或汽車邊緣端的「小腦」,負責實時執行。
- 模擬計算機,包括 Omniverse 和 Cosmos,它能為 AI 提供一個虛擬的訓練環境,讓它在模擬中學習物理反饋。
![]()
▲ Cosmos 系統能生成大量的物理世界 AI 訓練環境
基于這套架構,黃仁勛正式發布了震驚全場的 Alpamayo,全球首個具備思考和推理能力的自動駕駛模型。
![]()
與傳統自動駕駛不同,Alpamayo 是端到端訓練的系統。它的突破性在于解決了自動駕駛的「長尾問題」。面對從未見過的復雜路況,Alpamayo 不再是死板地執行代碼,而是能像人類司機一樣進行推理。
「它會告訴你接下來會做什么,以及它為什么會做出這樣的決策」。在演示中,車輛的駕駛方式驚人地自然,能夠將極端復雜的場景,拆解為基礎常識來處理。
演示之外,這一切也不是紙上談兵。黃仁勛宣布,搭載 Alpamayo 技術棧的奔馳 CLA,將在今年第一季度于美國正式上線,隨后陸續登陸歐洲和亞洲市場。
![]()
這輛車被 NCAP 評為全球最安全的汽車,底氣就是來自于英偉達獨特的「雙重安全棧」設計。當端到端的 AI 模型對路況信心不足時,系統會立即切換回傳統的、更穩妥的安全防護模式,確保絕對安全。
發布會上,老黃還特地展示了英偉達的機器人戰略。
![]()
▲九大頂級 AI 及相關硬件制造商之間的競爭,他們都在擴大產品線,尤其是要搶奪機器人賽道,高亮的單元格為自去年以來的新產品
所有機器人都將搭載 Jetson 小型計算機,在Omniverse 平臺的 Isaac 模擬器中接受訓練。并且英偉達正在把這套技術整合進Synopsys、Cadence、西門子等工業體系。
![]()
▲ 黃仁勛邀請了包括波士頓動力、Agility 等人形機器人、四足機器人「登臺」,他強調,最大的機器人其實是工廠本身
自下而上,英偉達的愿景是,未來芯片設計、系統設計、工廠仿真,都將由英偉達物理 AI 加速。發布上,又是迪士尼機器人閃亮登場,老黃還因此對著這群超萌機器人調侃道:
「你們會在計算機中被設計、在計算機中被制造,甚至在真正面對重力之前,就會在計算機中被測試和驗證。」
![]()
如果不說是黃仁勛,整場主題演講看下來甚至會以為是某個模型廠商的發布會。
在 AI 泡沫論甚囂塵上的今天,除了摩爾定律的放緩,黃仁勛似乎也需要用 AI 到底能做什么,來提升我們每個人對 AI 的信心。
除了發布全新 AI 超算平臺 Vera Rubin 的強悍性能,來安撫算力饑渴,他在應用和軟件上也比以往花了更多的功夫,拼盡全力讓我們看到,AI 將會帶來哪些直觀改變。
此外,就像黃仁勛說的一樣,過去他們為虛擬世界造芯,現在他們也下場親自演示,將注意力放在以自動駕駛、人形機器人為代表的物理 AI,走進行業競爭更激烈的真實物理世界。
畢竟,只有仗打起來,軍火才能持續賣下去。
文|莫崇宇、張子豪、姚桐
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.