![]()
作者 | 周一笑
郵箱 | zhouyixiao@pingwest.com
Vera Rubin已經在全面投產。
這是黃仁勛在CES 2026上透露的最重要信息。
這場在拉斯維加斯的90分鐘演講,是黃仁勛的開年演講,給2026年定基調的意義非常明確。而整場演講有很強的敘事設計——他要講的故事邏輯是這樣的:
回顧2025年,scaling law還在繼續(xù),推動這個過程里開源很重要,而英偉達做了很多開源,甚至第一次自稱"開源之王"(NVIDIA Leads Open Model Ecosystem),尤其是物理世界的模型其實在由它來推動——而這一切都在證明強烈的需求還在繼續(xù),泡沫不存在,所以,新的芯片架構更加重要。
這就是Vera Rubin。
![]()
“我可以告訴你們,Vera Rubin已經在全面投產了”(I can tell you that Vera Rubin is in full production),黃仁勛在舞臺上宣布。這是一個全面重構的芯片架構——從CPU到GPU,到互聯方式,到機柜設計,六顆芯片全部重新設計。
![]()
Vera Rubin - Six New Chips全景圖
1
摩爾定律追不上AI,所以必須激進
黃仁勛給出了一組數據來解釋為什么必須打破英偉達自己的規(guī)則。
過去英偉達有一條內部準則:每代架構最多只改動1-2顆芯片。但這次,他們一口氣重新設計了六顆。原因很簡單,摩爾定律在放緩,但AI的需求在爆炸。模型規(guī)模每年增長10倍,生成的token數量每年增長5倍,單token成本每年下降10倍。
![]()
AI 算力需求爆炸式增長
“我們每年能獲得的晶體管數量,根本不可能跟上10倍更大的模型、每年5倍更多的token生成”,黃仁勛解釋道,“除非我們采用激進的、極致的協同設計,否則不可能跟上這種增長速度。”
換句話說,如果繼續(xù)按部就班地迭代,英偉達會被自己的客戶甩在后面。
1
Rubin GPU:5倍性能只用1.6倍晶體管
六顆芯片中,Rubin GPU是核心。
![]()
NVIDIA Rubin GPU規(guī)格圖
最關鍵的數字是這個,NVFP4推理性能達到50 PFLOPS,是Blackwell的5倍,但晶體管數量只有3360億,僅增加了1.6倍。這意味著架構效率的巨大飛躍,而不僅僅是堆料。HBM4帶寬達到22 TB/s(2.8倍),單GPU的NVLink帶寬達到3.6 TB/s(2倍)。
這背后是NVFP4 Tensor Core的創(chuàng)新——一種新的4位浮點格式,通過硬件層面的自適應精度調節(jié)和動態(tài)transformer引擎實現。黃仁勛暗示這可能成為行業(yè)標準:“我不會驚訝于整個行業(yè)都希望我們把這個格式和架構變成行業(yè)標準。”
1
Vera CPU:88個自研核心,不是ARM公版魔改
全新的自研CPU采用88個Olympus核心,176線程,1.5TB系統內存(是Grace的3倍),1.2 TB/s的LPDDR5X帶寬,2270億晶體管。
![]()
這是英偉達第一次在數據中心CPU上如此激進地自研。Olympus核心是全新設計,不是ARM公版的修改。黃仁勛在臺上展示了從Blackwell到Rubin的硬件演進,親手拿起計算托盤——“你必須是一個身體狀況很好的CEO才能干這個活”””(You have to be a CEO in really good shape to do this job),他開玩笑說。
1
硅光子上芯片:英偉達變成了網絡公司
讓黃仁勛特別興奮的是Spectrum-X Co-Packaged Optics,硅光子直接封裝在芯片上。
![]()
NVIDIA Spectrum-X Ethernet Co-Packaged Optics規(guī)格
這顆芯片采用TSMC的COUPE工藝,實現102.4 Tb/s的交換機基礎設施,128個800 Gb/s端口,512個200 Gb/s端口,3520億晶體管。黃仁勛說這讓英偉達“成為了全球最大的網絡公司”。
配合新一代NVLink 6.0,單GPU帶寬達到3.6 TB/s,整個NVL72系統的互聯帶寬達到260 TB/s。黃仁勛的比喻是,“這是全球互聯網帶寬的兩倍”,全球互聯網總帶寬大約是100 TB/s。
![]()
1
KV Cache成了新瓶頸,BlueField-4來解決
黃仁勛特別強調了一個正在浮現的問題:context memory正在成為新的瓶頸。
![]()
隨著上下文長度增長、多輪對話累積、并發(fā)用戶增加,KV cache的存儲需求在爆炸。BlueField-4 DPU就是為了解決這個問題,800G Gb/s的SmartNIC和存儲處理器,內置64核Grace CPU,相比上代在網絡、計算、內存帶寬上分別提升2倍、6倍、3倍。
![]()
配合新的Context Memory Storage Platform,可以為每個節(jié)點提供150TB的KV cache存儲。黃仁勛稱之為“完全革命性的”。
![]()
1
NVL72:一個機柜220萬億晶體管
六顆芯片組合成Vera Rubin NVL72系統。
![]()
這是一個完整的機柜級計算單元:3.6 EFLOPS的FP4推理算力(5倍于Blackwell),2.5 EFLOPS的FP4訓練算力(3.5倍),54TB的LPDDR5X容量(3倍),20.7TB的HBM容量(1.5倍),1.6 PB/s的HBM4帶寬(2.8倍),260 TB/s的Scale-Up帶寬(2倍)。整個機柜包含220萬億個晶體管。
![]()
1
組裝一個計算節(jié)點:從2小時到5分鐘
除了芯片本身,Vera Rubin在系統工程上也有大量創(chuàng)新。
![]()
NVIDIA Vera Rubin Compute Tray
新的計算托盤設計是“No Cables, No Hoses, No Fans”,無線纜、無水管、無風扇。過去組裝一個計算節(jié)點需要2小時,現在只需要5分鐘。黃仁勛在臺上親自演示,把托盤像抽屜一樣滑入機柜。
整個系統100%液冷,使用45°C的熱水,不需要冷水機。"今天這臺機器重2.5噸,因為他們發(fā)貨的時候忘了把水放掉",黃仁勛開玩笑說。整機包含2英里的銅纜和5000根線纜,但因為采用了新的無線纜托盤設計,實際部署時的復雜度大大降低。
雖然性能是Blackwell的5倍,但熱設計保持在同一水平,這意味著在相同的數據中心功率預算下,可以獲得5倍的算力提升。
![]()
1
1/4的GPU,1/10的成本
黃仁勛用DeepSeek++(對未來超大規(guī)模開源模型的一種代稱)和Kimi K2Thinking展示了三組性能對比。
![]()
訓練效率:以10萬億參數模型、100萬億token、1個月訓練周期為基準,Rubin只需要Blackwell 1/4的GPU數量。工廠吞吐量:從Hopper到Blackwell是10倍提升,從Blackwell到Rubin再提升10倍。Token成本:Rubin是Blackwell的1/10。
這組數據的含義很清晰,對于訓練大模型的公司來說,Rubin意味著用更少的硬件、更低的成本、更快的速度完成同樣的任務。
1
時間表:一年一代,但這次跨度更大
Vera Rubin 2026年出貨,現已全面投產。Rubin Ultra NVL576在2027年下半年,性能是Rubin的4倍。Feynman在2028年,已預告。
黃仁勛維持了英偉達“一年一架構”的節(jié)奏,但這次的迭代幅度遠超以往。
![]()
1
Alpamayo:物理AI的ChatGPT時刻
算力基礎設施最終是為了讓AI理解和操控物理世界。除了造“大腦”,英偉達也在教AI控制“身體”,演講中另一個值得注意的發(fā)布是Alpamayo。
![]()
NVIDIA Alpamayo架構
這是一個開源視覺-語言-動作模型(VLA),專為自動駕駛設計,支持chain-of-thought推理來處理邊緣場景。輸入是多攝像頭視頻、自車運動歷史、可選用戶指令,輸出是駕駛決策、因果推理、軌跡規(guī)劃。
演示視頻中稱之為“物理AI的ChatGPT時刻幾乎就要到來了”(The ChatGPT moment for physical AI is nearly here)。首個商用落地是Mercedes-Benz CLA,2026年Q1在美國上市。
值得注意的是,英偉達不僅開源了模型,還開源了訓練數據。“我們不僅開源模型,還開源用來訓練這些模型的數據。因為只有這樣,你才能真正信任這些模型是怎么來的。”
黃仁勛演講PPT里用到了很多中國開源模型的數據:
![]()
經典場面:黃仁勛和中國開源模型們
不過,他最終要強調的是這張:
![]()
英偉達才是開源第一。
1
一個信號
回看整場演講的結構,黃仁勛想傳遞的信號很明確,AI的需求還在爆炸式增長,scaling law沒有撞墻,英偉達的護城河不僅是芯片設計能力,更是整個系統級的極致協同優(yōu)化能力。
當摩爾定律放緩時,只有通過“激進的、極致的協同設計”,例如六顆芯片同時重新設計,才能跟上AI發(fā)展的速度。而且這一切都不是空話,Vera Rubin已經在全面投產,不是路線圖,不是期貨,是現在就在產線上跑。2026年,云廠商和AI公司將拿到比Blackwell強5倍的新硬件。
黃仁勛的最后一張幻燈片這樣寫道:
英偉達是為所有AI提供的那個獨一無二的平臺。
![]()
這個開年演講相比過往黃仁勛的演講要“干”很多,看來2026年黃仁勛不講故事了,要直接上干貨,上硬菜了。
![]()
點個“愛心”,再走 吧
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.