英偉達在 CES 2026 發布了下一代 AI 計算平臺 Rubin
六款新芯片同時發布,整個機架當一臺電腦來設計
這六款芯片分別是:
? Vera CPU :英偉達自研 CPU,
88個定制 Olympus 核心? Rubin GPU :下一代 GPU,
3360億晶體管? NVLink 6 Switch :機架內 GPU 互聯,每 GPU
3.6TB/s 帶寬? ConnectX-9 SuperNIC :網卡,
800Gb/s? BlueField-4 DPU :數據處理單元,負責安全和存儲
? Spectrum-6 Ethernet Switch :機架間互聯,
102.4Tb/s
英偉達管這叫「極端協同設計」(Extreme Codesign)
黃仁勛原話
Rubin 來得正是時候,AI 計算需求正在爆炸
![]()
Rubin 平臺六款芯片 性能提升多少
和 Blackwell 比:
? 推理 token 成本降到 十分之一
? 訓練同樣的 MoE 模型,GPU 數量降到 四分之一
? 網絡功耗效率提升 5 倍
具體場景:訓一個 10 萬億參數的 MoE 模型,Blackwell 需要 64000 張 GPU,Rubin 只要 16000 張
![]()
訓練 10T MoE 模型所需 GPU 數量對比 Vera CPU
英偉達之前用的是 Grace CPU,這次換成了全新的 Vera
名字來自天文學家 Vera Rubin,發現暗物質存在證據的那位
核心規格:
?
88個定制 Olympus 核心,176線程?
1.5TB LPDDR5X 內存,帶寬1.2TB/s?
2270億晶體管? 支持 Arm v9.2 架構
和 Grace 比,內存帶寬翻了 2.4 倍,內存容量翻了 3 倍,NVLink-C2C 帶寬翻倍到 1.8TB/s
英偉達說這顆 CPU 專門為 AI 工廠設計,核心任務是喂數據給 GPU
![]()
Vera CPU
Grace vs Vera 對比
規格
Grace
Vera
核心數
72 Neoverse V2
88 Olympus
線程數
72
176
L3 緩存
114MB
162MB
內存帶寬
512GB/s
1.2TB/s
內存容量
480GB
1.5TB
NVLink-C2C
900GB/s
1.8TB/s
Rubin GPU
單顆 GPU 規格:
?
3360億晶體管(Blackwell 是2080億)?
288GB HBM4 顯存? 顯存帶寬
22TB/s(Blackwell 是8TB/s)? NVFP4 推理算力
50PFLOPS?
224個 SM,第六代 Tensor Core
第三代 Transformer Engine,硬件級自適應壓縮,專門針對 FP4 精度優化
NVLink 帶寬翻倍,每 GPU 3.6TB/s(Blackwell 是 1.8TB/s)
![]()
Rubin GPU 規格
Blackwell vs Rubin 對比
規格
Blackwell
Rubin
晶體管
2080 億
3360 億
NVFP4 推理
10 PFLOPS
50 PFLOPS
FP8 訓練
5 PFLOPS
17.5 PFLOPS
HBM 帶寬
8 TB/s
22 TB/s
NVLink 帶寬
1.8 TB/s
3.6 TB/s
![]()
HBM 帶寬代際提升 Vera Rubin NVL72
這是 Rubin 平臺的旗艦配置,72 張 GPU 組成一臺機器
一個機架里塞了:
?
72張 Rubin GPU?
36顆 Vera CPU? NVLink 6 互聯
? ConnectX-9 網卡
? BlueField-4 DPU
整機規格:
? NVFP4 推理算力
3.6EFLOPS? HBM4 總量
20.7TB? 系統內存
54TB? 機架內互聯帶寬
260TB/s
英偉達說這個帶寬比整個互聯網還大
全液冷設計,45 度溫水直接冷卻,比 Blackwell 流量提升近一倍
無線纜設計,組裝速度比上一代快 18 倍
![]()
Vera Rubin NVL72 計算托盤 NVLink 6
第六代 NVLink,負責 72 張 GPU 之間的通信
![]()
72 GPU 全互聯拓撲
核心升級:
? 每 GPU 帶寬
3.6TB/s,翻倍? 全互聯拓撲,任意兩張 GPU 之間延遲一致
? 內置 SHARP 網絡計算,FP8 算力
14.4TFLOPS? 每個 Switch Tray 帶寬
28.8TB/s
MoE 模型的 all-to-all 通信吞吐提升 2 倍
支持熱插拔、部分填充運行、動態流量重路由
![]()
NVLink 6 Switch BlueField-4 DPU
這是一顆 DPU,專門處理網絡、存儲、安全這些基礎設施任務
內部集成了 64 核 Grace CPU 和 ConnectX-9 網卡
和 BlueField-3 比:
規格
BlueField-3
BlueField-4
帶寬
400 Gb/s
800 Gb/s
CPU 核心
16 A78
64 Neoverse V2
內存帶寬
75 GB/s
250 GB/s
內存容量
32GB
128GB
存儲 IOPS
10M
20M
新功能叫 ASTRA(Advanced Secure Trusted Resource Architecture),給裸金屬和多租戶環境提供硬件級隔離
還有個「推理上下文內存存儲平臺」,專門存 KV Cache,長上下文推理的吞吐提升 5 倍,功耗效率也提升 5 倍
![]()
BlueField-4 DPU ConnectX-9 SuperNIC
網卡,每 GPU 提供 1.6Tb/s 帶寬
主要升級:
?
800Gb/s 單端口帶寬? 200G PAM4 SerDes
? 可編程擁塞控制
? 硬件加密引擎,支持 IPsec 和 PSP
和 Spectrum-6 交換機配合,在端點就做流量整形,防止擁塞
![]()
ConnectX-9 和 BlueField-4 Spectrum-6 以太網交換機
Spectrum-X 以太網的新一代,負責機架間互聯
核心升級:
? 單芯片帶寬
102.4Tb/s,翻倍? 200G SerDes
? 共封裝光學(Co-packaged Optics)
共封裝光學把光模塊直接做進芯片封裝里:
? 功耗效率提升
5倍? 信號損耗從 22dB 降到 4dB,信號完整性提升
64倍? 可靠性提升
10倍
還有 Spectrum-XGS,支持跨地域數據中心組網,幾百公里外的機房可以當一個集群用
![]()
Spectrum-6 交換機
Spectrum-X 光學交換機 推理性能實測
英偉達用 Kimi-K2-Thinking(1T MoE 模型,32K 輸入 + 8K 輸出)做了測試
結果:
? 同等交互性下,每瓦吞吐提升
10倍? 同等延遲下,每百萬 token 成本降到十分之一
云廠商
AWS、Google Cloud、Microsoft Azure、Oracle Cloud、CoreWeave、Lambda、Nebius、Nscale
AI 公司
OpenAI、Anthropic、Meta、xAI、Mistral、Cohere、Perplexity、Black Forest Labs、Runway、Cursor、Harvey
硬件廠商
Dell、HPE、Lenovo、Supermicro、Cisco
微軟會在下一代 Fairwater AI 超算中心部署 Vera Rubin NVL72,規模到幾十萬張 GPU
CoreWeave 2026 下半年上線 Rubin 實例
各家 CEO 怎么說
Sam Altman(OpenAI)
Intelligence scales with compute. Rubin 讓我們能繼續 scale
Dario Amodei(Anthropic)
Rubin 的效率提升能讓模型有更長的記憶、更好的推理、更可靠的輸出
Mark Zuckerberg(Meta)
Rubin 的性能和效率提升是把最先進模型部署給幾十億用戶的前提
Elon Musk(xAI)
Rubin 是 AI 的火箭引擎
Satya Nadella(Microsoft)
我們在建世界上最強的 AI 超算,Vera Rubin 加進來,開發者能以全新方式創造、推理、擴展
什么時候能用
Rubin 已經在量產
2026 下半年開始出貨
AWS、Google Cloud、Microsoft、Oracle 會是第一批部署的云廠商
![]()
DGX SuperPOD
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.