文 | 大模型之家
北京時間1月6日凌晨,英偉達CEO黃仁勛CES 2026的開幕演講中,系統闡述了他對人工智能產業演進的最新判斷,并正式發布了全新一代Vera Rubin計算架構。這一架構涵蓋CPU、GPU、互連、網絡、存儲與系統級設計,被英偉達定義為面向“下一階段AI前沿”的基礎設施平臺。
在這場演講中,黃仁勛并未將重點放在某一具體應用或模型能力上,而是反復強調一個核心命題:人工智能正在引發一次覆蓋整個計算產業的結構性重置,而英偉達的角色,是為這場重置提供底層工具與系統能力。
AI走向“平臺化”, 英偉達要做底層“賣鏟人”
黃仁勛對AI市場的判斷,延續了他一貫的“平臺論”視角。他表示,計算產業每隔10到15年就會發生一次底層重置:從大型機到PC,從互聯網到云計算,再到移動計算。每一次重置,應用形態都會隨之改變,產業價值鏈也會重新分配。
![]()
但AI的特殊之處在于,它并不是單一平臺的替代,而是兩次平臺遷移同時發生。
第一層遷移,是應用本身的重構。應用不再是被“編寫”的,而是被“訓練”的;不再是預設流程,而是在運行時根據上下文實時生成每一個token、每一個像素。AI不再是應用,而是應用賴以生存的底座。
第二層遷移,是整個計算棧都在被重寫。軟件如何開發、如何運行、運行在什么硬件之上,CPU不再是中心,GPU成為默認;推理不再是一次性輸出,而是一個持續“思考”的過程。
在這種背景下,黃仁勛反復強調一個數字:全球傳統計算體系規模約為10萬億美元,而這部分基礎設施,正在被系統性地“現代化”為AI計算。AI投資的資金,并非憑空出現,而是來自企業研發預算、風險投資和整個工業體系的遷移。
英偉達在這個市場中的定位,并非某一家AI應用公司的競爭者,而是為所有人提供新平臺的基礎設施公司。在這場淘金熱中,它選擇繼續扮演“賣鏟人”。
物理AI正迎來“ChatGPT時刻”
如果說生成式AI解決的是語言與內容問題,那么黃仁勛在CES 2026上反復提到的“Physical AI(物理AI)”,則標志著英偉達試圖將智能推入現實世界。
![]()
他將AI能力的演進分為幾個階段:預訓練、強化學習、測試時推理,再到具備規劃與執行能力的代理系統(Agentic Systems)。當AI開始“思考”,并且可以調用工具、分解任務時,問題的邊界已經不再局限于數字空間。
真正的挑戰在于,物理世界的數據是有限的、昂貴的,且不可窮舉。這也是英偉達長期投入仿真與合成數據的原因。
在演講中,黃仁勛重點介紹了NVIDIA Cosmos“世界基礎模型”,用于理解物理規律、生成物理一致的場景數據,并在閉環中訓練AI行動能力。這不是一個簡單的視頻生成模型,而是一個理解物理、重力、摩擦力和慣性的世界模型。它不僅能生成視頻,還能模擬物理反饋,解決AI在現實世界中因缺乏“常識”而產生的幻覺。這套體系并不只是服務于研究,而是直接指向自動駕駛與機器人。
在應用層面,他發布了全球首個具備推理能力的自動駕駛AI——Alpamayo與傳統的規則驅動或簡單的端到端模型不同,Alpamayo在駕駛過程中會實時“思考”并口述其決策邏輯。黃仁勛宣布,搭載該系統的梅賽德斯-奔馳CLA將于2026年第一季度正式上路。
這種從“數字大腦”向“物理實體”的跨越,不僅體現在自動駕駛上,還延伸到了名為“格魯”(音譯)的人形機器人系統。黃仁勛透露,NVIDIA正在通過合成數據生成來解決物理世界數據匱乏的難題。通過Cosmos模型,NVIDIA可以將計算轉化為數據,訓練機器人應對各種長尾場景。
這種“三臺計算機”架構——一臺用于訓練,一臺用于仿真模擬(Omniverse),一臺用于邊緣推理——構成了NVIDIA在工業與機器人領域的堅實護城河。
Rubin架構:賣鏟人的“新鏟子”
如果說前半場是戰略判斷,那么Rubin架構的發布,才是這場演講真正的技術核心。
這一架構的設計起點非常現實:摩爾定律放緩,而模型規模以每年10倍的速度增長,推理階段的token生成量以每年5倍的速度增加,單純依靠晶體管數量已經無法支撐性能需求。
因此,英偉達選擇在這一代“推倒重來”。
黃仁勛表示,Vera Rubin并不是一顆芯片,而是一個由6顆芯片組成、通過極端協同設計形成的系統級架構。它被定位為專為智能體AI(Agentic AI)和物理AI(Physical AI)設計的算力底座。
![]()
Vera Rubin系統由定制的Vera CPU與Rubin GPU組成,兩者從設計之初就被定義為雙向一致、低延遲的數據共享結構。Vera CPU擁有88個物理核心,通過空間多線程(Spatial Multi-Threading)技術實現176線程滿速運行,強調在功耗受限環境下的性能密度。同時為了解決大規模集群的通信瓶頸,Rubin平臺搭載了NVLink 6,提供了高達3.6T/s的雙向帶寬。
Rubin GPU在浮點性能上超過Blackwell,而晶體管數量僅為后者的1.6倍。這背后依賴的是全新的張量核心與Transformer Engine設計,而非單純堆疊規模。
![]()
在系統層面,Rubin真正的突破來自“陣列化”。
一個Vera Rubin計算托盤中集成2顆Vera CPU、4顆Rubin GPU,配合BlueField-4 DPU與ConnectX-9網絡。通過第六代NVLink交換系統,18個計算節點可以被連接為一個整體,最多實現72顆Rubin GPU協同運行,像一顆“巨型GPU”一樣工作。
在完整的MVL72機架中,英偉達集成了6類全新芯片、18個計算托盤、9個NVLink交換托盤,總計約220萬億晶體管,整機重量接近兩噸。
在數據中心層面,Rubin引入了多個關鍵改動。其一是上下行帶寬,每顆GPU可獲得1.6TB/s的Scale-out帶寬;其二是上下文內存體系,通過BlueField-4將KV Cache與上下文管理放入機架內部,為每顆GPU額外提供最高16TB的可擴展內存空間。
網絡部分,Spectrum-X以太網交換機首次引入Silicon Photonics技術,提供512個200Gb端口,能夠將成千上萬機架連接為“AI工廠”。
在能效層面,該陣列在單機架內的計算密度提升了約3倍。在處理類似Cosmos這種涉及物理規律模擬的復雜模型時,六卡陣列能夠實現跨芯片的內存池共享,極大地減少了模型切分帶來的性能損耗。黃仁勛特別提到,這套陣列采用了全集成的液冷方案,能在消耗更低能耗的同時Rubin的功耗約為上一代Grace Blackwell的兩倍,這一設計有望為全球數據中心節省約6%的能耗。
同時,Rubin在系統級實現了全鏈路加密,覆蓋PCIe、NVLink及GPU互聯,并正式支持加密計算,為模型托管與跨組織部署提供安全基礎。
這個六卡陣列也是英偉達向業界發出的一個信號:未來的算力單元不再是以“塊”計算,而是以“陣列”和“機架”為最小單位。通過這種設計,英偉達進一步鎖定了數據中心和主權AI實驗室的采購偏好——你買的不只是一張顯卡,而是一套不可分割的、高度協同的算力體(英偉達也能因此創造更多收入)。
算力競爭格局再升級
從更宏觀的角度看,黃仁勛在CES 2026的演講,并不是為了宣布某一項技術領先,而是試圖給整個行業一個坐標系。
在這個坐標系中,AI不再是少數公司的專屬能力,而是一種會“滲透到每一個國家、每一個行業、每一家企業”的基礎設施;應用不再是固定形態,而是由Agent驅動的交互系統;競爭不再只是模型參數之爭,而是算力、數據、模擬、系統工程能力的綜合博弈。
而英偉達選擇的位置,依然是那個看似樸素、卻至關重要的“賣鏟人”。它既是平臺的建設者,也是規則的塑造者;既推動開放,又牢牢掌握最核心的工程能力。
隨著AI開始從數字空間走向物理世界,這場算力競賽的格局正在被重新劃分。對于全球各方的參與者而言,Rubin架構的出現不僅是一次技術挑戰,更是一條更加清晰的競爭分界線:在全棧集成的“暴力美學”面前,傳統的、零散的硬件邏輯正面臨降維打擊。為全球AI產業提出新的挑戰與新的思路。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.