![]()
英偉達狂甩AI干貨,曬5大芯片路線圖,推“機器人大腦”,10億美元入股諾基亞。
作者 | ZeR0
編輯 | 漠影
英偉達一夜殺瘋了,連甩多項重磅發布,還把市值一度送到了5萬億美元。
芯東西10月29日報道,截至美股最新收盤,英偉達股票創歷史新高,達到201美元/股,市值達4.89萬億美元。在夜盤交易中,英偉達股價超過206美元/股,市值突破5萬億美元,創造新的歷史時刻——史上第一家5萬億美元企業誕生!
![]()
不出意外,今晚我們就可以見證英偉達市值正式踏過5萬億美元大關了。
今日,在華盛頓舉行的GTC大會上,英偉達火力全開,面向AI、量子計算、開源模型、美國制造、企業計算、機器人、6G等七大領域哐哐發新品、甩干貨。
新品包括新一代DPU芯片BlueField-4、機器人計算平臺NVIDIA IGX Thor、AI工廠藍圖Omniverse DSX、加速量子計算的高速互連技術NVIDIANVQLink,還有全新產品線NVIDIA Aerial電信計算平臺。
同時,英偉達宣布向全球第二大電信設備制造商諾基亞投資10億美元(約合人民幣71億元),獲得諾基亞2.9%股權。消息公布后,諾基亞股價一度大漲29%。
![]()
英偉達創始人兼CEO黃仁勛再秀頂級科技帶貨實力,詳細講解為什么英偉達架構是業界“最穩妥”的選擇,還透露英偉達兩代GPU將在2026年實現累計高達5000億美元(約合人民幣3.55萬億元)的業務收入。
他還披露了下一代Vera Rubin超級芯片的部分規格:內置6萬億顆晶體管,配備2TB高速內存,AI算力高達100PFLOPS。1個Vera Rubin計算托盤有2塊Vera Rubin超級芯片,能提供200PFLOPS的AI算力。
還有專為大規模上下文AI推理設計的新型GPU——Vera Rubin CPX(上下文處理器)。其計算托盤AI推理性能達到440PFLOPS。
在主題演講中,黃仁勛展示了一張英偉達全景路線圖,上面有英偉達要做的所有芯片及網絡產品:
- GPU:2025年~2027年陸續推出Rubin 8S HBM4、Rubin CPX、Rubin Ultra 16S HBM4e,2027~2028年推出搭載下一代HBM的Feynman芯片。
- CPU:未來三年都是Vera架構。
- DPU:今年推出BlueField-4,2027~2028年推出BlueField-5。
- NVLink Switch:每年迭代。
- Spectrum交換芯片與CX網卡:2025~2026年推出Spectrum6(102T,CPO)、CX9(1600G),2027~2028年推出Spectrum7(204T,CPO)和CX10。
- 機架:將推出更大的Kyber NVL576機架,總共有576塊GPU。
![]()
這張圖可以說是教科書級的數據中心基建產品規劃了。
“你不可能只用一個芯片就能讓計算機的速度提高10倍。”他談道,要實現10倍提升,唯一的辦法就是極致協同設計,同時推進所有這些不同芯片的研發。
在主題演講中,黃仁勛非常清晰地闡述了英偉達發展的重點方向:
- 面向數據中心市場,打好“極致協同設計”這張牌,提供更快、更高性價比的AI基礎設施軟硬件,并通過手把手教企業建設和AI工廠,來加快擴大下游所需的AI算力規模。
- 面向物理AI市場,機器人、汽車與工業應用齊頭并進,推出更高算力的計算平臺、更好用的開發平臺、更完整的Omniverse模擬仿真平臺。
- 面向開源社區,持續開源語言模型、物理AI與機器人模型、生物醫學模型及相關數據集。
- 面向電信行業,加速AI-RAN與AI原生6G發展將是重頭戲。
- 面向量子計算,堅信混合量子-經典超級計算機是正確路線。
如果你想了解前沿AI市場的風向,那么黃仁勛最新的這場主題演講,絕對值得仔細研讀。
總體來看,英偉達今日在GTC大會的發布涉及如下要點:
1、AI計算:曬戰績,訂單簿上已經躺了價值5000億美元的業務,規劃的Blackwell出貨量高達2000萬塊GPU。
2、極致協同設計:曬實力,披露Vera Rubin超級芯片、Vera Rubin上下文處理器及相關計算托盤配置信息,AI算力多達440PFLOPS。
3、DPU:發布BlueField-4 DPU,為新型AI存儲平臺設計,支持800Gb/s吞吐量。
4、機器人:推出基于Blackwell架構的IGX Thor機器人計算平臺,提供5581 FP4 TFLOPS的AI算力,支持400GbE連接,AI計算性能可達到其前代產品IGX Orin的8倍之多;宣布富士康建設先進機器人設施。
5、汽車:介紹Drive Hyperion自動駕駛開發平臺,宣布與Uber合作,將支持Uber無人出租車。
6、AI工廠:發布藍圖Omniverse DSX,首次將建筑、電力和冷卻系統與英偉達的AI基礎設施堆棧進行協同設計,幫企業更快構建和運營千兆AI工廠。
7、美國制造:Blackwell芯片已在美國全面量產,未來英偉達AI工廠將全部在美國本土制造,美國能源部宣布與英偉達合作共建7臺全新AI超級計算機。
8、開源模型:新語言模型、世界模型和機器人模型、生物醫學模型、數據集、無線通信軟件通通開源。
9、6G:宣布與諾基亞建立戰略合作,推出支持6G的電信計算平臺NVIDIA Aerial ARC。
10、量子計算:發布NVLink量子互連架構NVIDIA NVQLink,將GPU與QPU(量子處理器)高速互連,實現量子硬件與計算系統之間數TB級數據交換。
除了諾基亞外,英偉達也宣布了與無人出租巨頭Uber、醫藥巨頭禮來、AI平臺軟件巨頭Palantir等多家企業的合作。
黃仁勛與多個代表性人形機器人的合影,已經是GTC大會結束前的經典節目。
![]()
退場時,GTC屏幕還播放了這些人形機器人跳舞的彩蛋視頻。

這周黃仁勛行程相當繁忙,馬上要見美國總統特朗普,還要到韓國參加APEC會議中的工商領導人會峰會,并出席GeForce顯卡在韓國上市25周年的慶典。
美國總統特朗普周二在日本東京對商界代表發表講話時,透露將于周三會見黃仁勛。
另據外媒報道,黃仁勛計劃在本周訪問韓國期間公布向三星、現代汽車等韓國科技巨頭供應AI芯片的新合同,并將與SK海力士高管會面。
上次黃仁勛去韓國,還是在15年前出席《星際爭霸2》全球發布會。所以業界相當期待黃仁勛這次時隔已久的韓國之旅,能釋放關于HBM芯片、智能汽車的猛料。
甭管如今AI泡沫炒得有多大,能站上5萬億美元,英偉達靠的刷子,可遠不止兩把。
01.
AI計算:力薦英偉達架構“最穩妥”,
訂單簿已躺5000億美元
或許是感受到AI芯片競爭的暗潮洶涌,在今日GTC大會上,黃仁勛長篇大論地細數了英偉達的種種價值:
“英偉達是當今世界上唯一一家能夠真正從零開始,同時思考全新計算機架構、新芯片、新系統、新軟件、新模型架構以及新應用的廠商。”
為了論證英偉達產品多強,黃仁勛連Semi Analysis的基準測試都搬出來了,說他們測試了幾乎所有可評測的GPU,其中真正能進行有效對比的GPU,90%都來自英偉達。
![]()
“世界上性能第二好的GPU是英偉達H200,”黃仁勛說,“而我們的英偉達Grace Blackwell,每塊GPU的性能達到了H200的10倍。”
當晶體管數量只增加1倍,怎么實現10倍的性能提升?
英偉達的答案是極致協同設計。
“世界上最便宜的token,是由Grace Blackwell + NVL72生成的。”黃仁勛解釋道,GB200雖然成本高,但它token生成能力強啊,拿每秒鐘生成的token數量除以總擁有成本(TCO)后,它的性價比就體現出來了,是“生成token成本最低的方式”。
因此,英偉達既有高性能(10倍提升),又達到低成本(降到1/10),這個正向循環可以持續下去。
說到成本,黃仁勛提起六家云服務商(亞馬遜、CoreWeave、谷歌、Meta、微軟、甲骨文)計劃投入的巨額資本支出。
![]()
這么大的客單,英偉達顯然要牢牢抓住。
黃仁勛說,現在時機再好不過了,英偉達已實現Grace Blackwell + NVL72的大規模量產,全球供應鏈都已準備就緒,可以立即向這些云廠商交付基于新架構的產品,讓它們的資本支出投入到能提供最佳TCO的計算設備上。
他還強調,英偉達的GPU是唯一一塊既能支持傳統計算任務、又能支持AI的GPU。ASIC(專用集成電路)也許能做AI,但它做不了其他任務。而英偉達的方案能覆蓋全部,這也說明了為什么選擇英偉達的架構是最穩妥的。
“據我所知,我們可能是歷史上第一家,能夠清晰看到未來累計高達5000億美元Blackwell相關業務(包括Rubin早期出貨)的公司,時間跨度覆蓋到2026年。”黃仁勛透露,“要知道,2025年還沒結束,2026年還沒開始,但我們的訂單簿上已經有這么多了——價值5000億美元的業務。”
![]()
截至目前,英偉達已在最初幾個季度(大概是頭四個季度,確切說是三個半季度)出貨了600萬塊Blackwell GPU芯片。接下來五個季度,還有5000億美元的業務量。這相當于Hopper整個生命周期5倍的增長速度。
Hopper在其整個生命周期里,一共出貨了400萬塊GPU。這里說的Hopper生命周期,還不包括中國及其他亞洲市場,僅指西方市場。
而每塊Blackwell實際上內部封裝了兩塊GPU。在Rubin早期階段,英偉達規劃的Blackwell出貨量高達2000萬塊GPU,增長極其驚人。
02.
極致協同設計:Vera Rubin超級芯片AI算力達100P,還有長下文推理專用GPU
每年,英偉達都會推出極致協同設計系統,持續推動性能提升,持續降低token生成成本。
英偉達率先將計算規模擴展至整個機柜級,通過發明一種新型AI以太網技術實現了橫向擴展,其Spectrum-XGS以太網可將多個數據中心連接,實現十億瓦級擴展。
通過這種方式,英偉達實現了極高程度、極致的協同設計(extreme co-design)。
![]()
“這是我們有史以來構建的、最為極致的協同設計計算機,坦白說,也是現代以來首次像這樣從零開始、徹底重構的計算機。這個系統的研發極其艱難。”黃仁勛說。
他現場展示了基于NVL72架構的“Blackwell硅盾”,有點像美國隊長的盾牌。
![]()
AI模型正變得無比龐大。英偉達的解決方法是在NVL72機架級系統上運行混合專家(MoE)模型。
將這個由數萬億參數構成的巨大AI模型拆分成多個“專家”,這些專家各自擅長處理某些特定類型的問題,把這些專家部署在GPU上。
NVL72可將所有芯片連接到一個龐大的互連網絡,讓每個專家都能互相通信。其中,主專家可以與所有執行實際工作的專家交流,傳遞所有必要的上下文、提示詞,以及封裝成token的數據。被選中解答問題的專家,會逐層去嘗試生成回答。
![]()
每塊GPU的HBM帶寬是有限的。在英偉達NVL72系統中有72塊卡,1塊GPU只需服務4個專家。
相比之下,其他系統每臺計算機只能容納8塊GPU,因此每塊GPU上不得不塞入32個專家。也就是說,這塊GPU要為32個專家進行推理。
因此NVL72系統能帶來相當可觀的速度提升。
黃仁勛還展示了英偉達第三代NVL72機架級計算機,完全無纜。當英偉達還在交付GB300時,Rubin已準備進入量產。
新一代Vera Rubin超級芯片內置6萬億顆晶體管,配備2TB高速內存,AI算力達到100PFLOPS,是9年前交付給OpenAI的DGX-1超級計算機算力的100倍。
![]()
一臺Vera Rubin計算機,就能替換以前的25個機架。
![]()
Vera Rubin超級芯片的計算托盤安裝起來極其簡單,只需翻開卡扣,直接插進去就行。該計算托盤共有12萬億顆晶體管,可提供200PFLOPSAI算力。
![]()
如果你想添加一個特殊處理器,英偉達也提供了新的選擇——上下文處理器(CPX)。
因為給AI輸入的上下文信息越來越多,比如在回答問題之前,可能要讀取大量PDF文件、查閱大量存檔論文、觀看大量視頻,提前學習這些內容,所有這些上下文處理需求,都可以通過這個專為大規模上下文AI推理設計的新型GPU來滿足。
Vera Rubin CPX計算托盤內置百萬token級上下文加速器,AI推理性能達到440PFLOPS。
![]()
在托盤底部,有8個ConnectX-9(CX9)、新一代SuperNIC、8個CPX GPU、BlueField-4 DPU、2個Vera CPU以及4個Rubin封裝模塊(也就是8塊Rubin GPU)。所有這些組件都集成在這個單一節點中,完全無纜化設計,并采用100%液冷散熱。
03.
BlueField-4 DPU:
800Gb/s吞吐量,支持4倍大的AI工廠
AI需要越來越多的內存,記住各種對話、學習種種內容的記憶需求會產生KV緩存(Key-Value緩存)。如今每次訪問AI系統,刷新和檢索之前的對話內容,花費的時間越來越長。
而解決這個問題,需要一種新處理器,它就是BlueField-4。
NVIDIA BlueField-4數據處理單元(DPU)支持800Gb/s的吞吐量,并實現高性能推理處理,預計將于2026年作為英偉達Vera Rubin平臺的一部分提前推出。
BlueField-4專為新型AI存儲平臺打造,結合了英偉達Grace CPU和ConnectX-9網絡,可提供6倍的算力,并支持比BlueField-3大4倍的AI工廠,可加速千兆級AI基礎設施。
![]()
該DPU還具有多租戶網絡、快速數據訪問、AI運行時安全性和云彈性,并原生支持NVIDIA DOCA微服務,可在單一統一框架內實現多種網絡、安全、存儲服務的無縫集成和管理。
專為NVIDIA Spectrum-X以太網打造的ConnectX-9 SuperNIC提供超低延遲、800Gb/s網絡,可加速數據傳輸、優化RoCE性能,提升千兆級AI基礎架構的效率。
思科、DDN、戴爾科技、HPE、IBM、聯想、Supermicro、VAST Data、WEKA等服務器和存儲企業正在使用BlueField構建下一代服務器和AI存儲平臺,并計劃采用BlueField-4。
04.
“機器人大腦”AI算力飆8倍,
支持400GbE連接
面向新興的物理AI領域,英偉達今日推出一款由Blackwell架構提供支持的機器人計算平臺NVIDIA IGX Thor。
該平臺搭載兩種英偉達Blackwell GPU——集成GPU(iGPU)和獨立GPU(dGPU),可提供5581 FP4 TFLOPS的AI算力,并支持400GbE連接。
與上一代IGX Orin相比,IGX Thor在iGPU上可提供高達8倍的AI算力,在dGPU上可提供高達2.5倍的AI算力,并提供2倍的連接能力,能夠在邊緣無縫運行大語言模型和視覺語言模型。
![]()
▲NVIDIA Jetson IGX Thor開發者套件Mini
這款工業級邊緣AI平臺,旨在將實時物理AI直接帶到工業、醫療、機器人等邊緣計算應用領域,將高速傳感器處理、企業級可靠性和功能安全性結合在一個用于桌面的小型模塊中。
該平臺擁有10年的生命周期,并長期支持英偉達AI軟件棧。
此外,IGX Thor集成了NVIDIA Halos全棧安全系統的元素,將功能安全嵌入到機器人、醫療和工業AI系統中,確保實現人機安全協作。
黃仁勛說,物理AI需要三臺計算機。
- 第一臺是用于訓練的計算機,也就是Grace Blackwell + NVL72。
- 第二臺是Omniverse計算機,用于模擬,即通過Omniverse DSX展示的模擬場景,本質上是機器人的數字孿生,讓機器人學習如何成為優秀的機器人,也讓工廠成為數字孿生工廠。
- 第三臺計算機是機器人計算機,用來操作機器人。它可以安裝在自動駕駛汽車中,也可以用于機器人。如果機器人操作敏捷、速度快,可能還需要兩臺這樣的計算機。
這三臺計算機都運行英偉達CUDA。
美國正在經歷再工業化,各個行業都在推動制造業回流。
在美國得克薩斯州休斯頓,富士康正在建設一個先進的機器人設施,用于制造英偉達的AI基礎設施系統。
![]()
英偉達正與迪士尼研究團隊基于一項名為Newton的技術,共同開發一個全新的框架和模擬平臺。Newton模擬器讓機器人能夠在具有物理感知的環境中學習如何成為一個優秀的機器人。
![]()
05.
眾多車企采用Drive Hyperion,
與Uber合作直指10萬輛無人車
人形機器人仍處于研發階段。但與此同時,有一種機器人已經明顯處于發展的拐點,那就是輪式機器人——機器人出租車(Robotaxi)。
黃仁勛認為,機器人出租車本質上就是一個“AI司機”。
他將英偉達Drive Hyperion架構的誕生,稱作“一項重大突破”。英偉達打造這一架構,是為了讓全球每一家汽車公司,無論是生產商用車、乘用車,還是專門用于機器人出租車的車輛,都能夠制造出具備機器人出租車功能的汽車。
其配備的環繞攝像頭、雷達和激光雷達等傳感器套件,使英偉達能夠實現最高級別的環繞感知和冗余,從而確保最高級別的安全性。
目前,Drive Hyperion架構已被應用于Lucid、梅賽德斯-奔馳等汽車品牌,未來還會有更多汽車品牌加入。
![]()
有了這個標準平臺,眾多自動駕駛系統開發者就能夠將自己的自動駕駛系統部署到這個標準底盤上。
這個標準底盤實際上已經成為了一個“車輪上的計算平臺”。
黃仁勛分享了一些數據:未來,全球每年行駛的里程將達到萬億英里,每年生產的汽車數量將達到1億輛,全球約有5000萬輛出租車,而機器人出租車將進一步擴充這一市場。
今日,英偉達與Uber宣布合作,將英偉達Drive Hyperion接入Uber全球網絡。
Uber將采用NVIDIA Drive AGX Hyperion 10自動駕駛開發平臺,計劃從2027年開始擴大將其全球自動駕駛汽車數量增加到10萬輛,并由基于英偉達Cosmos平臺構建的聯合AI數據工廠提供支持。
DRIVE AGX Hyperion 10的核心是2個基于NVIDIA Blackwell架構的DRIVE AGX Thor車載平臺。每個平臺均提供超過2000 FP4 FLOPS(1000 TOPS INT8)的實時算力。
![]()
“未來,你將能夠輕松呼叫這些汽車,整個生態系統將非常豐富,全球各地都將出現Hyperion或機器人出租車。這將成為我們的一項新計算平臺,我預計它會取得巨大成功。”黃仁勛撂下預言。
06.
手把手教你建AI工廠,
英偉達掏出模塊化組合圖紙
AI工廠是英偉達未來增收的一大宏圖偉業。
黃仁勛說,AI工廠本質上只做一件事,就是運行AI,目的是生產盡可能有價值的token,以極快速度、低成本地生產高價值的token。
為了加快十億瓦級AI工廠建設和部署,英偉達專門打造了一個NVIDIA Omniverse DSX藍圖,提供了將AI工廠從1億瓦擴展至幾十億瓦的通用架構。
該藍圖通過可模擬、優化并用于運營的單一數字孿生環境,搭配使用各種預制模塊,快速設計、組裝、驗證和擴展AI工廠,最大限度地提高整個計算架構的GPU生產力和能效。
![]()
DSX有三大支柱:
- DSX Flex,動態電網協作,實現可再生能源發電和自適應電網平衡;
- DSX Boost,每瓦性能優化,最大化每兆瓦的token吞吐量;
- DSX Exchange,統一IT/OT集成,統一數字孿生、設施系統和操作。
這是首次將建筑、電力和冷卻系統與英偉達的AI基礎設施堆棧進行協同設計。
它始于Omniverse數字孿生。工程和建筑合作伙伴Jacob的工程團隊可以設計建筑物,優化計算密度和布局,根據功率限制實現最大化token吞吐量。
Jacobs工程師將從西門子、施耐德電氣、Trane、Vertiv等合作伙伴的電力、電氣和冷卻設備的SimReady OpenUSD資產整合到PTC的產品生命周期管理系統中,使跨職能團隊能夠實時協作制作逼真的3D模型,通過共享的、版本控制的產品數據加速設計決策,并降低開發風險。
![]()
然后,使用來自EAB和Cadence的CUDA加速工具模擬熱力和電氣系統。
虛擬設計完成后,英偉達合作伙伴會提供工廠制造、測試并可隨時插入的預制模塊,大大縮短構建時間,加快創收。
一旦實體AI工廠上線,數字孿生就可以用作一個操作系統,來監控、檢查和進一步優化流程。
工程師可以向已在數字孿生環境中訓練過的AI智能體發出指令,能夠優化功耗,減輕AI工廠和電網的負擔。
總體而言,對于一個千兆瓦級AI工廠,DSX優化方案每年可在得克薩斯州、佐治亞州和內華達州等地帶來數十億美元的額外收入。
該藍圖已在英偉達位于美國弗吉尼亞州馬納薩斯Digital Realty工廠的新AI工廠研究中心得到驗證,利用DSX對Vera Rubin從基礎設施到軟件進行測試和產品化。
![]()
“在Vera Rubin還未成為實體計算機之前,我們早就將其作為數字孿生計算機來使用了。”黃仁勛說,在這些AI工廠還未建成之前,英偉達就會對其進行設計、規劃、優化,并以數字孿生的形式進行運營。
07.
Blackwell已在美國實現全面量產,
美國能源部官宣7臺AI超算
黃仁勛宣布,英偉達Blackwell芯片已在美國亞利桑那州實現全面量產,從亞利桑那州和印第安納州的硅晶圓,到得克薩斯州的整機系統,未來的英偉達AI工廠將全部在美國本土制造,為美國歷史和工業書寫新的篇章。
“AI時代,正推動美國回歸制造業,重啟再工業化進程。AI時代已經來臨,這些產品:美國制造,服務全球。”黃仁勛說。
美國能源部與英偉達合作,共同建設7臺全新的AI超級計算機,以推動美國科學事業的發展。
![]()
英偉達與甲骨文、美國能源部合作打造的美國能源部最大AI超級計算機Solstice將配備創紀錄的10萬塊英偉達Blackwell GPU。
另一個系統Equinox將包含1萬塊Blackwell GPU,預計將于2026年投入使用。
這兩個系統都將位于阿貢國家實驗室,并通過英偉達網絡互連,并提供總計2200EFLOPS的AI性能。
![]()
英偉達還推出適用于政府的AI工廠參考設計,旨在幫助構建和部署新的AI平臺和智能體。
08.
八、大舉開源,推全新語言、
機器人、生物、電信開源技術
在黃仁勛看來,開源非常重要,美國也必須在開源領域占據領先地位。
英偉達致力于推動開源模型的發展,在開源領域貢獻巨大,有23個模型登上頂級排行榜,涵蓋多個不同領域。
黃仁勛說,英偉達擁有排名第一的語音模型、排名第一的推理模型、排名第一的物理AI模型,模型的下載量也非常可觀。
![]()
英偉達將其模型、數據和訓練框架貢獻給Hugging Face,已提供超過650個開源模型和250個開源數據集。
其開源模型包括用于數字AI的NVIDIA Nemotron、用于物理AI的Cosmos、用于機器人的Isaac GR00T和用于生物醫學AI的Clara等。
英偉達進一步堅定了對開源的承諾,推出用于語言、機器人、生物醫學、電信的全新開源AI技術。
1、語言模型
NVIDIA Nemotron系列中最新開源模型整合了查看、檢索、生成、推理等功能,使開發者能夠構建專業化的智能體。
- Nemotron Nano 3采用混合專家架構來提高軟件開發、客戶服務和IT支持等領域的推理吞吐量。
- Nemotron Nano 2 VL提供文檔智能、圖像推理和視頻分析。
- Nemotron Parse從文檔中提取文本和表格以獲取可操作的見解。
- Nemotron Safety Guard增加了文化感知的多語言審核功能,可以檢測9種語言的23個安全類別中的有害內容。
- Nemotron RAG模型具有高級文檔提取和跨文本、圖像、音頻和視頻數據源的統一檢索功能。
英偉達還發布了新的開源Nemotron數據集,涵蓋多模態訓練、多語言角色和隱私保護的合成個人信息,用于專業模型開發。
此外,全新NVIDIA NeMo工具,包括用于合成數據生成的NeMo Data Designer和用于高級后訓練和強化學習的NeMo-RL,使開發人員能夠更好地控制模型定制。
2、世界基礎模型和機器人模型
為了加速具有類似人類推理和認知的機器人系統的訓練,英偉達對其物理AI開源模型進行了更新,包括Cosmos世界基礎模型和Isaac GR00T機器人基礎模型:
- Cosmos Predict 2.5:將3個模型統一為1個,實現快速世界模擬,從單幀生成30秒的視頻。
- Cosmos Transfer 2.5:以Cosmos Transfer 1/3的大小從3D場景生成更高質量、更逼真的數據。
- Cosmos Reason:一種推理視覺語言模型,現可作為NVIDIA NIM微服務使用,用于高級多模態理解。
- Cosmos 數據集搜索:能夠即時檢索訓練場景,將訓練后周期從數月縮短至數天。
- Isaac GR00T N1.6:增強人形機器人的推理、泛化和全身控制能力。
英偉達還發布了全球最大的物理AI開源數據集,目前包含來自美國和歐洲各地的1700小時多模式駕駛傳感器數據以及GR00T訓練數據。
該數據集已躋身有史以來下載次數最多的10個Hugging Face數據集之列。
Agility Robotics、Amazon Robotics、Figure AI、Skild AI、Milestone Systems、Uber等公司都在采用Cosmos或 Isaac GR00T N模型來生成合成數據、教會機器人新行為并大規模部署現實世界和物理AI智能體。
3、生物醫學模型
NVIDIA Clara是一系列旨在加速科學發現、分析醫學圖像等的模型、工具和配方,新加入的開源模型包括:
- Clara CodonFM:學習RNA的規則,揭示其代碼的變化如何改善療法和藥物的設計。
- Clara La-Proteina:逐個原子地創建3D蛋白質結構,其長度和復雜程度是以前模型的兩倍,從而能夠設計更好的藥物、酶和材料。
- Clara Reason:一種視覺語言模型,支持放射學和醫學成像的思路鏈推理,以推進可解釋的AI醫學研究。
部分NVIDIA Nemotron和Cosmos開放模型已在NVIDIA DGX Cloud上訓練,現已在build.nvidia.com、Hugging Face、OpenRouter、微軟Azure AI Foundry上提供,并將很快登陸Google Vertex AI Platform和其他云服務提供商。
NVIDIA Clara和Isaac GR00T已在Hugging Face上提供。
這些模型可作為NVIDIA NIM微服務使用,以便在DGX Cloud或任何英偉達加速基礎設施上進行安全、可擴展的部署,以實現最大程度的隱私和控制。
4、電信Aerial軟件
在電信行業,英偉達正在開源Aerial軟件,并在英偉達最小AI超算DGX Spark平臺上推出NVIDIA Sionna研究套件和Aerial測試平臺,以加速AI原生5G和6G發展。
其此前開源的NVIDIA Sionna軟件下載量已超過20萬次,引用次數超過500次。
英偉達開源Aerial軟件包括Aerial CUDA-Accelerated RAN、Aerial Omniverse Digital Twin (AODT)和全新的Aerial Framework。
這些資源(此前僅限于少數人使用)預計將于今年12月在GitHub上以Apache 2.0許可開放,AODT將于2026年3月發布。
09.
向諾基亞投資10億美元,
發6G電信計算平臺
黃仁勛說,電信是至關重要的國家基礎設施,是經濟和安全的數字神經系統,基于英偉達CUDA和AI的AI-RAN將徹底改變電信行業。
英偉達與諾基亞今日宣布建立戰略合作伙伴關系,加速下一代AI原生移動網絡和AI網絡基礎設施的開發和部署。
英偉達還將以每股6.01美元的認購價向諾基亞投資10億美元。
諾基亞和英偉達也將在AI網絡解決方案方面展開合作,并探索將諾基亞的光學技術和功能用作未來英偉達AI基礎設施架構的一部分。
同時,黃仁勛宣布推出英偉達的全新產品線——NVIDIA Aerial ARC。
NVIDIA Aerial ARC全稱為NVIDIA Arc Aerial RAN Computer,是一款支持6G的電信計算平臺。
![]()
該平臺結合了連接、計算和傳感功能,使電信公司能通過軟件升級從5G-Advanced過渡到6G。
Aerial ARC基于三項核心技術構建而成:Grace CPU、Blackwell GPU,以及專為這一應用設計的ConnectX/Mellanox網絡技術。
這些技術結合在一起,能夠運行英偉達CUDA X庫中的Aerial無線通信庫。
NVIDIA ARC-Pro參考設計可供制造商和網絡設備提供商構建基于商用現貨或專有的AI-RAN產品,支持新建和現有基站的擴展。
黃仁勛分享道,英偉達將首次打造出一個軟件定義、可編程的計算機,它既能進行無線通信,又能同時進行AI處理,即NVIDIA Aerial。
諾基亞將與之合作,把NVIDIA Aerial作為未來基站的核心技術。NVIDIA Aerial還兼容諾基亞現有的Airscale基站。
據分析機構Omdia預測,到2030年,AI-RAN市場規模預計將累計超過2000億美元。
ChatGPT每周8億活躍用戶中,近50%通過移動設備訪問該網站,其每月移動應用下載量超過4000萬次。
而AI-RAN系統有助于支持移動AI流量的爆炸式增長,改善消費者體驗。
它還將支持未來的AI原生設備,例如無人機或AR/VR眼鏡,并為集成傳感和通信等6G應用做好準備。
接下來,英偉達將實現兩個重要的AI-RAN功能:
- 一是“AI for RAN”,即通過AI提升無線頻譜的使用效率;
- 二是“AI on RAN”,本質上是將云計算帶到無線通信的邊緣,由于全球各地都有基站,因此云計算可以直接部署到邊緣,而不必依賴傳統的大型數據中心。
諾基亞將通過基于英偉達平臺的全新AI-RAN產品擴展其全球產品組合。戴爾科技提供PowerEdge服務器來支持新的AI-RAN解決方案。
英偉達還與Booz Allen、Cisco、MITRE、ODC、T-Mobile等合作伙伴合作,宣布推出美國首個適用于6G的AI原生無線堆棧,其中包括推進下一代無線技術的新應用程序。
10.
NVQLink:將GPU與QPU高速互連,
滿足量子糾錯高速率需求
構建量子計算機的方式多種多樣,但無論采用哪種方法,所有的量子比特都面臨同一個挑戰:它們非常脆弱,對噪聲極度敏感,精密且容易出錯。
目前的量子比特通常只能穩定運行幾百次操作,但要解決真正有意義的問題,則需要進行數萬億次操作。
解決方案就是量子糾錯。
測量會干擾量子比特,破壞其中的信息。關鍵在于添加額外的量子比特,并讓它們相互糾纏,這樣通過測量這些額外的量子比特,就能獲得足夠的信息來判斷錯誤發生在哪里,而又不會破壞我們真正關心的那些量子比特的狀態。
這個思路非常巧妙,但它對傳統計算能力提出了遠超當前水平的要求。
量子比特非常需要復雜的校準、量子誤差校正和其他控制算法才能正常運行。這些算法必須通過與傳統超級計算機極其苛刻的低延遲、高吞吐量連接運行,才能控制量子比特誤差并實現具有影響力的量子應用。
對此,英偉達開發了一種NVLink量子互連架構——NVIDIA NVQLink,用于將GPU計算的高性能與量子處理器(QPU)緊密結合,以構建加速量子超級計算機。
它能夠直接將QPU與英偉達GPU連接起來。量子糾錯需要從量子比特中讀取信息,計算錯誤發生的位置,并將修正數據傳回。而NVQLink每秒能夠進行數千次這樣的操作,實現量子硬件與計算系統之間數TB級數據的快速交換,滿足量子糾錯所需的極高速率。
![]()
“NVQLink就像連接量子和傳統超級計算機的羅塞塔石碑,將它們整合成一個統一、連貫的系統,標志著量子GPU計算時代的到來。”黃仁勛說。
NVQLink將量子處理器和控制硬件系統的多種方法直接連接到AI超級計算,提供統一的交鑰匙解決方案,以克服量子研究人員在擴展硬件時面臨的關鍵集成挑戰。
其實現基于兩大關鍵能力:
首先,這個互連架構能夠實現對量子計算機的控制與校準,實現量子糾錯,同時連接QPU與英偉達GPU超級計算機,進行混合模擬。
![]()
其次,它具有極強的可擴展性,不僅適用于當前僅有數百個量子比特的規模,還為未來做好準備——將把量子計算機的規模從今天的幾百個量子比特,擴展到幾萬個、幾十萬個,甚至更多。
因此,現有了一個面向未來的架構,它能夠實現控制、協同模擬、量子糾錯,并具備持續擴展的能力。
其核心是英偉達推出的開放平臺——CUDA-Q,用于量子計算與GPU計算的協同。
CUDA最初是為GPU與CPU的協同加速計算而設計的,其核心理念是讓不同的處理器各司其職,用對的工具做對的事。
現在,CUDA-Q已經超越了傳統CPU-GPU的范疇,擴展至支持量子處理器(QPU),使得量子處理器與GPU之間能夠在短短幾微秒內完成數據交互與計算遷移,滿足與量子計算機協同工作的極低延遲要求。
借助NVQLink和CUDA-Q,研究人員不僅能實現糾錯,還能協調量子設備與AI超級計算機,共同運行量子-GPU融合應用。
黃仁勛宣布,已有17家量子計算行業公司支持NVQLink技術。
在他看來,在不久的將來,每臺英偉達GPU科學超級計算機都將是混合型的,并與量子處理器緊密結合,以擴展計算的可能性。
11.
結語:錨定多個關鍵行業,
為未來AI原生市場鋪路
回顧整場演講,信息密度極高,涉及到AI、6G、量子技術、各類模型、企業計算、機器人、汽車、AI工廠等領域的發展脈絡、行業痛點,以及英偉達最新給出的解題思路。
黃仁勛提到兩場關鍵的平臺轉型:一是從通用計算到加速計算,英偉達的CUDA及其CUDA X庫套件使其能夠服務于幾乎所有行業;二是從傳統的手工編寫軟件向AI的轉變。兩大平臺轉型都在發生,帶來巨大的增長。
同時,AI正在從數字世界走向物理世界。在工廠、車間、手術室等場景,機器正在進化成為能夠實時觀察、感知、決策的協作伙伴。
英偉達反復描繪,進入加速計算時代,未來的每一臺超級計算機都將是基于GPU的超級計算機。
這家AI計算巨頭正持續面向未來投資,緊跟AI發展腳步,為更廣闊的AI原生市場鋪路。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.