![]()
圣何塞SAP中心,凌晨2點(diǎn)。黃仁勛再次穿著那件似乎永遠(yuǎn)不會(huì)舊的黑皮衣走上臺(tái)。這場(chǎng)長(zhǎng)達(dá)2小時(shí)的演講中,老黃扔出了狂扔“核彈”。
第一顆炸彈:Vera Rubin平臺(tái)。七款全新芯片全面投產(chǎn),Vera Rubin平臺(tái)由七款突破性芯片、五個(gè)機(jī)架和一個(gè)巨型超級(jí)計(jì)算機(jī)組成。同時(shí)發(fā)布Vera CPU,效率是傳統(tǒng)機(jī)架式CPU的兩倍,速度提升50%。
第二顆炸彈:1萬(wàn)億美元。黃仁勛在臺(tái)上宣布,英偉達(dá)目前看到了至少1萬(wàn)億美元的需求訂單,覆蓋到2027年。
第三顆炸彈:Token成為商品。“Token是新的商品。”黃仁勛公開(kāi)詳細(xì)闡述了AI工廠的商業(yè)模式——Token的分層定價(jià)體系,從免費(fèi)層到premium層。
第四顆炸彈:為OpenClaw社區(qū)發(fā)布 NemoClaw。這款開(kāi)源項(xiàng)目“在幾周內(nèi)就做到了linux 30年才做到的事”,黃仁勛斷言:“每一家公司都需要OpenClaw戰(zhàn)略。”
這場(chǎng)發(fā)布會(huì)留下了太多需要消化的信息。芯片、工廠、機(jī)器人、AI Agent......每一個(gè)詞都可能是下一個(gè)萬(wàn)億市場(chǎng)的入口。如果你今晚錯(cuò)過(guò)了這場(chǎng)直播,這篇文章會(huì)告訴你黃仁勛到底說(shuō)了什么。
01
芯片核武器庫(kù)
Vera Rubin來(lái)了。
Vera Rubin是英偉達(dá)為“代理式AI”(Agentic AI)專門(mén)設(shè)計(jì)的新一代計(jì)算平臺(tái)。
與上一代Blackwell 平臺(tái)相比,Vera Rubin展現(xiàn)了驚人的效能躍進(jìn)。該系統(tǒng)僅需1/4的GPU 即可完成混合專家大模型(MoE)的訓(xùn)練,且每瓦推論吞吐量飆升高達(dá)10 倍,成功將單Token的生成成本降至十分之一。在基礎(chǔ)設(shè)施配置上,新一代的NVL72機(jī)架通過(guò)第六代NVLink連接了72塊Rubin GPU與36塊Vera CPU。黃仁勛特別指出,第六代NVLink交換系統(tǒng)是極度難以實(shí)現(xiàn)的技術(shù),但英偉達(dá)成功達(dá)成了這項(xiàng)創(chuàng)舉。
![]()
此外,Vera Rubin系統(tǒng)采用100%液冷設(shè)計(jì),使用45°C的溫水進(jìn)行冷卻,徹底移除了傳統(tǒng)繁雜的纜線。這不僅大幅減輕了數(shù)據(jù)中心的冷卻壓力與能源成本,更將過(guò)去需要花費(fèi)兩天才能完成的安裝時(shí)間,驚人地縮短至僅需兩小時(shí)。
該平臺(tái)整合了Vera CPU、Rubin GPU、NVLink 6 交換機(jī)、ConnectX - 9 超級(jí)網(wǎng)卡、BlueField - 4 DPU和Spectrum-6 以太網(wǎng)交換機(jī),以及新集成的Groq 3 LPU。這些芯片協(xié)同工作,構(gòu)成一臺(tái)強(qiáng)大的AI 超級(jí)計(jì)算機(jī),為 AI 的各個(gè)階段提供支持——從大規(guī)模預(yù)訓(xùn)練、后訓(xùn)練和測(cè)試時(shí)擴(kuò)展,到實(shí)時(shí)智能推理。
黃仁勛表示:“Vera Rubin 是一次代際飛躍——它由七款突破性芯片、五個(gè)機(jī)架和一個(gè)巨型超級(jí)計(jì)算機(jī)組成,旨在為人工智能的各個(gè)階段提供強(qiáng)大支持。”
Vera CPU強(qiáng)勢(shì)登場(chǎng)
本次大會(huì)的一大亮點(diǎn),是英偉達(dá)首度展現(xiàn)其在中央處理器(CPU)領(lǐng)域的強(qiáng)大野心。英偉達(dá)最初于2022年GTC大會(huì)上發(fā)布了第一代Grace CPU,今晚老黃正式發(fā)布了Vera CPU和Vera CPU機(jī)架,標(biāo)志著英偉達(dá)正式進(jìn)軍CPU直銷(xiāo)領(lǐng)域,成為傳統(tǒng)CPU市場(chǎng)中英特爾和AMD的有力競(jìng)爭(zhēng)對(duì)手。
![]()
Vera CPU的定位是大規(guī)模數(shù)據(jù)處理、AI 訓(xùn)練和智能體推理場(chǎng)景,其效率是傳統(tǒng)機(jī)架式CPU 的兩倍,速度提升50%。
為了應(yīng)對(duì)AI使用工具時(shí)所需的極速反應(yīng),Vera CPU專為極高的單線程效能、強(qiáng)大的資料處理能力與極致的能源效率而設(shè)計(jì)。單顆Vera芯片配備了88個(gè)核心與144個(gè)線程,采用英偉達(dá)深度定制化的Arm v9.2-A Olympus核心,其指令級(jí)平行度(IPC)實(shí)現(xiàn)了1.5倍的代際提升。
更具革命性的是,該架構(gòu)首發(fā)引入了"空間多線程(Spatial Multithreading)"黑科技,通過(guò)實(shí)體隔離流水線組件,讓多個(gè)線程能真正在單核上同時(shí)運(yùn)行,徹底消除了傳統(tǒng)多線程技術(shù)因資源排隊(duì)而造成的算力損耗。Vera CPU也是全球首款采用LPDDR5的數(shù)據(jù)中心CPU,提供無(wú)與倫比的單線程效能與每瓦效能。
作為NVIDIA Vera Rubin NVL72平臺(tái)的一部分,Vera CPU通過(guò)NVLink-C2C互連技術(shù)與GPU配對(duì),提供1.8 TB/s的相干帶寬(是PCIe Gen 6帶寬的7倍),實(shí)現(xiàn)CPU和GPU之間的高速數(shù)據(jù)共享。
英偉達(dá)表示,阿里巴巴、CoreWeave、Meta和Oracle云基礎(chǔ)設(shè)施,以及戴爾科技、HPE、聯(lián)想、超微等全球系統(tǒng)制造商都與NVIDIA合作部署Vera。同時(shí),英偉達(dá)發(fā)布了Vera CPU機(jī)架,提供基于NVIDIA MGX的密集型液冷基礎(chǔ)設(shè)施,集成256個(gè)Vera CPU,可提供可擴(kuò)展、節(jié)能的容量以及世界一流的單線程性能,從而大規(guī)模釋放智能AI的潛力。
Vera CPU目前已全面投產(chǎn),預(yù)計(jì)將于今年下半年開(kāi)始交付。
收購(gòu)Groq后,LPU登場(chǎng)
![]()
英偉達(dá)收購(gòu)了開(kāi)發(fā)Groq芯片的團(tuán)隊(duì),并將其技術(shù)與Vera Rubin深度整合。
為什么需要LPU?
與大多數(shù)依賴HBM作為工作內(nèi)存層的AI加速器不同,Groq 3 LPU每個(gè)芯片都集成了500MB的SRAM。這種內(nèi)存也用于CPU和GPU的超高速緩存。雖然與每個(gè)Rubin GPU上容量高達(dá)288GB的HBM4相比,這顯得微不足道,但這塊SRAM可提供150 TB/s的帶寬,遠(yuǎn)高于HBM的22 TB/s。對(duì)于帶寬敏感型AI解碼操作而言,Groq 3芯片帶寬的大幅提升為推理應(yīng)用帶來(lái)了誘人的優(yōu)勢(shì)。
兩種處理器的統(tǒng)一:LPU + Vera Rubin。“我們想出了一個(gè)絕妙的主意,”黃仁勛解釋道,“我們將推理過(guò)程完全重新架構(gòu)。我們把適合Vera Rubin的工作放在Vera Rubin上,然后把解碼生成、低延遲、帶寬受限的部分卸載到LPU上。”
這兩種極端處理器的統(tǒng)一:一個(gè)為高吞吐量,一個(gè)為低延遲,產(chǎn)生了令人震驚的效果:每兆瓦功耗的推理吞吐量最高可提升35倍,萬(wàn)億參數(shù)模型的收益機(jī)會(huì)最高可提升10倍。
“35倍,”黃仁勛重復(fù)了一遍,“這是世界從未見(jiàn)過(guò)的。”
![]()
![]()
英偉達(dá)構(gòu)建了包含256個(gè)Groq 3 LPU的Groq 3 LPX機(jī)架。該機(jī)架提供128GB的SRAM和40 PB/s的推理加速帶寬,并通過(guò)每個(gè)機(jī)架640 TB/s的專用擴(kuò)展接口將這些芯片連接起來(lái)。
大規(guī)模部署時(shí),LPU 集群可作為一個(gè)巨型單處理器,實(shí)現(xiàn)快速、確定性的推理加速。與Vera Rubin NVL72 集成,Rubin GPU 和 LPU 通過(guò)聯(lián)合計(jì)算每個(gè)輸出標(biāo)記的 AI 模型每一層,顯著提升解碼速度。
LPX采用全液冷設(shè)計(jì),基于MGX基礎(chǔ)設(shè)施構(gòu)建,可無(wú)縫集成到將于今年下半年推出的下一代Vera Rubin AI工廠中。
重塑網(wǎng)絡(luò)與AI 原生存儲(chǔ)架構(gòu)
在網(wǎng)絡(luò)連接與集群擴(kuò)展方面,英偉達(dá)展示了全新一代的Kyber機(jī)架,這是一款專為Rubin Ultra 運(yùn)算節(jié)點(diǎn)設(shè)計(jì)的系統(tǒng)。有別于傳統(tǒng)的水平插拔,Kyber 采用垂直插入設(shè)計(jì),通過(guò)背板的中板(Midplane)連接,成功在單一NVLink 網(wǎng)域內(nèi)連接多達(dá)144 個(gè)GPU,突破了傳統(tǒng)銅纜連接的距離限制。
同時(shí),英偉達(dá)也與臺(tái)積電合作,獨(dú)家量產(chǎn)名為COUPE的革命性共同封裝光學(xué)(CPO)技術(shù),并應(yīng)用于全球首款CPO Spectrum-X 交換器中,讓光學(xué)信號(hào)直接與芯片對(duì)接。
英偉達(dá)重新設(shè)計(jì)了整個(gè)存儲(chǔ)系統(tǒng):BlueField - 4 STX 存儲(chǔ)機(jī)架。可將 GPU 內(nèi)存無(wú)縫擴(kuò)展到整個(gè) POD(物理數(shù)據(jù)中心)。STX 由 BlueField-4 提供支持,BlueField-4 結(jié)合了Vera CPU和ConnectX-9 SuperNIC,可提供高帶寬共享層,該層針對(duì)存儲(chǔ)和檢索大型語(yǔ)言模型和智能 AI 工作流生成的海量鍵值緩存數(shù)據(jù)進(jìn)行了優(yōu)化。
太空計(jì)算也來(lái)了
![]()
在GTC大會(huì)上,老黃還發(fā)布了NVIDIA Space-1 Vera Rubin模塊,標(biāo)志著英偉達(dá)正式推出太空計(jì)算服務(wù)。與NVIDIA H100 GPU相比,該模塊上的Rubin GPU可為基于太空的推理提供高達(dá)25倍的AI計(jì)算能力,從而為ODC(分布式計(jì)算中心)、高級(jí)地理空間智能處理和自主太空操作提供下一代計(jì)算能力。
根據(jù)英偉達(dá)官方新聞稿,Vera Rubin 空間模塊專為在太空直接運(yùn)行 LLM 和高級(jí)基礎(chǔ)模型的軌道數(shù)據(jù)中心而設(shè)計(jì),它采用緊密集成的CPU-GPU 架構(gòu)和高帶寬互連,旨在實(shí)時(shí)處理來(lái)自太空儀器的大量數(shù)據(jù)流。
黃仁勛說(shuō)到:“太空計(jì)算,這片最后的疆域,已經(jīng)到來(lái)。隨著我們部署衛(wèi)星星座并深入探索太空,智能必須存在于數(shù)據(jù)產(chǎn)生的任何地方。”
![]()
這場(chǎng)發(fā)布會(huì)還展示了完整的芯片路線圖。“每年一個(gè)全新架構(gòu),”黃仁勛總結(jié)道,“這就是英偉達(dá)的速度。”
02
1萬(wàn)億美元:英偉達(dá)看到的需求
“5000億美元。”這是去年GTC大會(huì)上,黃仁勛公布的英偉達(dá)看到的高置信度需求和采購(gòu)訂單。
當(dāng)時(shí)他認(rèn)為這個(gè)數(shù)字已經(jīng)非常驚人。“但現(xiàn)在,一年過(guò)去了,就在我現(xiàn)在站的位置,我看到了至少1萬(wàn)億美元的需求,覆蓋到2027年。”
為什么需求會(huì)這么大?“因?yàn)橥评淼霓D(zhuǎn)折點(diǎn)已經(jīng)到來(lái)。”黃仁勛在演講中詳細(xì)解釋了原因。
過(guò)去兩年發(fā)生了什么?“三件事情。”黃仁勛回顧道。第一,ChatGPT開(kāi)啟了生成AI時(shí)代。“它不只是理解和感知,還能翻譯和生成獨(dú)特的內(nèi)容。”第二,推理AI(o1/o3)出現(xiàn)了。“它能反思,能思考,能規(guī)劃,能把一個(gè)無(wú)法理解的問(wèn)題分解成能理解的步驟。這讓ChatGPT真正起飛了。”第三,claude code出現(xiàn)了:第一個(gè)代理式模型。“它能讀文件、寫(xiě)代碼、編譯、測(cè)試、評(píng)估、迭代。claude code徹底改變了軟件工程。”
黃仁勛說(shuō)了一個(gè)關(guān)鍵數(shù)據(jù):"過(guò)去兩年,AI的計(jì)算需求增加了大約1萬(wàn)倍。AI現(xiàn)在必須思考。為了思考、為了執(zhí)行、為了閱讀,它都必須推理。每一次交互,它都在推理。過(guò)去的訓(xùn)練時(shí)代已經(jīng)過(guò)去了。現(xiàn)在是推理的時(shí)代。”這就是1萬(wàn)億美元需求的來(lái)源。每一個(gè)公司都在建設(shè)AI工廠,每一個(gè)工廠都需要Token生產(chǎn)。
Token是新的商品
“Token是新的商品。”當(dāng)黃仁勛在GTC 2026上說(shuō)出這句話時(shí),整個(gè)AI行業(yè)的商業(yè)模式正在被重新定義。在黃仁勛展示的那張“最重要的圖表”上,橫軸是Token速率,縱軸是吞吐量。這張圖表將決定未來(lái)每一個(gè)CEO的決策——因?yàn)樗苯雨P(guān)系到AI工廠的營(yíng)收。
![]()
黃仁勛詳細(xì)解釋了AI工廠的商業(yè)模式,其中提到了Token的分層定價(jià):
- 免費(fèi)層:高吞吐量、低速度——用于吸引用戶
- 第一層:中等速度——$3/百萬(wàn)Token
- 第二層:高速度、長(zhǎng)上下文——$45/百萬(wàn)Token
- premium層:超高速度——$150/百萬(wàn)Token
“就像任何行業(yè)一樣,"黃仁勛解釋道,"更高的質(zhì)量,更高的性能,更低的容量。Grace Blackwell在你的免費(fèi)層提升了巨大吞吐量,但在你最能變現(xiàn)的層級(jí),它提升了35倍。Vera Rubin又在這個(gè)基礎(chǔ)上提升了10倍。
“假設(shè)你用25%的電力在免費(fèi)層,25%在中等層,25%在高層層,25%在premium層。你的數(shù)據(jù)中心只有1吉瓦。你需要決定如何分配。”黃仁勛算了一筆賬:免費(fèi)層吸引用戶,premium層服務(wù)最有價(jià)值的客戶。這種組合,按照這張圖表計(jì)算——Blackwell可以產(chǎn)生5倍的營(yíng)收,Vera Rubin又是5倍。
![]()
"你應(yīng)該在Vera Rubin上盡快行動(dòng),"黃仁勛建議道,"因?yàn)槟愕腡oken成本會(huì)下降,吞吐量會(huì)上升。"
"在兩年時(shí)間內(nèi),在一個(gè)1吉瓦的工廠中,使用我之前展示的數(shù)學(xué),摩爾定律只能給我們帶來(lái)幾個(gè)步驟的提升。但有了這個(gè)架構(gòu),我們的Token生成速率將從200萬(wàn)提升到7億,提升350倍。"這就是“極致協(xié)同設(shè)計(jì)”的力量。黃仁勛稱之為“垂直整合然后水平開(kāi)放”的策略。
03
黃仁勛夸贊龍蝦
"OpenClaw是人類歷史上最受歡迎的開(kāi)源項(xiàng)目。它在幾周內(nèi)就做到了Linux 30年才做到的事。"
當(dāng)黃仁勛宣布英偉達(dá)支持OpenClaw時(shí),全場(chǎng)再次沸騰。OpenClaw是一個(gè)Agentic系統(tǒng)(代理式系統(tǒng))的操作系統(tǒng)。它連接大型語(yǔ)言模型,管理資源,訪問(wèn)工具和文件系統(tǒng),執(zhí)行調(diào)度,創(chuàng)建子代理,這些能力讓它幾乎就是一個(gè)完整的操作系統(tǒng)。
“在OpenClaw出現(xiàn)之前,個(gè)人電腦因?yàn)閃indows而成為可能,“黃仁勛說(shuō)道,”現(xiàn)在,OpenClaw讓創(chuàng)建個(gè)人Agent成為可能。其含義是深遠(yuǎn)的。”
Agentic系統(tǒng)可以訪問(wèn)敏感信息、執(zhí)行代碼、與外部通信,這帶來(lái)了巨大的安全挑戰(zhàn)。英偉達(dá)推出了NemoClaw,使用NVIDIA Agent Toolkit軟件,只需一條命令即可優(yōu)化 OpenClaw。它安裝OpenShell,提供開(kāi)放模型和隔離的沙箱,為自主代理增加數(shù)據(jù)隱私和安全保障。
04
結(jié)語(yǔ)
從一塊GPU到一座AI工廠,黃仁勛用十年時(shí)間完成了英偉達(dá)的進(jìn)化。GTC 2026的大幕已經(jīng)拉開(kāi)。看完這場(chǎng)發(fā)布會(huì),你最關(guān)心的問(wèn)題是什么?
你覺(jué)得英偉達(dá)的下一個(gè)十年會(huì)被"神化"還是"拉下神壇"?
評(píng)論區(qū)聊聊。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.