![]()
實際的計算需求會遠高于這個數字。
2026年3月16日,在圣何塞SAP Center座無虛席的會場里,黃仁勛用近三個小時的主題演講完成了一次戰略敘事的系統性升級。盡管他發布了七款芯片、五種機架級系統、六個開源模型家族和一個全新的AI智能體平臺,但這絕不是異常產品發布會,這是一次對AI產業未來十年底層邏輯的重新定義。
在去年的GTC上,黃仁勛給出了"5000億美元高置信度需求"的數字。一年后,他站在同一個舞臺上說:"我看到了至少1萬億美元的需求,延續到2027年。而且我確信,實際的計算需求會遠高于這個數字。"
這個數字不是個修辭的手法。它的背后是一個正在發生的產業范式轉換:AI從"生成內容"走向"完成任務",從聊天機器人走向自主智能體,從訓練主導走向推理主導。圍繞這個轉換,NVIDIA重新架構了從硅片到軟件、從數據中心到太空的完整技術棧。
本文將從演講原文出發,深度解構這場演講中最值得AI從業者和投資者關注的七條主線。
01
三次拐點:
從ChatGPT到推理AI再到Agentic AI
黃仁勛用極其清晰的歷史敘事框架,將過去兩年AI領域的進展歸納為三次關鍵拐點,每一次都根本性地改變了計算需求的結構。
第一次拐點:ChatGPT與生成式AI。計算從"檢索式"變為"生成式"("Computing used to be retrieval-based; now it's generative")。這一階段的核心需求是大規模預訓練,GPU主要服務于training workload。
第二次拐點:推理能力的涌現。以OpenAI O1、O3為代表的reasoning model出現,使AI具備了反思(reflection)、規劃(planning)、分解(decomposition)和事實校驗(grounding on truth)的能力。黃仁勛明確表示:"O1讓生成式AI變得可信賴、以事實為基礎。"這一階段戲劇性地增加了輸入和輸出Token的需求量,因為AI不再只是一問一答,而是要"思考"。
第三次拐點:Agentic AI的到來。黃仁勛將Claude Code稱為"第一個真正的智能體模型",它能讀取文件、編寫代碼、編譯、測試、評估、迭代。他直言:"Claude Code已經革命性地改變了軟件工程。NVIDIA 100%的員工都在使用Claude Code、Codex和Cursor的某種組合……今天沒有一個軟件工程師不被一個或多個AI智能體輔助。"
這三次拐點的疊加效應是爆炸性的。老黃給出了一個驚人的數據框架:每個任務的計算需求增長了約10,000倍,用戶使用量增長了約100倍,兩者相乘,過去兩年AI的計算需求增長了約100萬倍。
從投資角度看,這個框架的核心含義是:AI不再是一個"訓練完模型就結束"的一次性支出,而是變成了持續的、按Token計量的運營性支出。每一次AI"思考"、"行動"、"驗證"都在消耗推理算力。這從根本上改變了AI基礎設施的商業模型,從CapEx驅動轉向CapEx+OpEx的雙輪驅動。
02
Vera Rubin:
七芯協同的推理時代超級計算機
如果說三次拐點定義了"為什么",Vera Rubin平臺就是NVIDIA給出的"怎么做"的答案。
七款芯片,五種機架,一臺超級計算機
Vera Rubin平臺的核心設計哲學是解耦推理(disaggregated inference),即將AI推理的過程拆分為不同階段,由專門優化的硬件分別處理。這是一次從"GPU包打天下"到"異構專用計算"的架構范式轉換。
七款芯片分別是:
?Rubin GPU:負責計算密集型的prefill和attention階段,3.6 exaflops算力水
?Vera CPU:88個定制Olympus核心,LPDDR5X內存,專為智能體編排和強化學習設計,"每瓦性能是當前所有CPU的兩倍"
?NVLink 6 Switch:第六代NVLink互聯
?ConnectX-9 SuperNIC:由Vera CPU驅動的超級網卡
?BlueField-4 DPU:提供"上下文記憶",為智能體在長鏈推理過程中生成的海量key-value緩存提供高速存儲
?Spectrum-6 以太網交換機:采用共封裝光學(co-packaged optics, CPO),光功率效率提升5倍
?GB3 LPU(原Groq技術):確定性數據流處理器,單芯片288GB SRAM(對比Rubin GPU的500MB),專門服務于Token生成階段
五種機架級系統則對應不同的功能模塊:NVL72 GPU機架(72個Rubin GPU + 36個Vera CPU)、Vera CPU機架(256個液冷CPU,支撐22,500+并發CPU環境)、STX存儲機架、SPX以太網機架、以及LPX推理加速機架。
解耦推理:解決"吞吐量vs延遲"的結構性矛盾
老黃將高吞吐量和低延遲定義為推理場景中"互為死敵"(mortal enemies)的兩個需求。Vera Rubin的解決方案是通過Dynamo軟件將推理流程拆解:
?Prefill + Attention:由Rubin GPU處理,擅長高吞吐量的并行計算
?Token生成(Decode):由GB3 LPU處理,其確定性數據流架構和海量片上SRAM提供極低延遲的逐Token生成
兩者通過以太網連接,NVIDIA為此開發了專用的低延遲模式,將互聯延遲降低了約一半。最終效果在最高價值的推理層級上實現了35倍的吞吐量提升。
這種架構使用者的意義在于:它打破了"買更多GPU"的線性擴展邏輯,轉向了更精細的異構計算資源配置。黃仁勛建議的配比是75% Vera Rubin + 25% GB3 LPU,適用于需要高速編碼和工程Token的工作負載。
GB3/Groq的戰略定位
NVIDIA對Groq技術的整合是此次發布的一個關鍵看點。NVIDIA在2025年底以約200億美元獲取了Groq的技術授權和核心團隊(包括創始人Jonathan Ross和總裁Sunny Madra)。GB3 LPU是一種"靜態編譯、編譯器調度"的確定性處理器,與GPU的動態執行模型形成互補。
GB3 LP30芯片由三星獨家代工,已進入量產,預計2026年Q3出貨。這一點對供應鏈格局有深遠影響:在Vera Rubin架構中,三星不僅供應HBM和DRAM,還獨占了LPU的代工業務,其在NVIDIA供應鏈中的價值權重顯著上升。
Token經濟學:AI工廠的商業模型
老黃用一個極其精妙的框架闡述了AI工廠的經濟學。他將Token分為五個不同價值的層級:
![]()
他舉了一個例子:一個研究人員每天使用5,000萬個Token,按$150/百萬計算,成本不過幾千美元,"這甚至不算什么"。關鍵的商業洞察是:Blackwell產生的收入是Hopper的5倍,而Vera Rubin產生的收入又是Blackwell的5倍。在一個1GW的AI工廠中,兩年內Token產量從200萬增長到7億,實現350倍的增長。
SemiAnalysis的獨立基準測試顯示,從Hopper H200到Grace Blackwell NVLink 72,每瓦Token性能提升了35倍(SemiAnalysis創始人Dylan Patel表示"黃仁勛太保守了,實際上是50倍")。這遠超摩爾定律預測的1.5倍。
黃仁勛還特別強調了軟件優化的價值:僅通過軟件更新,Fireworks和Linx等推理服務商的Token速度就從約700 tokens/秒提升到了近5,000 tokens/秒。同樣的硬件,7倍的性能提升。這意味著NVIDIA GPU的"有效使用壽命"在持續延長,老一代硬件(如Ampere)的云端定價甚至在上漲。
03
OpenClaw與NemoClaw:
Agentic AI的"Linux時刻"
如果說新一代的Vera Rubin是硬件層的革命,OpenClaw則可以說是軟件層的范式轉換。
OpenClaw:史上增長最快的開源項目
黃仁勛在演講中多次提及OpenClaw,將其稱為"人類歷史上最受歡迎的開源項目……幾周之內就超過了Linux 30年的成就"。OpenClaw由Peter Steinberger創建,本質上是一個智能體計算機的操作系統,負責管理資源、訪問工具和文件系統、調用LLM、執行調度和定時任務、將提示分解為步驟、生成子智能體、處理多模態輸入輸出。
黃仁勛的類比極具戰略暗示:"正如Windows使個人電腦成為可能,OpenClaw使個人智能體成為可能。"他將OpenClaw與Linux、HTTP/HTML、Kubernetes相提并論:"這和HTML一樣重要。這和Linux一樣重要。"
他向在場所有企業發出了一個直接的戰略挑戰:"每一家公司、每一家軟件公司、每一家技術公司,問題就是:你的OpenClaw戰略是什么?"
NemoClaw:企業級安全層
OpenClaw的快速普及也帶來了一個核心問題:企業安全。黃仁勛明確指出:"智能體系統在企業網絡中可以訪問敏感信息、執行代碼、進行外部通信。"這是一個全新的安全范式,不同于傳統的網絡安全或應用安全,智能體的安全需要對AI的自主行為進行策略約束。
NVIDIA的應對方案是NemoClaw,即OpenClaw的企業級參考實現,核心組件包括:
?Open Shell:開源的安全運行時,為自主智能體執行安全和隱私護欄
?策略護欄引擎:對接企業AGS(Agentic as a Service)平臺的策略引擎
?隱私路由器:控制智能體對敏感數據的訪問路徑
?Agentic AI工具包:標準化的智能體開發框架
這個方案的企業采用名單令人印象深刻:Adobe、Atlassian、Box、Cadence、思科(Cisco)、CrowdStrike、達索系統(Dassault Systèmes)、IQVIA、紅帽、Salesforce、SAP、ServiceNow、西門子、Synopsys等頭部企業SaaS公司均已集成。
從SaaS到AGS的轉型預言
老黃做出了一個對企業IT行業影響深遠的預判:"每一家SaaS公司都將變成AGS公司"(Agentic as a Service)。企業IT將從"為人類提供工具"轉型為"管理專業化智能體"。
他提到了一個極具前瞻性的細節:"我們公司的每一個工程師都需要一個年度Token預算……這現在是硅谷的招聘工具之一:你的工作附帶多少Token額度。"
這意味著Token正在成為一種新的企業資源,如同云計算時代的計算單元,如同SaaS時代的License數量。對于企業SaaS投資者而言,這是一個需要重新評估估值模型的信號。
04
開源模型聯盟與垂直行業布局
▎Nemotron Coalition:開源陣營的政治經濟學
NVIDIA宣布成立Nemotron Coalition,聯合全球AI實驗室在NVIDIA DGX Cloud上共同開發開源前沿模型。首批成員包括:Black Forest Labs(圖像生成)、Cursor(AI編程)、LangChain(智能體框架)、Mistral AI、Perplexity、Reflection AI、Sarvam(印度)以及由前OpenAI高管Mira Murati領導的Thinking Machines Lab。
第一個聯合開發的模型將由Mistral AI與NVIDIA共同完成,作為Nemotron 4系列的基礎。黃仁勛表示:"開源模型是創新的命脈,是全球參與AI革命的引擎。"
六大開源模型家族覆蓋了AI的完整應用譜系:
1.Nemotron:推理模型(語言、視覺、RAG、安全、語音),Nemotron 3 Ultra目標成為"世界上最好的基礎模型"
2.Cosmos:世界基礎模型,用于物理AI和世界生成/理解(第二代)
3.Alpamayo:"世界上第一個思考和推理的自動駕駛AI",已被超過10萬汽車開發者下載
4.GR00T:通用機器人基礎模型(第二代),在MolmoSpaces和RoboArena基準上排名第一
5.BioNeMo:數字生物學、化學、分子設計
6.Earth-2:天氣和氣候預測(AI物理學)
這一開源策略具有雙重的戰略意圖:一方面培育開發者生態以驅動NVIDIA硬件需求;另一方面將NVIDIA定位為中立平臺提供商,而非與構建在其芯片上的AI實驗室/企業進行競爭。隨著NVIDIA自有模型能力的增強,這種微妙的平衡將越來越考驗管理層的戰略智慧。
垂直行業:從手術室到太空
GTC 2026的垂直行業的內容覆蓋范圍之廣幾乎令人目眩:
制藥與生物科技:羅氏(Roche)部署超過3,500個Blackwell GPU用于生物學基礎模型、藥物發現和制造設施數字孿生。基因泰克(Genentech)近90%的符合條件的小分子項目已整合AI,一個腫瘤學分子的設計速度提高了25%,備選候選藥物從兩年多縮短到七個月。
自動駕駛:比亞迪、吉利、五十鈴和日產正在NVIDIA Drive Hyperion平臺上構建L4級自動駕駛車輛。與優步(Uber)的合作擴展至2028年在四大洲28個城市部署自動駕駛車輛。黃仁勛宣稱:"自動駕駛的ChatGPT時刻已經到來。"新增的Robotaxi平臺合作伙伴(比亞迪、現代、日產、吉利)年產能合計達1,800萬輛。
醫療機器人:發布了首個醫療機器人專用物理AI平臺,核心是Open-H,這是全球最大的醫療機器人數據集(超過700小時的手術視頻)。CMR Surgical、強生醫療和美敦力(Medtronic)是首批的采用者。
太空計算:Vera Rubin太空模塊提供比H100多25倍的軌道AI推理算力。Aetherflux、Axiom Space、Kepler Communications、Planet Labs和Starcloud正在基于此進行構建。
桌面超級計算機:DGX Station搭載GB300 Grace Blackwell Ultra Desktop Superchip,748GB的一致性內存,20 petaflops AI算力,可在桌面運行萬億參數模型。支持隔離配置,面向受監管行業。
還有一個精心編排的舞臺時刻:迪士尼的物理機器人Olaf(《冰雪奇緣》角色)走上舞臺,由Jetson驅動、在Omniverse中訓練、使用Newton物理求解器(NVIDIA與迪士尼研究院和DeepMind共同開發),與黃仁勛進行了一段即興對話。老黃說:"想象一下?這就是迪士尼樂園的未來。所有這些角色在你身邊走來走去。"
05
共封裝光學:
從網絡邊緣到計算核心的關鍵躍遷
在Vera Rubin平臺的七芯五架構敘事中,有一項技術被反復提及卻容易被非專業背景的人士所忽略:共封裝光學(Co-Packaged Optics, CPO)。從NVIDIA的路線圖來看,CPO可能是決定未來AI超算能否繼續擴展的最關鍵的瓶頸技術。
黃仁勛表達的三次遞進
CPO在演講中出現了三次,每一次的戰略權重都在升級:
第一次是作為Vera Rubin平臺概述的一部分:"通過Spectrum-X共封裝光學實現橫向擴展(scale-out),提升能效和彈性。"此時CPO只是五種機架之一的特性。
第二次,老黃手持Spectrum-6 CPO交換機實物,做出了一個極強的技術所有權宣示:"全球第一款CPO Spectrum-X交換機,已在全量產中。光直接進入這塊芯片,與硅片直接對接。電子被轉化為光子,直接連接到這塊芯片上。我們和臺積電共同發明了這個工藝。今天全球只有我們在量產。"
第三次在路線圖環節,CPO的角色發生了質變。黃仁勛直接回應了行業關于"銅纜還是光學"的爭論:"銅纜會繼續重要嗎?是的。你們會做光學Scale-up嗎?是的。光學Scale-out呢?也是。對于我們生態系統中的每一個人:我們需要大量的銅纜產能,大量的光學產能,大量的CPO產能。"
為什么CPO是AI擴展的物理極限問題
要理解CPO的重要性,需要回到一個基本物理事實:在千兆瓦級AI工廠中,功耗和帶寬(而非計算力)才是真正的限制因素。
傳統的可插拔光模塊(pluggable transceivers)要求電信號從芯片出發,沿PCB上15-30厘米的銅質走線到達前面板,每一厘米的銅線都在耗散能量。CPO將光子引擎直接放置在交換芯片的封裝基板上,將電信號路徑縮短到幾毫米,電子幾乎在"出生"的瞬間就被轉化為光子。
根據SemiEngineering 2026年3月的深度分析,CPO的核心價值在于:
?I/O功耗降低最高達30%:消除長距離銅質走線的能量損耗
?帶寬密度突破:NVIDIA Spectrum-6 CPO交換機實現409.6 Tb/s帶寬、512端口800 Gb/s,這在傳統可插拔光模塊下因前面板空間和功耗約束幾乎不可能實現
?釋放封裝資源:減少大量高速電氣I/O引腳,將更多凸點(bump)分配給供電,支持背面供電等先進封裝技術
?NVIDIA聲稱的5倍光功率效率提升:直接轉化為Token/watt的提升,這正是黃仁勛整套經濟學模型的核心指標
西門子EDA高級總監Tony Mastroianni在SemiEngineering的采訪中的判斷極為直接:"對于超大規模AI芯片,功耗和帶寬,而非計算,已經成為限制的因素。"據麥肯錫估計,到2030年全球需要5.2萬億美元的數據中心投資來滿足AI需求。在這個尺度下,網絡層節省的每一瓦功耗都直接轉化為可用于計算的生產性算力。
路線圖解讀:CPO從邊緣走向核心
將NVIDIA歷代架構中CPO的角色排列,可以看到一條清晰的遷移路徑:
![]()
關鍵拐點在Feynman世代:CPO首次進入機架內GPU到GPU的Scale-up互聯,即整個系統中延遲最敏感、帶寬需求最高的鏈路。這意味著:
CPO成為GPU集群擴展的門控技術。NVLink 72是銅纜的實用上限(72個GPU一個域)。NVLink 576需要光學Scale-up。NVLink 144通過Kyber機架將銅纜推到了極限。超越這些節點,只有光學互聯能夠維持所需的帶寬和信號完整性。沒有CPO,下一代AI超級計算機從物理上就無法建造。
NVIDIA正在垂直整合光學能力。"我們和臺積電共同發明了這個工藝"這句話意味著NVIDIA將CPO視為核心差異化技術而非外購商品。這與2020年69億美元收購邁絡思(Mellanox,獲得網絡和光模塊能力)的戰略一脈相承。NVIDIA正在將光學互聯納入其垂直整合的技術棧,如同它對GPU、CPU、DPU所做的那樣。
"銅纜和光學都要"創造了雙軌供應鏈。黃仁勛明確表示兩種技術將長期共存,這意味著互聯的總可尋址市場在擴大而非轉移。對供應鏈而言,這是一個增量信號而非替代信號。
技術挑戰與成熟度
CPO并非沒有挑戰。SemiEngineering的分析指出幾個關鍵難題:
?熱敏感性:光子器件對溫度極其敏感,需要在狹窄范圍內保持穩定。與35kW計算芯片共存于同一封裝中,需要復雜的多物理場協同設計,包括溫度控制環路、精細的布局規劃和應力感知封裝
?激光器可靠性:激光器是光學棧中可靠性最低的組件,需要冗余設計和集成監控
?制造良率:將光子器件與CMOS在規模化生產中集成仍在成熟過程中
?成本:目前CPO每端口成本高于可插拔光模塊
但SemiAnalysis在2026年1月發布的"CPO Book"中做出了明確判斷:"CPO將成為本十年后半段及以后Scale-up網絡帶寬提升的主要驅動力。"
投資視角:誰在CPO賽道上
CPO轉型的主要受益者包括:
?博通(AVGO):剛發布400G/lane光學DSP用于1.6T收發器;在CPO交換機領域與NVIDIA直接競爭
? 邁威爾(MRVL):主要光學DSP供應商,與博通在AI光學領域激烈競爭
? Lumentum(LITE):激光器和光子器件供應商,CPO供應鏈的關鍵一環
? 臺積電(TSM):與NVIDIA共同開發CPO工藝技術,是底層制造使能者
? Ayar Labs(未上市):光學I/O chiplet先驅,潛在收購標的
?Lightmatter(未上市):光子超算公司,與Cadence和Synopsys合作開發的CPO方案
風險端則在于傳統可插拔光模塊供應商:如果CPO采用速度超預期,可插拔市場可能面臨結構性收縮。
從更宏觀的視角看,CPO在NVIDIA路線圖中的地位揭示了一個深層趨勢:AI基礎設施的瓶頸正在從計算轉移到互聯。當GPU和LPU的算力以每代數倍的速度增長時,連接它們的網絡必須以同等甚至更快的速度擴展。CPO不是一個"錦上添花"的優化,而是AI超算物理可行性的前提條件。老黃在GTC上親手舉起CPO交換機的那一刻,或許和舉起Rubin GPU一樣重要。
06
投資者視角:供應鏈格局與風險評估
▎$1萬億需求的構成
黃仁勛將需求來源分解為:60%來自前五大超大規模云服務商(AWS、Azure、谷歌云、甲骨文、CoreWeave),其中包括這些平臺上的客戶生態消費;40%來自區域云、主權云、企業、工業、機器人和邊緣計算。
超大規模云的工作負載正在發生結構性的轉移:推薦系統、搜索等傳統工作負載正全面轉向深度學習和LLM。推理服務商(如Fireworks)過去一年增長了100倍。GPU現貨價格"正在飆升"。所有上游供應鏈合作伙伴都實現了"創紀錄的年份"。
▎CoreWeave:被老黃"封圣"的第五朵云
在這份需求的構成中,有一個名字值得特別關注:CoreWeave。
黃仁勛在演講中以完全相同的敘事結構依次介紹了NVIDIA的云合作伙伴:谷歌云 → AWS → 微軟 Azure → 甲骨文 → CoreWeave → Palantir+戴爾。他對CoreWeave的評價是:"他們是全球第一個AI原生云,一家以唯一的目標而生的公司,在加速計算時代到來時提供GPU托管服務、承載AI云。他們有一些非常優秀的客戶,增長令人難以置信。"
這個安排的戰略含義遠超字面意思:
地位躍升。CoreWeave是一家近期剛IPO的創業公司(CRWV),而與它并列的四家(谷歌云、AWS、Azure、甲骨文)每一家背后都是萬億美元市值的企業。黃仁勛將CoreWeave放入完全相同的幻燈片模板、相同的"我們如何將客戶導入他們的云"敘事框架中,實質上是在向市場宣告:CoreWeave是AI工作負載的第五大云,而非一個細分玩家。
"AI原生"作為結構性優勢。黃仁勛用"Only one singular purpose"(唯一目標)這個措辭精準地點出了CoreWeave相對傳統云的核心差異。AWS、Azure、谷歌云都承載著數十年通用云的遺留架構包袱。CoreWeave從第一天起就圍繞GPU供給和AI推理而設計,沒有歷史負擔。在推理時代,這種架構純粹性是一種結構性優勢。
需求驗證與信用背書。對于一家剛上市、需要向懷疑者證明估值合理性的公司而言,當掌控著$1萬億需求的芯片公司CEO在主題演講中說你"增長令人難以置信",這本身就是一種極高規格的商業信用的背書。
NVIDIA的戰略意圖。NVIDIA 60%的收入來自前五大超大規模客戶。將CoreWeave公開提升至同一梯隊,是在向市場釋放信號:AI云市場不是一個封閉的寡頭壟斷,為AI而生的新玩家完全可以參與競爭。這符合NVIDIA的根本利益:防止買方過度集中帶來的議價權失衡。客戶基礎越分散,NVIDIA的定價權就越穩固。
放到產業層面看,CoreWeave的崛起暗示了一個正在發生的結構性變化:正如移動互聯網時代催生了與傳統IDC完全不同的公有云(AWS、Azure),推理時代可能催生與通用云完全不同的AI原生基礎設施層。CoreWeave今天的位置,類似于2010年代初期的AWS:市場份額尚小,但站在了正確的架構范式一邊。
▎供應鏈贏家
三星可能是此次GTC最大的間接受益者。在Vera Rubin架構中,三星獨家代工GB3 LP30推理芯片,同時供應HBM、DRAM和SSD。根據1:4的GPU:LPU配比推算,假設全球部署10萬個LPX機架,三星僅代工收入就可能接近百億美元量級。疊加配套存儲業務,三星在Vera Rubin生態中的整體業務價值可能是臺積電代工收入的3-4倍。
英特爾的存在感也值得關注:Xeon 6被選為DGX Rubin NVL8系統的處理器,這在NVIDIA和英特爾長期競爭的背景下是一個有趣的合作信號。
臺積電仍然是Rubin GPU的核心代工方,但LPU業務的缺失意味著其在推理時代的價值份額可能被稀釋。
路線圖確定性
NVIDIA公布了清晰的未來路線圖:
?Rubin Ultra(正在tape-out):新GPU + Kyber機架(支持NVLink 144,144個GPU組成一個NVLink域)+ LP35(首款采用NVIDIA NV FP4計算架構的LPU)
? NVLink 576:通過光學Scale-up實現,同時支持銅纜和光學兩種方案
? Feynman(下一代):全新GPU + LP40 LPU + Rosa CPU(以Rosalind Franklin命名)+ BlueField-5 + ConnectX-10
老黃承諾"每年一個全新架構",這種節奏在半導體行業幾乎沒有先例。
▎風險與不確定性
盡管整場演講的敘事極具說服力,投資者仍需關注以下風險:
性能驗證風險:Vera Rubin的性能聲明(10倍推理吞吐/功耗比、1/10的Token成本)尚未經過獨立基準測試驗證。GTC上的數據多為內部Benchmark。
Agentic AI實現風險:整個平臺的商業邏輯建立在"自主長時間運行的AI智能體將成為主導計算負載"這一假設之上。這一未來尚未完全實現。企業大規模部署智能體面臨安全、合規、可靠性等重重挑戰。
生態系統依賴風險:NVIDIA同時提供芯片、系統、軟件、模型、參考架構和智能體框架,這種全棧擴張可能引發客戶對單一供應商依賴的擔憂。Anthropic CEO Dario Amodei和OpenAI CEO Sam Altman在 GTC上的背書是強有力的信號,但競爭格局并非靜態:AMD持續縮小數據中心GPU性能差距,谷歌TPU驅動著世界上最大的一些AI訓練任務, 如 Gemini。
股價反應的信號:盡管GTC公告密度極高,NVIDIA股價在演講期間短暫上漲后僅收出小幅漲幅(詳見下節分析)。市場可能已經將大部分利好記入價格(price in),或者正在等待獨立的驗證數據。
07
市場反應:推理時代的價值鏈重構
GTC 2026主題演講后的市場反應,或許比演講本身更能揭示AI產業價值分配的結構性變化。
大盤走勢
3月16日美股收盤,三大指數全面上漲:S&P 500上漲1.02%至6,700點,納斯達克上漲1.22%至22,374點,道瓊斯上漲523點(+1.14%),NVIDIA是道指漲幅最大的成分股。整個半導體板塊出現了一輪顯著的"推理時代輪動"。
個股表現:供應鏈跑贏NVIDIA
以下是GTC演講后主要相關公司的股價變動:
![]()
分析師反應
? Wedbush Dan Ives:GTC后發出"直言不諱的信息",據TipRanks報道態度進一步轉向看多,預計將上調目標價。
? CNBC Jim Cramer:稱AI繁榮是"真正的市場驅動力"。
? SemiAnalysis Dylan Patel:稱黃仁勛"太保守了",實際性能提升是50倍而非35倍。
? MarketMinute:將此次半導體板塊上漲定義為"推理時代點燃技術性的突破"。
深層解讀:價值鏈從集中走向分散
這次市場反應中最值得關注的結構性現象是:NVIDIA自身的漲幅顯著落后于其供應鏈合作伙伴。英特爾(+6.3%)、美光(+6.2%)、希捷(+5.8%)和三星(+5.0%)均大幅跑贏NVDA(+1.65%)。
這一現象的深層含義是:
訓練時代的價值集中 vs. 推理時代的價值分散。在以訓練為主導的2023-2025年,GPU幾乎獨占了AI基礎設施的經濟價值,NVIDIA一家就能捕獲大部分增量。但Vera Rubin架構明確宣告了推理時代的到來。七款芯片、五種機架意味著CPU、內存、存儲、代工、光學網絡都成為了一等公民。
NVDA已被充分定價,供應鏈尚未。市場對NVIDIA的$1萬億需求預期并非新信息,去年GTC的$5000億已建立了增長錨點。但英特爾入選DGX Rubin、三星獨占LPU代工、美光HBM4全線售罄,這些都是超出市場預期的新信息,因此供應鏈股票獲得了更大的價格發現空間。
"解耦推理"創造新的投資機會。Vera Rubin的核心創新,即將推理過程拆分為prefill(GPU)和decode(LPU)兩個階段,在投資層面同樣是一次"解耦":它打破了"買AI就買NVIDIA"的單一押注邏輯,為投資者提供了沿價值鏈精準配置的可能性。
值得跟蹤的二階受益者
除了上述直接受益者,以下"二階受益者"尚未被充分定價:
? 閃迪/西部數據:Seeking Alpha分析師將STX存儲機架稱為"Game changer"級的NAND需求催化劑。閃迪2026年至今已上漲158%,但BlueField-4帶來的AI存儲需求尚未完全反映。
?博通/Lumentum/Arista:Spectrum-6 SPX交換機采用的共封裝光學(CPO)技術是光通信領域的重大突破。IBD將這些公司列為GTC后重點關注的標的。
?CoreWeave(CRWV):被黃仁勛稱為"全球第一個AI原生云",使用DSX Air進行AI工廠仿真。近期IPO,波動性大但成長性強。
?企業SaaS轉AGS標的:Salesforce、ServiceNow、Atlassian等正在從SaaS向AGS(Agentic as a Service)轉型的公司,可能在OpenClaw生態成熟后迎來新一輪估值重構。
GTC后續活動將持續至3月19日,更多合作伙伴公告(尤其是來自微軟等超大規模客戶的具體采購承諾)可能進一步催化市場反應。
08
結語:Token是新的大宗商品,AI工廠是新的基礎設施
黃仁勛在演講中反復使用一個類比:Token是新的貨幣,AI工廠則是鑄造這種貨幣的基礎設施。
這個類比揭示了NVIDIA對自身定位的深層思考。在這個新興的計算經濟秩序中,NVIDIA不僅是芯片供應商,更是整個Token經濟體系的基礎設施架構師,覆蓋從芯片設計到系統集成、從推理優化軟件到智能體安全框架、從數字孿生設計工具到太空計算模塊的完整鏈條。
沒有其他半導體公司(甚至可以說沒有其他技術公司)能夠呈現一個跨越定制硅片、系統架構、網絡、存儲、推理軟件、開源模型、智能體框架、安全運行時、仿真平臺、數字孿生基礎設施以及從藥物發現到自動駕駛再到太空計算的垂直應用的集成技術棧。
GTC 2026上有一個反復出現的場景:老黃穿著標志性的皮夾克,像珠寶商展示鉆石一樣舉起一塊芯片,在舞臺燈光下緩緩旋轉。這里面有表演成分,也有布道的意味。但全球的信眾越來越多,芯片越來越快,支票的面額也越來越大。
NVIDIA是在建造人類歷史上最偉大的基礎設施,還是僅僅在建造最賺錢的東西?在Token經濟的時代,這兩者或許本就是同一件事。
未經「AI科技評論」授權,嚴禁以任何方式在網頁、論壇、社區進行轉載!
公眾號轉載請先在「AI科技評論」后臺留言取得授權,轉載時需標注來源并插入本公眾號名片。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.