全文 4,000字 | 閱讀約 16 分鐘
![]()
(黃仁勛 2026 CES 演講精彩片段)
2026 年剛開年,AI 行業最重磅的信號,不是來自模型發布會,而是來自芯片 CEO 的一場產業宣言。
1月5日,拉斯維加斯CES現場,英偉達 CEO 黃仁勛一登臺就說:
計算行業的每一層,都要被重寫一次。
黃仁勛并沒有把模型升級作為主角,而是強調:AI的真正躍遷,不靠單點突破,而要靠一整套工業化能力。
什么是工業化能力?
不是展示一個更強的Demo,而是讓 AI 能被復制、能被部署、能被驗收、最終能規模化。
這次發布會,英偉達展示的正是這套完整的工業化體系:
硬件層:Rubin平臺全面量產,訓練速度提升4倍、成本降低10倍
應用層:Physical AI標準路徑,從Cosmos模擬到 Alpamayo 自動駕駛,2026年 Q1上路
生態層:全棧開源工具鏈,從模型到數據到工具,全部向行業開放
黃仁勛說,機器人領域的“ChatGPT時刻”要到了。
這不僅是個比喻,更是整個AI工業化的新起點。
第一節|應用架構:智能體替代代碼
在黃仁勛的演講里,有一句話值得注意:
你不再寫軟件,而是在訓練軟件。
這意味著:AI 應用不再是堆個模型掛在原來的程序上,而是從寫代碼變成教會一個智能體怎么做事。
過去的應用程序,是提前寫好一套流程、預先編譯、部署到設備上運行。
而現在的 AI 應用,是實時生成、實時理解、實時回應,連每一幀畫面、每一個詞,都是現場生成的。
這背后,底層邏輯變了三件事:
從編程到訓練:開發者不再告訴程序該怎么做,而是訓練它理解該怎么做。
從CPU到GPU:AI時代的計算,不再是通用芯片能支撐的任務,必須靠加速計算來支撐生成、理解和推理。
從調用模型到架構智能體:單一模型不夠用了,要建立一整套能調用多個模型、會拆解問題、會用工具的工作智能體。
英偉達內部現在用的編程方式,正是基于這樣的架構。
演講中他提到了Cursor,一個能幫工程師寫代碼的智能體模型。它會接收任務、分析意圖、調用工具完成編程。
黃仁勛把這一整套結構,稱為AI藍圖(Blueprint):
它不是一個模型,也不是一個產品,而是一整套通用方法。你可以在上面建一個客服助手,也可以建一個個人管家,甚至控制家里的機器人。
更重要的是,這個架構是可以被復制、定制的。
企業可以教它專屬技能;
工程師可以插入自己的數據;
每個行業都能建立自己能自主協作的AI。
所以,AI 應用真正的躍遷,已經不是換個更大的模型,而是從源頭上換了一種構建方式:從怎么接入模型,轉向怎么用AI來重建工具鏈。
這就是 AI 應用的底座變了:從軟件架構,變成了智能架構。
第二節|算力基建:Rubin 讓訓練成本降 10 倍
講到 AI,很多人以為主要看模型強不強。但在黃仁勛眼里,真正決定AI能不能用起來的,是底下那座發電廠夠不夠強、撐不撐得住。
這座發電廠就是他這次發布的 Rubin AI 平臺。
這不是一次普通的硬件更新,而是一次全套計算方式的重做:
六大芯片協同設計:Vera CPU、Rubin GPU、ConnectX-9網卡、BlueField-4 DPU、NVLink 6交換機、Spectrum-X光子交換機,每一塊都從零重新設計;
物理結構徹底重構:零電纜、兩根管道、5分鐘組裝(原來要2小時);
能效革命性提升 :性能翻倍,但用45°C熱水冷卻,數據中心連冷水機都不用裝。
為什么英偉達要這樣大動干戈?
因為 AI 正在經歷一場算力危機,黃仁勛稱之為"Token通脹":
模型規模每年增長10倍(從1萬億參數到10萬億參數)
推理Token生成量每年增長5倍(o1這類推理模型要"思考",不再是一次性回答)
訓練量持續爆炸(預訓練+后訓練+測試時縮放)
與此同時,Token價格每年暴跌10倍。這意味著什么?
意味著 AI 公司要想保持競爭力,必須:
用更少的成本生成更多Token
用更快的速度訓練出下一代模型
用更大的算力支撐更復雜的推理
這就是 Rubin 要解決的核心問題。
黃仁勛現場展示的數據很清楚:
訓練速度:訓練一個 10 萬億參數模型,Rubin 只需 Blackwell 1/4 的系統
工廠吞吐量:每瓦性能是 Blackwell 的10倍
Token成本:生成成本是 Blackwell 的1/10
這些數字背后,是商業邏輯的改變。
一個 500 億美元、1 吉瓦電力的數據中心,用 Rubin 比用Blackwell能多產出 10 倍收入。不是性能提升,而是收入翻倍。
Rubin 已經全面投產。這代表英偉達在摩爾定律失效的時代,通過極限協同設計硬生生把性能提升曲線拉了回來。
更關鍵的是,這樣的硬件不是給某一家公司定制的,而是為全行業準備的標準底座:
云平臺可以用它訓練模型;
大廠可以拿它做AI產品;
初創公司也能租用它接入AI基礎設施。
AI 工業化的底層,不是寫個模型上傳云,而是有一個能持續運轉、成本可控、可規模擴展的算力發電廠。
Rubin 正是這座發電廠的核心引擎。
第三節|物理 AI:機器人的工業化路徑
很多人以為機器人是科技展上的展示品,離我們生活還很遠。但黃仁勛這次講得很清楚:機器人,正在成為 AI 工業化之后的第一批量產成品。
他直接把它歸到 Physical AI 這一類。
什么是 Physical AI?
不是簡單的能動能看,而是理解物理世界如何運作的 AI:理解重力、摩擦、慣性、因果關系,就像人類從小學會的常識。
但這種常識對 AI 來說極其困難。你不能告訴它“球會滾”、“重車難停’,它必須從數據中學會。
問題是,現實世界的數據既稀缺又昂貴,讓自動駕駛AI去真實撞車學習?顯然不可能。
所以英偉達做了八年的事,就是建立一套完整的 Physical A訓練體系。 三臺計算機協同工作 :
訓練計算機 :用GPU訓練AI模型
推理計算機 :在機器人本體上運行AI
模擬計算機 :在虛擬世界里反復演練,再下場實操
這第三臺計算機是核心突破。
英偉達為此打造了兩個關鍵工具:
Cosmos:世界基礎模型,能預判一個動作會帶來什么物理后果。它不是理解語言,而是理解物理定律。
Omniverse:物理模擬平臺,真實還原重力、摩擦、材質、光照,讓AI在虛擬世界里先練個幾十億公里。
這套方法論的威力,在 Alpamayo 上得到了充分驗證。Alpamayo 是英偉達剛發布的自動駕駛 AI,也是全球首個會推理的端到端自動駕駛系統。
它的突破在哪?
不只是告訴你“我要左轉”,而是會解釋:
前方有行人橫穿,我需要減速
左側車道有車輛變道,我選擇保持車道并調整速度
這種推理能力為什么重要?
因為長尾場景是無窮的。你不可能收集到所有國家、所有天氣、所有突發情況的訓練數據。但如果AI會推理,它就能把陌生場景拆解成熟悉的子場景。比如“行人+減速”、“變道+避讓”,這些它都訓練過。
Alpamayo 的訓練數據來自:
大量人類駕駛里程
數十億公里的Cosmos生成的虛擬數據*
精細標注的邊緣案例
而且,它采用雙堆棧安全設計:
Alpamayo 負責復雜推理場景
經典AV堆棧負責兜底(當 Alpamayo不確定時切換)
更重要的是,2026年Q1,這套系統將在梅賽德斯-奔馳CLA上路,而且Alpamo已經開源。
這代表英偉達不只是造了一輛自動駕駛車,而是驗證了一整套Physical AI的工業化路徑:
用Cosmos生成訓練數據 → 解決數據稀缺問題
用Omniverse做虛擬演練 → 降低試錯成本
用推理能力應對長尾 → 突破數據覆蓋瓶頸
這套路徑不只適用于汽車,也適用于所有機器人。
黃仁勛現場展示的 Groot人形機器人、Jetson小機器人,都是在Omniverse里訓練出來的。它們會被部署到倉庫、醫院、酒店、建筑工地,代替人處理一部分真實任務。
機器人不是 AI 的最后一步,而是AI工業化之后第一批量產的實體產品。
能適應環境、理解物理、學會推理,這就是 AI 從屏幕走向現實。
Cosmos 生成數據、Omniverse模擬演練、推理應對未知,這套方法論正在成為 Physical AI的標準流程。
第四節|開源戰略:英偉達在下什么棋
AI 門檻高、只有大廠玩得起,這個認知要被打破了。
黃仁勛這次的表態很明確:
我們把模型開源、把數據開源、把工具鏈開源,因為只有這樣,每家公司才能造出自己的 AI。
英偉達為什么要這么做?
這是一場生態戰爭。
一、OpenAI 的閉源 vs 英偉達的開源
我們先看兩條不同的路徑:
OpenAI的策略:
模型閉源、能力領先
你調用我的API,按Token付費
我掌握模型,你掌握應用
英偉達的策略:
模型開源、工具開源、數據開源
你自己訓練,用我的芯片
你掌握模型,我掌握基礎設施
看出區別了嗎?
OpenAI要做的是AI時代的微軟:賣軟件、賣服務。 英偉達要做的是AI時代的臺積電:賣芯片、賣算力。
而開源,正是英偉達實現這個戰略的核心武器。
二、開源對英偉達有什么好處?
1.擴大市場規模
如果 AI只能靠調用大模型API,那需要買 GPU 的只有OpenAI、Anthropic、Google這幾家。
但如果每個行業、每家企業都要訓練自己的模型,那需要買GPU的就是成千上萬家公司。
開源工具鏈降低了門檻,激活了長尾市場。
2.建立事實標準
黃仁勛這次發布的不只是模型,還有:
Nemo工具鏈(訓練語言模型)
Cosmos(世界基礎模型)
Omniverse(物理模擬平臺)
Blueprint(智能體架構)
當全世界的開發者都用這套工具訓練AI時,這套工具就成了事實標準。
而這套標準,深度綁定了英偉達的芯片。
3.鎖定生態
黃仁勛現場點名的合作伙伴:
Palantir、ServiceNow、Snowflake(企業軟件)
西門子、Cadence、Synopsys(工業設計)
Meta、Hugging Face、ElevenLabs(AI能力)
這些公司都在用英偉達的工具鏈構建自己的AI產品。一旦形成依賴,想切換到AMD或其他芯片?
成本巨大。
三、這對產業意味著什么?
1.AI的競爭從模型能力轉向工業化能力
以前比的是誰的模型更強,現在比的是:
誰能更快訓練出專屬模型
誰能更低成本部署AI
誰能讓AI在更多場景落地
而這些,都需要芯片、工具鏈、數據支撐。
2.創業公司的機會來了
以前做AI應用,只能調用大模型API,護城河很淺。
現在有了開源工具鏈,創業公司可以:
用開源模型做基座
用行業數據做訓練
建立專屬AI能力
這意味著垂直領域的AI創業會爆發。
3.云廠商的角色會分化
以前云廠商只是賣算力,現在要選邊站:
要么深度集成OpenAI(如微軟Azure)
要么支持開源生態(如AWS、GCP)
而英偉達的開源策略,讓云廠商更容易選擇后者。
四、黃仁勛在下一盤大棋
這次發布會,黃仁勛展示的不只是產品,而是一套完整的產業布局:
第一層:開源模型和工具鏈,降低門檻、激活長尾
第二層:Rubin芯片和算力基礎設施,鎖定生態
第三層:Physical AI標準路徑,定義下一代產業
他要傳達的信息很清楚:AI 工業化,不是把模型賣給你,而是把造模型的能力還給你。
但造模型的工具、算力、芯片,都來自英偉達。
這才是真正的生態戰爭。
結語|競爭焦點變了:從模型能力到工業化速度
黃仁勛這次發布的,不是更強的模型,而是一套完整的AI 工業化路徑。
從應用架構、算力基礎、物理執行到開源生態,這四個層次構成了AI工業化的完整閉環。
Rubin已經量產,Alpamayo 2026年Q1上路,工具鏈已經開放。
AI真正的升級,不是模型參數翻倍,而是從實驗室技術變成可復制的工業能力。
競爭的焦點已經變了:不在誰的模型更強,
而在誰能更快建立 AI 工業化體系。
識自AI
本文由AI深度研究員出品,內容整理自黃仁勛 2026 CES 演講內容等網上公開素材,屬評論分析性質。內容為觀點提煉與合理引述,未逐字復制原訪談材料。未經授權,不得轉載。
星標公眾號, 點這里 1. 點擊右上角 2. 點擊"設為星標" ← AI深度研究員 ? ← 設為星標
參考資料:
https://www.youtube.com/watch?v=uMJOb4W8JhY
https://www.youtube.com/watch?v=e624tWBQRD0
https://x.com/nvidia/status/2008310817184264520
https://x.com/danielnewmanUV/status/2008287176555995245
https://www.youtube.com/watch?v=M8fL0RUmbP0
來源:官方媒體/網絡新聞
排版:Atlas
編輯:深思
主編: 圖靈
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.