![]()
來源:新智元
【導讀】CES巨幕上,老黃的PPT已成中國AI的「封神榜」。DeepSeek與Kimi位列C位之時,算力新時代已至。
萬眾矚目的2026 CES科技盛宴上,一張PPT瞬間燃爆AI圈。
老黃主旨演講上,中國大模型Kimi K2、DeepSeek V3.2,以及Qwen赫然上屏,位列全球開源大模型前列,性能正在逼近閉源模型。
CES之夜無顯卡!老黃引爆Rubin時代,6顆芯狂飆5倍算力
天空一聲巨響,全新版本的「皮衣老黃」閃亮登場。
![]()
在本次CES演講中最為激動人心的瞬間,就是英偉達全新一代芯片架構——Vera Rubin正式登場!
全球AI算力告急?老黃霸氣回應:Vera Rubin已全面投產。
這是新一代的算力怪獸,也是對上一代霸主Blackwell的降維打擊——
推理Token成本直接暴降10倍,算力性能狂飆5倍。
就連訓練MoE模型所需的GPU數量,也直接減少了4倍。
曾經,Blackwell終結了Hopper;如今,Rubin親手埋葬了Blackwell。
![]()
全程近兩小時演講,老黃提及重點包括——
下一代Rubin平臺亮相:六顆芯片,推理狂飆十倍
自動駕駛端到端模型:AlphaMayo會思考、自主推理,全程0接管上路
物理AI全家桶開源:基礎模型、框架
玩家徹夜難眠:CES 2026,沒有顯卡
至于游戲玩家?
對不起,這次真的沒有新顯卡。
![]()
英偉達在X上的一紙公告,徹底擊碎了「攢機黨」最后的幻想:CES 2026將沒有任何新GPU發(fā)布。
這意味著,英偉達自2021年以來連續(xù)五年在CES發(fā)布新硬件的傳統(tǒng),就此終結。
傳聞已久的RTX 50 Super系列,受困于GDDR7顯存的「產能地獄」,大概率已經胎死腹中。
Rubin炸裂登場
6顆芯片,10倍推理,AI超算變工廠
去年10月,老黃曾預計:未來五年,將有3到4萬億美元砸向AI基礎設施。
Vera Rubin的大規(guī)模投產,可謂生逢其時。
如果說Blackwell打破了單卡性能的極限,那么Rubin解決的則是系統(tǒng)規(guī)模化的難題。
從此,算力將像電力一樣廉價,AI的大爆發(fā)已近在咫尺!
![]()
2024年,Vera Rubin架構首次亮相。
等了兩年,現在它終于正式投產了!
Blackwell架構,從此將退出歷史舞臺。
演講現場,老黃告訴大家:AI所需的計算量急劇飆升,怎么辦?不用怕,Vera Rubin,將解決我們面臨的根本性挑戰(zhàn)!
這套為萬億參數模型的海量推理而生的平臺,會徹底讓算力低成本、規(guī)模化、工業(yè)化生產。
Rubin架構,以天文學家Vera Florence Cooper Rubin而命名。
![]()
可以說,Rubin是英偉達第一次把CPU、GPU、網絡、存儲、安全,當成一個整體來設計。
核心思路就是:不再「堆卡」,而是把整個數據中心變成一臺AI超算。
整個Rubin平臺,由這6個關鍵組件構成。
![]()
![]()
其中,Rubin GPU是整個平臺的核心。它搭載第三代Transformer引擎,為AI推理提供50 PFLOPS的NVFP4算力。
之所以能達到Blackwell GPU性能的5倍,是因為它的NVFP4張量核心,后者能分析Transformer各層的計算特性,動態(tài)調整數據精度與計算路徑。
![]()
另外,該架構還引入一顆全新的Vera CPU,專為智能體推理而設計。
它采用88個英偉達自研Olympus核心,完全兼容Armv9.2,并具備超快的NVLink-C2C 連接,能實現176個線程的全性能執(zhí)行,I/O帶寬和能效比直接翻倍。
![]()
當我們在Agentic AI或長期任務中啟用全新的工作流時,會對KV cache造成很大壓力。
為了解決存儲和互聯(lián)的瓶頸,Rubin架構特別改進了Bluefield和NVLink系統(tǒng)。它通過外部方式和計算設備相連,這樣就能更高效地擴展整體存儲池的規(guī)模。
BlueField-4 DPU是一個數據處理單元,它能卸載網絡、存儲和安全任務,還能管理AI的上下文記憶系統(tǒng)。
![]()
NVLink 6中,單芯片就能提供每秒400Gb的交換能力。每塊GPU提供3.6TB/s 的帶寬,而Rubin NVL72機架提供260TB/s,帶寬超過整個互聯(lián)網。
通過3.6 TB/s的帶寬和網絡內計算能力,它能讓Rubin中的72個GPU像一個超級GPU一樣協(xié)同工作,直接把推理成本打至1/7。
![]()
現場,老黃給我們展示了Vera Rubin的托盤。小小的托盤上集成了2顆Vera CPU、4顆Rubin GPU、1顆BlueField-4 DPU和8顆ConnectX-9網卡,整個計算單元算力達到100 PetaFLOPS。
![]()
![]()
Rubin的目標,是解決MoE和萬億參數模型的訓練成本,它做到了嗎?顯然,成果是顯著的。
訓練、推理效率暴增
測試結果顯示,Rubin架構訓練模型時的運行速度,直接達到上一代Blackwell架構的3.5倍(35 petaflops),推理任務的速度則高達5倍,最高可達50 petaflops!
同時,它的HBM4內存帶寬提升至22 TB/s,達到2.8倍,單GPU的NVLink互連帶寬則翻倍到3.6 TB/s。
![]()
在超大規(guī)模MoE訓練中,Rubin所需的GPU數量相比Blackwell可減少至1/4,同時整體能耗顯著下降。
這背后,就有三大功臣。
NVLink 6,讓GPU間互聯(lián)帶寬再次大幅提升,多卡訓練不再被通信拖慢;Vera CPU與Rubin GPU的協(xié)同調度,可以減少「GPU等數據」的空轉時間;而ConnectX-9與Spectrum-6的深度協(xié)同,也讓大模型訓練不會再被集群規(guī)模限制。
![]()
![]()
從此,訓練萬億模型,不再是「堆錢」,只會是工程問題。
訓練解決了,那推理呢?
結果顯示,在推理側,Rubin平臺單位token的推理效率提升最高可達10倍!同樣的模型和響應延遲,算力成本可以直接下降到原來的1/10。
所以,模型可以跑得起百萬token的長下文,企業(yè)級AI應用也可以部署了。
![]()
![]()
存儲瓶頸解決
如上文所言,讓AI模型多跑一會的關鍵挑戰(zhàn),就在于上下文數據。
![]()
大量KV Cache該如何處理?英偉達推出了由BlueField-4驅動的推理上下文內存存儲平臺。
這個平臺在GPU內存和傳統(tǒng)存儲之間創(chuàng)建了「第三層」,直接讓每秒處理的 token數提升高達5倍。
![]()
DGX Super POD
本次CES上,英偉達還推出了新一代DGX SuperPOD。
![]()
它把多個裝有72個GPU的Rubin NVL72連接起來,形成了更大的AI計算集群。
在這次的DGX SuperPOD中,共有8個Rubin NVL72機架,相當于有576個GPU。
![]()
NVIDIA Vera Rubin NVL72 提供統(tǒng)一、安全的系統(tǒng),集成了72 塊Rubin GPU、36塊Vera CPU、NVLink 6、ConnectX-9 SuperNICs和BlueField-4 DPUs
這樣,SuperPOD就可以處理數千個Agentic AI智能體,以及數百萬token上下文。
可以說,英偉達一次性解決了數百個GPU相連、管理存儲的問題,直接給我們提供了開箱即用的AI基礎設施。
![]()
![]()
第三代機密計算平臺
更為重要的是,Rubin是首個支持第三代機密計算(Confidential Computing)的AI超算平臺。
模型參數、推理數據、用戶請求都會被全鏈路加密,即使的云廠商,也無法直接訪問明文數據。
這就解決了「敢不敢把核心AI放到云上」的問題,對于金融、醫(yī)療、政府、企業(yè)私有模型都非常重要。
這些大廠,第一批用上Rubin
老黃介紹說,Rubin會由AWS、Microsoft Azure、Google Cloud、Meta、OpenAI這些頭部廠商先部署。
而到2026年下半年,Rubin平臺就會進入大規(guī)模商用階段。
所以,下一代GPT、Gemini、Claude模型,大概率都會運行在Rubin架構上。
![]()
全程0接管,自動駕駛AI「會思考」
如何教會AI物理學的基礎事實?
英偉達給出的答案是,把算力變成高質量的數據(Compute is Data)。
在這一體系中,「世界基礎模型」Cosmos扮演著重要的角色。
交通模擬器輸出的信號,被送入Cosmos再生成合理、運動上連貫的環(huán)繞視頻,讓AI學習其中真實世界的行為模式。
![]()
如今,Cosmos已被全球下載數百萬次,成為物理AI時代的重要基礎設施。在英偉達,內部也在用其做自動駕駛研究。
在此基礎上,今天,英偉達正式發(fā)布了「端到端」自動駕駛AI——AlphaMayo。
它是一個會思考、會推理的自動駕駛AI。從攝像頭輸入到車輛執(zhí)行動作,全流程由模型完成。
![]()
AlphaMayo獨特之處,在于它具備了顯式推理能力。
系統(tǒng)不僅執(zhí)行轉向、制動、加速動作,還會給出即將采取行動的理由,以及對應的形式軌跡。
![]()
自動駕駛最大挑戰(zhàn),來自于「長尾場景」,幾乎不可能覆蓋所有國家、所有道路的數據。
AlphaMayo的策略是將復雜場景,拆解為多個熟悉的物理與交通子問題,通過推理將罕見情況分解為常見組合,完成應對。
在演示中,車輛可以在全程0接管狀態(tài)下,完成路徑規(guī)劃與行駛,順利抵達目的地。
![]()
在自動駕駛領域,英偉達投入持續(xù)了八年,如今第一次把AI「五層架構」完整跑通。
由下到上:實體本身、芯片體系、模型層、基礎設施層、應用層,構成了一套完全貫通的AI系統(tǒng)棧。
AlphaMayo構成模型層,梅賽德斯-奔馳汽車構成應用層。
這一次,老黃還官宣了,NVIDIA DRIVE AV軟件首次搭載全新梅賽德斯-奔馳 CLA,提供L2級端到端駕駛。
![]()
更重磅的是,Alpamayo家族全部開源。這一整套方法論,并不只適用于汽車,同樣適用于機器人、機械臂等各類系統(tǒng)。
全家桶開源,機器人ChatGPT時刻
下一階段,機器人將以各種形態(tài)進入現實世界,前提是,它們首先在Omniverse中學會如何行動。
現場,老黃又召喚來了機器人瓦力登臺配合演出,這里他講了一句意味深長的話:
未來的系統(tǒng),都誕生在計算機里。
![]()
英偉達正把自身能力嵌入到,計算密度最高、最復雜的工業(yè)體系統(tǒng),就像此前與Palantir、ServiceNow的集成一樣。
如今,這一模式正被復制到了工業(yè)仿真與設計領域。
在具身智能領域,老黃直接扔下了一套針對物理AI(Physical AI)的「開源全家桶」——模型、框架及基礎設施,應有盡有。
機器人的ChatGPT時刻已經到來!
![]()
目前,所有新模型均已上線Hugging Face,拿來即用:
NVIDIA Cosmos Transfer/Predict 2.5,這是完全可定制的世界模型,專門在虛擬世界里生成符合物理規(guī)律的數據,訓練機器人的大腦。
NVIDIA Cosmos Reason 2,讓機器像人一樣「看懂」世界并進行邏輯推理。
NVIDIA Isaac GR00T N1.6,專為人形機器人打造,解鎖全身控制,讓機器人不再四肢僵硬。
為了解決機器人開發(fā)中「各自為戰(zhàn)」的痛點,英偉達發(fā)布了兩大神器:
Isaac Lab-Arena:這是GitHub上的開源框架,連接了主流基準測試,確保機器人在進廠打工前,已經在虛擬世界里經過了千錘百煉。
NVIDIA OSMO:無論是在工作站還是混合云,它都能統(tǒng)一調度數據生成、模型訓練和測試,大幅縮短開發(fā)周期。
機器人技術已是Hugging Face上增長最快的領域。英偉達這次不僅是提供模型,更是深度集成:
LeRobot集成:Isaac和GR00T技術直接通過LeRobot框架即可調用。
硬件互通:Hugging Face的開源機器人Reachy 2和Reachy Mini現已完美適配英偉達的Jetson平臺,語音、視覺、大模型能力瞬間拉滿。
軟件強還不夠,硬件必須硬。如今,全新的Jetson T4000模組,直接將Blackwell架構帶到了邊緣端:
算力高達1200 FP4 TFLOPS,是上一代的4倍。
1000臺起訂單價僅1999美元。
70瓦功耗,簡直是為能源受限的自主設備量身定做。
![]()
老黃震撼預言
未來所有應用,建在AI之上
每隔10-15年,計算產業(yè)就會重來一次。
演講伊始,老黃還回顧了計算產業(yè)過去數十年的演進路徑——
從大型機到CP,到互聯(lián)網、云計算,再到移動計算,每一次平臺級躍遷,都會催生一整套全新的應用生態(tài),軟件開發(fā)方式也隨之重構。
而這一次,變化來得更加猛烈。
他提到,當前產業(yè)正同時經歷兩次平臺級轉變:一是從傳統(tǒng)計算走向AI,另一個是整個軟件、硬件棧的底層重塑。
AI正成為全新的「底座」,應用開始建立在AI之上。同時,軟件開發(fā)與運行方式、應用生成方式發(fā)生了根本性變化。
這一切,共同推動了「加速計算+AI」對整個計算體系的重塑,五個層級正在同時被重新發(fā)明。
![]()
2022年ChatGPT爆發(fā)后,AI才真正走進大眾視野。一年之后,推理模型首次登場,引入了「測試時Scaling」這一概念。
模型不僅在訓練階段學習,還在推理階段實時計算和推演。預訓練、RL、推理這些階段,都需要機器龐大的計算資源,也同時推動模型能力持續(xù)提升。
2024年,另一項突破開始顯現,直到2025年,智能體系統(tǒng)(Agentic AI)才迅速擴散開來。
老黃再次提及,在英偉達內部,像Cursor這樣的Agentic工具已深刻改變了軟件的開發(fā)方式。
智能體AI之后,下一個前沿便是物理AI(Physical AI),理解自然規(guī)律和物理法則,為AI打開了全新疆域。
除此之外,過去一年,另一個具有決定性意義的變化來自「開源模型」。
DeepSeek R1的出現,作為首批開源推理模型之一,給行業(yè)帶起來巨大震動。
但不可否認的是,其仍比前沿模型落后六個月。每隔半年,就有新模型涌現,而且越來越智能。
![]()
![]()
英偉達,正引領著開源模型的生態(tài),遍布多個領域。而且,在多個榜單上取得了亮眼的成績。
最具代表性的包括多模態(tài)Nemotron 3、世界模型Cosmos、機器人模型GR00T、蛋白預測模型OpenFold 3......
![]()
![]()
老黃現場表示,以上一切成果,都為構建AI智能體服務,這是真正突破性的發(fā)展領域。
當前AI模型已變得極其強大,智能體的推理能力為各類應用開啟了大門。
![]()
令老黃深感震驚的是,首次在Perplexity見證了其同時調用多個模型——AI在推理任何環(huán)節(jié),直接調用最頂尖的模型。
這背后本質上是「多云協(xié)同」,同時還具備了混合云特性。
老黃明確地表示,這就是未來AI應用的基本形態(tài)。或者說,因為未來應用都構建在AI之上,這就是未來應用的基礎框架。
一方面,AI可以被深度定制。另一方面,系統(tǒng)始終保持最前沿。「定制+前沿」能力在同一架構中同時存在。
![]()
在軟件世界之外,更大挑戰(zhàn)來自于現實世界。為此,物理AI需要三臺計算機——
第一臺計算機:用于訓練模型
第二臺計算機:用于推理,運行咋i汽車、機器人、工廠等邊緣環(huán)境
第三臺計算機:專門用于仿真、模擬
老黃提到,仿真是整個體系的核心,只有在可控的數字環(huán)境中,AI才能反復嘗試、評估行為后果,并逐步建立對世界的理解。
![]()
彩蛋
演講最后還有一個幕后花絮,DGX Station臺式AI超算將在2026年春季上線。
屆時,英偉達還將同步推出更多針對GB300系統(tǒng)的實戰(zhàn)手冊(Playbooks)。
![]()
如果說DGX Spark是開發(fā)者的入門首選,那么DGX Station就是一臺放在你辦公桌上的微型數據中心:
搭載GB300 Grace Blackwell Ultra超級芯片。
配備高達775GB的FP4精度一致性內存(Coherent Memory)。
擁有Petaflop級AI算力,支持在本地運行高達1萬億(1T)參數的超大規(guī)模模型。
得益于強大的硬件基礎,DGX Station實測威力驚人:
LLM預訓練速度高達250,000 Token/秒。
支持對數百萬數據點進行聚類和大型可視化。
從DeepSeek R1的開源震動,到Agentic AI的全面爆發(fā),計算產業(yè)正在經歷一場前所未有的重塑。
在這個只有玩家落淚的早上,一個由物理AI驅動的全新世界,正在Vera Rubin的轟鳴聲中,加速向我們走來。
參考資料:HYZ
https://nvidianews.nvidia.com/news/rubin-platform-ai-supercomputer
https://www.nvidia.com/en-gb/data-center/vera-rubin-nvl72/
https://blogs.nvidia.com/blog/dgx-superpod-rubin/
https://www.nvidia.com/en-us/events/ces/
https://youtu.be/0NBILspM4c4
老黃開年演講「含華量」爆表!直接拿DeepSeek、Kimi驗貨下一代芯片
這一刻,是屬于中國AI的高光時刻。
另外,OpenAI的GPT-OSS和老黃自家的Nemotron,也做了標注。
![]()
而且,DeepSeek-R1、Qwen3 和 Kimi K2 代表著MoE路線下頂級規(guī)模的嘗試,僅需激活少量參數,大幅減少計算量和HBM顯存帶寬的壓力。
![]()
在下一代Rubin架構亮相的核心環(huán)節(jié)上,老黃還選用了DeepSeek和Kimi K2 Thinking來秀性能。
在Rubin暴力加成下,Kimi K2 Thinking推理吞吐量直接飆了10倍。更夸張的是,token成本暴降到原來的1/10。
![]()
這種「指數級」的降本增效,等于宣告了:AI推理即將進入真正的「平價時代」。
另外,在計算需求暴漲這頁PPT上,480B的Qwen3和1TB的Kimi K2成為代表性模型,驗證了參數規(guī)模每年以十倍量級scaling。
![]()
不得不說,老黃整場發(fā)布會上,中國AI模型的含量超標了。
推理狂飆十倍
中國模型成老黃「御用」AI?
無獨有偶,英偉達去年12月的一篇博客中,也將DeepSeek R1和Kimi K2 Thinking作為評判性能的標桿。
實測顯示,Kimi K2 Thinking在GB200 NVL72上性能可以暴增10倍。
![]()
另外,在SemiAnalysis InferenceMax測試中,DeepSeek-R1將每百萬token的成本降低10倍以上。包括Mistral Large 3在內同樣獲得了十倍加速。
這意味著,復雜的「思考型」MoE部署到日常應用,成為了現實。
![]()
![]()
如今,隨便拎出一款前沿模型,只要深入其內部結構,便會發(fā)現MoE(混合專家)成為了主流的選擇。
據統(tǒng)計,自2025年以來,超60%開源AI采用了MoE架構,從2023年初,這一架構推動LLM智能水平提升近70倍。
此外,在權威機構Artificial Analysis(AA)排行榜上,最智能的TOP 10開源模型,也全都用的是MoE結構。
如此巨大規(guī)模的MoE,單GPU必然無法部署,英偉達GB200 NVL72卻能破解這一難題。
![]()
DeepSeek R1和Kimi K2 Thinking實測結果,恰恰證明了英偉達Blackwell超算性能的強大所在。
如今,中國大模型閃耀全球舞臺,它們令人驚嘆的表現,開啟了AI推理高效的新時代。
![]()
開源AI扛把子,震驚歪果仁
去年底,Anthropic發(fā)布了一項針對全球16個前沿模型的嚴苛行為基準測試。
在這一眾頂尖高手中,DeepSeek與Kimi不僅是唯二入局的中國面孔,更交出了驚艷的答卷——
Kimi K2 Thinking憑借極低的被誤導率,一舉摘得「表現最佳的非美國模型」桂冠。
![]()
注:得分越低性能越強,越不容易被誤導
這種技術實力也迅速轉化為國際影響力和落地應用。
從「硅谷風投教父」Marc Andreessen的公開盛贊,到OpenAI前CTO的新產品Thinker上月官宣接入Kimi K2 Thinking,中國AI的硬實力正在被全球核心圈層接納。
![]()
![]()
權威評測進一步印證了這一趨勢。
在知名AI大佬Nathan Lambert與Florian Brand聯(lián)合發(fā)布的「2025年度開源模型回顧」中,DeepSeek、Qwen和Kimi強勢包攬Top 3。
![]()
隨后,Lambert更在專文中深入分析,高度評價了中國開源AI所具備的獨特優(yōu)勢。
![]()
1. 開源模型的「唯快不破」
盡管最強閉源模型與開源之間仍存代差,但中國實驗室正在以驚人的速度發(fā)布模型,大幅壓縮了這一差距。
在技術飛速迭代的當下,「更早發(fā)布」本身就是一種巨大的先發(fā)優(yōu)勢。
2. 始于「沖榜」,終于「體驗」
中國模型在基準測試上的表現愈發(fā)生猛,但更關鍵的是從「分高」到「好用」的轉變。
我們見證了Qwen的進化:最初以「沖榜」聞名,如今已成為名副其實的優(yōu)質模型。
順著這一思路,K2 Thinking在后訓練階段原生采用4bit精度,顯然是為了更高效地支持長序列RL擴展,使其更勝任實際的服務任務。
3. 中國力量的品牌崛起
年初,外國用戶可能叫不出任何一家中國AI實驗室的名字;如今,DeepSeek、Qwen和Kimi已成為東方技術實力的代表。
它們各有高光時刻和獨特優(yōu)勢。重要的是,這份名單還在不斷變長,中國AI正在世界舞臺占據一席之地。
4. 突破:海量工具調用與穿插思考
Kimi K2 Thinking支持「數百步穩(wěn)定工具調用」引發(fā)熱議。
雖然這在o3、Grok 4等閉源模型中已成標配(RL訓練中的自然涌現),但這通過開源模型實現尚屬首批,這對托管服務商的精準支持能力提出了極高要求。
此外,是「交錯思考」(Interleaved thinking)——即模型在調用工具的間隙進行思考。
這是繼Claude之后,強調 agentic 能力的模型都在跟進的新趨勢,標志著模型邏輯鏈條的進一步成熟。
5. 倒逼美國閉源巨頭
開源的激增讓美國閉源實驗室倍感壓力——僅僅依靠基準測試分數已無法解釋「為什么付費更好」了。
相比之下,中國模型或許在收入上暫未占優(yōu),但在全球市場的「心智份額」上,正在切走越來越大的一塊蛋糕。
回看CES 2026這場演講,老黃直接把「開源」講成了全場最硬核的主線。
中國開源AI的表現足以令世界驚嘆,隨著更多開發(fā)者和企業(yè)擁抱這些模型,AI應用的全面爆發(fā)指日可待。
參考資料:
https://blogs.nvidia.com/blog/mixture-of-experts-frontier-models/
https://www.interconnects.ai/p/kimi-k2-thinking-what-it-means
為偉大思想而生!
AI+時代,互聯(lián)網思想(wanging0123),
第一必讀自媒體
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.