![]()
新智元報道
編輯:好困 桃子
【新智元導(dǎo)讀】CES巨幕上,老黃的PPT已成中國AI的「封神榜」。DeepSeek與Kimi位列C位之時,算力新時代已至。
萬眾矚目的2026 CES科技盛宴上,一張PPT瞬間燃爆AI圈。
老黃主旨演講上,中國大模型Kimi K2、DeepSeek V3.2,以及Qwen赫然上屏,位列全球開源大模型前列,性能正在逼近閉源模型。
這一刻,是屬于中國AI的高光時刻。
另外,OpenAI的GPT-OSS和老黃自家的Nemotron,也做了標注。
![]()
而且,DeepSeek-R1、Qwen3 和 Kimi K2 代表著MoE路線下頂級規(guī)模的嘗試,僅需激活少量參數(shù),大幅減少計算量和HBM顯存帶寬的壓力。
![]()
在下一代Rubin架構(gòu)亮相的核心環(huán)節(jié)上,老黃還選用了DeepSeek和Kimi K2 Thinking來秀性能。
在Rubin暴力加成下,Kimi K2 Thinking推理吞吐量直接飆了10倍。更夸張的是,token成本暴降到原來的1/10。
![]()
這種「指數(shù)級」的降本增效,等于宣告了:AI推理即將進入真正的「平價時代」。
另外,在計算需求暴漲這頁PPT上,480B的Qwen3和1TB的Kimi K2成為代表性模型,驗證了參數(shù)規(guī)模每年以十倍量級scaling。
![]()
不得不說,老黃整場發(fā)布會上,中國AI模型的含量超標了。
推理狂飆十倍
中國模型成老黃「御用」AI?
無獨有偶,英偉達去年12月的一篇博客中,也將DeepSeek R1和Kimi K2 Thinking作為評判性能的標桿。
實測顯示,Kimi K2 Thinking在GB200 NVL72上性能可以暴增10倍。
![]()
另外,在SemiAnalysis InferenceMax測試中,DeepSeek-R1將每百萬token的成本降低10倍以上。包括Mistral Large 3在內(nèi)同樣獲得了十倍加速。
這意味著,復(fù)雜的「思考型」MoE部署到日常應(yīng)用,成為了現(xiàn)實。
![]()
![]()
如今,隨便拎出一款前沿模型,只要深入其內(nèi)部結(jié)構(gòu),便會發(fā)現(xiàn)MoE(混合專家)成為了主流的選擇。
據(jù)統(tǒng)計,自2025年以來,超60%開源AI采用了MoE架構(gòu),從2023年初,這一架構(gòu)推動LLM智能水平提升近70倍。
此外,在權(quán)威機構(gòu)Artificial Analysis(AA)排行榜上,最智能的TOP 10開源模型,也全都用的是MoE結(jié)構(gòu)。
如此巨大規(guī)模的MoE,單GPU必然無法部署,英偉達GB200 NVL72卻能破解這一難題。
![]()
DeepSeek R1和Kimi K2 Thinking實測結(jié)果,恰恰證明了英偉達Blackwell超算性能的強大所在。
如今,中國大模型閃耀全球舞臺,它們令人驚嘆的表現(xiàn),開啟了AI推理高效的新時代。
![]()
開源AI扛把子,震驚歪果仁
去年底,Anthropic發(fā)布了一項針對全球16個前沿模型的嚴苛行為基準測試。
在這一眾頂尖高手中,DeepSeek與Kimi不僅是唯二入局的中國面孔,更交出了驚艷的答卷——
Kimi K2 Thinking憑借極低的被誤導(dǎo)率,一舉摘得「表現(xiàn)最佳的非美國模型」桂冠。
![]()
注:得分越低性能越強,越不容易被誤導(dǎo)
這種技術(shù)實力也迅速轉(zhuǎn)化為國際影響力和落地應(yīng)用。
從「硅谷風投教父」Marc Andreessen的公開盛贊,到OpenAI前CTO的新產(chǎn)品Thinker上月官宣接入Kimi K2 Thinking,中國AI的硬實力正在被全球核心圈層接納。
![]()
![]()
權(quán)威評測進一步印證了這一趨勢。
在知名AI大佬Nathan Lambert與Florian Brand聯(lián)合發(fā)布的「2025年度開源模型回顧」中,DeepSeek、Qwen和Kimi強勢包攬Top 3。
![]()
隨后,Lambert更在專文中深入分析,高度評價了中國開源AI所具備的獨特優(yōu)勢。
![]()
1. 開源模型的「唯快不破」
盡管最強閉源模型與開源之間仍存代差,但中國實驗室正在以驚人的速度發(fā)布模型,大幅壓縮了這一差距。
在技術(shù)飛速迭代的當下,「更早發(fā)布」本身就是一種巨大的先發(fā)優(yōu)勢。
2. 始于「沖榜」,終于「體驗」
中國模型在基準測試上的表現(xiàn)愈發(fā)生猛,但更關(guān)鍵的是從「分高」到「好用」的轉(zhuǎn)變。
我們見證了Qwen的進化:最初以「沖榜」聞名,如今已成為名副其實的優(yōu)質(zhì)模型。
順著這一思路,K2 Thinking在后訓(xùn)練階段原生采用4bit精度,顯然是為了更高效地支持長序列RL擴展,使其更勝任實際的服務(wù)任務(wù)。
3. 中國力量的品牌崛起
年初,外國用戶可能叫不出任何一家中國AI實驗室的名字;如今,DeepSeek、Qwen和Kimi已成為東方技術(shù)實力的代表。
它們各有高光時刻和獨特優(yōu)勢。重要的是,這份名單還在不斷變長,中國AI正在世界舞臺占據(jù)一席之地。
4. 突破:海量工具調(diào)用與穿插思考
Kimi K2 Thinking支持「數(shù)百步穩(wěn)定工具調(diào)用」引發(fā)熱議。
雖然這在o3、Grok 4等閉源模型中已成標配(RL訓(xùn)練中的自然涌現(xiàn)),但這通過開源模型實現(xiàn)尚屬首批,這對托管服務(wù)商的精準支持能力提出了極高要求。
此外,是「交錯思考」(Interleaved thinking)——即模型在調(diào)用工具的間隙進行思考。
這是繼Claude之后,強調(diào) agentic 能力的模型都在跟進的新趨勢,標志著模型邏輯鏈條的進一步成熟。
5. 倒逼美國閉源巨頭
開源的激增讓美國閉源實驗室倍感壓力——僅僅依靠基準測試分數(shù)已無法解釋「為什么付費更好」了。
相比之下,中國模型或許在收入上暫未占優(yōu),但在全球市場的「心智份額」上,正在切走越來越大的一塊蛋糕。
回看CES 2026這場演講,老黃直接把「開源」講成了全場最硬核的主線。
中國開源AI的表現(xiàn)足以令世界驚嘆,隨著更多開發(fā)者和企業(yè)擁抱這些模型,AI應(yīng)用的全面爆發(fā)指日可待。
參考資料:
https://blogs.nvidia.com/blog/mixture-of-experts-frontier-models/
https://www.interconnects.ai/p/kimi-k2-thinking-what-it-means
秒追ASI
?點贊、轉(zhuǎn)發(fā)、在看一鍵三連?
點亮星標,鎖定新智元極速推送!
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.