在這場沒有硝煙的戰(zhàn)爭中,Kimi暫時贏得了一個身位,但通往AGI的道路上,還要保持更強大的耐力和更堅韌的態(tài)度。
![]()
僅僅發(fā)布不到24小時,來自月之暗面的Kimi K2.5,已經(jīng)登頂全球多個大模型榜單。
在權威榜單LMarena的最新排名中,Kimi K2.5在代碼、文本等榜單中僅次于Claude 4.5與Gemini 3 Pro等頂級閉源模型,在全球開源模型中位居首位。
![]()
同樣地,在著名獨立評測機構Artificial Analysis的榜單中,Kimi K2.5也在所有開源模型中排名第一。
![]()
換言之,排在他前面的幾乎都是算力資源約等于無限的閉源模型,而Kimi K2.5背后的算力資源,僅為美國競爭對手的1% 。
這也從某個側(cè)面解釋了,一個月前,Kimi獲得的C輪融資大幅超募的“盛況”,且目前Kimi的B/C輪融資金額,已超過絕大部分IPO募資及上市公司定向增發(fā)規(guī)模,新的一輪據(jù)說還在進行中。
在中美芯片禁令的鐵幕之下,H100和B200,已經(jīng)成為受到嚴格管控的戰(zhàn)略物資。中美之間的AI競爭,已經(jīng)實質(zhì)上變成了不對等的競爭,這甚至在更早之前就已經(jīng)開始。
這樣的條件下,新發(fā)布的Kimi K2.5模型,將視覺理解與推理、編程、Agent等能力全部集成到一個模型當中。正如創(chuàng)始人、CEO楊植麟所說,“我們重構了強化學習的基建,并專門優(yōu)化了訓練算法,以確保它能達到極致的效率和性能。”
在長文本和多模態(tài)的范式創(chuàng)新幾近“卷無可卷”的當下,Kimi K2.5用全新的Agent Swarm架構,試圖開拓一種全新的范式。而這種范式,極有可能在如今的中美AI競爭中,成為一種全新的變量。
01 從“單兵作戰(zhàn)”到智能體“集團軍”
在過去兩年的大模型敘事中,行業(yè)陷入了一種對“超級單體”的迷信。無論是 GPT-4 還是早期的Kimi,都在試圖訓練一個全知全能的“大腦”,通過不斷增加上下文窗口來容納更多的信息。
Kimi曾依靠長文本建立了早期的市場心智,在K2時代通過強化思維鏈提升了邏輯推理的深度。然而,單體智能的 Scaling Law正在撞上一堵“看不見的墻”——無論單個愛因斯坦多么聰明,他都無法在幾分鐘內(nèi)同時完成一百家公司的財務審計。
Kimi K2.5的核心突破,在于它果斷放棄了對單體模型性能的過度追求,轉(zhuǎn)而擁抱了“群體”的力量。這就是Agent Swarm(智能體蜂群)架構,計算范式由此發(fā)生根本性轉(zhuǎn)移。
Swarm基于并行強化學習(PARL),能夠?qū)⒁粋€宏觀的復雜任務瞬間拆解,并生成多達 100 個子智能體并行工作。這種架構上的變遷,好比從單核 CPU 的串行計算時代,跨越到了 GPU 的并行計算時代。
在Swarm的架構下,模型不再是一個孤獨的思考者,而是一個擁有最高指揮權的“項目經(jīng)理”。當用戶拋出一個復雜需求時,K2.5 會即時評估任務的拓撲結構,現(xiàn)場決定招募多少個 Agent,并賦予它們不同的角色與權限 。
![]()
這些子智能體本質(zhì)上是K 2.5的分身,但它們可以在同一時刻分別扮演代碼審計員、法律顧問、數(shù)據(jù)分析師甚至視覺設計師。它們之間不再是線性的接力傳遞,而是網(wǎng)狀的并行協(xié)作。這種“去中心化”的執(zhí)行邏輯,直接打破了傳統(tǒng)大模型在處理超長復雜任務時容易出現(xiàn)的注意力漂移和邏輯崩塌問題。
Kimi K2.5并沒有像許多競爭對手那樣,采用“拼接式”的方案——即用一個模型看圖,另一個模型寫代碼,再用第三個模型做推理。它是一個原生多模態(tài)混合專家模型,擁有1萬億的總參數(shù),但在單次推理中僅激活320億參數(shù)。
在這個架構中,視覺、文本、視頻甚至思考被壓縮進了同一個神經(jīng)網(wǎng)絡中。
這就意味著,當Swarm中的一個視覺 Agent 看到網(wǎng)頁截圖時,它不需要經(jīng)過中間的轉(zhuǎn)譯損耗,就能直接由負責代碼的神經(jīng)元生成生產(chǎn)級的HTML/CSS代碼。這種“所見即所得”的端到端能力,是Swarm能夠高效運轉(zhuǎn)的生理基礎。
02 “無限擴容”的數(shù)字勞動力
Swarm架構的實用性,在于它如何重新定義“工作流”的時間成本。尤其對于一些企業(yè)用戶而言,購買AI服務的實質(zhì)是購買降本增效和落地的“確定性”。
Kimi K2.5目前所展現(xiàn)的能力表面,在某種程度上,已經(jīng)可以被視為,充當了一種無限擴容的數(shù)字勞動力,而另一個無法繞過去的核心優(yōu)勢則是,其的確更具成本優(yōu)勢。
我們對比全球范圍內(nèi)認可度最高的編程與Agent模型的Claude來看,其開發(fā)方Anthropic主動對中國市場實施技術斷供,這使得,國內(nèi)字節(jié)跳動Trea、騰訊CodeBuddy等主流編程工具已下架該模型。
當然,即便沒有上述這一層誘因,就長遠周期來看,Claude高昂的API使用成本偏高,也會間接推動中國企業(yè)全面尋找其替代方案。
只不過,此前國產(chǎn)頂尖編程與Agent模型大多都是純文本架構,缺乏視覺理解能力,實際應用中因無法解析圖像,適用場景也相對受限,因此難以從絕對意義上替代Claude。
而這也是Kimi K2.5真正稱得上“突破”的關鍵。Kimi K2.5不僅在編程能力上可與Claude抗衡,使用成本僅為其五分之一,視覺理解能力更實現(xiàn)對Claude的超越,成為兼具技術實力與成本優(yōu)勢的優(yōu)質(zhì)替代選擇。
先進性與商業(yè)化等方面的多重優(yōu)勢,很快便得到了市場端給出的積極反饋:
海外知名編程工具Kilo Code作為Cursor的直接競品,宣布將Kimi K2.5定為默認模型,并自掏腰包推出首周免費使用活動;國內(nèi)騰訊旗下編程工具CodeBuddy等也已第一時間上架Kimi K2.5,并將其設為默認模型。
03 算力赤字下的突圍
技術細節(jié)之外,如果將目光延展至當下中美AI競爭的格局,Kimi K2.5的發(fā)布便多了一層悲壯的色彩。
2026年的全球AI格局已呈現(xiàn)出涇渭分明的“雙極”狀態(tài)。大洋彼岸的OpenAI和Google DeepMind正在數(shù)萬張H100/B200構成的算力海洋中,通過簡單粗暴的Scaling Laws向AGI發(fā)起沖鋒。這是一種大力出奇跡之美。
而處于芯片禁令鐵幕之下的中國AI公司,則被迫進入了一場殘酷的“非對稱戰(zhàn)爭”,楊植麟在達沃斯提出的“1%資源論”,并不是一句玩笑。
在硬件獲取受阻、存量芯片性能落后的客觀現(xiàn)實下,Kimi無法像對手那樣肆無忌憚地揮霍算力。K2.5的成功并非易事,即便用“被逼出來的”來形容亦不過分,它迫使團隊必須在算法層面進行深度的壓榨與重構。
除了顯性的Swarm架構,Kimi也是全球首個在大型語言模型訓練中跑通Muon優(yōu)化器的公司,自研的線性注意力機制(Kimi Linear)在處理速度上已顯著超越傳統(tǒng)的全注意力系統(tǒng),實現(xiàn)效率的跨越式提升。
基于此,K2.5 背后真正的獨到之處,將模型訓練效率提升了2倍,同時將內(nèi)存占用減半。也就是說,在同樣的硬件預算下,Kimi可以跑兩倍的實驗,或者在同樣的顯存限制下訓練更大的模型。
Kimi正在驗證一條區(qū)別于硅谷的“逆Scaling Law”道路:以算法效率換取算力寬度,以智能體協(xié)作換取單體參數(shù)。
如果這條路能跑通,中國AI產(chǎn)業(yè)不必被動等待國產(chǎn)芯片完全追平英偉達的單卡性能,而是通過高效的分布式Swarm架構,就可以在受限的硬件資源上,組合出超越單體巨人的智能涌現(xiàn)。
Kimi K2.5無疑是中國AI版圖中最具“硅谷氣質(zhì)”的技術極客之一,頗具“孤勇者”氣質(zhì)。它向行業(yè)證明了,智能的進化不僅僅取決于你擁有多少張顯卡,更取決于你如何組織和壓榨現(xiàn)有的每一分算力。
在這場沒有硝煙的戰(zhàn)爭中,Kimi暫時贏得了一個身位,但通往AGI的道路上,還要保持更強大的耐力和更堅韌的態(tài)度。新的征程,又一個新的開始。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.