![]()
新智元報道
編輯:編輯部
【新智元導讀】萬億級思考模型在開源!Ring-2.5-1T重磅出世,奪下IMO金牌。全新Ling 2.5架構,讓它具備了深度思考、長程執行強大能力,真正進化為「通用智能體時代」的基座。
2026年的AI圈,已經不是在「卷」,是在玩命加速!
二月才過一半,硅谷三巨頭輪番轟炸,直接掀了桌子——
Anthropic Claude 4.6先聲奪人,OpenAI GPT-5.3 Codex緊隨其后,谷歌反手掏出全新Gemini 3 Deep Think。
不得不讓人感慨,這簡直是神仙打架的「諸神黃昏」。
![]()
就在閉源巨頭們于巔峰對決之際,開源社區也迎來了一場屬于自己的「技術核爆」。
這一次,出場的是中國隊!
全球首個!
萬億級混合線性「思考模型」重磅開源
沒有任何預熱,全球首個萬億級混合線性架構「思考模型」——Ring-2.5-1T直接宣布開源。
相較于上一代Ring-1T,新模型在長文本生成、數學推理、Agent長程執行方面,實現了階躍式的進步。
![]()
最令人振奮的,莫過于它全面兼容了當下炙手可熱的OpenClaw生態,以及Claude Code等主流智能體框架。
無縫接入Claude Code,絲滑Vibe Coding
為了證明這次Ring-2.5-1T真能真正幫忙干活, 我們手搓了幾個案例。
前段時間,外國網友Christopher Ehrlich,用AI把《模擬城市》(1989年版)的C語言代碼庫,移植到了TypeScript。
而且全程基本沒看具體代碼,也沒怎么干預。
![]()
受此啟發,第一個測試案例是將jsx文件轉化為可以直接開箱即用的本地APP。

Ring-2.5-1T在Claude Code中運行了約30分鐘,最終完整遷移了所有功能。
從規劃到遷移完成,測試中基本只要確認權限即可,確實完全不需要看代碼。
Ring-2.5-1T完成了文件創建、編譯的全部工作,涉及文件數量10多個:
![]()
現在,本地的一個極簡的圖片應用完成了,可裁剪、拼接、添加文字——
![]()
事已至此,不如再讓它給這個應用加點兒功能。
沒想到只要10分鐘,一個簡易版「PhotoShop」桌面應用真完成了。
Ring-2.5-1T實現了全部9種工具:
選擇 - 基礎選擇模式
?? 裁剪 - 拖拽定義裁剪區域,支持視覺預覽
文字 - 點擊添加文字對象,可自定義字體、大小、顏色
? 畫筆 - 自由手繪,支持調節粗細和顏色
橡皮擦 - 擦除圖像區域,支持調節大小
? 形狀 - 繪制矩形、圓形、線條,支持描邊選項
? 模糊 - 局部模糊筆刷,基于盒式模糊算法
吸管 - 從畫布拾取顏色
拼接 - 支持水平/垂直方向多圖拼接

這種完成度可以說相當高了。
在這個項目里,Ring-2.5-1T不僅創建了基于React的功能完備圖像編輯器,代碼量1572行,還一口氣生成了:
PixelEditor.app - 可直接運行的應用(已復制到桌面)
PixelEditor-1.0.0-arm64.dmg - DMG安裝包(91MB)
PixelEditor-1.0.0-arm64-mac.zip - ZIP壓縮包(88MB)
![]()
完整的功能體驗視頻如下。
但即便看不懂代碼,大家能感覺到頁面設計的確簡陋,有待改進。
所以,在Claude Code中,又交代了Ring-2.5-1T一句:
重新設計頁面,要簡潔有科技感

這下視覺風格和布局馬上變順眼多了:
![]()
除此之外,接入OpenClaw后,它還可以直接幫你解讀文獻,并且用Java代碼闡釋技術邏輯。
代碼實力逆天
接下來,再讓Ring-2.5-1T生成一個網頁,闡釋「光的折射」背后的原理,用于課堂教學。
可以看到,在它的思考過程中,清晰架構了這個課題的核心內容。
而且,它還制作了一個可互動的演示,并配上了使用指南。
![]()
最終,我們就得到了一個精美的在線教學工具。

再比如,讓它制作一個英文交互式單詞卡,每個單詞要附上音標、釋義、例句。
結果,Ring-2.5-1T在很短時間內,交出了一份完美的答卷。

硬剛奧數級難題,「洗車」圖靈測試已過
最后,再來看看Ring-2.5-1T,在奧賽級數學難題上的實力如何?
如下,是一道非常經典的「數論與代數」結合的競賽題,考察了數學直覺中的「破局思維」。
單純看n^4 + 4^n,尤其是奇數代入時,很容易讓人產生一種「它可能是隨機生成質數」的錯覺。
![]()
在Ring-2.5-1T解答中,立即捕捉到了n^4 + 4^n代數結構,并準確調用工具:Sophie Germain恒等式。
![]()
找到因式分解只是第一步,接下來,整個論證過程是最亮眼的一環。
81秒全程思考,Ring-2.5-1T多次展現了類似人腦的「自我辯證」和「實時糾偏」的能力。

與Ring-1T相比,這一次,Ring-2.5-1T不僅拿下了奧數金牌,推理能力更強,數學解答更精準,還能處理模糊約束和優化問題。
比如,最近的洗車測試成了AI圈新樂子。
問題是這樣的:
洗車店距離我家只有100米,我要洗車,開車去還是走路去?
ChatGPT/Claude眾口一詞:「走路去!」
![]()
但走路雖好,車洗不了。而這兩頂級AI根本沒考慮大部分人去洗車店的目的:洗車。
這里提問的陷阱不在于距離,而是目的,考的不是計算能力,而是讀懂弦外之音的「高階推理」能力。
而Ring-2.5-1T一次就識別其中的關鍵,建議:果斷開車去!
核心邏輯:洗車的本質是服務車輛,而非服務人。
唯一例外:如果您沒有車,只是去洗車店咨詢(比如想買洗車券),那走路完全合理——但根據問題描述,您明確說「我想洗車」,默認您有車需清洗。

說到理解「言外之意」,考試題無疑「處處有陷阱」,猜不透題干意圖,往往中招。
我們用一道地理題測試一下Ring-2.5-1T的「考商」,原題是這樣的:
![]()
選項有四個:
A. 避擋風沙 B. 遮陽擋雨 C. 防外人跌入 D. 美化建筑
所有選項貌似都有道理,但只有一個正確答案——C。
![]()
Ring-2.5-T這次真懂「地理」:
![]()
有意思的是,看完推理過程之后,你也心服口服:
![]()
![]()
刷爆開源SOTA,奪下奧數金牌
這種強大的實戰落地表現,得益于模型底層硬核推理能力的全面爆發。
在多項基準測試中,Ring-2.5-1T在數學推理、代碼生成、邏輯推理、智能體任務執行,刷新了開源SOTA。
尤其是,在「深度思考」模式下,它在IMOAnswerBench、HMMT-25、LiveCodeBench-v6上,超越了Claude-Opus-4.5、Gemini-3.0-Pro-preview等所有模型。
這足以證明,Ring-2.5-1T具備了強大復雜推理與跨任務泛化的能力。
![]()
在數學、代碼、邏輯等高難推理任務,以及智能體搜索、軟件工程、工具調用等長程任務執行上,Ring-2.5-1T均達到開源領先水平
不僅如此,Ring-2.5-1T在國際頂級數學賽事中,展現出極強的統治力:
IMO 2025:以35分的成績斬獲奧賽金牌;
中國奧數CMO 2025:取得105分,遠超國家集訓隊選拔線(87分)的成績。
GitHub公開的結果中,Ring-2.5-1T在推理邏輯嚴謹性、高級數學證明技巧、答案表述的完整性,全面碾壓Ring-1T。
![]()
IMO 2025 Q1答題部分結果
此外,在極具挑戰的「智能體搜索任務」Gaia2-search上,Ring-2.5-1T也拿下了開源SOTA。
它在多步規劃生成,以及工具調用方面,兼具卓越的效率和準確性。
隨著模型的開源,Ring-2.5-1T也一下子成為了全網的焦點。
![]()
![]()
![]()
如今,Ring-2.5-1T以金牌級推理能力+超強執行長程任務能力,強勢入局決賽圈,確立了其作為「通用智能體時代基座」的地位。
核心技術揭秘:萬億級混合線性注意力
為何Ring-2.5-1T在萬億參數規模下,還能攻克「深度思考」推理慢、成本高的痼疾?
其實,答案就藏在其首創的「Ling 2.5架構」之中。
1:7黃金配比:MLA + Lightning Linear
在通用智能體世代,模型不僅要「想得深」,還要「動得快」。
如今,深度思考和長程智能體,正成為LLM的核心工作范式,因此對基座本身的編碼效率,提出了近乎苛刻的要求。
傳統Transformer在面對長文本時,計算開銷往往爆炸,這讓萬億級模型「深度思考」變得非常昂貴。
為此,Ling 2.5架構在2.0版本基礎上,引入了革命性的「混合線性注意力架構」(Hybrid Linear Attention)。
![]()
在架構方面,螞蟻團隊通過增量訓練,將上一代GQA(分組查詢注意力)升級為——
MLA(多頭線性注意力)+ Lightning Linear結構,采用了1:7的比例。
基于此前的Ring-flash-linear-2.0技術路線,首先將部分GQA層改造為Lightning Linear,提升長程推理的吞吐能力。
為進一步壓縮KV Cache,將剩余的GQA層轉換為MLA。
并且,針對QK Norm(查詢-核歸一化)和Partial RoPE(旋轉位置編碼)等特性進行了精細化適配,從而在混合注意力架構下增強Ling 2.5的表達能力。
升級后的Ling 2.5激活參數,從51B增加至63B。即便如此,其推理效率仍遠超前代。
實測顯示,與KIMI K2(激活參數32B)相比,新架構在長視野任務執行的吞吐量上仍保持明顯優勢。
且生成長度越長,該吞吐量優勢越顯著。
在超32K生成長度下,Ling 2.5訪存規模降低超10倍,生成吞吐飆升3倍還要多。
![]()
![]()
在不同生成長度下的效率對比示意:生成長度越長,吞吐優勢越明顯
RL訓練:不僅要結果,更要邏輯
不僅如此,團隊還將混合線性注意力架構,在強化學習方面進行了大規模擴展。
Ring-2.5-1T在數學、編碼、智能體等任務上的「神勇」表現,源于其訓練底層邏輯的重構。
不同于只看結果的傳統訓練,Ring-2.5-1T還引入了「密集獎勵」(Dense Reward)機制,嚴密控制思考過程中每一步邏輯。
這種對推理路徑的精雕細琢,顯著減少了邏輯漏洞,讓模型Ring-2.5-1T掌握了更高階的數學證明技巧。
通過大規模全異步Agentic RL訓練,Ring-2.5-1T培養出極強的多步規劃、自主執行的能力。
由此,Ring-2.5-1T可以輕松接入Claude Code、OpenClaw等AI助手智能體編程框架。
總言之,Ring-2.5-1T背后萬億級混合線性注意力架構的創新,重塑了「深度思考」和「長程推理」的邊界。
通用Agent基座時代來臨
繼Ring-1T之后,Ring-2.5-1T是螞蟻團隊,在推理模型結構與行動能力上的進一步探索。
得益于Ling 2.5架構,萬億參數的Ring-2.5-1T有效緩解了長文檔處理、復雜任務規劃中的計算瓶頸。
目前,Ring-2.5-1T的權重和推理代碼已在Hugging Face與ModelScope上正式上線。
![]()
Hugging Face:https://huggingface.co/inclusionAI/Ring-2.5-1T
ModelScope:https://modelscope.cn/models/inclusionAI/Ring-2.5-1T
同時,模型也登陸到了InclusionAI社區,可以直接前往下載。
在這里,除了Ring-2.5-1T外,還匯集了螞蟻團隊發布的Ming-flash-2.0等100多種優質模型。
傳送門:https://github.com/inclusionAI
這一里程碑式的開源,是螞蟻團隊在底層基礎設施與巔峰算法優化上的一次降維打擊。
從硬核奧數競賽到深度集成Agent框架,Ring-2.5-1T為開發「真·干活」的AI助手,提供了強悍的高性能底座。
人手一個超級智能體,不是未來,是當下正在發生的現實。
參考資料:YJH
Ring-2.5-1T,思更深,行更遠
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.