![]()
智東西
作者 李水青
編輯 心緣
智東西2月4日報道,今日凌晨,阿里開源了一款小型混合專家模型Qwen3-Coder-Next,專為編程智能體(Agent)和本地開發打造。
該模型總參數80B,激活參數僅3B,在權威基準SWE-Bench Verified上實現了超70%的問題解決率,性能媲美激活參數規模大10-20倍的稠密模型。
Qwen3-Coder-Next的主要增強功能如下:
1、高效MoE架構:僅需激活3B參數,可達到與激活參數數量高出10-20倍的模型相當的性能,包括37B激活參數的DeepSeek-V3.2、32B激活參數的Kimi K2.5等,降低顯存與算力需求。
2、更強智能體能力:擅長長段推理、復雜工具使用以及從執行失敗中恢復,在動態編程任務中性能強大。
3、與真實世界的IDE多樣化集成:其256k的上下文長度,加上對各種腳手架模板的適應性,使其能夠與OpenClaw、Qwen Code、Claude Code、Web Dev、Browser use、Cline等不同的CLI/IDE平臺無縫集成,支持多樣化的開發環境。
Qwen3-Coder-Next在實際開發中能理解需求、編寫代碼,還能與環境交互、完成任務,可以在沒有人工干預的情況下生成可玩的網頁游戲,部署服務并自動測試。
阿里在編程智能體上進展不斷。就在昨日,阿里云CTO周靖人、阿里千問大模型技術負責人林俊旸署名的論文在Arxiv平臺上發表,為推進下一代編程Agent的發展提供了新資源和可靠方法。
簡單來說,他們提出了一個可擴展的高效框架SWE-Universe,用于從GitHub拉取請求自動構建真實世界的軟件工程(SWE)可驗證環境。利用一個構建Agent,團隊將真實世界的多語言SWE環境的數量擴展到接近百萬級(807693 個)。最后,團隊將該技術應用于Qwen3-Max-Thinking,并在SWE-Bench Verified測試中取得了75.3%的高分。
![]()
▲論文截圖
論文地址:
https://www.arxiv.org/abs/2602.02361
回到本次面向產業推出的新模型來看,團隊已正式開源Qwen3-Coder-Next(Base)與Qwen3-Coder-Next(Instruct)兩個版本,支持研究、評測及商業應用多種場景。
Qwen3-Coder-Next一經發布引起了廣泛關注,有網友在社交平臺X上稱這一模型“尺寸完美”,也有網友表示自己等便攜版的Qwen3-Coder已經很久了。
![]()
▲社交平臺X網友對Qwen3-Coder-Next模型的部分評論
魔搭社區地址:
https://www.modelscope.cn/collections/Qwen/Qwen3-Coder-Next
Hugging Face地址:
https://huggingface.co/collections/Qwen/qwen3-coder-next
GitHub地址:
https://github.com/QwenLM/Qwen3-Coder
技術報告地址:
https://qwen.ai/blog?id=qwen3-coder-next
一、實測媲美10-20倍激活參數稠密模型,趕超DeepSeek
盡管激活參數規模很小,Qwen3-Coder-Next在多項智能體評測上仍能匹敵或超過若干更大的開源模型。
該模型在SWE-Bench、TerminalBench 2.0和Aider等多個主流編程智能體基準上的表現如下。
![]()
▲Qwen3-Coder-Next實測表現
使用SWE-Agent框架時,Qwen3-Coder-Next在SWE-Bench Verified上達到70%以上,超過了DeepSeek-V3.2,接近GLM-4.7、MiniMax M2.1。
在多語言設置以及更具挑戰的SWE-Bench-Pro基準上,Qwen3-Coder-Next同樣超過了DeepSeek-V3.2,還較大幅度領先于GLM-4.7、MiniMax M2.1。
在效率方面,Qwen3-Coder-Next與同類模型在SWE-Bench-Pro基準上進行對比分析,每次推理僅激活3B參數,卻能達到與激活參數量達其10-20倍的模型相當的基準性能,包括37B激活參數的DeepSeek-V3.2、32B激活參數的GLM-4.7、32B激活參數的Kimi K2.5等。
雖然專有的全注意力模型在絕對性能上仍保持領先優勢,但Qwen3-Coder-Next在面向低成本智能體部署的應用場景中,仍能在效率與性能之間取得更優的帕累托權衡。
![]()
▲Qwen3-Coder-Next實測表現
二、創新智能體訓練配方:強化智能體訓練的信號
Qwen3-Coder-Next模型基于Qwen3-Next-80B-A3B-Base構建,采用混合注意力與MoE的新架構;通過大規模可執行任務合成、環境交互與強化學習進行智能體訓練,在降低推理成本的同時,提升編程與智能體能力。
Qwen3-Coder-Next并不只依賴參數規模擴張,而是將重點放在擴展智能體訓練信號(agentic training signals)上。團隊使用大規模的可驗證編程任務與可執行環境進行訓練,讓模型能夠直接從環境反饋中學習,而非僅依賴靜態文本。
訓練過程主要包括:
1、持續預訓練:在以代碼與智能體為中心的大規模數據上進行。
2、監督微調:基于高質量的智能體交互軌跡,優化模型的行為。
3、領域專家訓練:針對軟件工程、問答、Web/UX 等特定領域,精細化專家能力。
4、專家知識蒸餾:最終將27個專家的能力融合至一個輕量的、可部署的單一模型。
這套“配方”的核心目標,是教會模型長時程推理、熟練使用工具,以及從執行錯誤中有效恢復——這些正是實用編程智能體所需的核心能力。
三、多樣化集成下游應用,游戲生成測試無需人工干預
Qwen3-Coder-Next的價值還體現在于其低部署門檻與應用體驗。
得益于僅3B的激活參數,開發者可靈活將其集成至多種場景:作為本地IDE插件,實現自動修復與代碼生成;構建命令行智能體(CLI Agent),通過自然語言操作終端、管理項目;部署于企業內網環境,打造私有化、高響應的編程輔助系統。“小激活、快響應、強能力”為編程智能體的規模化落地提供了更具可行性的路徑。
該模型可集成到多種下游應用中,覆蓋OpenClaw、Qwen Code、Claude Code、Web Dev、Browser use、Cline等多種開發環境。
結語:研發落地雙投入,阿里加碼編程智能體
編程智能體正成為阿里通義千問團隊的強攻領域。Qwen3-Coder-Next在編程智能體基準上表現強勁,展現了技術在實用場景中的應用價值。而周靖人、林俊旸署名的新論文則代表了其編程智能體新的前沿進展,形成了研發和落地兩條路快步走的趨勢。
展望未來,團隊認為強大的智能體能力,如自主使用工具、應對難題、管理復雜任務,是更好編程智能體的關鍵。接下來團隊計劃提升模型的推理與決策能力、支持更多任務,并根據使用反饋快速迭代更新。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.