在AGI的探索中,我們再次突破大模型的能力邊界。
作為GLM系列的最新版本,GLM-4.6是我們最強的代碼Coding模型(較GLM-4.5提升27%)。在真實編程、長上下文處理、推理能力、信息搜索、寫作能力與智能體應用等多個方面實現全面提升。如下:
- 高級編碼能力:在公開基準與真實編程任務中,GLM-4.6的代碼能力對齊Claude Sonnet 4,是國內已知的最好的Coding模型。
- 上下文長度:上下文窗口由128K→200K,適應更長的代碼和智能體任務。
- 推理能力:推理能力提升,并支持在推理過程中調用工具。
- 搜索能力:增強了模型在工具調用和搜索智能體上的表現,在智能體框架中表現更好。
- 寫作能力:在文風、可讀性與角色扮演場景中更符合人類偏好。
GLM-4.6 已上線智譜MaaS平臺bigmodel.cn,即將在Hugging Face、ModelScope開源,遵循MIT協議。
性能:Coding能力創國產模型新高
1.綜合評測
在8大權威基準:AIME 25、GPQA、LCB v6、HLE、SWE-Bench Verified、BrowseComp、Terminal-Bench、τ^2-Bench、GPQA 模型通用能力的評估中,GLM-4.6在大部分權威榜單表現對齊Claude Sonnet 4,穩居國產模型首位。
![]()
2.真實編程評測
為了測試模型在實際編程任務中的能力,我們在Claude Code環境下進行了74個真實場景編程任務測試。結果顯示,GLM-4.6實測超過Claude Sonnet 4,超越其他國產模型。
![]()
在平均token消耗上,GLM-4.6比GLM-4.5節省30%以上,為同類模型最低。
![]()
為確保透明性與可信度,智譜已公開全部測試題目與Agent軌跡,供業界驗證與復現(鏈接:https://huggingface.co/datasets/zai-org/CC-Bench-trajectories)。
適配:寒武紀、摩爾線程芯片
GLM-4.6已在寒武紀領先的國產芯片上實現FP8+Int4混合量化部署,這是首次在國產芯片投產的FP8+Int4模型芯片一體解決方案,在保持精度不變的前提下,大幅降低推理成本,為國產芯片在大模型本地化運行上開創了可行路徑。
基于vLLM推理框架部署,摩爾線程新一代GPU可基于原生FP8精度穩定運行GLM-4.6,充分印證了MUSA架構和全功能GPU在生態兼容與快速支持方面的強大優勢。
GLM-4.6和寒武紀、摩爾線程國產芯片的組合,即將通過智譜MaaS平臺正式面向大眾和企業提供服務。未來,國產原創GLM大模型與國產芯片將聯合推動在模型訓練和推理環節的性能與效率優化。
價格:Coding Plan 全面升級
隨著GLM-4.6發布,智譜同步升級GLM Coding Plan(最低20元包月暢玩套餐):1/7價格享受到Claude的9/10智商。
同時推出GLM Coding Plan企業版套餐,為企業級用戶提供兼具安全、成本效益與國際頂尖性能的編碼套餐。
此前訂閱GLM Coding Plan包月套餐的用戶自動升級至GLM-4.6,新增:
- 圖像識別與搜索能力。
- 支持Claude Code、Roo Code、Kilo Code、Cline等10+主流編程工具。
- 面向高頻重度開發者提供GLM Coding Max,是Claude Max (20x) plan三倍用量。
獲取與體驗
- 智譜MaaS平臺bigmodel.cn、z.ai、智譜清言已全面支持GLM-4.6;
- 海外用戶可通過z.ai、OpenRouter使用 API;
- 開源部署:GLM-4.6模型將在Hugging Face、ModelScope發布;
- 開發者和企業通過bigmodel.cn直接購買GLM Coding Plan套餐/企業版套餐。
GLM-4.6的上一代模型GLM-4.5首次在單個模型中實現將推理、編碼和智能體能力原生融合。GLM-4.5在代碼能力上的突出表現讓其取得一些成績,在OpenRouter上穩居全球前十供應商,自發布后智譜MaaS平臺API商業化實現10倍以上增長。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.