![]()
智東西
作者 王涵
編輯 李水青
智東西1月20日報道,今天,智譜GLM-4.7-Flash正式發布并開源。GLM-4.7-Flash是一個混合思考模型,總參數量為30B,激活參數量為3B,上下文長度為200K。
![]()
▲GLM-4.7-Flash開源主頁(來源:魔搭社區)
性能上,在SWE-bench Verified、τ2-Bench等主流基準測試中,GLM-4.7-Flash的綜合表現超過gpt-oss-20b、Qwen3-30B-A3B-Thinking-2507,在相同和近似尺寸模型系列中取得開源SOTA分數。
![]()
▲GLM-4.7-Flash基準測試
價格方面,GLM-4.7-Flash全部免費。
![]()
▲GLM-4.7-Flash價格
開源地址:
Hugging Face:
https://huggingface.co/zai-org/GLM-4.7-Flash
魔搭社區:
https://modelscope.cn/models/ZhipuAI/GLM-4.7-Flash
一、2分鐘搓出天氣助手,GLM-4.7從編碼到角色扮演全都會
在Agent Coding方面,GLM-4.7主要目標為“任務完成”而非單點代碼生成,能夠從目標描述出發,自主完成需求理解、方案拆解與多技術棧整合。
我們要求GLM-4.7編寫一個Python函數,模擬一個簡單的“天氣與日程助手”。
GLM-4.7生成效果如下:
![]()
▲GLM-4.7-Flash生成效果(智東西實測)
整個生成過程耗時2分鐘左右,中間有明顯的卡頓思考過程,GLM-4.7生成的代碼正確可用。
回溯GLM-4.7的深度思考過程,我們發現其解題步驟為:1、分析;2、制定策略;3、起草代碼;5、完善代碼;6、約束審查,過程邏輯清晰,且有自我審查糾錯的能力。
在包含前后端聯動、實時交互與外設調用的復雜場景中,該模型可直接生成結構完整、可運行的代碼框架,顯著減少人工拼裝與反復調試成本,較為適合復雜Demo、原型驗證與自動化開發流程。
官方介紹稱,在需要攝像頭、實時輸入與交互控制的場景中,GLM-4.7的系統級理解能力更強。其能夠將視覺識別、邏輯控制與應用代碼整合為統一方案,支持如手勢控制、實時反饋等交互式應用的快速構建。
在前端方面,GLM-4.7對視覺代碼與UI規范的理解較上一代模型增強。據官方介紹,該模型能在布局結構、配色和諧度與組件樣式上給出風格一致的默認方案,減少樣式反復微調的時間成本,適合低代碼平臺、AI前端生成工具及快速原型設計場景。
在多輪對話中,GLM-4.7也可以穩定地保持上下文與約束條件,對簡單問題回應更直接,對復雜問題能夠持續澄清目標并推進解決路徑,適用于開發支持、方案討論與決策輔助等高頻協作場景。
在角色扮演與敘事創作中,該模型對世界觀與人設的遵循更加穩定,劇情推進自然有張力。GLM-4.7的文字表達更細膩、更具畫面感,適合互動敘事、IP內容創作與角色型應用創作。
在辦公創作中,GLM-4.7能夠穩定適配16:9等主流比例,在字體層級、留白與配色上減少模板感,生成結果更接近“即用級”,適合AI演示工具、企業辦公系統與自動化內容生成場景。
在復雜問題與研究型任務中,GLM-4.7不僅可以返回信息,還能進行結構化整理與跨來源整合,通過多輪交互持續逼近核心結論,適合深度研究與決策支持場景。
結語:GLM-4.7-Flash降低開發門檻
GLM-4.7-Flash的發布,核心在于用“混合思考”架構,在3B激活參數的前提下,實現了超越同尺寸開源模型的性能。
其最大亮點是能力的實用性,加之完全免費開源,這款模型降低了開發者的使用門檻,將加速各類AI應用從原型到落地的進程。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.