![]()
![]()
Hugging Face 熱榜前十,中國占了九個。這不是偶然,更不是“刷榜”。智譜GLM-4.5 登頂的背后,是國產大模型從參數內卷走向產品落地的關鍵一跳。它快、穩、便宜,還真能干活——可能是國產模型真正“跑起來”的第一位。我們深度拆解這次登頂的關鍵細節,也聊聊國產模型的新賽道,真的換了。
編輯:前沿在線 編輯部
上周,一件小事突然刷了我的屏:GLM-4.5 登上了 Hugging Face 的全球熱榜第一。
![]()
朋友圈、微博、知乎、GitHub……各路人都在轉,但轉的方式不太一樣。
有的在喊“國產模型終于打贏一場硬仗”;
有的則默默貼出 API 價格截圖:“兄弟們,輸入 0.8,輸出 2,真能上!”
我第一反應是:這次不是靠吵的,不是靠提前預熱的,也不是靠營銷造勢,而是——真跑上去的。
你知道 Hugging Face 的榜單不是媒體稿堆出來的,而是開發者、用戶、社區自動投票、下載、點贊出來的。
更重要的是,在 Top10 的位置里,有9個是中國模型。
所以,我們認真看了一圈 GLM-4.5,不是為了“慶祝”,而是想回答一個問題:
這一次,它到底做對了什么?以及,它是不是中國開源模型的“分水嶺”?
![]()
不拼喊話,只靠能干:GLM-4.5 到底是什么?
說白了,它不是“最強模型”,但確實是中國第一個真正能跑通完整閉環的 Agent-native 模型。
什么叫“Agent-native”?
![]()
簡單說,它不是“模型+插件”的拼裝貨,而是天生就長著函數調用、網頁搜索、多輪反饋和代碼執行的“筋骨”。
不靠外掛,靠骨架設計。
不靠 prompt 喂養,靠結構本能。
它能在搜索網頁后生成一份 PPT,

能用代碼畫一段 SVG 動畫,

能生成一個日簽網站,

還能做個“B站”,

能規劃一輪多跳任務,還能穩定地處理 128k 長上下文任務。
不是“問一句答一句”的聊天機器人,而是可以說“你讓它做,它就真能干活”的數字同事。
我們以前也見過很多“會說”的大模型,但真到“干活”這一步,經常掉鏈子——工具接不準、代碼跑不通、執行流程混亂……
GLM-4.5 這次讓人有點眼前一亮的,不是它說了什么,而是它“做成了”什么。
![]()
真正的技術突破,不是更大,而是更穩、更實用
這兩年看大模型,太多廠商愛卷參數。500B、1000B、2000B,吹得天花亂墜,最后還不是“一個月沒更新一次”。
但這次智譜沒玩這一套。GLM-4.5 是個 3550 億總參數、320 億激活參數的 MoE 架構模型,說不上“最大”,但訓練得非常扎實。
它開源得也干脆:直接放在 Hugging Face、ModelScope、GitHub 上開門見客,全量權重、技術博客、代碼案例、Agent demo、slime 框架……基本你想找的都有了。
而且它用 slime 架構訓練強化學習,支持 Agent 的長序列任務生成。什么 BrowseComp、BFCL v3、Tool Use Rate,通通打進前三。
光一個指標:函數工具調用的成功率,超過 90%。
你去找找看現在哪個開源模型敢報這個數?
我們實測幾個場景:
輸入“幫我寫個 PPT”,它先搜索,再匯總,再寫,再整理;

輸入“畫個小紅書風格的封面圖”,它調圖像工具輸出 SVG;

輸入“我想做個小游戲”,它寫了個和WIN 7類似的記憶翻牌的htmI游戲;

最關鍵的是,這些過程不是“瞎猜指令”,而是真正能調工具、看反饋、繼續干的多輪邏輯鏈。
更狠的是全棧開發能力,狠的一比。
一個真的能搜索的搜索引擎
Z.ai版本“谷歌搜索”體驗地址:
https://n0x9f6733jm1-deploy.space.z.ai
提示詞詳見軌跡地址:
https://chat.z.ai/s/2bd291ba-fe6a-4026-a8f4-1efa498267b2
一個真的能發彈幕的B站
Z.ai版本“B站”體驗地址:
https://n0dba6ce0e60-deploy.space.z.ai
提示詞詳見軌跡地址:
https://chat.z.ai/s/29968fdc-53f2-4605-ae71-4ae32e920ca4
一個真的能發博的微博
Z.ai版本“微博”體驗地址:
https://v0rb06rruyf0-deploy.space.z.ai/
提示詞詳見軌跡地址:
https://chat.z.ai/s/f78ae64c-06b7-4eee-b657-878da94fa2c7
![]()
更驚喜的,是它“用得起、跑得快、部署方便”
如果說能力是“驚喜”,那體驗則是“實在”。
GLM-4.5 的 API 成本非常良心:
輸入 0.8 元 / 百萬 tokens;
輸出 2 元 / 百萬 tokens;

生成速度最快能到 100 tokens/秒;

你可能不太直觀。那換個說法:
一份兩千字的報告,只要幾分錢; 一輪復雜任務鏈調用十幾次工具,也不會破預算; 即便是初創團隊,也能直接用 API 做生產,而不是只能“看看熱鬧”。
部署呢?
也很友好。
兼容 vLLM、SGLang,權重能跑、demo 能測、代碼能看,不是那種“寫了博客,結果沒人能復現”的模型。
這也是為什么它上線沒幾天,就沖上 Hugging Face 全球第一。
它沒靠“情緒營銷”,也沒發“流量金句”,
只是靠真正在社區跑了起來,被人用起來,被人推薦了。
![]()
更大的故事:不是 GLM-4.5 一個模型的勝利,是國產陣列的集體爆發
我們注意到,榜單前十里,國產模型占了9個席位。
除了智譜,還有阿里的 Qwen2、月之暗面的 Kimi、商湯的 InternLM、騰訊混元……全線進入熱門。
![]()
而且方向也不一樣:
有做通用語言的,有做代碼模型的,有做多模態和語音合成的,
不再是“跟風一個火的架構”,而是真的在各自路線上推進。
更重要的是,它們普遍都有一個共性變化:
不再只是開源參數,而是開放模型 + 工具鏈 + 社區文檔 + API 接入 + 產品演示的全棧內容。
這意味著,中國模型開始“從卷能力,轉向卷產品”,
從“看得懂”轉向“用得起”,
從“做出來”轉向“跑起來”。
說句實話,這還是第一次看到中國廠商在開源世界里,不是跟在后面“追進度”,而是集體“打開了新窗口”。
![]()
GLM-4.5 背后藏著一個模型公司轉向“AI產品公司”的邏輯
如果你仔細看 GLM-4.5 的發布策略,會發現它很像一個 SaaS 產品的發布,而不是傳統“論文 + 權重”的開源方式:
模型本體 + demo 展示;
API 商業化平臺(BigModel.cn)直接開放;
社區層權重發布同步 Hugging Face / ModelScope / GitHub;
技術文檔配套齊全,開發者可以“看得懂、調得起、跑得快”。
這其實就是“模型即服務”的路徑:
模型不是終點,而是入口;
能力不是展示,而是集成;
開源不是為了“放”,而是為了“用”。
所以我們看到了一個新的范式:
模型本身當然重要,但最終誰能形成“閉環服務 + API 工具鏈 + 開發者生態”,誰就能活下去,跑下去。
GLM-4.5 把這件事第一次做得像樣了。
![]()
從這一次開始,中國模型換道超車的機會來了
過去兩年,國產大模型最大的痛,是“看得懂,但用不起來”。
代碼開源了,結果沒人部署;架構發論文了,結果性能不穩;社區熱了一陣,結果后續沒人更新。
但現在,GLM-4.5 的登頂告訴我們:
如果我們不再盯著“參數數量”和“單點榜單”,而是盯住“真實場景閉環”和“工程系統復現”,我們就真有機會跑出自己的節奏。
它讓我們看到一個思路:
工程能力,是開源模型的護城河;
API 化產品,是模型商業化的突破口;
社區更新頻率,是信任度的關鍵指標;
從“卷模型”轉向“卷產品形態”,才有生態。
如果說 GPT-4 是“閉源工業奇跡”,
那 GLM-4.5 有可能是“中國開源工程化的第一塊試金石”。
![]()
熱度不是終點,是標準的開始
現在的 GLM-4.5,已經可以在:
https://z.ai
https://chatglm.cn
直接體驗,直接調用。
這波熱度過去之后,更大的考驗才剛剛開始。
我們要看它是否能形成生態閉環,是否能帶動社區共建,是否能從“第一波工程模型”變成“平臺級入口”。
但至少今天我們知道:
不是只有最吵的才能火。 跑得快、用得起、能復用的模型,也終于跑上來了。
我們從參數堆砌走向結構進化,從模型封閉走向生態開放。
GLM-4.5 是這個轉向的開端,不是終點。
如果你也覺得 GLM-4.5 是一次值得關注的“產品型模型”案例,歡迎轉發到你的行業群、創業群、AI開發群。
附:
Github 倉庫:
https://github.com/zai-org/GLM-4.5
模型倉庫:
HuggingFace:
https://huggingface.co/collections/zai-org/glm-45-687c621d34bda8c9e4bf503b
ModelScope:
https://modelscope.cn/collections/GLM-45-b8693e2a08984f
![]()
點「在看」,給前前加雞腿
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.