深夜,GLM-5來了。
還是老樣子,發布即開源。
![]()
而且前幾天,OpenRouter平臺不是有一個Pony Alpha的匿名模型很火嗎。
![]()
大家一度在猜是DeepSeek V4還是GLM-5,結果今天基本答案也揭曉了。
這大馬,基本就是明示了。
![]()
到了今天,2026年的主旋律我覺得真的就已經就定下了,無論是國內還是海外。
Coding與視頻齊飛,人類共AI一色。
這應該就是2026年AI領域最核心的兩個主航道了,在這兩之上,其實就是Agent。
這幾天真的感覺過年一樣,太熱鬧了,上周GPT-5.3 codex和Claude Opus 4.6中門對狙,后腳Seedance 2.0席卷全球,而現在,戰場又拉回了Coding這邊。
GLM-5,作為一個全新的大版本號,我想說,升級幅度還是很大的,真的可以比肩Claude Opus 4.5,我不開玩笑。
我其實已經提前三天拿到了GLM-5的API,這幾天在我用Codex開發的時候,也把GLM-5同步接入到了Claude code里同步開發進行對比。
雖然作為智譜一直以來的擁簇,很想吹一下GLM-5跟Seedance 2.0一樣全球第一,但是我覺得還是實事求是。
在我這幾天的使用過程中,我個人體感是,GLM-5跟GPT-5.3-codex這種變態肯定還是有一些距離(后面有case會展示),但是在真正產品的開發和解決BUG的能力上,我覺得是能摸一下GPT-5.2-codex和Claude Opus 4.5了。
不要覺得這好像是一件很容易的事,Coding國內落后的其實一直都比較遠,能追上Opus 4.5的能力,其實已經非常非常非常牛逼了。
前幾天,在GPT-5.3-codex和Opus 4.6中門對狙的文章里,我在評論區里評論說,要是DeepSeek能趕上Opus 4.5,我高低得給它磕兩個。
![]()
我是沒想到,我現在可能得給智譜磕兩個了。
非常坦誠的講,在我日常開發過程中,我可能還是會選擇GPT-5.3-codex + codex的組合,但是,我也深刻的清楚,并不是所有人,都有條件去買ChatGPT的會員的。
那如果你用不了GPT-5.3-codex的話,那我無比真誠的建議你,不用猶豫,就用GLM-5就行,這就是國內,你現在能用上的,最好、最棒、性價比最高的大模型。
Claude Code + GLM-5,是你無需魔法,國內可用,最低門檻體驗AI Coding魅力的組合。
先老規矩,看下跑分和性能。
首先,GLM-5從355B(32B激活)擴展到744B參數(40B激活),參數量大了一倍,智能提升確實挺多,而且成本沒有加特別多。
跑分上,目前在Artificial Analysis上僅次于那兩個大爹,開源第1。
![]()
然后整體能力上。
![]()
相較于GLM-4.7,GLM-5全線能力基本都有了大幅提升,而且逼近Opus 4.5。
有一個比較有特點的,就是BrowseComp基準,這個我之前也說過,測的是Agent在網上搜索信息的能力,GLM-5得分75.9,直接超第二名普通的GPT-5.2有10個點,這個已經非常強了。
而另外兩個最頂級的模型沒放在里面,一個是GPT-5.2 Pro得分是77.9,Opus 4.6得分是84,GLM-5其實已經逼近最一線的水平了,能跟GPT-5.2 Pro打個平手,這事本身就挺強的了。
然后其他的,比如現實場景下改倉庫代碼的測試機SWE-bench,終端環境中agent能力的基準Terminal-Bench 2.0,agent工具使用的τ2-Bench,還有測試模型調用MCP能力的MCP-Atlas基準上,基本比Opus都只差那么臨門一腳了。
說實話,一個國產模型,還開源出去,能到這個水平,已經非常非常讓人自豪了。
同時在我看好的系統工程能力、長任務能力,在跑分上也能得到印證。
比如下面圖上的Long-horizon基準,也就是長鏈條復雜任務,就能充分體現模型自主進行Agent長程多步規劃和執行的能力。
![]()
這個跑分看下來就很清晰了,也和我實測下來的感受一致,在真正需要做大開發的時候,它的長程任務上,確實是對標Opus 4.5的存在。
GLM-5的上下文窗口和GLM-4.7一樣,目前還是200k的上下文窗口,輸出是128K。
不過GLM-5有一個非常離譜的一點,就是這玩意我試下來,非常的省token,就是干活的感覺,非常精準,跟GPT-5.3-codex有的一拼,這點有多重要用過Opus 4.6的都懂,那上下文和消耗量,簡直了。
然后就是價格上,一個是API價格,真的,國產模型,這價格便宜的讓人心疼。
![]()
Opus 4.5和4.6,都是$5/$25每百萬token(輸入/輸出)。
而GLM-5大概只有Claude的七分之一。
很香,真的香。
另一方面那自然是不得不提的Coding Plan了,也是現在玩Vibe Coding的主流用法,基本都是買包月套餐,對標Claude Max和ChatGPT Pro的。
![]()
價格是Claude Max套餐的2/3,Token額度是他們的3倍。
甚至因為賣的過于火爆,算力不夠,前兩個套餐額度,直接被搶空了。。。
沒錯,一個包月套餐,被搶空了。。。
這個太離譜了。
白天的時候大家可以蹲一蹲,網址在此:
https://bigmodel.cn/glm-coding
當你有了GLM-5的權限之后,想用的話,我最推薦的還是在Claude Code里面用。
因為Claude Code就是目前確實最通用的Coding Agent產品,Codex是單純的例外,主要跟GPT適配的太好。
而在Claude code里接入GLM-5挺簡單的。
這一點智譜做的很好,他們做了一個Coding Tool Helper工具就是可以快速將你的GLM編碼套餐加載到你使用的編碼工具中。
直接打開終端,然后輸入:
npx@z_ai/coding-helper
你就正常登錄。
![]()
目前支持的編碼工具 Claude Code、OpenCode、Crush、Factory Droid。
![]()
跟著配置就好,配置好以后,我們運行Claude Code。
你就可以使用GLM-5了。
![]()
我也做了幾個case,給大家直觀的感受一下,GLM-5的能力。
前天我拿到GLM-5的資格的時候,正好有個需求要開發,就是一個全平臺分發文章的需求。
做自媒體的朋友們應該知道,文章寫完不是真正的結束,而是剛剛開始。
我一般寫完微信公眾號文章需要把文章同步分發到其他平臺,這是個很大的工作量,而且有的編輯器還不一樣,會出現亂碼,文本格式丟失問題,我真。。。
![]()
之前是用一個開源工具自己改的,但是其實沒有那么好用,所以最近其實一直想自己開發一個。
所以,我當時就想,不如用GLM-5 Coding一個這樣的全平臺內容同步分發的這么個小產品吧。
開發完以后,發現效果居然還不錯。
就是下面圖中的這樣,大概的功能就是把我微信公眾號的文章鏈接放進去,然后點擊想要同步的平臺,就可以同步過去。
![]()
當時開發的時候其實Prompt給的巨簡單。
點擊同步后,打開目標平臺發布頁面,自動填充內容
當時給過去以后,GLM-5的體感上,其實就比之前GLM-4.7強很多了。
按慣例,他先提供給我了一些關鍵設計讓我去選擇。
我也秉持著先開發一個最小MVP的原則去的。
![]()
所以選的都比較謹慎。
接著GLM-5就給了超詳細的規劃。
![]()
速度不慢,很快就搞定了。
總體的完成度和實用性很好,不過因為最開始最小MVP的原則,分發的平臺有點少,后續我直接讓他添加其他的平臺,兩輪就完成了。
![]()
整體其實都還可以,但是在使用的時候,遇到了一個BUG。
就是我放入公眾號鏈接后,讓他提取標題、封面、正文,他標題和封面倒是可以成功提取出來,但是關鍵部分,也就是正文提取內容總是不全,會缺失一大截,圖片也獲取不到。
![]()
改了兩三輪,還是有BUG,然后我上Opus 4.5,居然也沒改成功。。。
最后打開了GPT-5.3-codex,一輪,完成了。。。
GLM-5跟Opus 4.5的差距沒那么大,其實是有道理的。
說實話,主要還是,GPT-5.3-codex這玩意真的強的有點變態。
所以這個case,其實就是GLM-5做的整體規劃和方案設計,然后最后遇到一個棘手的BUG上Codex解決的,整體體驗上,我錄制了一遍效果展示的視頻,總體體驗下來還是挺不錯的。
然后還有另一個我覺得特別好玩的case。
就是,看到公司同事終于在用電腦模擬器,打歡樂斗地主。。。
當時他吐槽說,要是有記牌器就好了。。。
于是,我就想,這是個好思路,雖然不會幫他作弊,但是可以試一下大模型的能力。
上GLM-5試了一下,這個開發過程,還真的有點意思。
用的提示詞很簡單,就一句話。
“我正在我的電腦上玩歡樂斗地主PC模擬器版本,幫我寫一個記牌插件。”
反正我是完全不知道怎么實現,更不知道怎么跟PC模擬器打通。。。
我就說了這么一個需求,GLM-5,他會自己進行更深入的咨詢,包括識別方式、技術路線、功能需求,都會一一和我確認。
比如在實現方式上,他提供自動識別記牌、手動點擊記牌等方案讓我選擇,每個方案還會給出不同的技術實現路線。
![]()
還有功能需求的確定,我這里選擇了基礎記牌。
![]()
第一輪對話下來,記牌器整體框架都搭建好了。
雖然我選擇的是自動識別模式,但他很貼心地把自動開發和手動開發兩種模式都做了。
![]()
手動模式第一輪其實就直接開發完了,就可以用了。
它的使用邏輯是需要我自己去看對方出什么牌,我就點擊那張牌,牌數會自動減一。
但是這個邏輯太蠢了,一點都不自動,一點也不AI。
對方打一個牌,我還得手動點點點,這也太呆逼了。
所以我還是想要用自動識別模式,但第一輪對話后自動識別功能并沒成功。
他這里自動識別的操作邏輯是這樣的。
游戲開始的時候,我手動勾選出牌區域,他就會自動識別這個區域出的所有牌,并自動記牌。
![]()
但實際上,我選中出牌區域后,它沒法識別出的牌。明明這邊都打起來了,它這邊一直等待識別。。。
![]()
我讓它進一步修改。但是這樣的bug它并沒有一次改出來,改了一版后同樣報錯。
這個時候,它自己選擇添加了調試功能。
我看了一下,應該是這個功能實現的鏈路主要有兩部分,屏幕勾選區域截圖,截圖撲克牌識別,所以他需要調試確定哪個環節出了問題。
![]()
這一步,可能是模擬器的原因,還涉及到比較復雜的跟屏幕的交互和監控,所以我得幫他一起測試一下。
他顯示出我勾選區域的截圖,也有OCR結果,這樣我一下就能明白到底是哪個環節出了問題。
然后我就發現,每隔半秒截圖的功能沒問題,核心問題是,OCR一直識別不出結果。
bug找到了,后面的活就方便了,我就交給他直接搞了。
GLM-5自己開發了一套方案,他給出的識別方案是這樣的,給每張牌都上傳模板。
就像這樣。
![]()
然后他會對游戲頁面截圖進行灰度處理、二值化,然后和模板進行模式匹配,從而實現識別。
這個灰度處理和二值化,說實話我沒聽懂,我也怕GLM-5給我的不是最優解,所以打開了Opus 4.6和GPT-5.3-codex,讓他們也同時出一套解決方案看看有沒有更優解。
沒想到跟GLM-5出的方案,是一模一樣的,搞得還真沒毛病。
這突然一下顯得我有點小肚雞腸,不信任GLM-5了= =
模板處理完之后,很快,他就把這個系統開發完了。
由于我注冊的是新號,估計新手村對面是人機,出牌特別快。我本來還擔心識別速度會跟不上。
沒想到,識別效果出乎意料的好。除了大小王識別有點問題,其他全都能準確識別,哪怕是接連出順子,也能精準識別。
相當牛逼了。。。
要知道,這真的不是那種普通的前端網頁,這個實現方式,還是稍微有那么點復雜的。
GLM-5,完成的非常的好。
大小王的識別問題我初步想了一下,是因為上傳的模板中,字母是一樣的,只是顏色不一樣。
圖片經過灰度處理后大小王不就一樣了嗎,那肯定分不清。不過大小王還是比較好記的,所以也沒管這個。
而且,這是我一兩個小時不到就做出來的東西,而且是已經可以實戰用上的東西,這個效率,還是相當恐怖的。。。
同時,這里我也提醒大家上網打牌的時候,特別是現在這個階段,在網上用真錢去做一些游戲的時候,真的要謹慎一點,因為你不知道對面會不會像我一樣,隨手Vibe Coding一個外掛。。。
除了這兩個之外,我還隨手,復刻了一個QQ農場。
![]()
而且還有很多細節,比如如果我不收已經熟了的作物他會枯萎,然后農場里還會隨機長出雜草、蟲子。
相當有意思。
在數據存儲上,還知道用瀏覽器LocalStorage作為數據存儲,這是一個典型的前端單機游戲存儲方案,很適合這種輕量級項目,大概的流程就是下面這個樣子。
![]()
而且這個QQ農場消耗的token,也就十三萬。。。
![]()
太離譜了。
從這些case其實已經非常客觀的能看出來,GLM-5的開發能力,還是很強的,在一些規劃、架構能力上,是真的可以比肩Opus 4.5的,雖然在精準的BUG修改上,離現在最變態的GPT-5.3-codex還有一些差距,但是我已經非常非常開心了。
而且還有個場景,GLM-5做的也很好,就是構建Skills。
這個其實也挺考驗模型的理解和執行能力的。
我很喜歡用咱們的老演員yt-dlp測試GLM-5打包Skills的能力。
幫我把這個開源工具https://github.com/yt-dlp/yt-dlp打包成一個Skill,只要我后續給出視頻鏈接,就可以幫我下載視頻。
GLM-5封裝的基本沒有任何問題,一輪效果,B站視頻就能成功下載了。
![]()
而下載youtube視頻,它也精準的提出了,需要我給一個Cookies,他才能幫我下載,我依稀記得,當時用Opus 4.5打包這個Skills,對話了6、7輪,改了N版,他也沒告訴我要Cookies這事,就在那自己傻逼兮兮的告訴我改好了,可以下了,一下又報錯。。。
![]()
看著此情此景,回想半年前。
那時候,如果你問我,國產大模型能不能在Coding領域跟OpenAI和Anthropic正面剛,我會說很難。
差距太大了,不是一點半點,是那種讓人絕望的差距。
但現在,GLM-5出來了,確實能摸到Opus 4.5的水平。雖然跟最新的Opus 4.6和GPT-5.3-codex還有差距,但這個差距已經從代差縮小到了可以追趕的范圍。
這是一個很重要的變化。
而且更重要的是,GLM-5是開源的,價格更是Claude的N分之1。
能力接近,開源免費,價格便宜。
而開源,更是意味著,B端能用上,企業能用上。
AI編程這件事,在國內,門檻真的,正在急劇降低。
以前你想用頂級的AI編程能力,得買ChatGPT的會員,得有魔法,得付得起那個價格。
現在不用了。
GLM-5給了你一個平替選擇,雖然在全球領域,他距離那個老變態,他還不是最好的,但已經是躋身T1行列了,而且人人也都能用得起。
這會讓更多人開始嘗試AI編程,會讓更多人感受到AI的魅力。
而當更多人用起來之后,社區會更活躍,反饋會更多,模型會迭代更快。
這是一個正向循環。
這也代表,我們在人才、在算力、在資金各方面都缺少的地不是,是能追上的。
當然,追上不代表勝利。
OpenAI和Anthropic還在快速迭代,下一個版本可能又把差距拉開。
但至少,我們已經進入了同一個賽道,在同一個維度上競爭。
這就是進步。
我非常非常推薦大家,去試試GLM-5吧,真的還不錯。
站在今天這個節點,我其實很想說跟馮驥一樣的話:
我真的很慶幸,這個開源模型。
來自智譜,來自中國。
在ds和sd之后的另外一個Coding世界里,也有了中國身位。
惟愿。
國運昌隆。
以上,既然看到這里了,如果覺得不錯,隨手點個贊、在看、轉發三連吧,如果想第一時間收到推送,也可以給我個星標?~謝謝你看我的文章,我們,下次再見。
>/ 作者:卡茲克、林機夢逗、tashi
>/ 投稿或爆料,請聯系郵箱:wzglyay@virxact.com
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.