<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      GLM-5深夜登場,這是國產開源模型首次逼平Claude Opus 4.5。

      國產模型正面硬剛Opus 4.5

      0
      分享至

         深夜,GLM-5來了。

         還是老樣子,發布即開源。

        

         而且前幾天,OpenRouter平臺不是有一個Pony Alpha的匿名模型很火嗎。

        

         大家一度在猜是DeepSeek V4還是GLM-5,結果今天基本答案也揭曉了。

         這大馬,基本就是明示了。

        

         到了今天,2026年的主旋律我覺得真的就已經就定下了,無論是國內還是海外。

         Coding與視頻齊飛,人類共AI一色。

         這應該就是2026年AI領域最核心的兩個主航道了,在這兩之上,其實就是Agent。

         這幾天真的感覺過年一樣,太熱鬧了,上周GPT-5.3 codex和Claude Opus 4.6中門對狙,后腳Seedance 2.0席卷全球,而現在,戰場又拉回了Coding這邊。

         GLM-5,作為一個全新的大版本號,我想說,升級幅度還是很大的,真的可以比肩Claude Opus 4.5,我不開玩笑。

         我其實已經提前三天拿到了GLM-5的API,這幾天在我用Codex開發的時候,也把GLM-5同步接入到了Claude code里同步開發進行對比。

         雖然作為智譜一直以來的擁簇,很想吹一下GLM-5跟Seedance 2.0一樣全球第一,但是我覺得還是實事求是。

         在我這幾天的使用過程中,我個人體感是,GLM-5跟GPT-5.3-codex這種變態肯定還是有一些距離(后面有case會展示),但是在真正產品的開發和解決BUG的能力上,我覺得是能摸一下GPT-5.2-codex和Claude Opus 4.5了。

         不要覺得這好像是一件很容易的事,Coding國內落后的其實一直都比較遠,能追上Opus 4.5的能力,其實已經非常非常非常牛逼了。

        前幾天,在GPT-5.3-codex和Opus 4.6中門對狙的文章里,我在評論區里評論說,要是DeepSeek能趕上Opus 4.5,我高低得給它磕兩個。

        

        我是沒想到,我現在可能得給智譜磕兩個了。

        非常坦誠的講,在我日常開發過程中,我可能還是會選擇GPT-5.3-codex + codex的組合,但是,我也深刻的清楚,并不是所有人,都有條件去買ChatGPT的會員的。

        那如果你用不了GPT-5.3-codex的話,那我無比真誠的建議你,不用猶豫,就用GLM-5就行,這就是國內,你現在能用上的,最好、最棒、性價比最高的大模型。

        Claude Code + GLM-5,是你無需魔法,國內可用,最低門檻體驗AI Coding魅力的組合。

        先老規矩,看下跑分和性能。

        首先,GLM-5從355B(32B激活)擴展到744B參數(40B激活),參數量大了一倍,智能提升確實挺多,而且成本沒有加特別多。

        跑分上,目前在Artificial Analysis上僅次于那兩個大爹,開源第1。

        

        然后整體能力上。

        

        相較于GLM-4.7,GLM-5全線能力基本都有了大幅提升,而且逼近Opus 4.5。

        有一個比較有特點的,就是BrowseComp基準,這個我之前也說過,測的是Agent在網上搜索信息的能力,GLM-5得分75.9,直接超第二名普通的GPT-5.2有10個點,這個已經非常強了。

        而另外兩個最頂級的模型沒放在里面,一個是GPT-5.2 Pro得分是77.9,Opus 4.6得分是84,GLM-5其實已經逼近最一線的水平了,能跟GPT-5.2 Pro打個平手,這事本身就挺強的了。

        然后其他的,比如現實場景下改倉庫代碼的測試機SWE-bench,終端環境中agent能力的基準Terminal-Bench 2.0,agent工具使用的τ2-Bench,還有測試模型調用MCP能力的MCP-Atlas基準上,基本比Opus都只差那么臨門一腳了。

        說實話,一個國產模型,還開源出去,能到這個水平,已經非常非常讓人自豪了。

        同時在我看好的系統工程能力、長任務能力,在跑分上也能得到印證。

        比如下面圖上的Long-horizon基準,也就是長鏈條復雜任務,就能充分體現模型自主進行Agent長程多步規劃和執行的能力。

        

        這個跑分看下來就很清晰了,也和我實測下來的感受一致,在真正需要做大開發的時候,它的長程任務上,確實是對標Opus 4.5的存在。

        GLM-5的上下文窗口和GLM-4.7一樣,目前還是200k的上下文窗口,輸出是128K。

        不過GLM-5有一個非常離譜的一點,就是這玩意我試下來,非常的省token,就是干活的感覺,非常精準,跟GPT-5.3-codex有的一拼,這點有多重要用過Opus 4.6的都懂,那上下文和消耗量,簡直了。

        然后就是價格上,一個是API價格,真的,國產模型,這價格便宜的讓人心疼。

        

        Opus 4.5和4.6,都是$5/$25每百萬token(輸入/輸出)。

        而GLM-5大概只有Claude的七分之一。

        很香,真的香。

        另一方面那自然是不得不提的Coding Plan了,也是現在玩Vibe Coding的主流用法,基本都是買包月套餐,對標Claude Max和ChatGPT Pro的。

        

        價格是Claude Max套餐的2/3,Token額度是他們的3倍。

        甚至因為賣的過于火爆,算力不夠,前兩個套餐額度,直接被搶空了。。。

        沒錯,一個包月套餐,被搶空了。。。

        這個太離譜了。

        白天的時候大家可以蹲一蹲,網址在此:

        https://bigmodel.cn/glm-coding

        當你有了GLM-5的權限之后,想用的話,我最推薦的還是在Claude Code里面用。

        因為Claude Code就是目前確實最通用的Coding Agent產品,Codex是單純的例外,主要跟GPT適配的太好。

        而在Claude code里接入GLM-5挺簡單的。

        這一點智譜做的很好,他們做了一個Coding Tool Helper工具就是可以快速將你的GLM編碼套餐加載到你使用的編碼工具中。

        直接打開終端,然后輸入:

        npx@z_ai/coding-helper

        你就正常登錄。

        

        目前支持的編碼工具 Claude Code、OpenCode、Crush、Factory Droid。

        

        跟著配置就好,配置好以后,我們運行Claude Code。

        你就可以使用GLM-5了。

        

        我也做了幾個case,給大家直觀的感受一下,GLM-5的能力。

        前天我拿到GLM-5的資格的時候,正好有個需求要開發,就是一個全平臺分發文章的需求。

        做自媒體的朋友們應該知道,文章寫完不是真正的結束,而是剛剛開始。

        我一般寫完微信公眾號文章需要把文章同步分發到其他平臺,這是個很大的工作量,而且有的編輯器還不一樣,會出現亂碼,文本格式丟失問題,我真。。。

        

        之前是用一個開源工具自己改的,但是其實沒有那么好用,所以最近其實一直想自己開發一個。

        所以,我當時就想,不如用GLM-5 Coding一個這樣的全平臺內容同步分發的這么個小產品吧。

        開發完以后,發現效果居然還不錯。

        就是下面圖中的這樣,大概的功能就是把我微信公眾號的文章鏈接放進去,然后點擊想要同步的平臺,就可以同步過去。

        

        當時開發的時候其實Prompt給的巨簡單。

        點擊同步后,打開目標平臺發布頁面,自動填充內容

        當時給過去以后,GLM-5的體感上,其實就比之前GLM-4.7強很多了。

        按慣例,他先提供給我了一些關鍵設計讓我去選擇。

        我也秉持著先開發一個最小MVP的原則去的。

        

        所以選的都比較謹慎。

        接著GLM-5就給了超詳細的規劃。

        

        速度不慢,很快就搞定了。

        總體的完成度和實用性很好,不過因為最開始最小MVP的原則,分發的平臺有點少,后續我直接讓他添加其他的平臺,兩輪就完成了。

        

        整體其實都還可以,但是在使用的時候,遇到了一個BUG。

        就是我放入公眾號鏈接后,讓他提取標題、封面、正文,他標題和封面倒是可以成功提取出來,但是關鍵部分,也就是正文提取內容總是不全,會缺失一大截,圖片也獲取不到。

        

        改了兩三輪,還是有BUG,然后我上Opus 4.5,居然也沒改成功。。。

        最后打開了GPT-5.3-codex,一輪,完成了。。。

        GLM-5跟Opus 4.5的差距沒那么大,其實是有道理的。

        說實話,主要還是,GPT-5.3-codex這玩意真的強的有點變態。

        所以這個case,其實就是GLM-5做的整體規劃和方案設計,然后最后遇到一個棘手的BUG上Codex解決的,整體體驗上,我錄制了一遍效果展示的視頻,總體體驗下來還是挺不錯的。

        

        然后還有另一個我覺得特別好玩的case。

        就是,看到公司同事終于在用電腦模擬器,打歡樂斗地主。。。

        當時他吐槽說,要是有記牌器就好了。。。

        于是,我就想,這是個好思路,雖然不會幫他作弊,但是可以試一下大模型的能力。

        上GLM-5試了一下,這個開發過程,還真的有點意思。

        用的提示詞很簡單,就一句話。

        “我正在我的電腦上玩歡樂斗地主PC模擬器版本,幫我寫一個記牌插件。”

        反正我是完全不知道怎么實現,更不知道怎么跟PC模擬器打通。。。

        我就說了這么一個需求,GLM-5,他會自己進行更深入的咨詢,包括識別方式、技術路線、功能需求,都會一一和我確認。

        比如在實現方式上,他提供自動識別記牌、手動點擊記牌等方案讓我選擇,每個方案還會給出不同的技術實現路線。

        

        還有功能需求的確定,我這里選擇了基礎記牌。

        

        第一輪對話下來,記牌器整體框架都搭建好了。

        雖然我選擇的是自動識別模式,但他很貼心地把自動開發和手動開發兩種模式都做了。

        

        手動模式第一輪其實就直接開發完了,就可以用了。

        它的使用邏輯是需要我自己去看對方出什么牌,我就點擊那張牌,牌數會自動減一。

        但是這個邏輯太蠢了,一點都不自動,一點也不AI。

        對方打一個牌,我還得手動點點點,這也太呆逼了。

        所以我還是想要用自動識別模式,但第一輪對話后自動識別功能并沒成功。

        他這里自動識別的操作邏輯是這樣的。

        游戲開始的時候,我手動勾選出牌區域,他就會自動識別這個區域出的所有牌,并自動記牌。

        

        但實際上,我選中出牌區域后,它沒法識別出的牌。明明這邊都打起來了,它這邊一直等待識別。。。

        

        我讓它進一步修改。但是這樣的bug它并沒有一次改出來,改了一版后同樣報錯。

        這個時候,它自己選擇添加了調試功能。

        我看了一下,應該是這個功能實現的鏈路主要有兩部分,屏幕勾選區域截圖,截圖撲克牌識別,所以他需要調試確定哪個環節出了問題。

        

        這一步,可能是模擬器的原因,還涉及到比較復雜的跟屏幕的交互和監控,所以我得幫他一起測試一下。

        他顯示出我勾選區域的截圖,也有OCR結果,這樣我一下就能明白到底是哪個環節出了問題。

        然后我就發現,每隔半秒截圖的功能沒問題,核心問題是,OCR一直識別不出結果。

        bug找到了,后面的活就方便了,我就交給他直接搞了。

        GLM-5自己開發了一套方案,他給出的識別方案是這樣的,給每張牌都上傳模板。

        就像這樣。

        

        然后他會對游戲頁面截圖進行灰度處理、二值化,然后和模板進行模式匹配,從而實現識別。

        這個灰度處理和二值化,說實話我沒聽懂,我也怕GLM-5給我的不是最優解,所以打開了Opus 4.6和GPT-5.3-codex,讓他們也同時出一套解決方案看看有沒有更優解。

        沒想到跟GLM-5出的方案,是一模一樣的,搞得還真沒毛病。

        這突然一下顯得我有點小肚雞腸,不信任GLM-5了= =

        模板處理完之后,很快,他就把這個系統開發完了。

        由于我注冊的是新號,估計新手村對面是人機,出牌特別快。我本來還擔心識別速度會跟不上。

        沒想到,識別效果出乎意料的好。除了大小王識別有點問題,其他全都能準確識別,哪怕是接連出順子,也能精準識別。

        

        相當牛逼了。。。

        要知道,這真的不是那種普通的前端網頁,這個實現方式,還是稍微有那么點復雜的。

        GLM-5,完成的非常的好。

        大小王的識別問題我初步想了一下,是因為上傳的模板中,字母是一樣的,只是顏色不一樣。

        圖片經過灰度處理后大小王不就一樣了嗎,那肯定分不清。不過大小王還是比較好記的,所以也沒管這個。

        而且,這是我一兩個小時不到就做出來的東西,而且是已經可以實戰用上的東西,這個效率,還是相當恐怖的。。。

        同時,這里我也提醒大家上網打牌的時候,特別是現在這個階段,在網上用真錢去做一些游戲的時候,真的要謹慎一點,因為你不知道對面會不會像我一樣,隨手Vibe Coding一個外掛。。。

        除了這兩個之外,我還隨手,復刻了一個QQ農場。

        

        而且還有很多細節,比如如果我不收已經熟了的作物他會枯萎,然后農場里還會隨機長出雜草、蟲子。

        相當有意思。

        在數據存儲上,還知道用瀏覽器LocalStorage作為數據存儲,這是一個典型的前端單機游戲存儲方案,很適合這種輕量級項目,大概的流程就是下面這個樣子。

        

        而且這個QQ農場消耗的token,也就十三萬。。。

        

        太離譜了。

        從這些case其實已經非常客觀的能看出來,GLM-5的開發能力,還是很強的,在一些規劃、架構能力上,是真的可以比肩Opus 4.5的,雖然在精準的BUG修改上,離現在最變態的GPT-5.3-codex還有一些差距,但是我已經非常非常開心了。

        而且還有個場景,GLM-5做的也很好,就是構建Skills。

        這個其實也挺考驗模型的理解和執行能力的。

        我很喜歡用咱們的老演員yt-dlp測試GLM-5打包Skills的能力。

        幫我把這個開源工具https://github.com/yt-dlp/yt-dlp打包成一個Skill,只要我后續給出視頻鏈接,就可以幫我下載視頻。

        GLM-5封裝的基本沒有任何問題,一輪效果,B站視頻就能成功下載了。

        

        而下載youtube視頻,它也精準的提出了,需要我給一個Cookies,他才能幫我下載,我依稀記得,當時用Opus 4.5打包這個Skills,對話了6、7輪,改了N版,他也沒告訴我要Cookies這事,就在那自己傻逼兮兮的告訴我改好了,可以下了,一下又報錯。。。

        

        看著此情此景,回想半年前。

        那時候,如果你問我,國產大模型能不能在Coding領域跟OpenAI和Anthropic正面剛,我會說很難。

        差距太大了,不是一點半點,是那種讓人絕望的差距。

        但現在,GLM-5出來了,確實能摸到Opus 4.5的水平。雖然跟最新的Opus 4.6和GPT-5.3-codex還有差距,但這個差距已經從代差縮小到了可以追趕的范圍。

        這是一個很重要的變化。

        而且更重要的是,GLM-5是開源的,價格更是Claude的N分之1。

        能力接近,開源免費,價格便宜。

        而開源,更是意味著,B端能用上,企業能用上。

        AI編程這件事,在國內,門檻真的,正在急劇降低。

        以前你想用頂級的AI編程能力,得買ChatGPT的會員,得有魔法,得付得起那個價格。

        現在不用了。

        GLM-5給了你一個平替選擇,雖然在全球領域,他距離那個老變態,他還不是最好的,但已經是躋身T1行列了,而且人人也都能用得起。

        這會讓更多人開始嘗試AI編程,會讓更多人感受到AI的魅力。

        而當更多人用起來之后,社區會更活躍,反饋會更多,模型會迭代更快。

        這是一個正向循環。

        這也代表,我們在人才、在算力、在資金各方面都缺少的地不是,是能追上的。

        當然,追上不代表勝利。

        OpenAI和Anthropic還在快速迭代,下一個版本可能又把差距拉開。

        但至少,我們已經進入了同一個賽道,在同一個維度上競爭。

        這就是進步。

        我非常非常推薦大家,去試試GLM-5吧,真的還不錯。

        站在今天這個節點,我其實很想說跟馮驥一樣的話:

        我真的很慶幸,這個開源模型。

        來自智譜,來自中國。

        在ds和sd之后的另外一個Coding世界里,也有了中國身位。

        惟愿。

        國運昌隆。

        以上,既然看到這里了,如果覺得不錯,隨手點個贊、在看、轉發三連吧,如果想第一時間收到推送,也可以給我個星標?~謝謝你看我的文章,我們,下次再見。

        >/ 作者:卡茲克、林機夢逗、tashi

        >/ 投稿或爆料,請聯系郵箱:wzglyay@virxact.com

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      在中國,只要花錢就納稅!2024年人均稅收1.25萬元…

      在中國,只要花錢就納稅!2024年人均稅收1.25萬元…

      慧翔百科
      2026-02-05 15:44:35
      美國兵推曝光:中國擊沉4艘美航母后,美國或將對京滬進行核打擊

      美國兵推曝光:中國擊沉4艘美航母后,美國或將對京滬進行核打擊

      紀中百大事
      2026-02-14 16:40:09
      日本網民:中國人的文字全都是漢字,寫的時候不覺得累嗎?

      日本網民:中國人的文字全都是漢字,寫的時候不覺得累嗎?

      阿器談史
      2026-02-14 21:19:20
      成吉思汗打敗花剌子模時,俘虜女人50萬,后來是如何處置的?

      成吉思汗打敗花剌子模時,俘虜女人50萬,后來是如何處置的?

      銘記歷史呀
      2026-02-11 12:13:17
      華西村那頭1噸金牛,15年后竟成最成功的投資?

      華西村那頭1噸金牛,15年后竟成最成功的投資?

      財經保探長
      2026-01-30 18:38:42
      韓國稱約6000名朝鮮軍人在對烏戰爭中傷亡

      韓國稱約6000名朝鮮軍人在對烏戰爭中傷亡

      老馬拉車莫少裝
      2026-02-15 01:38:46
      給他追封“民族英雄”,無法認同!

      給他追封“民族英雄”,無法認同!

      小豫講故事
      2026-02-16 06:00:04
      結賬時發現很貴你會怎么辦? 網友: 貴就大方說不要,拒絕內耗!

      結賬時發現很貴你會怎么辦? 網友: 貴就大方說不要,拒絕內耗!

      夜深愛雜談
      2026-02-16 23:09:14
      赫羅納2-1巴塞羅那,賽后評分:不是亞馬爾第一,巴薩13號排第一

      赫羅納2-1巴塞羅那,賽后評分:不是亞馬爾第一,巴薩13號排第一

      側身凌空斬
      2026-02-17 06:07:30
      20年四川14歲少年滿臉紋身被父親趕出家門,找不到工作,如今怎樣

      20年四川14歲少年滿臉紋身被父親趕出家門,找不到工作,如今怎樣

      小熊侃史
      2025-12-25 11:15:02
      沒老婆跟著就這狀態?汪小菲年會黑臉不配合,蘭姐數次破冰全失敗

      沒老婆跟著就這狀態?汪小菲年會黑臉不配合,蘭姐數次破冰全失敗

      陳意小可愛
      2026-02-14 22:00:09
      金吉利:我有點失望因為離勝利非常近,冠亞軍實至名歸

      金吉利:我有點失望因為離勝利非常近,冠亞軍實至名歸

      懂球帝
      2026-02-17 01:18:14
      2026年2月18日十二星座運勢

      2026年2月18日十二星座運勢

      星座不求人
      2026-02-17 11:37:44
      臺中政壇大地震!鄭麗文鐵腕清場,盧秀燕直接被“獵殺!”

      臺中政壇大地震!鄭麗文鐵腕清場,盧秀燕直接被“獵殺!”

      顧蔡衛
      2026-02-16 22:14:50
      千萬不要小看你遇到的每一個顧客!網友:不到1個小時店就被封了

      千萬不要小看你遇到的每一個顧客!網友:不到1個小時店就被封了

      夜深愛雜談
      2025-12-06 21:39:08
      愛德華茲:世界隊都說自己很厲害,打敗他們很爽

      愛德華茲:世界隊都說自己很厲害,打敗他們很爽

      懂球帝
      2026-02-16 13:59:10
      U17亞洲杯賽程:中國首戰印尼次戰日本 3場比賽全部凌晨開踢

      U17亞洲杯賽程:中國首戰印尼次戰日本 3場比賽全部凌晨開踢

      愛奇藝體育
      2026-02-17 11:11:56
      科學家立大功!中科大解決“固態電池”量產難題,成本可降20倍

      科學家立大功!中科大解決“固態電池”量產難題,成本可降20倍

      胖福的小木屋
      2026-02-15 21:44:47
      前中興副總:中國采用窮舉法跟美國打科技戰,把整個產業鏈全干光

      前中興副總:中國采用窮舉法跟美國打科技戰,把整個產業鏈全干光

      無情有思可
      2026-02-12 08:19:46
      有一種預感,過幾天德國總理訪華,將是一場世界級風暴的開始

      有一種預感,過幾天德國總理訪華,將是一場世界級風暴的開始

      舍子花
      2026-02-16 04:00:02
      2026-02-17 12:23:00
      數字生命卡茲克 incentive-icons
      數字生命卡茲克
      反復橫跳于不同的AI領域,努力分享一些很酷的AI干貨
      461文章數 539關注度
      往期回顧 全部

      科技要聞

      春晚這些機器人是怎樣做到的?

      頭條要聞

      蔡磊一家三口出鏡送祝福 兒子將手放在他手上輕輕撫摸

      頭條要聞

      蔡磊一家三口出鏡送祝福 兒子將手放在他手上輕輕撫摸

      體育要聞

      谷愛凌:'不小心"拿到了銀牌 祝大家馬年大吉

      娛樂要聞

      春晚三大感人瞬間:周深于和偉上榜

      財經要聞

      大年初一,這三件事很不尋常

      汽車要聞

      問界M6更多信息:乾崑智駕ADS4.0+鴻蒙座艙5.0

      態度原創

      教育
      家居
      旅游
      數碼
      公開課

      教育要聞

      高考紅包數字揭秘!這樣送才吉利

      家居要聞

      中古雅韻 樂韻伴日常

      旅游要聞

      和縣光影秀點亮新春佳節

      數碼要聞

      蘋果AirPods Pro 2/3、AirPods 4迎來新公測版固件8B5034f

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版