大家好,我是袋鼠帝。
前兩天刷 X 的時候,我看到一條日區(qū)帖子,上面說目前世界上最受歡迎的模型,是國產(chǎn)的 MiniMax M2.5。
而且它在 OpenClaw 中的使用率排名第一,在 OpenRouter 的總體使用率也是排名第一。
![]()
我第一反應(yīng)是:真的?國產(chǎn)模型在海外這么吃得開?
有時候我真的,都快被評論區(qū)說的不自信了,他們總說國外的是香的,國內(nèi)的不行。。。很少有評論能全面、客觀的看待國內(nèi)外模型。
隨后我打開了 OpenRouter 的排行榜看了一眼。
https://openrouter.ai/rankings
![]()
臥槽,還真是!MiniMax-M2.5 在 OpenRouter 的用量可以說一騎絕塵,遠(yuǎn)超第二名,甚至是第二名的 1.5 倍還多。
PS:給不了解的朋友科普一下 OpenRouter。它是目前全球最大的 AI API 中轉(zhuǎn)站,只需一個接口,就能無縫調(diào)用全球模型。
所以全世界大量的開發(fā)者都在使用 OpenRouter,同時,幾乎所有的 AI 工具也都支持它的接入。
然后我又看了一下openrouter里面專門對openclaw的模型用量的統(tǒng)計(jì),最近30天的排名如下:
![]()
一眼看過去,MiniMax-M2.5并沒有排第一,是吧。
但是別忘了,MiniMax-M2.5是2月13號才發(fā)布的,所以我們得從13號開始統(tǒng)計(jì)才公平:
于是我從13號開始查看數(shù)據(jù),并錄了個屏丟給Gemini分析。
最后得出結(jié)論,MiniMax-M2.5確實(shí)是openclaw用量第一的大模型:
我自己也看了一下,最近10天左右,MiniMax-M2.5每天的使用量幾乎都是第一
![]()
值得一提的是,OpenClaw 的創(chuàng)造者 Peter Steinberger 也在推文中多次安利 MiniMax-M2.5,可以說是非常推崇了。
![]()
MiniMax-M2.5 是 MiniMax 在除夕前剛發(fā)布的最新開源模型。
不過那會兒 AI 圈實(shí)在太卷了,神仙打架,又臨近過年,所以我一直沒來得及好好體驗(yàn)和實(shí)測。
趁這幾天得空,我立馬把它接入了 Claude Code 和我的 OpenClaw。
深度體驗(yàn)了幾天之后,我不得不承認(rèn),它是真有東西。
在分享我這幾天用它開發(fā)的案例之前,我還是先帶大家看看 MiniMax-M2.5 到底升級了什么,有哪些參數(shù)值得我們關(guān)注(省流版)。
M2.5 這次主打的是"真實(shí)世界工作"。
它在編程、工具調(diào)用、搜索以及辦公等生產(chǎn)力場景,都達(dá)到甚至刷新了行業(yè)的 SOTA(當(dāng)前最高水平)。
![]()
比如在極其考驗(yàn)代碼解決實(shí)際問題能力的 SWE-Bench Verified 榜單上,它拿到了 80.2% 的高分;
在多語言相關(guān)的任務(wù) Multi-SWE-Bench 上,更是達(dá)到了 51.3%,位列第一。
在網(wǎng)頁檢索和工具調(diào)用的 BrowseComp 評測中,也取得了 76.3% 的好成績。
最讓我心動的是它的速度和成本。
M2.5 優(yōu)化了模型對復(fù)雜任務(wù)的拆解能力,也降低了思考過程中的 token 消耗。
在 SWE-Bench Verified 測試中,M2.5 比上一個版本 M2.1 完成任務(wù)的速度快了 37%。
在 100 token/s 的情況下,M2.5 連續(xù)工作一小時只需花費(fèi) 1 美金;在 50 token/s 的情況下,只需要 0.3 美金。
這讓無限運(yùn)行復(fù)雜 Agent 在成本上變得更可控。
對于每天瘋狂消耗 Token 的開發(fā)者來說,簡直是福音。
一、 算力自由:Coding Plan極速版
由于Claude Code和OpenClaw都是token消耗大戶。
特別是 OpenClaw,目前的上下文管理做得還比較糙,經(jīng)常把一堆沒用的歷史記錄帶進(jìn)去,一跑起來花Token 如流水..
在接入 Claude Code 和 OpenClaw 之前,我果斷去開了 MiniMax 的 Coding Plan。
https://platform.minimaxi.com/subscribe/coding-plan
本來我最開始開的是 Max 套餐,也就是 119 元/月的那個。
![]()
但后來我翻 MiniMax 文檔的時候發(fā)現(xiàn)了一個事兒:
![]()
我之前一直擔(dān)心極速版的 M2.5-highspeed 是不是為了速度閹割了智商。
沒想到是能力不變,速度提升 。
對于我來說,時間就是金錢,OPC(一人公司)太需要效率了。
好在支持直接補(bǔ)差價升級。因?yàn)槲乙呀?jīng)用了幾天 Max 套餐,所以補(bǔ)了 95 塊錢的差價,直接切到了極速版訂閱。
![]()
換上 MiniMax-M2.5-highspeed 之后,那個感覺真爽!
本來原套餐里的 M2.5 速度就不慢,但換上 highspeed 版本后,能非常直觀的感受到變快。
我的體感是,簡單任務(wù)的生成速度快了 1.5 倍,復(fù)雜推理和重構(gòu)代碼的任務(wù)快了 2 倍左右。
二、實(shí)戰(zhàn):Claude Code+M2.5
先說說接入 Claude Code 這塊。
我這個人比較懶,現(xiàn)在已經(jīng)不想手動去敲命令安裝 Claude Code 和配置模型。
于是,我先直接把我的 OpenClaw 模型換成了 MiniMax-M2.5,然后找到了 MiniMax 的 Claude Code 官方接入文檔。
https://platform.minimaxi.com/docs/coding-plan/claude-code
我把文檔直接丟給龍蝦(OpenClaw),對它說:幫我照著這個文檔,把 Claude Code 安裝好,并配置好模型。
搭載M2.5的龍蝦很快就把 Claude Code 安排明白了。它還順便根據(jù)文檔的推薦,幫我安裝了 cc-switch。
![]()
PS:cc-switch 是一個開源項(xiàng)目,專門用來給各種 AI 工具一鍵切換模型的。目前在 GitHub 上已經(jīng)有 24K Star 了,非常火。
我看了一下官方文檔,MiniMax 的 API 也支持圖像理解和搜索 MCP,隨即也把它接了進(jìn)去。
![]()
這個安裝,我同樣是把網(wǎng)頁丟給了搭配M2.5的Claude Code。
很快就搞定了
![]()
萬事俱備,該干活了~
我這兩天用Claude Code + M2.5開發(fā)了個「知網(wǎng)論文引用采集插件」
起因是朋友最近在寫碩士論文,他跟我瘋狂吐槽知網(wǎng)的反人類設(shè)計(jì):
下載完 PDF,回頭寫參考文獻(xiàn)還得重新搜一遍找引用格式,有幾篇論文引用,就要回頭找?guī)妆椤?/p>
![]()
最終順利用M2.5,獲得了朋友的認(rèn)可
![]()
如果是幾十篇論文,每一篇論文都要重新打開知網(wǎng),找到那篇論文的頁面,找到引用,再復(fù)制到自己論文里面,確實(shí)是一項(xiàng)還挺麻煩的機(jī)械性工作。
M2.5 具備強(qiáng)大的編程能力(像架構(gòu)師一樣思考)和復(fù)雜的Web搜索、Excel處理能力。
于是讓它幫我做一個知網(wǎng)收集文獻(xiàn)引用的插件,省去這種煩惱
M2.5內(nèi)化了spec能力,會先以架構(gòu)師的視角主動拆解功能、結(jié)構(gòu),進(jìn)行設(shè)計(jì),并指定計(jì)劃。
簡單來說,Spec 能力就是先畫圖紙?jiān)偈┕さ娜忠?guī)劃能力:
以前的 AI 聽到需求往往就直接盲目敲代碼,遇到復(fù)雜任務(wù)很容易爛尾。而具備 Spec 能力的 AI 就像一位經(jīng)驗(yàn)豐富的架構(gòu)師,在真正動手前,會先把功能怎么拆、邏輯怎么 連、界面長什么樣都提前盤算清楚,想明白了再動手寫代碼。
這樣更容易一次性開發(fā)成功,開發(fā)的項(xiàng)目也更規(guī)范,更利于后續(xù)維護(hù)和迭代
M2.5把模塊劃分為四個,分別是
1. manifest.json - 插件配置文件(MV3)
2. content.js - 內(nèi)容腳本,負(fù)責(zé)DOM監(jiān)聽和引文提取
3. popup.html - 彈窗界面
4. popup.js - 彈窗邏輯(導(dǎo)出CSV、清空記錄)
考慮得也很全面
![]()
據(jù)說M2.5在Word、PPT、Excel等等辦公高階場景的能力獲得了顯著提升,今天一看,果然如此。
這絕對是挨過業(yè)務(wù)毒打的老手才有肌肉記憶:
![]()
確認(rèn)架構(gòu)、計(jì)劃沒問題后,我讓它開始動手寫代碼。
解決了幾個關(guān)鍵的bug后,M2.5就做出來了我的理想版本。
點(diǎn)開文獻(xiàn),就能看見它給我加的按鈕,點(diǎn)擊按鈕提示成功
![]()
![]()
具體的插件頁面,M2.5設(shè)計(jì)得不錯,完全滿足需求
![]()
點(diǎn)擊導(dǎo)出CSV總表就ok啦
![]()
有需要這個知網(wǎng)插件的朋友,可以在我公眾號后臺回復(fù):"知網(wǎng)插件" ,即可免費(fèi)獲取安裝包。
嘗到了甜頭之后,我又用它搞了幾個實(shí)用的項(xiàng)目。
我最近經(jīng)常用「番茄小說」看書,每當(dāng)看到一些很有感觸的句子,我都習(xí)慣性地劃線收藏。
但等到寫文章或者做知識管理真正要用的時候,總有種“在哪里看過”,卻死活想不起原話的無力感。
為了找這句話,我不得不再打開番茄,在一堆歷史閱讀記錄和劃線筆記里苦苦翻找,極其割裂且低效。
所以我就想,干脆自己動手量身打造一個專屬于個人的讀書站點(diǎn)。
它是一個沒有平臺壁壘的“定制版閱讀器”,能完美契合我的閱讀習(xí)慣。
后續(xù)我想看什么書,直接下載導(dǎo)入;看到精彩的段落,我想怎么處理就怎么處理:比如一鍵劃線同步到飛書,或者直接丟進(jìn) FastGPT 的個人知識庫,又或者投喂給龍蝦(OpenClaw)當(dāng)專屬語料。整個閱讀和知識消化的閉環(huán),全部由我隨心所欲地定制。
不過當(dāng)下最重要的是開發(fā)一個MVP出來,得先滿足能讀書的需求。
M2.5 + Claude Code做得很不錯,開發(fā)效率快,bug也少,修復(fù)起來賊迅速。
看看這架構(gòu)設(shè)計(jì),做得很棒,非常詳細(xì)、全面(這架構(gòu)設(shè)計(jì)做得,感覺跟Claude Opus很像了):
最后開發(fā)出來是一個全棧應(yīng)用
帶注冊、登錄功能是基操:
![]()
然后有書城,我的書庫,可以自由上傳,刪除圖書。
![]()
![]()
看電子書,肯定要在手機(jī)上最方便了,不過一開始不適配移動端
但一句手機(jī)端適配,就可以使其調(diào)整到位(無需過多廢話)
最后就實(shí)現(xiàn)了干凈的雙端適配的UI界面:
第一次在自己開發(fā)工具上看電子書,這感覺還真挺奇妙的~
![]()
![]()
然后我又用M2.5嘗試做了一個 markdown 文件閱讀器 。
支持本地 .md 文件的拖拽上傳,能自動渲染出不錯排版。
![]()
最不一樣的地方是,這個閱讀器是個桌面應(yīng)用,得先下載壓縮包(是的,還順帶開發(fā)了個網(wǎng)站,提供應(yīng)用的下載)。
![]()
下載解壓之后通過雙擊exe打開使用
![]()
搞定這些閱讀類的工具之后,我又做了一個數(shù)據(jù)可視化網(wǎng)站。
它純粹是我為了處理手頭的數(shù)據(jù)臨時起意做的。
不過你別說,用M2.5 直出的這個網(wǎng)站麻雀雖小五臟俱全,不僅支持一鍵上傳復(fù)雜數(shù)據(jù),還能導(dǎo)出 PNG 和 PDF 圖表。
這都得益于模型內(nèi)化的spec能力,開發(fā)前會做好架構(gòu),功能設(shè)計(jì)。
再談?wù)劙?M2.5 接入 OpenClaw 后的體驗(yàn)。
![]()
我把 OpenClaw 的模型換成 MiniMax-M2.5-highspeed 之后,最大的感受是:它變得更加干練了。
以前用其他模型,它在執(zhí)行任務(wù)前,總喜歡啰里啰嗦地說一大堆正確的廢話。
M2.5 在回復(fù)上明顯會更言簡意賅,直奔主題。
![]()
而且因?yàn)闃O速版的加持,回復(fù)和執(zhí)行速度也大幅提升。
當(dāng)我讓它去幫我總結(jié)一堆雜亂的網(wǎng)頁資料,或者幫我寫個Skills啥的,在保證準(zhǔn)確度的前提下,速度也明顯提升,讓整個 AI 秘書的工作效率倍增。
同時,給大家看一下,在Claude Code和OpenClaw里面,token消耗動輒就百萬、千萬... 但是卻沒有產(chǎn)生額外費(fèi)用。
![]()
在CC和龍蝦這種吞吐token量賊大的應(yīng)用里面,M2.5的Coding Plan的價格度速優(yōu)勢還是很明顯的。
我相信大家是在價格 + 速度 + 性能 三者綜合考量后選擇的MiniMax-M2.5,所以它才會在OpenRouter和OpenClaw成為使用量第一的模型。
「最后」
這幾天密集地體驗(yàn)下來,我感覺MiniMax-M2.5速度極快,邏輯思維強(qiáng),同時內(nèi)化了spec能力,會像架構(gòu)師一樣思考、設(shè)計(jì),這塊能力在開發(fā)復(fù)雜系統(tǒng)時非常實(shí)用。
而且它適配多種開發(fā)語言,不會局限于某一兩種常見的語言。
所以開發(fā)各種類型的應(yīng)用,比如Windows桌面應(yīng)用、瀏覽器插件等,都會更加游刃有余。
可惜的是,它目前還不支持多模態(tài),不支持視覺理解。如果在接下來的版本中能把這塊短板補(bǔ)上,那就真的完美了。
還記得第一次了解 MiniMax,是在 24 年初。
那時候他們團(tuán)隊(duì)找到我,想邀請我參與一個開發(fā)者計(jì)劃(就是那種可以免費(fèi)送開發(fā)者 token 的活動)。
那時候我只是覺得,這個名字挺有意思。
誰能想到,短短兩年時間,MiniMax 已經(jīng)從一個籍籍無名的小公司,成長為了中國 AI 界的參天大樹,甚至已經(jīng)成功上市。
真的,我非常看好國產(chǎn) AI 的未來,并且在基模上面,反而是這些后起之秀的公司做得更好。
現(xiàn)在國產(chǎn)LLM(大語言模型)和國外LLM的差距已經(jīng)很小了,甚至很多老外更喜歡使用能力又強(qiáng),速度又快,價格還便宜的中國模型。
我非常期待國產(chǎn)LLM全面領(lǐng)先的那天~
如果你覺得這篇文章對你有啟發(fā),記得點(diǎn)贊、收藏,分享給身邊有需要的朋友。
讓我們一起,在新的一年里,效率起飛,馬到成功!
我是袋鼠帝,一個致力于幫你把AI變成生產(chǎn)力的博主。我們下期見。
能看到這里的都是鳳毛麟角的存在!
如果覺得不錯,隨手點(diǎn)個贊、在看、轉(zhuǎn)發(fā)三連吧~
如果想第一時間收到推送,也可以給我個星標(biāo)?
謝謝你耐心看完我的文章~
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.