周末加更一篇,我還是覺得,小米前兩天開源的那個模型,值得單獨來聊一聊。
當天晚上其實就打算寫了,結果被OpenAI截胡了,這一拖,就拖到了今天。
就是前兩天深夜,小米搞了一個大的。
沒有任何預兆的,直接開源了一個大模型, MiMo-V2-Flash。
![]()
說實話,十年米粉看到以后,還是有點激動的。
小米,作為硬件廠商的代表,終于出手了。
成績也不錯,在O penRouter上的調用量排名上,一路上漲。
![]()
今天看,又漲了將近2倍,已經來到了第六了,這個漲幅還是挺恐怖的。
而且還有一個非常有意思的是,那天,也是雷總的生日。
![]()
這絕對不是巧合(狗頭保命)。
這次, MiMo-V2-Flash 發布即開源,還附帶了技術報告。
![]()
說真的,這個技術報告,真的究極詳細了。
![]()
就很多有趣的經驗值得分享。
然后,還做了一個線上對話產品,也是為了方便大家進行快速便捷的體驗。
網址在此: https://aistudio.xiaomimimo.com/
![]()
我這兩天,零零散散的花了一些時間,讀完了技術報告,又體驗了一下模型之后,我覺得,這個模型還是有一點意思的。
就如同他們自己在Blog上所說的那樣。
![]()
Blazing speed meets frontier performance。
極速性能,前沿體驗。
老規矩,先看跑分。
![]()
![]()
差不多在開源世界里,屬于第一梯隊水平,跟Kimi-K2 Thinking和DeepSeek-V3.2互有勝負。
跟閉源模型,也能掰掰手腕,但是坦誠的講,Gemini 3.0 Pro還是太強了。。。
在Artificial Analysis上,綜合排名也是開源第二。
![]()
不過這些跑分,我覺得現在大家看看就就行了,真正在技術報告里有比較有意思的創新的點,還是在于他們生為一個硬件為核心的公司,所一直追求的。
能跑多快,能跑多省。
小米,為發燒而生。
MiMo,為Reasoning而生。
![]()
在MiMo的世界里,最核心的,是速度、成本、是延遲。
是能不能把它塞進手機、塞進汽車、塞進一個能面向于普通消費者的未來里。
![]()
這次 MiMo-V2-Flash是個MoE模型,總參數309B,激活參數量15B。
基本上,跟DeepSeek-V3.2相比,MiMo-V2-Flash的推理成本略低,而推理速度大約是 V3.2 的三倍左右。
跟Gemini 2.5 Pro相比的話,MiMo-V2-Flash的推理速度接近,但推理成本大約低了20倍。
在價格上,達到了非常離譜的數據。
![]()
每百萬輸入token為0.1美元,每百萬輸出token為0.3美元。
這個數據有多離譜,我覺得還是需要放一下一些其他大模型價格對比。
GPT-5.2:$1.75/輸入,$14/輸出。
Gemini 3 Pro(<200k上下文):$2/輸入,$12/輸出。
Gemini 3 Flash:$0.50/輸入,$3/輸出。
Kimi K2 Thinking:$0.60/輸入,$2.50/輸出。
DeepSeek-V3.2(思考模式):$0.28/輸出入,$0.43/輸出。
相信大家現在就知道, MiMo-V2-Flash的價格和性能對比,還有他的推理速度,有多離譜了,可能會是常規開發普惠的又一利器。
而整個模型里面,我覺得最棒的點,其實有兩個,一個叫長文本,一個叫吐字速度。
一個一個說。
先說長文本。
過去所有大模型做長文本,都會遇到一個非常樸素的問題,就是你讓它看的東西越長,它腦子里要記的上下文緩存(KV cache)就越大,算注意力的時候就越廢。
就比如說考試寫作文。
最傳統的大模型寫作文,大概是這樣的流程,就是每寫一個字,都要從頭到尾把自己剛寫的所有內容,重新讀一遍想一遍,然后才敢寫下一個字。
寫到第1000個字時,你可以理解成,它已經把前面999個字復習了999遍。
是不是聽著就很酸爽,如果想象不到有多痛苦的,大家現在可以自己試一試。。。
這其實就是所謂的全局注意力,就是你每添一個詞,大模型腦子里都要把前文全刷一遍,它很怕漏掉什么細節。
理論上,這樣最穩妥、最嚴謹,但有一個致命問題,就是太費勁,太慢了。
就好像你在寫古詩,一邊寫一邊從第一頁開始把整本《唐詩三百首》背一遍,確認自己沒有撞韻,再寫下一個字。
非要用一個詞來描述這種行為,那我覺得,就是,自虐。
后來大家覺得不能這么算下去啊,要不然到時候就算你顯卡堆成一座山,速度也快不起來,更別提長文本了。
所以就有一大堆加速方法被發明出來了,什么注意力結構、稀疏連接、特化硬件啥的都出現了。
小米的搞得這個Hybrid Attention,本質上就干了一件特別樸素的事,承認一個現實,也就是人類看東西,不是每一秒都在看全局。
其實你讀小說的時候,其實也是局部認真,全局大概知道個意思。
你的眼睛,肯定主要盯著眼前這一兩頁,這是滑動窗口。
偶爾翻回前面看看人物關系圖、章節標題,這是全局注意。
MiMo-V2-Flash把這個節奏,直接寫進了模型結構里。
它的大部分時間,只看最近的 128 個 token,就像你只記得眼前這一段對話,每隔一段,就抬頭看一下全局,防止走偏。
這就是MiMo-V2-Flash采用的全局注意力(GA)與滑動窗口注意力(SWA)1:5 的混合方案,長上下文下KV cache和注意力計算,能有接近6倍下降。。。
然后最有意思的事,他們還加了一個東西,叫“attention sink bias”。
你大概就可以理解成,讓模型可以把有些東西選擇性的不看,讓注意力沉底,不被各種噪音干擾。
人類其實也一樣,你坐在洗腳城大廳,旁邊有人吵架、有人刷短視頻、有人喊服務員,你不可能每句話都聽進去。你真正能活下去的能力,是你能把這些噪音當成背景音,眼神空焦一下,注意力直接沉下去,只抓你要的那點信息。
MiMo做的,就是把這種我選擇性忽略的能力工程化了。
更有意思的是,他們也做了實驗,沒有這個sink bias,性能會掉,加上以后不僅回來了,甚至能跟全局注意力打平甚至更好。
所謂MiMo-V2-Flash為了解決成本問題,其實做了不少有趣的事情,而且雖然看著很多技術名詞,但是本質上,非常的生活化。
就是,承認記得太多也是負擔,學會在正確的地方選擇性忘記,把算力留給真正重要的部分。
長文本搞定之后,然后是第二個:吐字速度。
很多人以為大模型慢,是因為它不夠強。
其實更真實的原因是,就是大模型生成文字這件事,本質上非常流水線,一口一口吐,吐一個才知道下一個。
就像你讓一個師傅現場寫春聯,他寫完上聯最后一個字,才知道下聯第一個字怎么對,那速度怎么可能快的起來,還寫個屁。
所以,MiMo-V2-Flash也用了一個有趣的東西,叫Multi-Token Prediction(MTP,多詞預測)。
![]()
這玩意別被名字嚇到,其實也特別生活化。
本質上就是,你別一個字一個字寫,你先打個草稿,一次性多寫幾個字,然后再快速檢查一遍,沒問題就直接用,有問題就退回重寫。
論文里會說得更技術一點,MTP可以作為“draft model”用于speculative decoding(推測解碼),也就是先草稿、后驗收的機制。
而且不是當一個工程上的外掛搞得,最開始的預訓練階段,這玩意就直接塞了進去,讓模型學的一直就是先草稿、再檢查這套節奏。
在微調階段,又加了更多層MTP,把這種多字并行的本事練得更熟了。
等到真正上線推理的時候,它直接開三層 MTP 并行,就相當于你手下有三組實習生輪班打草稿,主模型坐在中間挑挑揀揀,最后形成一條流暢的回答。
結果就是你前面看到的那個很夸張的數字。
在實際場景里,三層MTP可以做到2到2.6倍的加速,單條回復能跑到150 token/s,全局吞吐可以拉到5000到15000 token/s。
我錄了一個回答,無加速,大家可以看看,20秒4000字,真的已經非常快了。
所以,其實通過上面這些有趣的東西,你就能看出來。
這個模型的特點了。
和DeepSeek-V3.2能力相近,但速度大概快三倍。
和Gemini 2.5 Pro能力接近,速度差不多,但成本低了近二十倍。
也就是,同樣干一份工,我能用更少的錢、更少的電、跑得更快、更穩。
真的,對于一個硬件公司來說,這幾乎是刻在DNA里的執念。
手機時代,小米喜歡在發布會上講同價位性能最強。
到大模型時代,它只是把同一套工程價值觀,搬到了另一個戰場。
我也大概測了一下模型的能力。
在代碼這塊,還挺有意思。
比如我之前測Gemini 3 Pro的時候,有一個體素3D世界的Prompt:
設計并創建一個非常有創意、精致且細節豐富的像素3D場景:一只胖乎乎的奶龍坐在一座美麗的花園中央,旁邊是小池塘、石燈籠和彎曲的小路,周圍長滿樹木,其中包括幾棵盛開的櫻花樹。讓整個場景足夠震撼、層次豐富,在不同高度和區域布置各種小細節,比如長椅、小橋、石子路、草叢、花壇等,并使用色彩豐富的體素來表現。可以使用任何庫來完成這個效果,但要確保我能把所有內容粘貼到一個單獨的 HTML 文件中,并直接在 Chrome 中打開。JavaScript 庫的引入方式請使用 importmap 和 ES 模塊(ESM)導入。
而這次我扔到MiMo-V2-Flash里,也一次性直出了。
各種交互啥的也都沒啥問題。
而且功能也都給你做全了,櫻花特效都能關,也能自動旋轉,最細節的事,奶龍脖子那里,還有一個會一閃一閃發光的小立方體,還挺精致的。
還有一個測模型svg能力的時候,一個Prompt:
做一個長滾動網頁,用 5 層以上視差背景和 SVG 插畫講一個小故事,滾動時觸發漸進式動畫和文字漸顯。
![]()
這塊完成的也不錯。

每個小動畫,屬實是都到位了。
比如前幾天,Gemini流星雨,我就想,讓Mimo給我做一個可以手勢控制的流星網頁。
對,就這么一個超級簡單的Prompt。
![]()
MiMo-V2-Flash一次成型。
像左揮手就是藍色流星,像右揮手,就是紅色流星。
然后我又基于這個,改了一個識別手勢,刮彩票的。
這次出了小小的BUG,不過對話兩次,也改成功了。
就非常的有意思,很好玩。
然后又一句話做了一個像素畫板。
![]()
也成功了。
整體看下來,代碼能力不差,不過坦誠的講,前端審美離最頭部的模型,還有一些差距。
在寫作上,直出效果還行。
![]()
但是還是會有中文大模型的堆砌詞藻空洞的問題,很多句子看著很華麗,但是其實比較的空,不包含任何信息量。
但是已經比一些中文大模型好一些了。
而在文風復刻任務上,其實也差不多。
這是我用我的文風復刻的我自己的文章。
![]()
有些句子寫的不錯,而且那些經常被惡心的不是...而是...句式基本沒用過,在很多時候,調一調還是可以的用的。
從更長遠一點看,小米做這件事的意義,我覺得還是會往硬件去。
當未來,真的萬物皆Agent的時候。
在手機、在車機、在路由器、在眼鏡上、在所有的智能家居里,那顆小小的模型,能不能跑得快、跑得穩、跑得起。
這個是最重要的。
這也是,一家硬件公司最熟悉的戰場。
在這個戰場里,小米過去十幾年已經證明過自己一次了,我到現在還記得我買小米1的興奮。
作為一個十年米粉,我真的也很想自私地說一句。
如果哪天我跑Agent、搭小網頁、操控我家里的所有家具,用的那顆本地小模型,背后跑的就是 MiMo,那會是一件挺讓人開心的事。
開源是一種表態。
工程是一種信仰。
看好小米。
以上,既然看到這里了,如果覺得不錯,隨手點個贊、在看、轉發三連吧,如果想第一時間收到推送,也可以給我個星標?~謝謝你看我的文章,我們,下次再見。
>/ 作者:卡茲克
>/ 投稿或爆料,請聯系郵箱:wzglyay@virxact.com
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.