Jay 發自 凹非寺
量子位 | 公眾號 QbitAI
套殼開源模型還裝自研,忍不了一點,直接開噴了。
這次風波的主角,依然是國產開源模型,和硅谷獨角獸玩家。
不過……雙方的站位好像發生了變化。
月之暗面預訓練負責人杜羽倫,點名Cursor CEO
- Cursor既沒有遵守我們的許可協議,也沒有向我們支付任何費用。
Michael Truell,為什么?
![]()
月之暗面聯創周昕宇同樣下場,一記重錘錘死Cursor。
- 我好像不記得Cursor有來找我們申請授權。
![]()
吃瓜一線,馬斯克也站邊了:
- 對,明明就是Kimi K2.5!
![]()
今天,Cursor也終于是給出了正式回應,承認「自研」模型確實是套的Kimi的殼
至于為什么沒署名嘛……
沒詳細解釋,大概意思就是不小心忘記了,實屬疏忽,下次不會再犯。
Cursor興奮發布,然后被當場抓包
要搞清楚這是怎么一回事,得先把時間線撥回到Cursor新模型發布那天。
那天的關鍵詞是「倒反天罡」。
Cursor搬出自研模型Composer 2,不僅成本低得嚇人,性能還把Claude Opus 4.6按著錘。
不過后來有眼尖的人指出,benchmark是Cursor自家的,屬于是又當裁判又當運動員了。
而且有網友實際體驗下來,表示差Opus還是有點距離。
![]()
本來以為,這只是又一次過度宣傳,等用戶實際體驗后,熱度就會慢慢下去。
沒想到,體驗著體驗著,竟然體驗出這么個驚天大瓜。
有網友在Cursor里調API,結果誤打誤撞在日志中發現:
模型那一欄,寫的是Kimi K2.5
![]()
全網炸鍋。
Cursor官方發現后,火速阻斷了這一渠道。
但為時已晚。
![]()
消息剛出來的時候,網友還不太相信。Cursor這么大的公司,怎么也得提前打聲招呼吧?
畢竟Kimi雖然是開源模型,但修改版MIT新增了一條:
- 如果你用這個模型做商業產品,并且規模夠大,必須標明Kimi K2.5.
觸發條件是滿足其一:月活超1億,或月收入超2000萬美元。
![]()
而Cursor,估值500億美元,ARR 20億,每月進賬約1.67億,遠遠超過門檻。
論:Kimi如何沖刺500億美金估值?
建議:下場做個AI IDE。
調侃歸調侃,但也許……Cursor和月之暗面私下簽了什么特殊定制協議呢?
畢竟體量這么大,這也是一次重磅級的發布,應該不至于白嫖吧???
![]()
直到月之暗面聯創周昕宇下場,一記重錘錘死Cursor。
- 我好像不記得Cursor有來找我們申請授權。
![]()
杜羽倫,得知消息后,當即去測了Composer 2的API,隨即在技術層面給出更多證據。
結論:這模型的tokenizer,和Kimi一模一樣。
幾乎可以實錘,Cursor「暴打」Claude的最強自研模型,就是在Kimi基礎上做了一道后訓練。
僅此而已。
對此,杜羽倫表示「難以置信」。
- Cursor既沒有遵守我們的許可協議,也沒有向我們支付任何費用。
隨即直接點名Cursor CEO:
- Michael Truell,為什么??
![]()
輿論徹底被引爆。
![]()
大概就是在嘲諷Cursor死不承認,結果現在被人家抓了現行。
印象最深刻是這條評論,攻擊力極強:
「如果你是套殼AI應用,就好好當你的模型二道販子,別裝得自己很懂模型一樣。」
![]()
如今再回頭看Cursor當時更新「自研」模型表態,確實很感慨啊:
- 這些性能提升,來自我們首次進行的持續預訓練,為后續擴展強化學習提供了堅實基礎。
實在有些尷尬。
Cursor此次最大的賣點是強化學習,他們確實搞出了一種自我總結的RL方法,能解決上下文過長的問題。
但是,預訓練???
哈??
![]()
誰曾想呢,幫助Cursor翻身把歌唱,把Claude壓著打的,其實是Kimi。
![]()
反轉來了?
以上是昨天夜間發生的故事,等今早一覺睡醒,想不到還有新瓜可吃。
X上,周昕宇和杜羽倫的相關推文、回復全沒了。
Kimi的一條官方聲明成了唯一的回應:
- 恭喜Cursor團隊發布Composer 2!
我們很高興看到Kimi-k2.5成為其基礎模型。看到我們的模型通過 Cursor 的持續預訓練和高算力強化學習訓練被有效整合,這正是我們所支持的開放模型生態。
補充說明:Cursor是通過FireworksAI提供的托管強化學習與推理平臺來訪問Kimi-k2.5的,這是一個經過授權的商業合作關系。
不用過多翻譯,讀到這兒的你肯定已經和我會心一笑了吧doge。
優雅,實在太優雅了。
![]()
隨后Cursor創始人Aman Sanger好像也終于想起了開源協議這件事,上來就對Kimi一頓猛夸:
- 我們做了很多評估,Kimi k2.5是最強的!
![]()
至于為什么發布博客里沒署名?
Aman Sanger沒有詳細解釋,只以滑跪結尾,說是一個失誤,并表達了歉意。
![]()
網友們當然不會買賬。
這這這,Cursor在發布新模型后一頓技術解讀,又是預訓練,又是RL的,換誰也不相信是單純忘記署名了啊。
- 哦,忘記說了,其實模型用的是Kimi,但我們自己做了很多技術優化噢。
![]()
截至發帖,Cursor依然未在Composer 2的博客上補充任何Kimi相關說明。
![]()
One More Thing
其實,Cursor也不是頭一次干類似的事兒了,只是之前沒像這次被苦主用鐵錘錘死。
Composer剛出來,就有網友對Cursor「自研」的真實性表示過懷疑。
主要博客實在寫得太含糊了,只說用了RL、在MoE架構上做了優化,對模型底子完全只字不提。
- Composer的透明度缺失簡直離譜。他們提到用了強化學習,但沒交代模型的其他訓練過程。
到底是自己預訓練的,還是拿現成模型改的?
在他們公開更多細節、或有人能獨立復現結果之前,我對這些說法都持保留態度。
![]()
后面確實也被網友扒出來蛛絲馬跡,該模型的CoT里總是會莫名突然冒出中文;此外,模型表現和智譜GLM非常相似。
面對這些質疑,Cursor對此從沒承認,也從來沒否認。
不過,智譜的開源協議采用的是MIT,也就是說使用其模型的產品,即便商用,也不對署名做強制要求。
其實在業內,套殼這件事對小公司來說,也很正常。
從零訓一個coding模型,成本太高了,風險也大,為了市場還必須持續搶SOTA,算力和時間成本都不劃算。
在此背景下,好用又開源的國產模型,無疑成了資源受限條件下的最佳選擇。
不止初創公司,就連日本鬧得沸沸揚揚的「最強自研模型」Rakuten AI 3.0,也沒能撐住。
發布不到12小時,就有,開源社區開發者直接在Hugging Face倉庫的config.json文件里看到:
- “model_type”: “deepseek_v3”
參數規模、MoE結構……幾乎和DeepSeek-V3一模一樣啊。
更火上澆油的是:初始上傳時,樂天疑似故意沒上傳DeepSeek原有許可文件和NOTICE,只留自家Apache 2.0。
被社區錘爆后才緊急補上一個NOTICE文件,承認來源。
怎么說呢,「拿來主義」確實很不好……
但也算是某種對中國模型實力的側面印證吧。
[1]https://x.com/fynnso/status/2034706304875602030
[2]https://x.com/Kimi_Moonshot/status/2035074972943831491
[3]https://x.com/amanrsanger/status/2035079293257359663
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.