![]()
新智元報道
編輯:Aeneas KingHZ
【新智元導讀】DeepSeek-R1發布一周年之際,核心算法庫驚現MODEL1,是V4還是R2?
2025年1月20日,DeepSeek-R1正式發布。從此,國產大模型第一次走到了全球舞臺的核心位置,開啟了開源時代。
而就在今天深夜,開發者社區沸騰了:DeepSeek的一個存儲庫進行更新,引用了一個全新的「model 1」模型。
![]()
DeepSeek-R1一年了,但DeepSeek-R2還沒來。
而這個被爆出的MODEL1,極有可能就是R2!
在DeepSeek的開源項目FlashMLA庫代碼片段明確引用了「MODEL1」,并且伴隨針對KV緩存的新優化,和576B步幅的稀疏FP8解碼支持。
![]()
FlashMLA是DeepSeek的優化注意力內核庫,為DeepSeek-V3和DeepSeek-V3.2-Exp模型提供支持。
![]()
項目里,大約有28處提到model 1。
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
![]()
這可以被解讀為新模型即將發布的明確信號。
巧的是,這個爆料正好趕在DeepSeek-R1發布一周年(2025年1月20日)。
R1作為開源推理模型,曾匹敵OpenAI o1并登頂iOS App Store,此后徹底改變了開源AI社區。
MODEL1即便不是R2,也意義非凡,畢竟FlashMLA是DeepSeek優化的注意力核心算法庫。
FlashMLA是DeepSeek為Hopper架構GPU(如H800)優化的MLA(Multi-head Latent Attention)解碼內核。
在推理層代碼中提及新模型ID,往往意味著該新模型(代號為Model1)將繼續復用或改進現有的MLA架構。
這表明 DeepSeek 團隊正緊鑼密鼓地推進新模型的推理適配工作,FlashMLA 作為其核心推理優化的地位依然穩固。
過去,DeepSeek的確遇到了一些麻煩。
本月15日,國外媒體報道,去年在研發其新一代旗艦模型時,DeepSeek在算力上碰到了一點麻煩。但DeepSeek及時調整了策略,取得了進展,并正準備在「未來幾周內」推出這款新模型。
HuggingFace:
DeepSeek如何改變開源AI
HuggingFace在DeepSeek R1發布一周年之際,發文解釋了DeepSeek如何改變了開源AI。
![]()
R1并不是當時最強的模型,真正意義而在于它如何降低了三重壁壘。
首先是技術壁壘。
通過公開分享其推理路徑和后訓練方法,R1將曾經封閉在API背后的高級推理能力,轉變為可下載、可蒸餾、可微調的工程資產。
許多團隊不再需要從頭訓練大模型就能獲得強大的推理能力。推理開始表現得像一個可復用的模塊,在不同的系統中反復應用。這也推動行業重新思考模型能力與計算成本之間的關系,這種轉變在中國這樣算力受限的環境中尤為有意義。
其次是采用壁壘。
R1以MIT許可證發布,使其使用、修改和再分發變得簡單直接。原本依賴閉源模型的公司開始直接將R1投入生產。蒸餾、二次訓練和領域適應變成了常規的工程工作,而非特殊項目。
隨著分發限制的解除,模型迅速擴散到云平臺和工具鏈中,社區討論的重點也從「哪個模型分數更高」轉向了「如何部署它、降低成本并將其集成到實際系統中」。
久而久之,R1超越了研究產物的范疇,成為了可復用的工程基礎。
第三個變化是心理層面的。
當問題從「我們能做這個嗎?」轉變為「我們如何做好這個?」時,許多公司的決策都發生了變化。
對中國AI社區而言,這也是一個難得的、獲得全球持續關注的時刻,對于一個長期被視為跟隨者的生態系統來說,這一點至關重要。
![]()
這三個壁壘的降低共同意味著,生態系統開始獲得了自我復制的能力。
DeepSeek-R1一周年
今天,讓我們回到原點,回顧DeepSeek-R1誕生的一年。
在R1之前,大模型的進化方向幾乎只有一個,更大的參數規模、更多的數據……
但是,模型真的在思考嗎?
這個問題,就是DeepSeek-R1的起點。
它不是讓讓模型回答得更快,而是刻意讓它慢下來,慢在推理鏈條的展開,慢在中間狀態的顯式表達。
從技術上看,DeepSeek-R1的關鍵突破,并不在某一個單點技巧,而在一整套系統性設計。
![]()
推理優先的訓練目標
在傳統SFT/RLHF體系中,最終答案的「正確性」是唯一目標。R1 則引入了更細粒度的信號。這也是第一次,模型
高密度推理數據,而非高密度知識
R1的訓練數據,不追求百科全書式的覆蓋,而是高度聚焦在數學與邏輯推導、可驗證的復雜任務。
總之,答案不重要,過程才重要。因此,R1才在數學、代碼、復雜推理上,呈現出「跨尺度躍遷」。
推理過程的「內化」,而不是復讀模板
一個常見誤解是:R1只是「更會寫CoT」。
但真正的變化在于:模型并不是在復讀訓練中見過的推理模板,而是在內部形成了穩定的推理狀態轉移結構。
從此,推理不再是外掛,而是內生能力。
一年之后:R1改變了什么?
首先,它改變了對「對齊」的理解。
R1之后,我們開始意識到,對齊不僅是價值對齊,也是認知過程的對齊。
第二,它改變了我們對開源模型的想象空間。
R1證明:在推理維度,開源模型不是追隨者,而可以成為范式定義者。這極大激活了社區對「Reasoning LLM」的探索熱情。
第三,它改變了工程師與模型的協作方式。
當模型開始「展示思路」,人類就不再是提問者,而是合作者。
回到今天:R1仍然是一條未走完的路。
一周年,并不是終點。
我們仍然清楚地知道:推理能力還有明顯上限,長鏈路思考仍然昂貴
但正如一年前做出 R1 的那個選擇一樣——真正重要的,不是已經解決了什么,而是方向是否正確。
DeepSeek-R1的故事,還在繼續。
而這一年,只是序章。
參考資料:
https://huggingface.co/blog/huggingface/one-year-since-the-deepseek-moment%20
https://x.com/testingcatalog/status/2013588515271962678%20
https://x.com/nopainkiller/status/2013522059662614653
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.