哈嘍,大家好,桿哥這篇評論,主要來分析DeepSeek逆勢破局:開源模型的反擊與Agent新賽道
![]()
2025年末,Google Gemini 3 Pro橫空出世,讓開源模型陷入“是否已到極限”的質疑。就在此時,12月1日DeepSeek一舉發布V3.2和Speciale兩款模型,給開源陣營注入強心劑。
這不僅是一次常規更新,更是對閉源技術高地的正面回應,也拋出了行業新命題:后Scaling時代,開源模型的破局路在哪?
架構重塑:不堆算力的“反超”邏輯
![]()
DeepSeek-V3.2在推理類基準測試中全面對標GPT-5,僅略遜于Gemini 3 Pro,還刷新了國內開源模型推理紀錄。
關鍵突破在于自研的稀疏注意力機制(DSA),它把傳統
![]()
Transformer平方級的計算復雜度,降到了近線性。通過“閃電索引器”篩選核心token再精算,即便128K超長上下文也能保持效率。
團隊采用“密集預熱—稀疏過渡”策略,先讓索引器模仿原始分布,再逐步替換結構,既提效又保精度,長文本任務得分顯著上升。
![]()
押注Agent:從“插件”到核心引擎
V3.2最關鍵的轉向,是將Agent能力與推理能力并列作為核心指標。這并非跟風,而是瞄準了產業落地的關鍵。
![]()
企業已不再滿足于“聰明的聊天機器人”,而是愿意為自動寫報告、批量修代碼等“可執行”的Agent付費。DeepSeek為此搭建了1800多個智能體環境,生成8.5萬條高復雜度任務提示。
![]()
自研的GRPO強化學習策略解決了訓練穩定性問題,多維獎勵信號避免“災難性遺忘”,讓模型在多輪任務中保持邏輯連貫。
![]()
后訓練戰術:開源模型的“以巧勝拙”
![]()
DeepSeek坦言,開源模型在知識廣度等維度仍落后閉源,但他們用“后訓練三件套”實現了突圍。
先通過6類專家模型蒸餾出高質量樣本,再用超預訓練10%算力的強化學習優化,最后融合“工具中思考”機制。模型不再“思考完再調用工具”,而是邊調用邊思考,減少重復推理。
![]()
這種策略提升了“單位token智能密度”,在SWE-Verified等Agent基準上,V3.2解決率達73.1%,接近GPT-5的74.9%。
開源未到終局:兩種路線的博弈
![]()
Gemini 3 Pro代表閉源“更大更快更強”的路徑,而DeepSeek走出了“更輕更穩更聰明”的開源新方向。
當然差距仍存在,V3.2世界知識廣度不足,Speciale模型token開銷偏高。但它證明,規模紅利見頂后,架構創新和訓練策略優化能打開新空間。
![]()
這場反擊不僅讓開源陣營重拾信心,更指明了未來方向:AI競爭已從“參數多少”轉向“思維組織力”與“能效比”的較量。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.