這是一篇報告解讀,原文是《DeepSeek-V3.2: Pushing the Frontier of Open Large Language Models》
![]()
DS-V3.2獲得這份報告
先說結論
DeepSeek-V3.2
在推理能力上追平 GPT-5-High,在部分指標上超越
DeepSeek-V3.2-Speciale(高算力版)
在 2025 年 IMO 和 IOI 拿了金牌,推理能力接近 Gemini-3.0-Pro
![]()
圖1|核心基準對比。DeepSeek-V3.2-Speciale 在數學和編程上已經和 Gemini-3.0-Pro 打平 怎么做到的?三件事
DSA(DeepSeek Sparse Attention)
一種稀疏注意力機制,大幅降低長上下文的計算成本
后訓練加碼
把后訓練的計算預算提到預訓練的 10% 以上
大規模合成數據
生成了 1,800 個環境、85,000 個任務,全是合成的
下面一個一個說
DSA:把注意力從 O(L2) 降到 O(Lk)
傳統的 Transformer 注意力機制是 O(L2) 復雜度,L 指的是序列長度
簡單說一下 計算機領域,通常用 O(x) 來說明復雜度:比如 O(L) 的含義是隨著 L 增加,則復雜度線性增加;而 O(L2) 的意思是按長度的平方倍增加。 文本長度翻 2 倍,計算量翻 4 倍;長度翻 10 倍,計算量翻 100 倍
這長上下文場景中,這個復雜度就成了大問題,推理慢,后訓練也很難做
所以你很少會見到超過 128k 的上下文( GPT-3.5 最早默認 4k 上下文)
DeepSeek 的解決方案是 DSA,核心思路是:
并非每個 token 都看全部上下文,只看最相關的 k 個 token
這樣計算量就變成 O(Lk),k 是個固定值(2048),不再隨文本長度爆炸式增長
![]()
圖2|DSA 架構。Lightning Indexer 快速篩選,Top-k Selector 精選 2048 個 token 做注意力計算
具體實現分兩步:
第一步:Lightning Indexer
一個輕量級的打分器,給每個歷史 token 打分,決定哪些值得關注
這個打分器用 ReLU 激活函數,可以跑在 FP8 精度,算力開銷很小
第二步:Fine-grained Token Selection
根據 Lightning Indexer 的打分,只選 top-k 個 token 做真正的注意力計算
在 DeepSeek-V3.2 里,k =2048
雖然 Lightning Indexer 本身還是 O(L2),但它比主注意力輕很多,整體效率大幅提升
DSA 訓練的兩個階段 階段一:Dense Warm-up
先凍住主模型,只訓練 Lightning Indexer
訓練目標是讓 Indexer 的輸出分布對齊主注意力的分布
用 KL 散度做 loss
只訓練了 1000 步,共 2.1B tokens
階段二:Sparse Training
放開所有參數,讓模型適應稀疏注意力模式
繼續用 KL 散度對齊 Indexer 和主注意力
訓練了 15000 步,共 943.7B tokens
![]()
圖3|推理成本對比。V3.2 在長序列場景下成本幾乎是平的,V3.1 是線性增長 效果怎么樣?
在 128K 長度的 prefilling 階段,V3.2 的成本基本不隨位置增長,V3.1-Terminus 是線性增長
并且:性能沒降
在 ChatbotArena 的 Elo 評分上,V3.2-Exp 和 V3.1-Terminus 基本持平
在獨立的長上下文評測(AA-LCR、Fiction.liveBench)上,V3.2-Exp 甚至更好
后訓練加碼:預算超過預訓練的 10%
過去,開源模型的后訓練投入普遍不足,這限制了它們在難任務上的表現
DeepSeek 的做法是:大力出奇跡
具體數字是:后訓練的計算預算超過預訓練成本的 10%
這是很激進的配置
后訓練流程分兩步 第一步:專家蒸餾(Specialist Distillation)
為每個任務領域訓練一個專門的「專家模型」
六個領域:數學、編程、通用邏輯推理、通用智能體、代碼智能體、搜索智能體
每個領域都支持 thinking 和 non-thinking 兩種模式
每個專家都用大規模 RL 訓練
訓練好之后,用專家模型生成領域數據,給最終模型用
第二步:混合 RL 訓練(Mixed RL Training)
把推理、智能體、人類對齊三類任務合并成一個 RL 階段
用 GRPO(Group Relative Policy Optimization)算法
這樣做的好處是:避免多階段訓練的災難性遺忘
GRPO 的幾個關鍵改進
論文詳細說了四個穩定化技巧:
1. Unbiased KL Estimate
原來的 K3 estimator 在某些情況下會給低概率 token 分配過大的梯度權重,導致訓練不穩定
DeepSeek 用重要性采樣修正了這個問題
Off-Policy Sequence Masking
把偏離當前策略太遠的負樣本 mask 掉
直覺是:從自己的錯誤里學比從不相關的錯誤里學更有效
Keep Routing
MoE 模型的專家路由在推理和訓練時可能不一致
DeepSeek 保存推理時的路由路徑,訓練時強制復用
Keep Sampling Mask
Top-p 采樣時的截斷 mask 也保存下來,訓練時復用
保證采樣策略和訓練策略一致
大規模智能體數據合成
泛化能力,是大模型在智能體場景的另一個短板
原因很簡單:沒有足夠多樣的訓練環境
DeepSeek 的解決方案是:自己合成
![]()
表1|智能體任務分布。50275 個搜索任務、24667 個代碼任務、4417 個通用任務、5908 個代碼解釋任務
具體數據 代碼智能體 24,667 個任務(真實環境,提取的提示) 搜索智能體 50,275 個任務(真實環境,合成的提示) 通用智能體 4,417 個任務(合成環境,合成提示) 代碼解釋器 5,908 個任務(真實環境,提取的提示)合成流程,很有意思
1. 給定一個任務類型(比如旅行規劃),agent 先用 bash 和搜索工具從網上拉數據,存到沙箱數據庫
2. Agent 合成一套任務相關的工具函數
3. Agent 先提出一個簡單任務,寫好解決方案和驗證函數
4. 迭代增加任務難度,同時更新解決方案和驗證函數
5. 如果現有工具不夠用,agent 會自動擴展工具集
最終得到了1,827個環境,4,417個任務
![]()
合成任務示例:三天旅行規劃。約束條件復雜,驗證容易,搜索空間大——典型的「難解易驗」問題
有個 Trip Planning 的例子 從杭州出發的三天旅行,要求不重復城市/酒店/餐廳/景點,第二天的預算有復雜的條件約束...
任務很難解,但驗證很簡單——只要檢查所有約束是否滿足
這類「難解易驗」的任務特別適合 RL
合成數據真的有用嗎?
論文做了消融實驗
用 V3.2-SFT 只在合成的通用智能體數據上做 RL,測試在Tau2Bench、MCP-Mark、MCP-Universe上的效果
結果是:顯著提升
作為對照,只在代碼和搜索環境上做 RL,這三個 benchmark 上沒有提升
簡而言之,這么做,確實帶來了泛化能力
![]()
圖5|合成數據 RL 效果,藍線是 RL-Synthetic-Data Thinking in Tool-Use
讓推理和工具調用融合,是 v3.2 在工程上的關鍵設計
DeepSeek-R1 證明了「thinking」對解決復雜問題很有幫助
但 R1 的策略是:第二輪消息到來時,丟棄之前的推理內容
這在工具調用場景下很浪費——每次工具返回結果,模型都要重新推理一遍
![]()
圖4|Thinking 保留機制。只有新用戶消息到來時才丟棄推理內容,工具結果不觸發丟棄
DeepSeek-V3.2 的設計是:
? 只有新的用戶消息到來時才丟棄推理內容
? 如果只是工具返回結果,保留推理內容
? 丟棄推理內容時,工具調用歷史保留
注意 Roo Code、Terminus 這類用「用戶消息」模擬工具交互的框架,無法享受這個優化;論文建議這類框架用 non-thinking 模式Cold-Start
怎么讓模型學會「邊推理邊調工具」,這個能力需要教
DeepSeek 的做法是設計專門的 system prompt:
? 告訴模型可以在
標簽內多次調用工具? 最多 20 次
? 最終答案不能包含工具調用
雖然這樣訓練出來的模式一開始不太穩定,但偶爾能產生正確的軌跡
有了這些種子數據,后續的 RL 就能持續優化
結果對比
到這里,我們看一下模型的性能,自己看圖,不贅述了
這個是DeepSeek-V3.2的
![]()
表2|完整基準對比。DeepSeek-V3.2-Thinking 與 GPT-5-High 基本持平,Speciale 版本在數學上超越
這個是DeepSeek-V3.2-Speciale的競賽成績
![]()
表4|競賽成績。IOI 2025 第10名,ICPC WF 2025 第2名。這是通用模型,不是專門為競賽訓練的
需要說明的是:Token 效率,是 DeepSeek-V3.2 的一個短板
舉個例子,在 Codeforces 中,Gemini-3.0-Pro 用 22k tokens 拿 2708 分,DeepSeek-V3.2 用 42k tokens 才拿 2386 分,Speciale 版本用 77k tokens 拿 2701 分
Speciale 版本為了達到更高性能,輸出 token 數明顯更多
具體的看這張圖
![]()
表3|各個模型的 token 效率 其他:上下文管理策略
搜索智能體場景有個問題:經常撞到 128K 的上下文限制
DeepSeek 試了幾種策略:
1.Summary:超限后總結軌跡,重新開始
2.Discard-75%:丟棄前 75% 的工具調用歷史
3.Discard-all:丟棄所有工具調用歷史(類似 Anthropic 的 new context tool)
4.Parallel-fewest-step:并行采樣多個軌跡,選步數最少的
結果有點反直覺:
最簡單的 Discard-all 效果最好,BrowseComp 從 53.4% 提升到 67.6%
Summary 效率最低,雖然也能提升性能
還差什么
DeepSeek 團隊坦誠說了三個局限:
1. 世界知識不夠豐富
訓練算力有限,知識廣度不如 Gemini-3.0-Pro
計劃未來擴大預訓練規模
2. Token 效率低
達到同樣輸出質量,需要生成更多 token
需要優化推理鏈的「智能密度」
這個上文提了
3. 最難的任務還有差距
在最頂尖的復雜任務上,和 Gemini-3.0-Pro 還有差距
我覺得吧,這三個局限其實指向同一個問題:算力
預訓練算力不夠,知識就不夠廣
后訓練算力不夠,token 效率就上不去
基礎模型能力不夠,最難的任務就做不好
但反過來說,DeepSeek 在有限算力下能做到這個程度,也或許說明...技術路線是對的?
總結
這篇論文,大致說了這三件事兒
?DSA 解決了效率問題,讓大規模后訓練成為可能
?大規模后訓練,帶來了更高的訓練回報
?大規模合成數據,讓智能體能力的泛化成為可能
三件事串起來,讓 DeepSeek v3.2,在推理能力上追平了 GPT-5
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.