<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      DeepSeek的GRPO會導致模型崩潰?看下Qwen3新范式GSPO

      0
      分享至



      機器之心報道

      機器之心編輯部

      眾所周知,大型語言模型的訓練通常分為兩個階段。第一階段是「預訓練」,開發者利用大規模文本數據集訓練模型,讓它學會預測句子中的下一個詞。第二階段是「后訓練」,旨在教會模型如何更好地理解和執行人類指令。

      在 LLM 后訓練階段,似乎是一個強化學習的特殊形式。用于大語言模型(LLMs)微調的強化學習(RL)算法正沿著一條明確的演進路徑持續發展。

      起初,OpenAI 開創了一種名為 基于人類反饋的強化學習(RLHF)的技術,用于改進 ChatGPT。RLHF 的核心是讓人類標注員對模型生成的多種響應進行打分,并選出最優答案作為訓練參考。這一過程雖然有效,但也耗時、昂貴且依賴人力,通常需要一支小型但專業的數據標注團隊。

      DeepSeek 的重要創新在于用 RL 技術自動化了這一環節。算法不再依賴人工逐一評估,而是讓模型在探索過程中,通過獲得「獎勵信號」自主學習正確行為,從而顯著降低了成本,提高了效率,最終能以較低的成本實現高性能。

      OpenAI 在 ChatGPT 的訓練中采用了近端策略優化(Proximal Policy Optimization, PPO)

      而 DeepSeek 團隊 則認為,在一組樣本中進行價值估計更加有效,因此提出了組相對策略優化(Group Relative Policy Optimization, GRPO)算法,這也是 DeepSeek-R1 中的核心技術,使 DeepSeek-R1 模型大放異彩。



      GPRO 與 PPO 的對比,摘自 DeepSeekMath 論文。

      在幾個月前 Qwen3 首次亮相的時候,其旗艦模型的性能就已經與 DeepSeek-R1、o3-mini、Gemini 2.5 Pro 等頂級模型表現相當。除此以外,Qwen3 系列模型覆蓋了 MoE 模型和密集模型,每一款模型又有許多細分版本。

      近些天,Qwen3 系列模型仍然在不停的迭代更新,例如 Qwen3-235B-A22B-Instruct-2507-FP8 在知識數學、編程、人類偏好對齊、Agent 能力等眾多測評中表現出色,甚至了超過 Kimi-K2、DeepSeek-V3 等頂級開源模型以及 Claude-Opus4-Non-thinking 等領先閉源模型。

      最近,Qwen 團隊發布了一篇有關其模型后訓練算法的論文,似乎揭示了 Qwen3 模型成功的核心技術細節。



      • 論文標題:Group Sequence Policy Optimization
      • 論文鏈接:https://huggingface.co/papers/2507.18071
      • 博客鏈接:https://qwenlm.github.io/blog/gspo/

      而在昨天,來自清華大學校友創立的創業公司 NetMind.AI發表了一篇博客,題為《Qwen Team Proposes GSPO for Qwen3, Claims DeepSeek's GRPO is Ill-Posed》,對 Qwen 團隊為 Qwen3 模型提出的 GSPO 算法進行了詳盡的介紹與分析。



      • 博客鏈接:https://blog.netmind.ai/article/Qwen_Team_Proposes_GSPO_for_Qwen3%2C_Claims_DeepSeek's_GRPO_is_Ill-Posed

      最近 Qwen 的研究表明,使用 GRPO 訓練大語言模型時存在嚴重的穩定性問題,往往會導致模型不可逆地崩潰。他們認為 DeepSeek 的 GPRO 方法存在一些嚴重問題:

      • 在每個 token 級別應用重要性采樣,會在長序列中積累高方差,導致訓練不穩定
      • 這一問題在 專家混合模型(Mixture-of-Experts, MoE) 中尤為嚴重,因為token 級別的路由變化會加劇不穩定性
      • 為緩解這一問題,基于 GRPO 的訓練流程通常需要依賴一些額外策略,例如 路由重放(Routing Replay)。

      因此,Qwen 團隊聲稱 GRPO 的 token 級重要性采樣無法達到穩定訓練,其優化目標是「病態的(ill-posed)」

      為了解決這些問題并訓練其最新的 Qwen3 系列模型,Qwen 團隊提出了一種新的強化學習算法 ——組序列策略優化(Group Sequence Policy Optimization, GSPO)

      GRPO 的根本問題:

      「逐 token 重要性采樣」的不穩定性

      Qwen 團隊指出,GRPO 的不穩定性源于其對 token 級重要性采樣權重的錯誤使用。在強化學習中,重要性采樣(Importance Sampling)用于校正行為策略(即用于收集訓練數據的策略)與目標策略(當前正在優化的策略)之間的差異。

      當兩者不一致時,重要性采樣通過為已有數據樣本賦予權重,使其更能代表當前希望優化的目標策略,從而提高訓練的穩定性與有效性。

      在大語言模型(LLMs)的訓練中,強化學習常常會復用舊策略生成的響應,以節省計算資源,這屬于典型的「離策略」(off-policy)訓練場景。重要性采樣正是用于緩解這種策略不匹配帶來的影響,并幫助穩定訓練過程。

      然而,GRPO 將重要性采樣的權重應用在每一個 token 上,而非整個生成的序列。這種做法會帶來顯著的方差,并在生成較長序列時造成「誤差積累」與「訓練不穩定性」。

      從形式上講,GRPO 是在每一個 token 的生成步驟上單獨計算重要性權重的:



      Qwen 團隊指出,當在訓練目標中應用此類重要性權重時,由于每個 token 的比值是獨立計算的,會導致高方差的累積,從而破壞梯度穩定性,最終引發模型崩潰。

      同時,這種做法會將高方差噪聲引入訓練梯度中,尤其在長序列上呈現累積效應,并且在存在「裁剪機制」時,這種不穩定性問題會進一步加劇。

      Qwen 團隊的實驗證據

      Qwen 團隊通過實驗證據驗證了其理論分析,如圖所示。

      在所有展示的實驗場景中,其新提出的算法 GSPO 均表現出比 GRPO 更高的訓練效率。在 CodeForces 任務中,GRPO 的最終得分收斂于 2000 分以下,而 GSPO 隨著訓練計算量的增加持續提升成績,展現出更強的「可擴展性」。



      GSPO 與 GRPO 的訓練曲線對比

      Qwen 的解決方案:

      「序列級重要性采樣」

      那么,GSPO 是如何解決上述問題的呢?

      正如其名稱所暗示的,GSPO 的核心在于將重要性采樣從 token 級轉移至序列級,其重要性比值基于整個序列的似然度計算:



      這種采樣權重的設計自然地緩解了逐 token 方差的累積問題,從而顯著提升了訓練過程的穩定性。

      需要注意的是,指數中的因子用于「長度歸一化」。如果不進行長度歸一化,僅僅幾個 token 的似然變化就可能導致序列級重要性比值的劇烈波動,而不同長度的生成響應在目標函數中也將需要不同的裁剪范圍,這會進一步增加訓練的不穩定性。

      實驗驗證的優勢:

      簡化 MoE 模型訓練

      針對專家混合模型(MoE)所進行的專項實驗進一步強調了 GSPO 的優勢。

      由于 MoE 模型具有稀疏激活特性,這會在使用 GRPO 時進一步加劇訓練過程中的不穩定性。在經過一次或多次梯度更新后,相同響應所激活的專家網絡可能發生顯著變化。

      Qwen 團隊在使用 GRPO 訓練 48 層的 Qwen3-30B-A3B-Base 模型時發現:在每一次強化學習的梯度更新后,對于相同的 rollout 樣本,新策略所激活的專家中約有 10% 與舊策略所激活的專家不同。這實際上意味著,每次梯度更新后,你都在用不同的數據樣本訓練不同的模型,毫無疑問這是一種極其低效的訓練方式。

      在引入 GSPO 之前,為緩解這一問題,他們甚至采取了一種名為「Routing Replay」的技巧,即強制目標策略激活與舊策略相同的專家網絡。

      相比之下,GSPO 無需使用 Routing Replay 也能實現穩定收斂,從而消除了不必要的訓練復雜性,并保留了 MoE 架構的全部潛力。



      Routing Replay 策略在 GRPO 訓練 MoE 模型的正常收斂中起到了關鍵作用

      結論:

      GSPO 或將成為新的標準

      總結一下,GSPO 的方法有兩點創新:

      • 將重要性采樣從 token 級別提升到序列級別,并通過序列長度進行歸一化處理;
      • 顯著降低了方差,同時消除了對「路由技巧」(如 Routing Replay)等輔助策略的依賴;

      業界已普遍達成共識 —— 在大語言模型的后訓練階段引入強化學習,對于提升其推理能力至關重要。

      而論文中的大量實驗結果也進一步證實,GRPO 所采用的「逐 token 重要性采樣」方法存在不穩定性和低效性的問題。

      因此,GSPO 提出的「序列級重要性采樣」很可能會成為未來后訓練強化學習的新標準。

      https://www.reddit.com/r/MachineLearning/comments/1mj3t3r/d_gspo_qwen3s_sequencelevel_rlhf_method_vs_grpo/

      https://blog.netmind.ai/article/Qwen_Team_Proposes_GSPO_for_Qwen3%2C_Claims_DeepSeek's_GRPO_is_Ill-Posed

      https://www.ft.com/content/ea803121-196f-4c61-ab70-93b38043836e?utm_source=chatgpt.com

      https://zhuanlan.zhihu.com/p/22845155602

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      2026年2月十二生肖運勢詳解

      2026年2月十二生肖運勢詳解

      白龍王
      2026-01-27 16:51:17
      綿陽市市長李云被查,昨天還在開會

      綿陽市市長李云被查,昨天還在開會

      上觀新聞
      2026-01-27 17:49:04
      印度疫情,會失控嗎?

      印度疫情,會失控嗎?

      中國新聞周刊
      2026-01-27 11:31:33
      我出售南京的大平層搬進女兒家,女兒以為我睡熟了,跟女婿密謀

      我出售南京的大平層搬進女兒家,女兒以為我睡熟了,跟女婿密謀

      朝暮書屋
      2026-01-21 17:26:45
      成都樓市起飛上天,成都高新區待售二手房數量從1萬套變成2萬套

      成都樓市起飛上天,成都高新區待售二手房數量從1萬套變成2萬套

      有事問彭叔
      2026-01-25 18:23:56
      張雨綺代孕風波升級!雙胞胎學籍分割成鐵證,楊天真口碑崩塌

      張雨綺代孕風波升級!雙胞胎學籍分割成鐵證,楊天真口碑崩塌

      讓生活充滿溫暖
      2026-01-27 10:37:07
      大清名將海蘭察:生吃動物,只喜胖婦,行軍中直接用水牛解壓

      大清名將海蘭察:生吃動物,只喜胖婦,行軍中直接用水牛解壓

      銘記歷史呀
      2026-01-26 19:56:20
      浙江男子總感覺喉嚨不舒服,脖子右側有腫塊,確診HPV還有癌癥中晚期!這個夫妻親密習慣是誘因

      浙江男子總感覺喉嚨不舒服,脖子右側有腫塊,確診HPV還有癌癥中晚期!這個夫妻親密習慣是誘因

      環球網資訊
      2026-01-10 19:59:06
      帶薪年休假等,將有新政策

      帶薪年休假等,將有新政策

      第一財經資訊
      2026-01-27 12:20:38
      24小時80條帖子,川普氣極,不到兩天見識到中國的陽謀俄歐的精明

      24小時80條帖子,川普氣極,不到兩天見識到中國的陽謀俄歐的精明

      議紀史
      2026-01-27 21:50:03
      緬北女魔頭維嘉琳!最殘酷的手段是割“小乳豬”,受害者多為男性

      緬北女魔頭維嘉琳!最殘酷的手段是割“小乳豬”,受害者多為男性

      馬爾科故事會
      2024-09-04 09:39:57
      殷秀梅:程志不是我的前夫,我的法國丈夫今年75歲

      殷秀梅:程志不是我的前夫,我的法國丈夫今年75歲

      顧史
      2026-01-20 13:54:43
      向太曝馬伊琍已再婚:當年文章過不了心理那關

      向太曝馬伊琍已再婚:當年文章過不了心理那關

      娛樂看阿敞
      2025-12-12 15:50:00
      朝鮮兩名高官發動兵變為張成澤報仇,因細節敗露,金正恩一招鎮壓

      朝鮮兩名高官發動兵變為張成澤報仇,因細節敗露,金正恩一招鎮壓

      阿胡
      2024-04-30 11:48:45
      聞泰科技:股東無錫國聯集成電路減持超3448.6萬股,套現約13.26億元

      聞泰科技:股東無錫國聯集成電路減持超3448.6萬股,套現約13.26億元

      雷達財經
      2026-01-27 16:04:29
      蘋果正式推送 iOS 26.2.1 等大量新系統版本!

      蘋果正式推送 iOS 26.2.1 等大量新系統版本!

      XCiOS俱樂部
      2026-01-27 04:27:57
      誰擾了李亞鵬的公益夢?15 億套現醫美大佬,還是 2600 萬租金?

      誰擾了李亞鵬的公益夢?15 億套現醫美大佬,還是 2600 萬租金?

      牛刀財經
      2026-01-27 18:47:04
      岳父大人的狠毒用心,他是一點看不懂啊!

      岳父大人的狠毒用心,他是一點看不懂啊!

      BenSir本色說
      2026-01-26 22:03:54
      廣州一乘客羊城通欠費1400萬元? 嶺南通公司回應

      廣州一乘客羊城通欠費1400萬元? 嶺南通公司回應

      深圳晚報
      2026-01-27 10:15:25
      她暫停活動了!

      她暫停活動了!

      奮斗在韓國
      2026-01-27 11:08:35
      2026-01-27 23:03:00
      機器之心Pro incentive-icons
      機器之心Pro
      專業的人工智能媒體
      12202文章數 142550關注度
      往期回顧 全部

      科技要聞

      馬化騰3年年會講話透露了哪些關鍵信息

      頭條要聞

      體大畢業生收費教人騎自行車800元1次 網友直呼"離譜"

      頭條要聞

      體大畢業生收費教人騎自行車800元1次 網友直呼"離譜"

      體育要聞

      冒充職業球員,比賽規則還和對手現學?

      娛樂要聞

      張雨綺風波持續發酵,曝多個商務被取消

      財經要聞

      多地對壟斷行業"近親繁殖"出手了

      汽車要聞

      標配華為乾崑ADS 4/鴻蒙座艙5 華境S體驗車下線

      態度原創

      親子
      藝術
      數碼
      游戲
      公開課

      親子要聞

      雙職工家庭,孩子上幼兒園后,無老人幫忙,夫妻倆能獨立帶娃嗎?

      藝術要聞

      日本東京國立博物館中的100幅宋畫

      數碼要聞

      華碩無畏Pro 14/16 2026款酷睿版發布,6999元起

      《GTA4》RTX模組帶來次世代畫面!場景質感煥然一新

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版