![]()
哈嘍,大家好,今天小墨就帶大家分析國(guó)產(chǎn)大模型的硬核逆襲 ,DeepSeek-V3.2 系列開(kāi)源直接對(duì)標(biāo) Gemini-3.0-Pro,拿滿國(guó)際競(jìng)賽金牌還把推理成本砍半。
ChatGPT 發(fā)布三周年之際,全球 AI 賽道迎來(lái)關(guān)鍵轉(zhuǎn)折點(diǎn)。當(dāng)閉源模型還在算力軍備競(jìng)賽中比拼參數(shù)規(guī)模時(shí),中國(guó)團(tuán)隊(duì) DeepSeek 突然拋出兩顆 “重磅炸彈”。
![]()
![]()
雙模型精準(zhǔn)卡位,競(jìng)賽成績(jī)刷新開(kāi)源天花板
DeepSeek 此次發(fā)布的兩款模型形成明確分工。
標(biāo)準(zhǔn)版 V3.2 聚焦 “平衡實(shí)用”,在日常問(wèn)答、通用 Agent 任務(wù)和工具調(diào)用場(chǎng)景中表現(xiàn)亮眼,其推理能力達(dá)到 GPT-5 級(jí)別,僅小幅落后于 Gemini-3.0-Pro,且輸出長(zhǎng)度較同類(lèi)模型大幅縮短,顯著降低用戶等待時(shí)間與計(jì)算開(kāi)銷(xiāo)。
![]()
更值得關(guān)注的是,該模型在未針對(duì)測(cè)試集特殊訓(xùn)練的情況下,拿下當(dāng)前開(kāi)源模型 Agent 評(píng)測(cè)的最高分?jǐn)?shù),在 SWE-Verified 代碼任務(wù)中實(shí)現(xiàn) 73.1% 的解決率,Terminal Bench 2.0 準(zhǔn)確率達(dá) 46.4%,大幅超越現(xiàn)有開(kāi)源模型。
增強(qiáng)版 Speciale 則劍指 “極致推理”,融合 DeepSeek-Math-V2 的定理證明能力后,一舉斬獲 IMO 2025、CMO 2025、ICPC World Finals 2025、IOI 2025 四項(xiàng)國(guó)際頂級(jí)競(jìng)賽金牌,其中 ICPC 成績(jī)躋身人類(lèi)選手第二名,IOI 排名第十,成為首個(gè)在編程與數(shù)學(xué)競(jìng)賽中比肩頂尖人類(lèi)選手的開(kāi)源模型。
![]()
不過(guò)官方特別提醒,該版本專(zhuān)注科研場(chǎng)景,未優(yōu)化日常對(duì)話,且 Token 消耗與使用成本顯著高于標(biāo)準(zhǔn)版,目前僅開(kāi)放臨時(shí) API 供研究使用。
![]()
成本效率實(shí)現(xiàn)顛覆性突破
支撐此次性能飛躍的核心,是 DeepSeek 獨(dú)創(chuàng)的 DSA(DeepSeek Sparse Attention)稀疏注意力機(jī)制。
傳統(tǒng)注意力機(jī)制處理長(zhǎng)序列時(shí)計(jì)算復(fù)雜度為 O (L2),嚴(yán)重制約部署效率,而 DSA 通過(guò) “閃電索引器” 與 “細(xì)粒度 token 選擇” 雙組件。
![]()
將復(fù)雜度降至 O (L?k)(k 遠(yuǎn)小于 L),在 128k 長(zhǎng)序列任務(wù)中,推理成本較上一代 V3.1-Terminus 大幅降低 ,H800 集群測(cè)試顯示,預(yù)填充階段每百萬(wàn) token 成本從 0.7 美元降至 0.2 美元,解碼階段從 2.4 美元降至 0.8 美元。
更關(guān)鍵的是,該技術(shù)實(shí)現(xiàn)了 “降本不降價(jià)”,支持 FP8 精度與 MLA 架構(gòu),適配昇騰 Atlas 800 A2 等國(guó)產(chǎn)芯片,通過(guò)結(jié)構(gòu)化剪枝與混合量化策略,可在精度損失小于 1% 的前提下將參數(shù)量壓縮 40%,算力利用率提升 200%。
這種架構(gòu)創(chuàng)新讓 DeepSeek 走出了一條區(qū)別于 “算力堆料” 的技術(shù)路線,其訓(xùn)練成本僅為 Meta Llama-3 的 1/11,卻實(shí)現(xiàn)了相當(dāng)?shù)男阅鼙憩F(xiàn)。
![]()
![]()
破解開(kāi)源模型泛化難題
DeepSeek 在強(qiáng)化學(xué)習(xí)(RL)領(lǐng)域的投入同樣打破行業(yè)常規(guī) ,將訓(xùn)練后階段的計(jì)算預(yù)算提升至預(yù)訓(xùn)練成本的 10%,這在開(kāi)源模型中極為罕見(jiàn)。
團(tuán)隊(duì)基于 GRPO 算法優(yōu)化出無(wú)偏 KL 估計(jì)、離線序列掩碼等技術(shù),解決了大規(guī)模 RL 訓(xùn)練的穩(wěn)定性問(wèn)題,同時(shí)通過(guò) “專(zhuān)家蒸餾” 策略,讓模型吸收數(shù)學(xué)、編程、Agent 任務(wù)等 6 大領(lǐng)域的專(zhuān)項(xiàng)能力。
![]()
為提升 Agent 泛化能力,DeepSeek 構(gòu)建了全球領(lǐng)先的自動(dòng)環(huán)境合成管線,生成 1827 個(gè)任務(wù)導(dǎo)向環(huán)境與 85000 個(gè)復(fù)雜提示,涵蓋旅行規(guī)劃、軟件開(kāi)發(fā)等真實(shí)場(chǎng)景,其中代碼 Agent 從 GitHub 挖掘數(shù)百萬(wàn) issue-PR 對(duì),搭建了多語(yǔ)言可執(zhí)行測(cè)試環(huán)境,搜索 Agent 則通過(guò)多智能體協(xié)作生成高質(zhì)量長(zhǎng)尾數(shù)據(jù)。
這種 “難解易驗(yàn)” 的訓(xùn)練模式,讓 V3.2 在未見(jiàn)過(guò)的 Agent 場(chǎng)景中仍能保持高性能,大幅縮小了開(kāi)源與閉源模型的差距。
![]()
開(kāi)源社區(qū)認(rèn)可度持續(xù)攀升
目前 DeepSeek-V3.2 已全面登陸官方 App、Web 端與小程序,API 調(diào)用成本降低 50% 以上,而 Speciale 版本開(kāi)放臨時(shí) API 供科研使用。
![]()
作為首個(gè)登上 Nature 封面的中國(guó)大模型,DeepSeek 的開(kāi)源生態(tài)已形成規(guī)模效應(yīng),GitHub 星數(shù)超越同類(lèi)模型,R1 版本曾創(chuàng)下 7 天用戶破 1 億的紀(jì)錄,較 ChatGPT 達(dá)成同等規(guī)模快 53 天。
更重要的是,其推出的大模型一體機(jī)已覆蓋 1.5B 至 671B 全尺寸模型,從邊緣端到云端實(shí)現(xiàn)國(guó)產(chǎn)化算力解決方案落地。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.