DeepSeekV3.2的發布標志著中國AI市場正式進入“第二波沖擊”階段。
12月6日,據硬AI消息,摩根大通在研報中稱,這不僅僅是一次模型迭代,更是一場針對推理成本和硬件生態的結構性革命。DeepSeek通過架構創新將API價格再度下壓30-70%,使得長上下文推理成本暴降6-10倍。
研報強調,更為關鍵的是,V3.2-Exp實現了對非CUDA生態(華為昇騰、寒武紀、海光)的“Day-0”首日支持,徹底打破了前沿模型對英偉達硬件的依賴路徑。
據摩根大通分析,受益者包括云運營商阿里巴巴、騰訊、百度,以及芯片制造商中微公司、北方華創、華勤技術和浪潮信息。預計V3.2模型將在未來幾個季度進一步提升生成式AI在中國的普及率。
據華爾街見聞文章,12月1日,DeepSeek發布V3.2系列兩款模型并開源。V3.2主打日常應用,推理能力達GPT-5水平,首次實現思考模式與工具調用融合;V3.2-Speciale專注極致推理,在IMO、CMO、ICPC、IOI四項國際競賽中斬獲金牌。
性能與架構:效率的極致壓榨與“智能體”進化
DeepSeekV3.2并非單純堆砌參數,而是通過算法層面的創新實現了效率的質變。該模型延續了V3.1的混合專家(MoE)架構主體,但引入了DeepSeek稀疏注意力機制(DSA)。
摩根大通指出,作為9月29日首次發布的實驗性V3.2-Exp模型的后續產品。V3.2模型通過持續訓練引入了DeepSeek稀疏注意力機制(DSA),這是唯一的架構變動,減少了長上下文計算,同時保持了在公開基準測試中的水準。![]()
具體來看,主要包括以下四個方面:
架構突破:DSA機制通過閃電索引器選擇關鍵鍵值條目,將長上下文情境下的計算復雜度從平方級(O(L2))直接降維至準線性級(O(L·k))。定價革命:通縮的推理經濟學
性能數據:在128ktokens的長文本環境下,V3.2的推理速度較前代提升2-3倍,GPU內存占用減少30-40%,且模型性能不僅沒有退步,反而保持了極高水準。
智能體定位:V3.2被明確定位為“為Agent構建的推理優先模型”。它實現了“思考+工具調用”的深度交錯——模型可以在單一軌跡中結合思維鏈與工具調用(API、搜索、代碼執行)。
高端版本:Speciale版本在奧林匹克級數學競賽和競爭性編程中表現優異,其推理基準已媲美Gemini3.0Pro和GPT-5級系統。
摩根大通指出,DeepSeekV3.2的發布再次確立了其“價格屠夫”的地位,尤其是在與美國頂級模型的對比中,展現了驚人的性價比優勢。
研報認為,DSA架構帶來的效率提升直接轉化為了API的結構性降價。具體表現為:
具體定價:V3.2Reasoning的每百萬tokens輸入價格降至0.28美元,輸出價格降至0.42美元。
降幅對比:相比2025年9月發布的V3.1Reasoning(輸入0.42/輸出1.34美元),輸出成本暴跌69%,輸入成本降低33%。相比2025年1月的R1模型,價格優勢更加呈指數級擴大。
據摩根大通分析,根據第三方基準,部分長上下文推理工作負載的實際成本降低了6-10倍。這種定價策略迫使市場重新定義“前沿級”能力的成本基準,對所有競爭對手造成巨大的下行定價壓力。
在ArtificialAnalysis的智能指數與價格對比中,DeepSeekV3.2處于“高智能、極低價格”的絕對優勢象限。
生態重構:國產芯片的“Day-0”時刻
據研報,DeepSeekV3.2標志著中國AI模型從單純依賴英偉達CUDA生態,轉向對國產硬件的主動適配。
摩根大通稱,V3.2-Exp是首批在發布首日(Day-0)即針對非CUDA生態進行優化的前沿模型,支持包括華為的CANN堆棧和Ascend(昇騰)硬件、寒武紀的vLLM-MLU以及海光的DTK。
這向市場發出了強烈的信號——GPT-5級別的開源模型可以在國產加速器上高效運行。這將由下至上降低中國AI買家的執行風險,直接帶動對國產AI芯片和服務器的增量需求。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.