![]()
普及百萬上下文,價格依舊親民。
作者|連冉
編輯|靖宇
萬眾期待中,DeepSeek V4,終于發布了!
就在剛剛,被期待已久的 DeepSeek V4 預覽版正式登場。兩個版本——V4-Pro 和 V4-Flash,全系標配 1M(百萬字)超長上下文,同步開源模型權重和技術報告。
五一前的這兩天,大模型又進入新一輪發布潮。
4 月 23 日中午,「天才少年」姚順雨交出加入騰訊后的第一份模型答卷,騰訊混元 Hy3 預覽版亮相,2950 億參數的 MoE 架構,激活參數 21B,推理效率提升 40%,輸入價格壓到 1.2 元/百萬 tokens。
今天凌晨,OpenAI 面向付費用戶上線 GPT-5.5 并官宣 API 計劃,主打 Agent 工作流和多步驟任務完成,上下文窗口拉到 100 萬 tokens,API 定價也水漲船高——輸入 5 美元、輸出 30 美元/百萬 tokens。
表面上,三家路徑各不相同:OpenAI 走高端閉源路線,繼續抬高價格天花板;騰訊把模型塞進自家生態,用性價比撬動規模化商用;DeepSeek 則延續開源傳統,同時把上下文長度推到一個新的普惠臨界點。
同時,Agent 能力、超長上下文、代碼與工具調用,這三個關鍵詞,在三家發布的新模型里反復出現。他們都在同一個方向上加注:讓模型能處理更長的信息,能在更復雜的任務鏈條里自主運作,能真正嵌入到工作流程中去「干活」。
01
DeepSeek V4 的「實用主義」
DeepSeek 這次發布,把百萬字上下文從「高端選配」變成了「基礎標配」。
在此之前,1M 級別的上下文長度,更多出現在旗艦閉源模型的高端版本里,高昂的調用成本足,以讓大多數開發者和中小企業望而卻步。
而 DeepSeek 的做法十分明確:V4-Pro 和 V4-Flash 兩個版本全系標配 1M 上下文長度,前者錨定極致性能,后者提供普惠經濟之選,完整覆蓋不同需求層級的用戶。這種「無差別下放核心能力」的策略,本質上是在徹底降低長文本處理能力的行業獲取門檻。
![]()
圖片來源:DeepSeek 官網
Flash 版本主打極致低延遲與高性價比,是 DeepSeek 面向輕量化高頻場景給出的核心方案。憑借 13B 的激活參數、全新的 token 壓縮注意力機制與 DSA 稀疏注意力架構優化,它在保障接近 Pro 版核心推理能力的同時,實現了極快的響應速度,對于實時對話交互、函數調用流水線,乃至所有對響應速度敏感的輕量化場景而言,這一特性能帶來體驗上的本質提升。
更關鍵的是具有競爭力的成本結構。
根據 DeepSeek 官方 API 定價文檔,Flash 版本采用階梯式計費規則:緩存命中的輸入 token 低至 0.2 元 / 百萬 tokens,緩存未命中的輸入 token 為 1 元 / 百萬 tokens,輸出 token 定價為 2 元 / 百萬 tokens。
![]()
DeepSeek V4 各個版本成為|圖片來源:DeepSeek API 文檔
如此親民的定價,疊加全系標配的 1M 上下文能力,使得「單次調用成本」不再是工程設計中的核心約束——開發者可以優先考慮產品體驗與架構設計,而無需反復在調用次數與費用之間做權衡。
Flash 解決的是「用得起、用得快」的普惠需求,V4-Pro 則在回答另一個核心問題:開源大模型的能力邊界,究竟還能被推到哪里。
最直觀的能力躍升,依然圍繞長上下文展開。DeepSeek 將模型上下文長度從上一代 V3.2 的 128K,直接拉升至 1M(一百萬 token),配合底層架構的創新,在大幅降低長上下文計算與顯存需求的同時,保障了全上下文窗口的性能無損。
在這一規模下,開發者可以直接導入完整代碼庫、超長行業文檔、多輪項目檔案甚至百萬字級別的完整書籍進行端到端處理,無需額外搭建復雜的檢索增強生成(RAG)系統,大幅簡化了長文本處理的技術鏈路。
在底層架構上,Pro 版本采用了總參數 1.6T、激活參數 49B 的 MoE 架構,預訓練數據量達 33T,是對 DeepSeek 混合專家路線的全面深化。官方評測數據顯示,其在數學、STEM、競賽級代碼等核心推理測評中,超越了當前所有已公開評測的開源模型,達到了比肩世界頂級閉源模型的水平。
在 Agent 能力上,其交付質量已接近 Claude Opus 4.6 非思考模式,內部使用反饋優于 Anthropic Sonnet 4.5,成為了 DeepSeek 內部員工的主力 Agentic Coding 工具。
功能層面,V4 全系列兩個版本均同時支持非思考模式與思考模式,開發者可通過 reasoning_effort 參數自定義思考強度,同時全量支持 Json Output、Tool Calls、對話前綴續寫能力。
定價方面,Pro 版本同樣延續了高性價比路線,官方定價為:緩存命中的輸入 token1 元 / 百萬 tokens,緩存未命中的輸入 token12 元 / 百萬 tokens,輸出 token 定價 24 元 / 百萬 tokens,顯著低于海外同級別旗艦閉源模型。
API 接入也做到了極致低門檻,開發者無需修改原有 base_url,僅需將 model 參數替換為對應版本名稱,即可完成接入,同時兼容 OpenAI ChatCompletions 與 Anthropic 兩種接口格式。
這種「能力上探 + 成本下探」的組合拳,讓頂級的大模型能力不再是少數廠商的專屬資源。當行業內卷逐漸陷入參數軍備競賽的怪圈,DeepSeek 用全系標配百萬上下文、全鏈路開源開放的選擇,給大模型的普惠化,給出了一個全新的范本。
同時,DeepSeek V4 針對 Claude Code、OpenClaw、OpenCode、CodeBuddy 等主流 Agent 產品做了專項適配和優化,在代碼任務、文檔生成等實際場景中表現均有提升。模型的價值最終要在真實的開發和工作流程里被檢驗。
02
繼續開源,API 全量開放
DeepSeek 延續了開源路線,并直接全量開放 API 調用。
目前,DeepSeek-V4 的模型權重已同步在 Hugging Face、ModelScope 平臺開放下載,配套的技術報告也一并公開,支持開發者進行本地部署與二次開發。
與部分廠商「開源閹割版、閉源完整版」的行業慣例不同,本次開源的兩個版本,完整保留了與官方云端 API 一致的全量能力——包括非思考 / 思考雙模式、1M 超長上下文無損處理、Agent 專項優化與全量工具調用能力,無任何功能閹割。
這意味著,無論是中小創業公司、個人開發者,還是科研機構,都能零門檻獲取到百萬上下文、頂級推理與 Agent 能力的大模型底座,無需再為高端模型能力支付高額的閉源接口費用。
為了進一步降低落地門檻,DeepSeek 同步開源了模型微調、量化、推理加速的全流程工具鏈,完成了 vLLM、TGI 等主流推理框架,以及 LangChain、LlamaIndex 等主流 Agent 框架的 Day 0 原生適配,同時開放了國產算力平臺的全棧部署方案,讓開發者在不同硬件環境下都能快速落地應用。
與此同時,DeepSeek 也給出了清晰的模型迭代過渡方案:舊有的 API 接口模型名 deepseek-chat 與 deepseek-reasoner,將于三個月后(2026 年 7 月 24 日)停止使用,當前階段,這兩個模型名分別指向 deepseek-v4-flash 的非思考模式與思考模式,給開發者留出了充足的平滑遷移時間。
03
堅定做 AI「基建模型」
把這兩天的發布連起來看,一個趨勢很明確:各家都在加速 Agent 能力。
過去兩年,公眾和資本市場對大模型的關注,很大程度上集中在「聰明程度」,但現在已經轉向了「誰更能穩定地把事情做完」。GPT-5.5 的發布重點不在于多模態理解又提升了多少,而是它在 Agent 編程、計算機使用、知識工作等場景中的持續執行能力。騰訊混元 Hy3 的核心賣點也在于它在現實世界中的「行動能力」。DeepSeek V4 則直接把 Agent 能力和長上下文處理作為主打,目標明確地指向實際工作負載。
這種轉變的背后,是整個行業正在走向「模型效用」的競爭。現在,用戶和企業客戶越來越不關心你的模型在某項評測里排第幾,他們關心的是模型及產品到底能幫自己干好多少活兒:這個模型能不能幫我寫代碼、能不能處理復雜文檔、能不能在多步驟任務里不出錯、能不能以合理的成本跑起來。
![]()
圖片來源:DeepSeek 官網
在今天發布的文末,DeepSeek 引用了《荀子》里的一句話:「不誘于譽,不恐于誹,率道而行,端然正己」,繼續錨定了自己的技術路線。放在當下的大模型競爭語境下,這句話的意味很明確——不被外界的評價和噪音干擾,專注于把事情做對。
DeepSeek 過去一年多的行動,確實在踐行這個邏輯:用開源開放建立全球開發者生態影響力,用極致的性價比打破高端 AI 能力的使用壁壘,用扎實的底層架構創新解決開發者與企業用戶最真實的痛點。
從 R1 推理模型的橫空出世,到 V4 把長上下文能力第一次推向普惠區間,DeepSeek 一直在用一種相對「慢」的方式,做一件更難的事——把頂級模型能力,從少數人的工具,變成更多人可以直接調用的基礎設施。
*頭圖來源:GPT生成
本文為極客公園原創文章,轉載請聯系極客君微信 geekparkGO
極客一問
你怎么看這次 DeepSeek V4 的更新?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.