全新系列模型 DeepSeek-V4 的預覽版本正式上線并同步開源。
4月24日,中國人工智能公司DeepSeek再度向開源社區投下重磅,其全新系列模型DeepSeek-V4預覽版正式發布并同步開源,在Agent能力、世界知識與推理性能三大維度宣稱達到國內及開源領域領先水平。
DeepSeek-V4分為Pro與Flash兩個版本,均支持百萬(1M)token超長上下文,即日起可通過官網chat.deepseek.com及官方App直接使用。
![]()
API服務同步上線,開發者將model參數修改為deepseek-v4-pro或deepseek-v4-flash即可調用,接口兼容OpenAI ChatCompletions與Anthropic兩套標準。
DeepSeek-V4-Pro:性能比肩頂級閉源模型
![]()
Agent 能力大幅提高:相比前代模型,DeepSeek-V4-Pro 的 Agent 能力顯著增強。在 Agentic Coding 評測中,V4-Pro 已達到當前開源模型最佳水平,并在其他 Agent 相關評測中同樣表現優異。目前 DeepSeek-V4 已成為公司內部員工使用的 Agentic Coding 模型,據評測反饋使用體驗優于 Sonnet 4.5,交付質量接近 Opus 4.6 非思考模式,但仍與 Opus 4.6 思考模式存在一定差距。
豐富的世界知識:DeepSeek-V4-Pro 在世界知識測評中,大幅領先其他開源模型,僅稍遜于頂尖閉源模型 Gemini-Pro-3.1。
世界頂級推理性能:在數學、STEM、競賽型代碼的測評中,DeepSeek-V4-Pro 超越當前所有已公開評測的開源模型,取得了比肩世界頂級閉源模型的優異成績。
![]()
DeepSeek-V4-Flash:更快捷高效的經濟之選
相比 DeepSeek-V4-Pro,DeepSeek-V4-Flash 在世界知識儲備方面稍遜一籌,但展現出了接近的推理能力。而由于模型參數和激活更小,相較之下 V4-Flash 能夠提供更加快捷、經濟的 API 服務。
在 Agent 測評中,DeepSeek-V4-Flash 在簡單任務上與 DeepSeek-V4-Pro 旗鼓相當,但在高難度任務上仍有差距。
結構創新和超高上下文效率
DeepSeek-V4 開創了一種全新的注意力機制,在 token 維度進行壓縮,結合 DSA 稀疏注意力(DeepSeek Sparse Attention),實現了全球領先的長上下文能力,并且相比于傳統方法大幅降低了對計算和顯存的需求。從現在開始,1M(一百萬)上下文將是 DeepSeek 所有官方服務的標配。
![]()
Agent 能力專項優化
DeepSeek-V4 針對 Claude Code 、OpenClaw、OpenCode、CodeBuddy 等主流的 Agent 產品進行了適配和優化,在代碼任務、文檔生成任務等方面表現均有提升。下圖為 V4-Pro 在某 Agent 框架下生成的 PPT 內頁示例:
![]()
API 訪問
目前,DeepSeek API 已同步上線 V4-Pro 與 V4-Flash,支持 OpenAI ChatCompletions 接口與 Anthropic 接口。訪問新模型時,base_url 不變, model 參數需要改為 deepseek-v4-pro 或 deepseek-v4-flash。
![]()
V4-Pro 與 V4-Flash 最大上下文長度為 1M均同時支持非思考模式思考模式,其中思考模式支持 reasoning_effort 參數設置思考強度(high/max)。對于復雜的 Agent 場景建議使用思考模式,并設置強度為 max。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.