![]()
![]()
圖片由ChatGPT生成
外界對DeepSeek的期待正在變得更加具體而復雜:它能否重新證明自己的技術領導力?能否將技術勢能轉化為可持續的營收?甚至,能否用有限算力訓練出足夠強的“中國模型”?
文|《財經》研究員 吳俊宇
編輯|謝麗容
4月初,The Information報道稱,DeepSeek V4將在4月下旬發布,且會率先支持華為新一代AI芯片昇騰950PR。4月18日,The Information稱DeepSeek正與投資者洽談首輪外部股權融資,計劃以不低于100億美元的估值,募集不少于3億美元資金。
上述消息均未得到DeepSeek方面的確認。不過,《財經》從相關資本機構了解到,The Information目前有關DeepSeek的估值和融資規模的信息均不準確。
有關DeepSeek市場傳聞幾乎每個月都會有,但DeepSeek幾乎從來沒有回應。即便如此,這些信息仍然每一次都能引發市場的廣泛討論和關注。
DeepSeek很少像其他模型公司一樣及時公布自身業務進展。2025年1月DeepSeek-R1發布后,一度引發全球震動。此后一年,DeepSeek-V4/R2不斷被傳聞即將發布但一直沒有發布。DeepSeek也沒有高頻率推出新模型。
DeepSeek最新的模型是DeepSeek-V3.2,它在2025年12月1日發布。截至2026年4月20日,DeepSeek已有140天,也就是近五個月沒有發布新模型。
DeepSeek發布模型的頻率在主流模型廠商中幾乎是最低的。
據《財經》不完全統計,2025年12月1日-2026年4月20日,美國市場(OpenAI、Anthropic、谷歌Gemini)和中國(包括阿里千問、字節跳動豆包、騰訊混元、小米MiMo、DeepSeek、月之暗面、智譜、MiniMax)的11家主流模型公司,至少發布或迭代了50款模型,幾乎每2.8天就會有一款模型發布或迭代。
2025年初驚艷全球,被認為是“中國技術理想主義”范本的DeepSeek,如今也不得不面對一個殘酷的現實:其最新版本DeepSeek-V3.2在各項性能基準測試中已不再領先。商業化能力也是DeepSeek被外界討論最多的,它迄今為止仍然沒有開啟大規模商業化,但智譜、MiniMax、月之暗面等模型創業公司的營收都在快速增長。
DeepSeek正走到一個十字路口:到底是繼續堅持研究創新和技術突破,并保持低頻發布新模型;還是轉向更高頻的產品迭代與商業化,以應對越來越激烈的市場競爭?
在這種壓力下,外界對DeepSeek的期待也變得更加具體而復雜:它能否推出下一代旗艦基礎模型,重新證明自己的技術領導力?能否在商業化上邁出關鍵一步,將技術勢能轉化為可持續的營收?甚至,國產AI芯片生態尚不完善的當下,它能否用國產算力訓練出足夠強的“中國模型”。
這已不完全是一家公司的選擇,而是整個行業在特定時期對一家特殊公司的特殊期許。
![]()
![]()
![]()
DeepSeek-V3.2已經不再領先
由于五個月沒有發布新模型,DeepSeek的最新模型DeepSeek-V3.2在最新的基準測試中,性能并不領先。
國際市場調研機構Artificial Analysis截至4月20日的性能基準測試顯示,DeepSeek-V3.2的綜合性能、Coding(代碼生成)性能、Agent(智能體)性能分別處于全球第16名、第17名、第15名。它落后于OpenAI、Anthropic、谷歌Gemini、阿里千問、月之暗面Kimi、智譜GLM、MiniMax、小米MiMo等旗艦模型。
DeepSeek-V3.2的相對排名沒有超越去年初的DeepSeek-R1。
2025年1月20日發布的DeepSeek-R1,性能幾乎追平了當時OpenAI的o1(2024年9月12日發布)。它只落后3-6個月。且由于定價出乎意料的低,因此引發了全球轟動。
2025年12月1日發布的DeepSeek-V3.2,對標OpenAI的GPT-5(2025年8月8日發布)、Anthropic的Claude Sonnet 4.5(2025年9月29日發布)、谷歌的Gemini 3 Pro(2025年11月19日發布)。它在發布之初,性能就和這三款旗艦模型存在一定差距。
![]()
在發布之后的幾個月,DeepSeek-V3.2也沒有像其他模型一樣小步快跑、迅速迭代。
DeepSeek-V3.2在發布后的五個月內,OpenAI的GPT-5歷經四次迭代到了5.4版本。Anthropic的Claude 4.5系列歷經兩次迭代到了4.7版本。谷歌的Gemini 3 Pro迭代到了3.1版本。但DeepSeek-V3.2一直停留在原地,沒有發布新的版本號。這導致DeepSeek-V3.2和國際領先模型的相對差距被迅速拉大。
更關鍵的問題是,2026年是模型競賽的又一個拐點。由于Agent大爆發,Coding能力強弱幾乎直接決定了Agent的成本、效率和體驗。
2025年,模型競賽的核心還是推理能力,但這種差異往往表現為問題的回答質量。純文本問答,推理能力展現出來的差距并不明顯。
但Coding能力不一樣,它甚至對不寫代碼的普通用戶也很重要,因為Agent都是靠生成代碼來規劃并執行任務的。Coding能力強弱,直接決定了一項Agent任務的成功率、執行時間,以及Token消耗量。在多任務執行場景中,Coding能力的差異會被指數級放大,模型的體驗差距會變得很明顯(報道詳見)。
DeepSeek-V3.2在這個過程中,它被OpenAI、Anthropic、谷歌Gemini迅速拉開了差距。與此同時,月之暗面K2.5/2.6、智譜GLM-5/5.1、MiniMax 2.5/2.7等國產模型都在強化Coding和Agent能力,這導致DeepSeek-V3.2對比幾款國產模型都顯得相對落后了。
一位算法工程師和一位大模型創業公司人士對《財經》表示,前沿開發者在考慮AI代碼生成或是Agent任務成功率的時候,如果不在意價格,會優先使用OpenAI、Anthropic的旗艦模型。如果考慮性價比,會選擇月之暗面K2.5/2.6、智譜GLM-5/5.1、MiniMax 2.5/2.7等模型。DeepSeek-V3.2通常在純文本任務,比如AI角色扮演等對話場景中使用。
![]()
性能有差距,市場份額卻仍然領先
DeepSeek-V3.2的性能并不領先,但它的市場份額卻長期保持領先。
DeepSeek-V3.2發布后,它在全球模型聚合平臺OpenRouter上的Token調用排名長期位居全球前五。截至4月20日, DeepSeek-V3.2在OpenRouter月調用量仍然達到了5.35萬億,位居全球第三。近五個月(2025年12月1日-2026年4月20日),DeepSeek在OpenRouter上的調用量的市場份額長期處在5%-10%之間。
OpenRouter反映了前沿開發者和創業企業的偏好,它集成了300多個主流模型,每月Token(詞元,模型調用的基礎單位)消耗量超過50萬億。麻省理工大學數字經濟倡議研究科學家弗蘭克·納格爾(Frank Nagle)2026年1月的研究顯示,OpenRouter的Token消耗量占全球可統計Token消耗量約1%。
![]()
![]()
市場份額領先,這得益于DeepSeek-V3.2的定價在主流模型中幾乎是最低的。
DeepSeek-V3.2每百萬Tokens輸入/輸出價格是0.28美元/0.42美元,這是很多國產模型的10%-30%,是OpenAI、Anthropic、谷歌Gemini旗艦模型的2%-5%。
更重要的是,DeepSeek有著極強的生命力。即使是在未發布新模型之后的五個月,它各個版本的模型依舊在被開發者廣泛使用。開源是讓它具備如此強的生命力的關鍵因素。
模型開源,意味著可以免費在本地部署。而且,DeepSeek-V3.2使用了目前最寬松的MIT開源許可,它幾乎沒有任何版權約束,允許任何人進行商業或非商業使用,包括修改、再分發、銷售。這比阿里千問、月之暗面等開源模型采用的Apache2.0開源許可(有明確的專利授權框架,二次修改要說明修改內容)還要寬松。
對開發者來說,部署、使用、修改DeepSeek的模型幾乎沒有心理門檻,也不會有任何法律風險。這讓它像種子一樣,能夠被開發者擴散、播種并四處生根發芽。
OpenRouter數據顯示,20多款不同版本的DeepSeek近三個月(1月20日-4月20日)仍在不斷被使用,其中不僅包括DeepSeek-V3.2,還包括2025年發布的DeepSeek-V3和R1。
OpenRouter的統計信息還顯示,DeepSeek-V3.2正在被開發者廣泛部署在OpenClaw、Hermes這幾款今年流行的Agent工具中。DeepSeek-V3/R1則是仍然在被Janitor AI這樣的AI角色扮演應用使用。
![]()
免費、開源且版本眾多,這讓DeepSeek不僅在中國市場擁有巨大影響力,它甚至在全球發展中國家或地區被不斷擴散。
微軟人工智能經濟研究所2026年1月《2025全球AI采用情況》報告中指出,DeepSeek在北美、歐洲采用率較低,但在中國、俄羅斯、非洲地區份額迅速增長。DeepSeek在俄羅斯份額高達43%,在埃塞俄比亞份額接近20%,在非洲大部分國家或地區份額超過10%。
這份報告認為,DeepSeek在未被歐美AI產品充分覆蓋的市場迅速獲得影響力。它為數百萬人降低了AI的使用門檻。下一批十億級的AI用戶,可能會出現在發展中國家,并由開源創新所推動。
![]()
唯一沒有大規模商業化的模型公司
DeepSeek雖然市場份額龐大,但它一直沒有開啟大規模商業化。
36氪暗涌Waves 2024年7月曾在專訪DeepSeek創始人梁文鋒的報道中稱,DeepSeek是中國大模型創業公司中,唯一一家放棄“既要又要”路線,一直專注研究和技術的公司。也是唯一一家未全面考慮商業化,堅定選擇開源路線甚至都沒融過資的公司。
DeepSeek證明了開源可以迅速擴散模型、占領市場,但仍未證明開源可以支撐一家大模型公司的長期發展。在所有模型公司都在用大規模虧損換增長的階段,DeepSeek的商業化步伐仍然非常克制。
目前,DeepSeek公開的商業化路徑是,通過DeepSeek官網調用模型API(應用接口)。它沒有開放銷售Token套餐(Coding Plan或Token Plan),也沒有設置App訂閱付費門檻。
但通過DeepSeek官網API銷售模型這條路徑目前并不穩定。因為,對開發者來說,他們不一定需要通過DeepSeek官網調用模型。比DeepSeek算力充裕、穩定的算力服務商更多,開發者甚至可以自己在云上部署免費的DeepSeek。
DeepSeek的開源策略也是影響商業化的重要因素。因為開源等于是免費,主流云廠商(包括亞馬遜AWS、阿里云、字節跳動旗下的火山引擎、騰訊云等)都部署了DeepSeek的模型,卻不需要為DeepSeek付費或收入分成。DeepSeek從中無法獲得一分錢收入。
市場之所以關注DeepSeek是否要融資。一個重要原因是,一旦啟動融資,后續必然要關注投資者回報,大規模商業化幾乎將同步而來。這家公司將進入新的發展路徑。
今年3月,DeepSeek某高管在一次會議透露,外界關注DeepSeek商業模式落地和技術進程,DeepSeek其實一直在做很多努力和嘗試,也初步驗證找到了一些路徑。
目前,主流的模型公司幾乎都脫離了“純研究”的階段。美國市場,OpenAI、Anthropic,曾經歷以研究為主導的階段,但最終都轉向以產品和收入來支撐持續迭代。中國市場,月之暗面兩三年前一度也是另一個“技術理想主義”的范本,但它目前也在擁抱商業化。
一位月之暗面人士今年4月對《財經》表示,他們的API團隊正在快速擴張,目標是向具備付費能力的大型企業客戶銷售模型。《財經》了解到,月之暗面正在嘗試突破海外大客戶群體,且已經取得了全球最大的獨立AI代碼生成工具Cursor、知名金融支付平臺Stripe等關鍵客戶(報道詳見。
國內外主流的模型廠商幾乎都在大規模商業化,收入快速增長。從結果來看,追求商業化和追求模型性能提升并不矛盾。
![]()
![]()
美國市場,OpenAI 2026年2月ARR(年度經常性收入,當月收入×12)超過250億美元,預計2030年盈利。Anthropic 2026年3月ARR超過300億美元,預計最早將在2029年盈利。OpenAI和Anthropic均計劃在2026年-2027年上市。
中國市場,月之暗面2026年2月收入超過2025全年。界面新聞稱,月之暗面2026年3月ARR超過1億美元。MiniMax財報及財報電話會顯示,2025年營收0.79億美元(約合5.6億元),2026年2月ARR超過1.5億美元(約合10.5億元)。智譜財報及財報電話會信息顯示,2025年營收7.2億元,2026年3月模型API的ARR達到17億元,同比增長60倍。
不過,三家中國模型公司也在虧損。月之暗面虧損規模尚未披露。MiniMax 2025年經調整后的凈虧損2.5億美元(約合17.5億元),智譜2025年經調整后的凈虧損31.8億元。
DeepSeek不急于商業化的另一種可能性是——商業化本身并不等于商業正循環。兩家美國最大的模型廠商和三家中國模型創業公司目前都在大規模虧損。
![]()
市場期待國產AI芯片訓練的新模型
除了關注DeepSeek是否融資,市場關注的另一個問題是,DeepSeek的新一代模型是否會提前適配華為昇騰950PR等國產AI芯片,甚至是否會基于國產AI芯片完成訓練。
多位算法工程師曾對《財經》表示,DeepSeek相比月之暗面、智譜、MiniMax的一大優勢在于,它自建了AI Infra(AI算力基礎設施)。它的研究團隊有能力折騰模型訓練背后的算力集群等硬件基礎設施。但能不能靠國產AI芯片訓練出自己的模型,仍然是個未知數。
一位算法工程師對《財經》表示,DeepSeek的新模型適配國產AI芯片在預期內。因為模型推理對國產AI芯片來說并不是難點。幾乎所有中國模型公司發布新模型后,都會Day0適配包括華為昇騰、阿里平頭哥、百度昆侖芯、寒武紀等國產AI芯片。但如果DeepSeek能在國產AI芯片上從零開始訓練,并開源訓練工具和經驗,意義會大得多。
比如,訓練過程中算子適配、精度對齊、故障恢復、并行策略等工程經驗能被開源或公開,這將減少國產AI芯片訓練模型的踩坑過程。這將逐步減輕中國科技公司對英偉達的依賴,中國市場甚至有可能將另起爐灶一套新的生態。
英偉達創始人黃仁勛尤其關注這個動向。
今年4月17日,黃仁勛在和德瓦凱什·帕特爾(Dwarkesh Patel)的播客中直言,“DeepSeek在華為芯片上首發的那一天,對我們國家(美國)來說是一個可怕的后果。”他認為,美國對中國的芯片出口管制的后果是,這將把中國的AI生態推向華為等國產AI芯片,進而威脅美國AI技術棧的全球領導地位。
黃仁勛解釋,DeepSeek是開源的,它可以跑在任何芯片上。假設未來DeepSeek專門為華為的芯片架構優化,那會讓英偉達處于劣勢……更重要的是,當大模型擴散到全球范圍,且在非美國技術棧上跑得更好,這對我們是災難。
中國市場現在的局面是,主要模型公司(阿里、字節跳動、騰訊、小米、月之暗面、智譜、MiniMax)的核心訓練任務依然在用英偉達的芯片(如H800/H20等)。從零開始訓練一個全球領先的基礎模型,且被大規模使用和部署的完整工程路徑尚未被公開驗證過。
因為,模型訓練是個復雜的系統工程。一個基礎大模型,通常在數萬甚至數十萬枚AI芯片(如英偉達GB200/H200/H100)組成的算力集群上,進行數周甚至數月的不間斷訓練。
這個復雜系統,其中包括芯片與網絡的拓撲耦合、芯片故障恢復速度、編譯器能否把模型結構映射到硬件特性、電力與散熱的協同設計等一系列工程問題。在萬卡集群中,芯片、網絡、軟件隨時可能故障。集群規模越大,故障概率就越高。一旦故障,訓練任務就會中斷。這不僅浪費時間,還浪費算力。
![]()
利用英偉達之外的芯片訓練模型很難,但并非不可能。2025年之后,英偉達的生態裂縫正在變大。通過其他芯片訓練的模型越來越多,且性能越來越強。
谷歌用自研的TPU v5和TPU v6從零開始訓練出了Gemini 3 Pro,亞馬遜使用自研的Trainium系列芯片從零開始訓練了Nova 2。Anthropic的Claude系列模型也使用了谷歌的TPU系列芯片和亞馬遜的Trainium系列芯片進行訓練。
《財經》了解到,一些國產AI芯片(如昇騰910系列、百度昆侖芯三代、阿里平頭哥真武810E)也開始支撐了部分國產模型的部分訓練工作(報道詳見)。
但問題在于,這里面幾乎沒有一款模型是萬億參數規模以上,且被大規模商用的公開案例。而且,國產AI芯片的性能落后主流英偉達芯片兩代以上。國產AI芯片的軟件棧也不成熟,訓練的工程代價顯著高于英偉達。
大量中國工程師正在實際業務的錘煉中,為國產AI芯片寫算子(深度學習最小的可執行計算單元)、修Bug(程序錯誤)。工程師要把基于英偉達CUDA軟件生態的代碼,重新寫在國產芯片的軟件棧上,再把計算精度和英偉達的芯片對齊。算子適配和精度對齊,決定了究竟要花多少芯片、多長時間才能達到英偉達相同的效果。
一家計算機視覺企業的模型訓練負責人2025年11月曾對《財經》表示,他們2025年用英偉達某款芯片訓練了一款小參數視覺理解模型,后來嘗試用某款國產AI芯片復現,發現同樣能達成目標。只是訓練周期要長20%以上,綜合成本要高出一倍以上。
一位模型訓練工程師對《財經》表示,一篇頂會論文的開源代碼,在英偉達的芯片上大概率能一鍵復現,在TPU上需要改JAX(由谷歌開發的用于優化科學計算Python庫)代碼。但在Trainium或昇騰上,需要大量適配工作,包括算子兼容性調試、精度對齊、性能調優才能真正跑起來。
2025年初,中國市場的真實焦慮是,在芯片出口管制且缺乏充足算力的情況下,中國的基礎模型能否縮小和美國基礎模型的差距。這個問題的答案已經不言而喻——2026年,DeepSeek雖然沒有發布新模型,但月之暗面、智譜、MiniMax、小米MiMo輪番登上OpenRouter全球調用前三的位置。中國已經不缺便宜好用、性能不俗的基礎模型。
2026年,中國市場的新焦慮是,能否用國產AI芯片訓練出足夠強的國產模型,進而擺脫對英偉達的依賴。DeepSeek曾經在論文中披露稱,他們曾經“用2048張英偉達H800芯片組成的集群和558萬美元訓練成本”訓練出了DeepSeek-V3。這幾乎一度被認為是不可能完成的任務。
中國市場期待再一次突破。這種期待的情緒,落到了DeepSeek身上。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.