文 | 超聚焦
DeepSeek融資了,能讓大家敞開了燒Token嗎?
4月18日,據上海證券報消息,DeepSeek正式啟動了成立以來的首次外部融資,目標估值不低于100億美元,計劃籌集至少3億美元資金。上海證券報記者求證稱,有接近人士表示“很有可能”,還有不少投資人稱:“圈里信息已經‘炸了’。”
截至目前,深度求索公司方面尚未就此次融資消息作出官方回應。路透社表示無法獨立核實此消息,但在The Information發布報道后,Reuters、Yahoo Finance、Investing等主流財經媒體相繼跟進轉載。
在資本圈的狂歡之外,回歸到大模型落地的現實里,其實DeepSeek要面臨的問題不少,大家對其的期許也有不同。
相比R1模型發布時被捧上天,新一代旗艦模型發布前的DS顯然承擔著外界更大的期許和壓力;而比起跑分、SOTA,在Agent時代里,大家顯然更關注的是,DeepSeek當初在訓練端打出的“成本通縮”,能否重現于如今依然高昂的推理端?
01 市場不需要能力更強的R1
DeepSeek的新模型,已經“跳票”很久了。
1月中旬,The Information率先爆料稱,DeepSeek計劃在2026年2月正式發布下一代模型,并聲稱其編程實力已趕超Claude、GPT系列等頂尖閉源模型。然而整個2月,官方始終保持靜默。
到了2月底,隨著官方GitHub代碼庫中出現“MODEL1”等標識,加上金融時報等媒體和券商研報的發聲,市場又傳出了新模型將在3月6日當周發布的消息,結果依然是“只聞樓梯響”。
3月中旬,市場傳言又有相關流言傳出,甚至一度引發了A股算力板塊的上漲,針對該傳聞,DeepSeek官方企業咨詢賬號在用戶群中回應:“辟謠:R2發布為假消息”。
到了4月中旬,大家苦等不來新模型,但DS的前核心研究員卻選擇了加入其它大廠。
據晚點報道, DeepSeek研究員郭達雅已經加入字節跳動負責大模型研發的組織Seed,成為agent負責人之一。而此前其離職是因為當時DeepSeek內部Agent的優先級不高,但2026年Agent的火熱,也反襯出了DeepSeek在當下這個節點上的某種尷尬:
一邊是自己曾經“輕視”的賽道如今成了全行業的主戰場,甚至要被對手用自己的人才攻城略地;另一邊,卻是自己死磕并被外界寄予厚望的底層新模型,遲遲交不出答卷。
大模型圈在過去這一年里經歷了翻天覆地的變化,也許是時候放下對DeepSeek那層“無所不能”的技術濾鏡了。
畢竟在DeepSeek沒有發布旗艦模型的這一年多空窗期里,整個大模型行業比拼的早已不是通用的基座能力。
首先,是原生多模態對純文本大模型的降維打擊。
當Gemini帶著Nano Banana 2等模型在圖像生成與編輯上大殺四方,當Seedance 2.0在視頻生成領域狂飆時,單一文本模型的護城河正在被迅速瓦解。無論是行業競爭還是用戶需求,早已跨過了純文本跑分的階段,邁向了圖、文、視、音全面融合的深水區,成為了頭部大模型的標配。
另一邊,Coding市場也迎來了徹底爆發。
作為最能直接轉化為生產力的高價值垂直場景,AI Coding的商業化空間在過去一年迎來了真正的狂飆。以Claude為代表的模型在這個細分賽道上展現出了驚人的統治力,甚至借力將ARR超過了OpenAI;而Cursor最新一輪融資后的估值也超過了500億美元。
同時,2026年的Agent繁榮也帶來了Token消耗的狂歡。
從OpenClaw到Hermas,都在將大模型的調用頻次推向指數級增長。智譜、MiniMax、Kimi等廠商都憑借著海量的API調用狂賣Token,在推理端悶聲發大財,甚至還推動了阿里、智譜和MiniMax轉向閉源。
DeepSeek如果想要復刻R1發布時的“全網沸騰”,它面臨的早已不是單點突破的考卷,而是必須要在多模態、代碼生成、Agent生態上全面多線出擊。
但如今的每一條細分賽道上,都有了“最高的山峰和最長的河流”,多模態有谷歌和字節的重兵把守,代碼戰場是Claude絕對的天下,而在Agent與Token消耗的生態里,更是擠滿了紅了眼的其他多模型巨頭。
如果期望DeepSeek能掏出一個全知全能、在各個維度全面碾壓所有頂尖大廠的“六邊形戰士”,既不符合技術演進的常識,也違背了當下AI產業的客觀規律。
比起繼續沉溺于“拳打OpenAI、腳踢Claude”的技術造神敘事,對于眼下正在艱難算賬的整個AI應用層而言,大家真正迫切需要的,其實是一個遠比“跑分SOTA”更性感、也更具想象力的東西。
02 “價格屠夫”仍是DeepSeek的歸宿
當前所有AI使用者最需要的,也是DeepSeek最可能為市場帶來的,是一個叫“Token通縮”的故事。
一年前R1橫空出世時,它給整個全球AI圈帶來的最大“暴擊”,其實不單單是某幾項評測指標超越了GPT-4,而是R1真的太便宜了。
在全行業都篤信“大力出奇跡”,覺得只有像Altman、馬斯克那樣堆滿幾萬張老黃的頂級GPU才能訓練出旗艦模型,但DeepSeek僅用了約558萬美元的訓練算例成本,就撞開了頂尖基座模型的大門,相比之下,GPT-4訓練成本高達數億美元。
如此低廉的訓練成本在當時引起了AI算力市場的“恐慌”。
去年1月27日,DeepSeek發布其新AI模型后,美股市場出現了劇烈波動。其中,芯片巨頭英偉達股價暴跌16.97%,市值在單個交易日內蒸發了約5926.58億美元(約合人民幣4.3萬億元),創下美股史上最大單日市值損失紀錄。
![]()
除了英偉達外,其他美國科技巨頭也未能幸免。博通股價下跌17.4%,超威半導體公司(AMD)股價下跌6%,微軟股價下跌2.14%,谷歌母公司Alphabet股價下跌超過4%。
彼時,DeepSeek用一套極致優化的算法和工程架構向全行業證明:智能的獲取成本是可以被打骨折的,并在一年前創下了“訓練端通縮奇跡”。
市場普遍擔憂AI硬件基礎設施的泡沫是不是馬上就要破了?但一年多后的今天,大家發現根本不用擔心大廠還需要買多少卡,而是自己的錢包還能不能撐得起逐級而上的Token消耗。
據中信證券,Agent帶來的巨大Token消耗需求驅動了“老舊款”AI芯片H100租賃價格從2025年10月的約1.70美元/小時/GPU飆升至2026年3月的2.35美元/小時/GPU,漲幅近40%。
在云端,3月到4月間,國內頭部云廠商接連調價,打破了行業長期低價競爭慣性。阿里云4月18日起AI算力產品最高漲幅34%,高性能存儲漲幅30%;百度智能云AI算力產品上調5%-30%;騰訊云5月9日起AI算力等產品上調5%。全球范圍內,亞馬遜AWS已于1月對機器學習實例上調價格約15%,谷歌云也進行小幅調整。
![]()
為了降低Token消耗,巨頭企業也出現了組織架構上的變陣。
3月,阿里宣布成立Alibaba Token Hub(ATH)事業群,CEO吳泳銘親自掛帥,核心目標就是圍繞“創造Token、輸送Token、應用Token”來統籌AI業務。換句話來說,就是阿里看到了未來Token巨大的Token消耗,現在要從集團層面上來統籌調配Token了。
到了用戶端的體感就更加明顯,曾經那場免費送Token額度的“價格戰”早已鳴金收兵。
現在一個看似簡單的用戶指令,后臺往往伴隨著十幾次的循環反思、工具調用以及幾萬Token的上下文反復重載。而每個Token的消耗,都是在實打實地燒錢。
而巧的是,看起來過去一年里,DeepSeek也沒有停下來Token降本的步伐。
今年元旦假期,DeepSeek提出了一種名為mHC的新架構。該研究旨在解決傳統超連接在大規模模型訓練中的不穩定性問題,同時保持其顯著的性能增益,讓算力有限的中小AI企業,也能嘗試開發更復雜的大模型。
不久后,DeepSeek開源了名為Engram的模塊,并同時發布了與北京大學聯合撰寫的論文,闡述了一種新的大模型稀疏化方向:條件存儲(Conditional Memory)。
而這兩篇論文都體現了DeepSeek一直以來的方向:打破算力成本硬約束,通過架構、方法論創新,走出更具性價比的道路。
既然DeepSeek當初能憑一己之力,在訓練端把競爭對手們上億美金的訓練成本打到骨折價,打出讓英偉達一夜暴跌的通縮效應;那么一年后的梁文峰,又能否在Token消耗逐漸成為天量的現在,在推理端再當一次“價格屠夫”,把全行業的Token單價打個骨折呢?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.