![]()
作者林易
編輯重點君
中國云計算市場,正被AI注入一劑強心針。一度增長失速的云廠商們,找到了新的增長引擎,在AI IaaS、AI PaaS、MaaS開始新的競速。
其中,MaaS 作為大模型的實際負載,反映了大模型最真實、也最一線的市場水溫。大模型變革兩年半?今天怎么樣了?
這兩天,國際數據公司(IDC)發布了最新的MaaS中國市場格局——《中國大模型公有云服務市場分析,1H25》,有兩個關鍵結論:
- 一是,中國大模型公有云調用量迅猛增長。僅2025年上半年,總調用量就達到了536.727萬億Tokens。2024年全年,這個數字是114萬億Tokens。這意味著上半年,就比去年全年增長近400%。
- 二是,隨著MaaS這種商業模式逐漸成熟,市場需求正從模型訓練轉向模型推理,多模態模型和Agent應用是引爆市場的關鍵。
![]()
市場格局來看,火山引擎對外部客戶提供的大模型調用量位居中國第一,市場份額達到49.2%,占據中國大模型公有云調用量的近半壁江山。這延續了其2024年的強勁表現:去年,火山引擎市場份額為46.4%;截至今年上半年,其領先優勢進一步擴大。
事實上,火山引擎推出一方模型調用服務的時間并不算早。直到去年5月,火山引擎才首次對外提供豆包大模型調用服務。有意思的是,也是在那次發布會上,火山引擎總裁譚待就悄悄透露了火山引擎的MaaS戰略野心——“大的使用量,才能打磨出好模型,也能大幅降低模型推理的單位成本。”
彼時,豆包大模型主力模型將大模型推理成本從以分計價降到以厘計價。
一位大模型應用開發從業者向我們回憶了這個故事,DeepSeek-V2和豆包大模型把推理成本降低10倍以前,可以說中國沒有MaaS,億級人民幣的市場,一個通用的大模型API能否滿足企業多樣化的需求,都是問號。
“包括今年2月,火山引擎也是第一家推出DeepSeek-R1 API的云廠商。支持DeepSeek模型和直接上線DeepSeek API,這是兩種完全不同的選擇。而且在那之前火山方舟上只有豆包大模型API,當時直接上線DeepSeek API我很意外”,他說。
MaaS份額第一背后,字節對AI云的目標似乎從一開始就寫好了。
01 Tokens調用量,AI云的決勝高點
相較于直接售賣GPU算力,模型調用無論在營收規模還是利潤水平,都完全沒有可比性,最早頭部云廠商MaaS營收普遍只有億元級別。
但火山引擎一開始就把MaaS放到了戰略高度。一位云廠商從業者告訴我們,“火山引擎在MaaS上投入的資源很大,相比現階段的營收規模,完全是超額投入”,“人家可能就沒考慮過靠賣GPU算力賺錢,至少不是優先級”。
這可能與字節做云業務的進場時間有關,火山比同行晚了10年,按照傳統方式很難追趕。
火山引擎總裁譚待接受《晚點》的采訪時曾表示:“剛開始做火山的時候,管理層還給我布置了一個作業:想象一下十年以后的云,也就是 2030 年的時候,跟 2020 年有什么不同。”譚待想了很久,最終給出的答案是AI。
這讓火山在大模型到來時,足夠敏銳、果決堅定地錨定MaaS市場。
大模型公有云調用量越多,就能收到越多反饋:模型在企業場景里到底好不好用、哪里不好用、什么場景、什么性能不夠好,有了這些真實反饋組成的評測集,才能更快迭代模型。
更強模型、更低成本、更優性能——火山方舟一直以來的迭代方向,正是Tokens調用量的重要性所在,也是大模型時代AI云的規模效應。
這也是字節對AI云的戰略選擇:調用量越大,模型越好。
于是,火山引擎成為MaaS市場的點火人,錨定模型效果、成本、性能,持續優化,與MaaS市場一路共同成長。
![]()
IDC報告顯示的中國公有云大模型調用量月度環比增長中,顯示了兩個關鍵的增長拐點:
- 第一個是2024年7月,即豆包大模型技術降本全面發酵之后。在這之前的2024年5月15日,豆包大模型通過模型架構、推理框架等技術創新,將主力模型定價直接從行業的“分計價”拉入“厘計價”時代,降幅高達99.3% 。
- 第二個,則是2025年2月,DeepSeek-R1 推理模型全面爆火后,進一步加速了MaaS市場的滲透率,AI云負載從預訓練時代邁向推理時代。
可以說,豆包大模型與DeepSeek的爆紅,共同催生了中國MaaS市場。沒有人會懷疑AI應用爆發,MaaS市場還在高速增長,火山引擎的份額依然在擴大。
不過當市場被激活,競爭也迅速白熱化。2025年以來,所有云廠商都已重兵入局MaaS,這直接考驗各廠商的戰略定力。
02 為什么是“49.2%”?
對火山來說,為什么能持續擴大在MaaS上的優勢?我們認為與三個因素有關:戰略、技術和規模。
在字節的版圖中,大模型不是一個傳統云計算業務,核心目標是探索智能上限,同時火山引擎承載著字節技術能力的“外化”。據報道,2025年字節在AI上的三大目標是:探索智能上限、探索新的 UI 交互形式,以及加強規模效應。
豆包大模型在ToB場景的迭代,依托火山引擎的大模型調用,在這個目標下,火山要成為“最好的、原生的AI云”。
這包含模型和Infra的共同優化。
模型層面,豆包大模型家族在過去一年中快速迭代,目前已覆蓋文本、圖片、音頻、視頻、多模態等多個領域,各類模型均處于第一梯隊。
在被視為下一階段競爭焦點的多模態領域,火山引擎更是占據了領先身位。豆包大模型1.6、豆包·視頻生成模型Seedance 1.0 pro、豆包·實時語音模型、豆包·圖像創作模型Seedream 4.0等,多個大模型登頂Artificial Analysis。在全球盲測權威評測 LMArena 競技場,Seedream 4.0 的文生圖能力甚至超越最近大火的Gemini 2.5 Flash(Nano-Banana)。
這些多模態大模型有效加速了AI應用落地。例如在K12在線教育、智能巡檢等場景,視覺理解模型(VLM)的引入,帶動了Tokens消耗5個月增長12倍,并快速實現了日均百億Tokens的突破。
Infra層面,火山引擎MaaS平臺火山方舟以極致服務和先進技術為主要特點,能做到模型API在吞吐、并發、首字延遲、平均延遲、成本優化、資源保障、安全可信這些客戶可感知指標上,均為行業領先。
在算子層(算法優化)、系統層(PD分離),火山方舟也對模型進行了深度優化,包括:PD分離架構、KV-Cache緩存加速、自研推理加速引擎 xLLM、自研 vRDMA 網絡等。
大模型以來,技術主體正在從Web、APP到Agent的變遷中,這意味著開發范式將發生重大變化,Agent廣泛滲透需要全棧技術的重構。
在承接最多市場需求的推動下,火山引擎率先推出以大模型為核心、以生產級可用的復雜Agent為負載的AI云原生架構,幫助開發者屏蔽底層硬件差異和開發復雜性,直接從云端獲得高質量、低成本的 Tokens,加速企業Agent落地和業務創新。
最后規模上。云計算高固定成本、低邊際成本,規模決定一切,火山引擎的規模,來自“內外同源”機制。
在字節跳動內部,火山引擎的基礎設施團隊與服務抖音、廣告等海量業務的團隊是同一個大團隊。這意味著,在外部客戶提出需求之前,火山引擎早已在內部“練手”,它必須穩定支撐起推薦、廣告等超大規模的稀疏模型訓練 。
這種“內外同源”,讓火山引擎得以將在內部真實戰場上(In-house)驗證過的、最成熟的技術,近乎無損地“外化”為對外部客戶的服務。
03 AI云的馬拉松才跑500米
大模型的競爭還在早期。譚待曾用一個比喻來形容當前的AI競爭:“如果把AI發展看作一場馬拉松,可能現在才跑了500米”。
49.2%中國第一的份額,已經是當下市場對快速行動和戰略堅決的大模型廠商做出的選擇。而在Tokens調用量上的領先,也是火山引擎定義AI云標準和服務范式的勝負手。
眼下,火山引擎作為“你的下一朵云”,正在進化為“你的AI云” 。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.