![]()
過去二十多年,中國互聯網的成功都有一套清晰的底層邏輯:
只要把服務器、帶寬、研發等固定投入鋪上去,后續每多一個用戶、每刷新一次頁面,幾乎不再增加任何成本。邊際成本接近于零,規模越大越賺錢,于是“先搶用戶、后賺錢”成了所有產品的共同玩法。廣告、電商、支付、金融……只要撐到足夠體量,盈利只是時間問題。
但到了大模型時代,這套行之有效的邏輯突然失效了。
一、AI 正在瓦解互聯網時代的商業定律
AI 的邊際成本不是零,它是真金白銀。每一次問答、每一段生成,都要重新跑一遍昂貴的 GPU 推理,燒掉顯存、電力、調度系統。而且這種成本沒辦法像互聯網那樣攤在廉價服務器上去稀釋——模型越強、推理越復雜、上下文越長,單次調用的成本就越高,幾乎沒有“規模效應”可言。
于是,一個和互聯網規律完全相反的現象出現了:產品越好、體驗越順、用戶越多,虧得越快。
ChatGPT 是最典型的例子。
OpenAI 目前約有 8 億用戶,但訂閱轉化率只有 5% 左右。絕大部分的算力消耗,都是免費用戶帶來的。在這種結構下,to C 業務的規模越大,算力成本越高,虧損也越明顯。按照業內測算,OpenAI 目前每月約有 4 億美元訂閱收入、6 億美元 API 與企業收入,總營收接近 10 億美元。但在 GPT-5 時代,其單月成本仍高達約 11.7 億美元,每月虧損約 1.67 億美元。
互聯網時代“規模帶來降本”的鐵律,到了 AI 時代完全被反轉。在中國,這個“AI 收入陷阱”體現得更直接、更激烈。
國內用戶在移動互聯網時代已被“免費心智”教育得非常徹底,對訂閱、會員、按量付費的接受度遠低于歐美。因此,為了搶用戶、搶心智,各家在早期幾乎都給到了最完整的體驗:不限次數、上下文拉滿、多模態直接開放。當產品的月活、日活升到千萬、上億的量級時,問題不再是“要不要再買幾臺卡”,而是“這條業務的單位經濟模型到底還能不能算得通”。哪怕把用戶價格提高一截,ARPU 也很難覆蓋掉人均算力消耗,更別提研發、運營和獲客成本。
這也解釋了,為什么你會看到許多 AI 產品一邊在前臺公布亮眼的用戶和收入數據,卻從不披露利潤情況,一邊還在后臺悄悄做各種“節流”。因為只要降不下來 10%、20% 的推理成本,這條業務就永遠跑不到盈虧平衡。
過去做資訊、做視頻、做社交,對成本敏感但不致命。當時的焦點永遠是增長、是留存、是變現。可對 AI 應用來說,算力成本幾乎是決定生死的單一變量。前端產品所有的焦慮,最后都會順著鏈路傳導到同一個地方:云廠商到底能不能把推理成本真正壓下去。
這就是 AI 時代的本質變量:在成本結構被顛覆之后,云計算行業第一次站在了產業鏈的“命門位置”,也第一次被推到臺前。
二、AI 的規模不經濟,正在反向創造云廠商的窗口期
大模型出現之前,中國云計算市場長期是一套相對成熟且穩定的秩序。
IDC 報告年復一年呈現相似結構:阿里云、華為云、運營商云、騰訊云牢牢占據頭部,市場高度集中,云計算競爭已經進入“重資產沉淀 + 政企大單鎖定”的存量階段。在這套規則里,誰更早鋪下機房、鎖定更多合同,誰就更難被撼動,因此新玩家很難通過傳統路徑破局。
![]()
國家數據局在今年 8 月披露的數字,是理解這一變化的關鍵線索:2024 年初,中國日均 Token 消耗量還只有約 1000 億;到了 2025 年 6 月底,這個數字已經突破 30 萬億。一年半增長超過 300 倍,這不是“增長”,這是整個社會第一次出現的“全民級 AI 使用負荷”。
![]()
Token 的激增同時也讓 AI 公司的經營邏輯暴露出前所未有的矛盾。AI 應用的用戶增長并不會自然帶來更好的利潤,相反,它會拉高推理成本。訂閱型收入、輕量廣告、會員制遠不足以覆蓋這類高強度推理開銷,導致AI 越火、虧損越明顯。
這種矛盾沿著技術鏈路一路下沉,最后全部壓到了基礎設施層:如果沒有足夠成熟的推理基礎設施,AI 應用規模越大,虧損越快。
傳統云計算的成本優化方式在這里完全失效。過去云廠商能夠依賴“平滑負載 + 多租戶攤銷”,業務高峰可預測,調度壓力也相對溫和;而面對 AI 場景,流量曲線徹底變成了另一幅圖景——熱點事件能在幾分鐘內推高調用量,晚上與白天的差異巨大,多模態任務帶來顯存與吞吐的極端波動。
在這樣的壓力之下,如果云廠商仍停留在“賣 GPU、按量計費”的思維,只提供算力而不優化推理效率,最終會陷入一種“營收增長但利潤被推理成本吞噬”的困境。這與 AI 應用本身的收入陷阱本質相同:規模越大,損耗越明顯。
也正是在這一背景下,中國云計算市場第一次出現了真正的增量領域——模型即服務(MaaS)。
企業不再選擇自建 GPU,而是直接使用云上模型;創業者把資源聚焦在產品和編排,而不是從頭訓練模型;to C AI 產品開始計算實時性、吞吐、成本之間的精確平衡。短短兩年間,MaaS 調用量、賬單規模、對低延遲和高 QPS 的要求,都被推到了一個遠超業界預期的高度。
在這股流量洪峰之中,火山引擎看到了一個過去不存在的突破口。
推理框架效率、KV cache 命中率、多模型路由、極端負載下的穩定性,這些在傳統云時代從未成為決定性指標,如今卻成為 AI 應用選型的核心。某種意義上,MaaS 是第一次讓云廠商在不依賴政企合同、不依賴基礎設施存量的條件下重新站到同一條起跑線上。
也因此,火山在過去兩年將敘事中心、產品中心、銷售中心全面向 MaaS 轉移,并不是“轉方向”,而是基于一個清晰的判斷:下一輪中國云市場的格局,不再由機房規模決定,而由誰能讓 AI 應用在云上真正跑得起、跑得穩、跑得不虧來決定。
AI to C 的收入困境,最終意外成為云廠商的重塑窗口期。
三、Gartner 的信號:中國云廠商第一次以“平臺形態”站到全球牌桌
Gartner 最新發布的AI 應用開發平臺的魔力象限,是云廠商轉變的另一條線索。
![]()
圖片來源于火山引擎官網
這張圖有兩個關鍵信號。
第一,Gartner 不再單獨評價某個模型,而是用“AI Application Platform”來觀察整個市場——在它的定義里,模型只是底層資源,真正被評估的是一整套能力:模型目錄、RAG/檢索增強、工具和 Agent 編排、推理效率、成本治理、安全合規、可觀測、網關與路由等等。企業要做的已經不是“接一個 API”,而是把 AI 當成長期基礎設施來建設。
第二,中國云廠商被整體放進了這張全球地圖。過去,國內更多被視為區域性 IaaS 提供者,而這一次,阿里云、騰訊云、火山引擎,都以“AI 開發平臺”的身份出現——說明在 Gartner 的視角里,中國廠商已經不只是“有云”,而是“有平臺”。
先看阿里和騰訊,它們代表的是兩種更“傳統云廠商”的演化路徑。
阿里云的優勢,很容易被行業共識到:模型能力扎實、Qwen 生態相對完善,長期經營的開發者群體和企業客戶基礎,為它做 AI 平臺提供了天然的土壤。從產品形態看,它在做的是“把原有云 + 大模型 + 開發工具慢慢收束成一套一體化平臺”,這條路子和海外幾家頭部云廠商比較接近。局限也很明顯:歷史包袱較重、產品線多,平臺需要時間去真正打通。
騰訊云則更多體現的是“穩”——它在政企、金融、運營商等高敏感行業里沉淀了大量安全合規能力,這種長期積累,在 AI 進入核心業務流程時會變得格外重要。與阿里相比,騰訊在模型和平臺上走得更保守一些,更新節奏沒有那么激進,但在那些“寧可慢一點,也不能出事”的場景里,它的可信度是資產。這種路徑不一定跑在最前面,卻很難被忽視。
如果再把華為云加進來,圖景會更完整。華為在算力、網絡、存儲等硬件基礎設施上有明顯優勢,在行業解決方案上也更偏“重型”,它看待 AI 的方式,更像是在既有行業場景中“增強一層智能能力”,而不是先搭一個通用 AI 平臺再向外輻射。這是一條偏“行業云 + AI”的路,節奏更慢,但可能在特定領域更完整。
在這三種路徑之外,火山引擎看起來有些“異類”。
從時間線看,它是這幾家里最年輕的一個,成立不過五年,卻在這次 MQ 中第一次被納入評估,并且在中國廠商中站在象限內相對靠前的位置。Gartner 把它同樣歸為 Challenger,但給出的標簽是另外一套敘事:火山引擎提供的是方舟這樣一個 AI 應用開發平臺,里面串起來的是豆包大模型、HiAgent、PromptPilot、veRL 等,強調的是 Agent 編排、Prompt 工程、強化學習框架,以及平臺層面對模型路由、治理和開發體驗的打包,而不是單一某個模型本身。
這背后隱含的是一種完全不同的出發點:
阿里、騰訊、華為是從“云”一路長到“AI 平臺”;
火山則是從“高強度 AI 負載”一路反推到“需要一套什么樣的平臺”。
字節系的內部場景,本身就是對延遲、吞吐、成本極其苛刻的一套綜合壓測:抖音的實時推薦與搜索、剪映與即夢的多模態生成、飛書的智能助手,再加上前文提到那些 ToC AI 應用本身的推理洪峰,構成了一個幾乎全天候高壓運行的環境。在這樣的環境下,推理框架、模型調度、緩存命中率、路由策略、資源利用率,不是“優化項”,而是能不能活下去的生存條件。
火山的對外平臺,本質上正是這套在內部被長期驗證的工程能力的外溢:先在自家業務里被逼著把成本結構和工程體系打磨到極致,然后再抽象出 MaaS 平臺和工具鏈,提供給外部開發者和企業使用。這和“先有云,再加 AI”的路徑,邏輯上是反過來的。
數據側同樣印證了這一點。IDC 的《中國大模型公有云服務市場分析(2025H1)》顯示,在面向外部客戶、按照 MaaS 層 Token 調用量統計的中國大模型公有云市場中,火山引擎的市場份額已經達到 49.2%,阿里云為 27%,百度智能云為 17%。也就是說,在前文提到的 536.7 萬億 Token 調用量里,接近一半是從火山的平臺上跑出來的。更早的 2024 全年數據則顯示,火山在這一細分市場的份額為 46.4%,一年內繼續抬升。這說明,在模型即服務這條新賽道上,它已經從“參與者”變成了必須被正視的“主角之一”。
(注:IDC數據不納入豆包、即夢等 C 端應用在平臺上的 Token 消耗。如果把這些“自用流量”考慮進來,火山在真實 AI 負載層面的份額,會比公開數字更高)
![]()
營收層面同樣在朝這個方向收斂。公開報道顯示,火山引擎 2024 年營收已超過 120 億元人民幣,增速超過 60%,并給出了 2025 年向 250 億元沖刺的目標,增速和體量在整體云市場中都處于較高檔位。
尾聲
如果把這些線索重新串在一起,會發現我們其實正站在一個很微妙的拐點上。
在舊世界里,大家相信的是“流量邏輯”——先把用戶規模做大,再慢慢找變現路徑,邊際成本會隨著時間自然攤薄;在新世界里,AI 應用一上線就要面對一個很殘酷的現實:每一次交互都對應一筆真實的推理開銷,規模不是自動攤薄成本,而是自動放大算力賬單。
正因為應用端被這種“收入陷阱”死死卡住,云廠商才第一次被推到了產業敘事的正中央。對所有參與者而言,接下來真正要回答的問題,其實都指向同一個核心:在一個邊際成本為正、Token 增長失控的時代,你能不能構建出一種既能承接規模、又能自洽盈利的基礎設施體系?
如果答案是不能,那么無論是好看的 DAU 曲線,還是激進的模型參數,都只是短期的煙花。
而如果答案是能,那么 AI 時代的“新云格局”,很可能就會從今天這些看似枯燥的工程細節和成本曲線里長出來。
參考文獻:
歡迎掃碼加群參與討論
我們相信認知能夠跨越階層,
致力于為年輕人提供高質量的科技和財經內容。
稿件經采用可獲邀進入Z Finance內部社群,優秀者將成為簽約作者,00后更有機會成為Z Finance的早期共創成員。
我們正在招募新一期的實習生
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.