大空頭伯里(Michael Burry)最近攪動了市場。但他持有的1萬份英偉達的看跌期權和5萬份帕蘭提爾的看跌期權,被幾份主流財經媒體夸大了。他做出了澄清,買了920萬美元的帕蘭提爾的看跌期權,而不是財經媒體報道的9.12億美元。1萬份英偉達看跌期權,市價大約1千萬美元,也不是媒體報道的1.87億美元。
伯里還亮出了自己的倉位,賭到2027年,英偉達和帕蘭提爾的股價,分別跌至110美元和50美元。不過伯里稱這些看跌期權他已經在上個月賣出。他還展示了已經從SEC注銷了他的Scion資產管理公司,不過正在籌謀再干一票大的。
![]()
伯里是電影《大空頭》的原型,曾在 2008 年金融危機前成功做空次貸。他這次是做空AI,今年他一直警告說,人工智能的熱情類似于 20 世紀 90 年代末的科技泡沫。他做空這兩家最耀眼的AI企業,其邏輯是所有超大規模的云廠商,都在通過延長 IT 資產使用年限來人為地提高利潤:在 2020 年,服務器和 GPU 等 IT 資產的會計使用年限通常是 3–5 年;而如今,這一數字已被延長至 5–6 年。英偉達和帕蘭提爾,正是這些云廠商的上游和下游廠商。
伯里在其X賬號上稱,超大規模數據中心(主要的云和人工智能基礎設施提供商)低估了折舊費用,它們“通過人為延長資產使用壽命來低估折舊,可以人為地提高收益——這是現代最常見的欺詐手段之一,”伯里寫道。“以2-3年的產品周期購買英偉達芯片/服務器,大幅增加了資本支出,本不應該導致計算設備的使用壽命延長,然而,這正是所有超大規模數據中心運營商的做法。”
伯里估計,從2026年到2028年,這種會計手段將低估約1760億美元的折舊,從而虛增整個行業的報告收益。他特別點名批評了甲骨文公司和Meta,到 2028 年,它們的利潤可能分別被高估了約 27% 和 21%。
![]()
從上表可以看出,各大云廠商對其 網絡與計算類資產(包括服務器、GPU、網絡交換機、存儲設備等)設定的折舊周期,2020年以來已經顯著延長,其中谷歌和微軟延長了一倍。
折舊年限直接影響利潤,折舊年限越短,每年分攤的折舊費用越高 ,當期利潤更低;反之,折舊年限越長,每年分攤的折舊費用越少 ,當期利潤更高。
伯里認為,這是企業人為拉高利潤的會計手段。難怪這些年硅谷的巨頭們業績這么好。原來是整個硅谷正在系統性地延長 GPU/服務器的賬面壽命;表面上是因為設備更可靠、壽命更長;實際上也具有顯著的 財務“利潤平滑”與資本效率優化作用。
這表面上是一個會計準則問題。根據公認會計原則(GAAP),當公司預先支付大額資產(例如半導體、服務器等)的費用時,可以將其成本分攤為年度費用,具體金額取決于公司對該資產折舊速度的預估。如果公司預估該資產的使用壽命較長,則可以降低每年計提的折舊費用,從而減少對公司利潤的影響。
實際上更為根本的,是科技企業在IT設備投資的技術和經濟邏輯。如果要深入剖析云端 GPU 資源池的真實經濟邏輯,必須關注一個近期被廣泛討論的話題:折舊(depreciation)。半導體研究咨詢機構Semianalysis,梳理了ChatGPT推出前后,科技企業的IT設備實際使用的情況。
回到 2020 年,當微軟、Meta、谷歌把資產使用年限從 3 年延長到 4 年時,我們仍處于 “ChatGPT 之前的第 2 年(2 BC, Before ChatGPT)”;而現在,在 “ChatGPT 推出后的第 3 年(3 AD, After Da Launch of ChatGPT)”,延長使用年限已被證明對資本開支(CAPEX)極其巨大的云廠商有利。
究竟 2020–2025 年間 IT 設備發生了什么變化?答案是:可靠性提升與商業激勵的變化。服務器 OEM(戴爾、超微、HPE、聯想、思科等)長期以來提供 3–5 年標準保修期;5 年保修價格更高,但也可購買 6 或 7 年的延保;成本上升的關鍵在于廠商是否能長期儲備備件,支持老舊節點的維修。網絡設備商(如 Cisco、Arista、Aruba Juniper)甚至嘗試過 終身保修(lifetime warranty);存儲廠商也提供類似模式——只需支付年度支持費,他們就持續更換老化的硬盤。可以類比汽車市場:高端客戶每兩年換一輛奔馳;而另一群人開著 20 年的舊車,只需加油與買保險。
從全球最大 HPC 系統可以看出趨勢:這些領先的超級計算機使用的是市場上最先進、最熱門、有時也是最節能的芯片。它們往往圍繞系統設計數據中心,而非相反。這些系統往往可連續運行 6–8 年。
![]()
在云市場上,AWS 仍在銷售含 8× V100 GPU 的 p3.16xlarge 實例;其他云市場(Shadeform、Prime Intellect、Runpod 等)通過 DataCrunch、Paperspace、Lambda Labs 提供類似服務。V100 于 2017 年 5 月發布,2017 年秋量產,2022 年 1 月英偉達停止發貨。也就是說,V100 的生產與備件周期長達 5 年以上,上市至今已運行 8 年,依然可用。
當然,如今的 V100 在 每兆瓦收入效率(Revenue-per-MW) 上已遠不如新卡;部分云廠商甚至拆除舊 V100、A100、乃至早期 H100 集群,為新一代 GPU 騰出功率與空間。但這并不是因為舊 GPU 老化報廢,而是因為新 GPU 收益率更高、功耗相同——屬于經濟性淘汰,不是物理壽命終結。
優化 GPU 云經濟性的關鍵在于最大化 GPU 的經濟壽命。根據 AI Cloud TCO(總擁有成本)模型,H100 集群的運行成本(不含資本支出)約為 $0.30–$0.40 / GPU / 小時;問題在于,5 年后,GPU 的收入能力是否仍高于這個運營成本?隨著英偉達推出更高效 GPU(每美元或每瓦吞吐量提升),老 GPU 的“定價權”會快速衰減。TCO 模型提供了長期 GPU 租賃價格預測(涵蓋英偉達、AMD、TPUv7/8、Trainium2/3 等),并通過歷史數據驗證其準確性。
對于 Azure 等云廠商而言,目標是保持 比市場平均更高的定價能力(pricing power)。可能的實現路徑包括:
通過企業客戶關系與垂直整合(PaaS、模型、應用)提高附加值,讓 6 年老 GPU 仍可獲利;
打包高利潤服務(如數據庫、分析等)與加速計算捆綁銷售,即使 GPU 本身利潤下降,也能通過聯動產品維持收益。
這樣,“可替換算力池(fungible fleet)”策略就有意義了:通過靈活調度與產品打包,使老 GPU 依然能產生正的投資回報率(ROIC)。
未來有兩種可能:如果 Vera Rubin 等新架構性能大幅躍升,伯里的擔憂可能成真——超級云廠商可能在 GPU 服役 2–3 年后就提前淘汰;但若 GPU 的長期收益與能效保持穩定,則老卡的價格底部(如 H100) 仍會穩住。從黃仁勛來看,它肯定是希望云廠商對GPU“買的越多,省的越多”,通過不斷提升GPU的計算效率來縮短云廠商的采購周期。
這些問題仍待驗證,但TCO 模型給出了當下最接近現實的估計。系統級創新(如英偉達 GB200 BVL72)在特定應用中能帶來數量級級別的能效與性能提升,這也解釋了為何硬件生命周期延長,反而可能是 GPU 云經濟性的關鍵基礎。
所以,云廠商之所以能延長IT設備折舊期,正是反映了技術進步、產品迭代、設備維護、企業管理方面優化,從而延長了硬件生命周期的實際情;在GPU供給短缺時,也滿足了需求; 云廠商也要考慮及時騰出寶貴的電力和空間,用來運行產出token更高效的新一代芯片。
最近谷歌人工智能和基礎設施副總裁兼總經理 Amin Vahdat ,也通過事實證明了這個道理。對TPU 的需求量過大,以至于谷歌云不得不拒絕一些客戶。谷歌目前有七代 TPU 硬件正在生產中,并且其“七八年前的 TPU 的利用率達到了 100%”。
不過伯里卻發出警告:將在本月25日,也就是ChatGPT發布3周年前,公布更多細節。
“走著瞧吧”。
參考:
https://newsletter.semianalysis.com/p/microsofts-ai-strategy-deconstructed?r=54gphk
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.