2024 年 3 月,中信建投發布研究報告指出,HBM 已成為 AI 算力體系中的關鍵內存瓶頸。彼時,這一判斷更多被視為技術趨勢的延伸,而不是產業格局的拐點。
![]()
但進入 2026 年,存儲行業給出了遠超預期的反饋。
美光 CEO 在年初明確表示,2026 年的 HBM 產能已被全部鎖定,行業正面臨結構性短缺。當前產能只能覆蓋核心客戶約一半至三分之二的需求,公司正在與客戶談判一種更長期、約束更強的供貨協議。這種做法在存儲行業并不常見,某種程度上意味著行業運行規則正在發生變化。
長期以來,存儲芯片被視為典型的周期品,價格波動接近大宗商品邏輯:供給擴張、價格下行、減產出清,周而復始。但 AI 正在改變這一循環。
HBM:從“性能配件”到系統核心
如果將 GPU 比作發動機,那么內存帶寬就是傳動系統。算力再強,如果數據無法快速流動,性能同樣會被嚴重限制。
隨著大模型參數規模持續放大,傳統 DRAM 架構已難以滿足需求。HBM 通過 3D 堆疊和超寬總線,將內存帶寬提升到 TB/s 級別,成為高性能計算不可替代的方案。
當前 HBM3E 帶寬已突破 1TB/s,下一代 HBM4 將進一步提升容量和帶寬。這一演進并非技術炫技,而是被模型規模和推理復雜度“倒逼”出來的結果。
一個直觀的變化是,顯存需求的增長速度,正在明顯快于算力本身。模型不僅需要存儲權重,還要在推理過程中不斷擴展運行時內存,這使得 HBM 從“高端配置”逐漸變為“系統瓶頸”。
需求側的變化,比技術本身更劇烈
相比技術進步,更深層的變化來自需求結構。
傳統數據中心主要存儲的是訪問頻率較低的“冷數據”,對延遲并不敏感。而 AI 場景下,存儲的是需要被高頻調用的“熱模型”。等待時間不再只是性能損失,而會直接轉化為算力浪費和商業效率下降。
這直接改變了云廠商的決策邏輯。為了確保算力持續可用,頭部云服務商開始通過長期協議提前鎖定高端存儲產能,將原本零散、周期性的采購,轉化為持續性的剛性需求。
存儲不再是可隨意替換的標準件,而逐漸演變為系統級資源。
供給端:寡頭結構下的產能約束
與需求快速擴張形成對比的是,供給端的彈性極其有限。
DRAM 行業經過多年整合,已高度集中于三星、SK 海力士和美光三家。HBM 作為 DRAM 中技術門檻最高的分支,其進入壁壘更高:
- 工藝復雜,良率爬坡緩慢
- 單條產線投資規模巨大
- 建設周期長,無法快速擴產
從設備采購到穩定量產,HBM 產線通常需要 18–24 個月。這種長周期使得供給端很難對短期需求變化做出快速反應。
因此,在 AI 需求集中釋放的背景下,產能緊張并非偶發事件,而是結構性結果。
存儲行業,正在出現“分層定價”
這一輪變化并未徹底消除存儲行業的周期性,但正在顯著拉開不同賽道的差距。
- 高端存儲(HBM)具備強定制性和客戶綁定,價格和毛利更具韌性
- 傳統 DRAM 和 NAND 仍然受整體周期影響
這意味著,行業正在從“統一周期”走向“結構性分化”。資本市場對存儲企業的估值,也開始區分其在高端存儲中的技術地位和客戶關系,而不再只看庫存和價格波動。
AI 時代,存儲的角色已經改變
這場由 AI 引發的存儲變革,本質上是算力體系重心的遷移。
過去,性能瓶頸主要集中在處理器;而現在,內存的帶寬、容量和功耗,正在成為限制系統效率的關鍵因素。內存從成本項,逐漸轉變為戰略資源。
短期來看,供需緊張仍將持續;長期來看,技術演進和產能擴張終會緩解壓力。但可以確定的是,存儲行業已經不再回到過去那種單一的周期運行模式。
在 AI 驅動的計算體系中,誰掌握內存,誰就掌握了效率的上限。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.