![]()
新智元報道
編輯:元宇
【新智元導讀】當巨頭瘋狂掃貨、分析師開始囤iPhone17,你的錢包、電腦和AGI的未來,正在被同一堵看不見的墻悄悄卡住。
100根高容量服務器內存,總價已飆升至400萬元!
一盒芯片相當于一套一線城市近郊的房產!
這瘋狂一幕背后,是整個科技行業正在面臨的一場史詩級危機。
2025年下半年以來,狂奔的AI行業并未如人們預期的那樣因算力爆發而起飛,反而一頭撞上了一堵看不見的墻——「內存墻」。
![]()
正如上面這位網友所言,2026年,可能不再是AI的「爆發之年」,而是「內存受限」之年:
2026年卡住AI脖子的,不再是我們熟知的算力或電力,而是內存容量與帶寬。
這一判斷并非危言聳聽。
花旗銀行的最新研報發出預警:2026年DRAM(動態隨機存取存儲器)平均售價同比或將上漲88%!
![]()
TechRadar近日的報道也佐證了這一趨勢:受AI數據中心無底洞般的需求驅動,DRAM價格預計在2026年3月將接近翻倍。
![]()
為什么內存這么重要?
DRAM好比是CPU/GPU臨時操作臺,是臨時「放數據、隨取隨用」的地方,模型越大,越需要更大容量、更高帶寬的DRAM。
如今,AI正在瘋狂吸干全球的內存產能。
數據顯示,單臺AI服務器的內存需求顯著高于普通服務器,疊加HBM/高容量 DDR5的產能傾斜,將原本分配給PC、手機的產能大量「吸走」,直接導致消費級市場的供給枯竭。
當OpenAI、谷歌等巨頭為了爭奪通往AGI的門票,以「價格不設上限」的方式瘋狂掃貨,甚至提前鎖死2026年產能時,代價最終轉嫁到了普通消費者身上。
你會發現:
你想買的那臺新電腦,價格不僅沒降,反而越來越堅挺;
手機處理器雖然年年換代,但體驗提升卻越來越不明顯;
愛折騰硬件的小伙伴突然發現,那兩根不起眼的內存條,竟然快要買不起了……
「內存受限」四個字,不僅是懸在科技巨頭頭頂的達摩克利斯之劍,還在悄悄掏空普通消費者的錢包!
分析師囤貨背后
一場全球性的「內存危機」
2025年下半年以來,存儲芯片價格如同坐上火箭,內存、閃存價格全面翻倍。
據TrendForce數據顯示,2025年9月以來,DDR5顆粒現貨價累計上漲約307%,部分媒體走訪稱,頂配高容量服務器內存單條價格更是突破4萬元。
![]()
這是什么概念?
手里捧著一盒100根的內存條(總價400萬),你就相當于捧著一套北上廣深近郊的房產!
與此對應的,是花旗銀行Citi的研究部門已經大幅向上修正了他們預測:
2026年DRAM的價格將暴漲88%,而此前的預期僅為上漲53%。
如此恐怖的漲幅背后,是一場由AI巨頭主導的、對全球存儲資源的瘋狂「搶奪」。
TechRadar報道稱,服務器模組正在像黑洞一樣,吞掉絕大部分晶圓產出。
原本留給PC、留給筆記本電腦的產能,被快速擠壓得所剩無幾。
![]()
TrendForce資深研究副總裁Avril Wu直接用錢包投票。
她告訴所有人:我一直跟大家說,如果你想買設備,現在就買。
甚至為了避險,她自己已經先買了一臺iPhone17。
提前囤貨一臺iPhone17,這看起來有點微不足道,背后卻是全球「內存告急」的信號。
全球存儲巨頭Micron傳出的消息也不容樂觀。
即便新的晶圓廠陸續投產,其CEO Sanjay Mehrotra也發出警告:目前只能滿足客戶需求的二分之一到三分之二。
這意味著,有接近一半的需求,拿著錢也買不到貨。
PC端的供應商也開始挑客戶,他們正在進行選擇性配貨,優先保障那些大型整機廠OEM,而壓縮給第三方模組廠商的供貨量。
這也就是為什么TechRadar預測,PC DRAM的合約價在2026年初可能會明顯上調。
這不是簡單的通脹,這是我們在為AI的發展,被迫繳納的一筆昂貴的「資源稅」。
致命剪刀差
被AI「吃掉」的內存
AI軍備競賽,讓我們正在目睹科技史上最夸張的「剪刀差」。
![]()
https://arxiv.org/pdf/2403.14123
根據加州大學伯克利分校一項有關「人工智能與內存墻」的論文研究提到:
由于前所未有的無監督訓練數據規模,再加上Scaling laws(神經網絡縮放定律),使得用于訓練和在線服務大語言模型(LLM)的模型規模和算力需求出現了爆炸式增長。
研究人員指出,訓練大模型所需的計算量最近以每兩年750倍的速度增長,遠超DRAM和互連帶寬的增長速度——后者每兩年僅分別增長1.6倍和1.4倍。
這種差距使得內存而非計算能力,成為AI應用(尤其是在推理場景中)的主要瓶頸。
過去20年里,人類芯片的算力峰值提升了整整60000倍。
但DRAM的帶寬僅僅提升了約100倍,互連帶寬增長約30倍。
這種極度的不匹配,將整個AI行業推入了一個「受限于內存」的死胡同。
![]()
科技咨詢公司Greyhound Research的CEO Sanchit Vir Gogia打了個比方:AI的工作負載,本質上就是圍繞內存來構建的。
這就好比你想用一根喝酸奶的細吸管,去吸干整個太平洋的水。
就算嘴巴(算力)再用力,水流(數據)也只有那么快,這種不匹配直接導致了一個極其昂貴的后果:空轉。
那些數萬美元一塊的H100或者B200 GPU的算力巨獸,大部分時間只能「發呆」和「吃灰」。
因為數據傳輸跟不上,處理器經常處于閑置狀態等待數據。
這就是典型的「內存墻」,而對于那些大模型公司來說,這無異于白白燒錢。
訓練一個大模型,往往需要3到4倍于參數量的內存,數據搬運的速度遠慢于計算速度,這直接主導了現代LLM的運行時間延遲。
所以,我們引以為傲的AI,其實一直戴著「內存受限」的鐐銬在跳舞。
撞上「內存墻」
除了貴,還帶來了什么瓶頸?
「內存墻」帶給個體的感知,可能僅僅是顯卡和電腦變貴,頂多是捂緊錢包,或者加緊囤貨就好了。
![]()
但它帶來的連鎖反應,卻成了困擾AI發展的瓶頸。
首先是能耗。
AI數據中心巨額的電費,其實也不是都花在了計算上。
在馮·諾依曼架構下,計算和存儲是分離的,數據需要在內存和處理器之間來回奔波。
有研究表明,從內存讀取數據消耗的能量,在某些負載/工藝假設下,數據搬運的能耗可能遠高于計算本身(甚至到百倍量級)。
也就是說,數據中心大部分的電,不是用來思考,而是用來把數據「搬來搬去」。
這不僅不環保,而且也造成了極度的浪費。
其次,是每個用戶都能感知的延遲與體驗下降。
為什么有時候ChatGPT處理長文本時會變慢、變卡?它不是算力不夠,它是被卡在了內存帶寬上。
AI模型要把海量的上下文塞進有限的顯存里,每一次推理勢必受限。
如果「內存墻」無法突破,更大參數量的AI模型,將因為無法在合理的時間和成本內完成訓練。
這意味著,即使我們可能擁有設計出超級智能的能力,但我們沒有足夠大的「容器」來承載它。
這勢必也會減緩AI創新的速度。
如何破壁「內存墻」
通往AGI,勢必要打破「內存墻」。
為了破壁「內存墻」,科技界也掀起了一場硬件和架構上的革命。
第一招,是硬件上的「暴力美學」,即HBM(High Bandwidth Memory,高帶寬內存)。
如果說傳統內存是在平地上蓋平房,那么HBM就是在芯片上蓋「摩天大樓」。
它利用先進的硅通孔(TSV)技術,將DRAM芯片像疊漢堡一樣垂直堆疊,蓋成一棟幾十層高的塔樓,并修通了成千上萬部「垂直電梯」直達處理器。
這是目前最直接、但也最昂貴的解決方案。
也正是因為要生產這些工藝極難的HBM「摩天大樓」,服務器模組像黑洞一樣吞噬了絕大部分晶圓產出,導致留給PC和手機的產能捉襟見肘。
以英偉達的H100、H200乃至Blackwell平臺為例,它們的設計哲學就是要把「堆HBM」做到極致。
第二招,是架構上的全新革命,比如CXL和PIM。
CXL(Compute Express Link,計算高速互連協議),它的思路很像共享單車。
以前,CPU和GPU的內存是各管各的,現在有了CXL,我們可以建立一個巨大的「內存池」。
CPU用不完的內存,GPU可以拿去用,打破了單機的容量限制,讓資源利用率最大化。
還有更徹底的PIM(Processing-in-Memory,存內計算)。
既然數據搬運那么費電,那么慢,我們干脆就不搬了,直接讓內存自己具備計算能力,數據在哪里,就在哪里計算。
這徹底顛覆了計算機幾十年來的工作方式,從根本上消滅了數據搬運這個能源、算力消耗大戶。
再回到「內存墻」。
TrendForce的預測顯示,2026年DRAM的價格走勢里,看不到任何「漲完回調」的跡象。
相反,PC和服務器DRAM似乎會在更高的價格區間穩定下來。
這意味著,無論是消費者還是企業,至少在中期內廉價、充裕內存和存儲時代已經終結。
對于AI巨頭的AGI競賽來說,誰能率先推倒「內存墻」,誰就有望率先拿到通往AGI的門票。
對于普通人來說,在未來很長一段時間里,購買電子產品都可能將承受更高的溢價。
所以我們還是像文中那位囤貨的分析師一樣:想買什么,趁現在吧。
參考資料:
https://x.com/rohanpaul_ai/status/2012964940714496069?s=20
https://arxiv.org/pdf/2403.14123%20
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.