每經記者:岳楚鵬 每經編輯:高涵
從“算力時代”進入“推理時代”,AI對內存的需求激增,大幅提振了全球存儲公司業(yè)績和股價。
但谷歌的一篇文章,讓美國和韓國的內存巨頭市值一天蒸發(fā)了超900億美元(約合人民幣6200億元)。
當地時間3月24日,谷歌研究院(Google Research)發(fā)布了一篇介紹名為TurboQuant的向量量化壓縮算法的文章,宣稱在不損失準確率前提下,將大模型運行時的關鍵內存占用壓縮至3比特(原有內存占用的1/6)。
有市場觀點認為,這一算法將減少AI對內存的需求。
但也有分析師稱,市場的反應說明,很多人對技術“一竅不通”。
谷歌發(fā)布新算法,存儲巨頭市值蒸發(fā)逾6200億元
當地時間3月24日,谷歌發(fā)布名為TurboQuant的內存壓縮算法。谷歌方面表示,TurboQuant可以在不損失準確性的情況下,將大型語言模型運行時的關鍵部分——鍵值緩存(KV Cache)的內存占用減少為原有的1/6,同時在英偉達H100GPU上的特定測試中,性能可提升高達8倍。
這一消息迅速觸發(fā)市場重估邏輯。
富國銀行分析師Andrew Rocha認為,這項技術可能影響未來對內存容量規(guī)格的需求判斷。他在報告中寫道:“市場很快就會重新評估,AI究竟還需要多少內存容量。”
當地時間3月25日,即消息發(fā)布后的第一個美股交易日,存儲芯片板塊在盤中集體跳水。閃迪(SanDisk)股價一度大跌6.5%,收盤時跌幅收窄至3.5%,市值損失36.3億美元。同日,美光科技(Micron Technology)下跌3.4%,市值損失151.66億美元;西部數據(Western Digital)下跌1.63%,市值損失16.64億美元;希捷科技(Seagate Technology)下跌2.76%,市值損失21.4億美元。
![]()
負面情緒迅速擴散至亞洲市場。3月26日,韓國SK海力士股價下跌6.23%,市值損失44.18萬億韓元(約合293.8億美元);三星電子也下跌了4.71%,市值損失57.83萬億韓元(約合384.5億美元)。
![]()
全球主要內存巨頭市值損失合計超900億美元(約合人民幣6200億元)。
直擊大模型“成本痛點”:KV緩存占用減少83%
TurboQuant引發(fā)震動的核心,在于其精準擊中了大模型的關鍵成本痛點——KV緩存(Key-Value Cache)。
在大模型推理過程中,模型需要保存歷史上下文信息形成KV緩存,以避免重復計算。但隨著上下文窗口增長,KV緩存呈線性膨脹,占用大量GPU內存。
例如,一個700億參數模型在512用戶、2048 Token輸入場景下,僅KV緩存就需約512GB內存,約為模型本體的4倍,已成為商業(yè)化部署中的最大成本之一。
傳統解決方案是“量化”,即用低精度數據替代高精度浮點數,但往往犧牲準確率,且還需額外存儲量化參數,抵消部分壓縮收益。
TurboQuant通過兩步優(yōu)化解決這一問題。
第一步,利用名為PolarQuant的方法,將數據從笛卡爾坐標轉換為極坐標,類似于“向東走3米,向北走4米”的指令,簡化為“以37度角走5米”。通過隨機旋轉讓數據分布可預測,從而無需額外量化參數,直接減少內存開銷。
第二步,再利用名為QJL(量化約翰遜-林登施特勞斯變換)的技術,用僅僅1個比特來修正第一步壓縮后產生的微小誤差,確保最終結果的準確性。
![]()
谷歌表示,通過該組合方案:
◆KV緩存可壓縮至3比特,內存占用減少為原有的1/6(降幅約83%);
◆在Gemma、Mistral等模型測試中,性能與未壓縮模型一致,無需額外訓練或微調;
◆在NVIDIA H100測試中,4比特TurboQuant注意力計算速度達到32位未量化的8倍。
![]()
華爾街激辯:節(jié)省緩存等于減少內存總需求嗎?
盡管市場短期劇烈反應,但機構觀點明顯分化。
首先,這項技術并非首次披露,相關論文早在2025年4月已公開。
其次,有分析指出,谷歌所謂的“8倍性能提升”是與32位未量化模型對比得出,而當前主流已普遍采用4位量化,實際提升或低于宣傳值。
![]()
市場分析機構Citrini Research分析師Jukan直言,因TurboQuant導致內存股暴跌,反映出市場對技術“一竅不通”,就像豐田推出混動發(fā)動機卻讓石油公司暴跌一樣。
摩根士丹利則指出,TurboQuant技術的影響范圍是有限的。它僅作用于推理階段KV緩存,不影響模型權重,也不涉及訓練環(huán)節(jié)。因此,這并不意味著整體存儲需求下降到原來的1/6,而是提升單位硬件效率,讓相同的硬件能處理更長的上下文或服務更多用戶。
此外,摩根士丹利援引“杰文斯悖論”(Jevons Paradox),該理論認為,效率提升往往不會減少資源消耗,反而會因成本下降而刺激需求增長。就像瓦特改良蒸汽機提高了煤炭燃燒效率,結果卻是全球煤炭需求量的飆升一樣。摩根士丹利認為,通過大幅降低單次查詢的服務成本,TurboQuant能夠讓原本只能在云端昂貴集群上運行的模型遷移至本地,有效降低AI規(guī)模化部署的門檻,這可能反而能進一步提振整體需求。
Cloudflare首席執(zhí)行官Matthew Prince將TurboQuant稱為谷歌的“DeepSeek時刻”。類似情況曾在DeepSeek發(fā)布時出現:市場一度擔憂算力需求下降,但最終AI應用爆發(fā),反而推高硬件需求。一開始下跌的英偉達后來再創(chuàng)歷史新高。
從行業(yè)規(guī)律“內存帕金森定律”來看,TurboQuant節(jié)省的內存不會閑置,而會被迅速消耗:每一輪硬件升級或軟件優(yōu)化釋放出來的存儲余量,很快就會被更長的上下文窗口、更大的批處理規(guī)模、更復雜的推理需求所吞噬。換言之,節(jié)省下來的空間將被用于服務更多并發(fā)請求、處理更長的文檔,或者運行原本因內存不足而無法加載的大模型,甚至可能推動更強大的AI應用在手機等移動設備上成為現實。
免責聲明:本文內容與數據僅供參考,不構成投資建議,使用前請核實。據此操作,風險自擔。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.