![]()
2025年10月29日凌晨,英偉達GTC大會如期而至,CEO黃仁勛登臺發表重磅演講并展示了公司新款液冷AI服務器機架。繼去年GTC大會發布 B100GPU,“黃教主”宣布從 B100GPU開始未來所有產品的散熱技術都將由風冷轉為液冷后,再度掀起資本市場對于液冷概念的高度關注。
隨著算力需求的爆炸式增長,傳統風冷技術在滿足高密度算力設備散熱需求上的短板正在愈加明顯,液冷技術正成為高算力場景下解決散熱問題的必然選擇。
就近期市場表現來看,液冷概念股仍然十分活躍。11月5日,同飛股份收盤上漲13.4%,淳中科技盤中一度漲停,科創新源等多只概念股跟漲。
解構行業高成長性預期的底層邏輯
未來液冷行業高成長性預期的底層邏輯:芯片迭代、政策驅動與市場需求三大合力共振下的高確定性結果。
在AI大模型的訓練量與推理需求持續提升之下,對芯片性能的要求正越來越高,GPU這只“電老虎”也在越來越熱。
2020年,英偉達所發布的A100數據中心GPU的熱設計功耗(TDP)還僅為400W;而至集成度顯著較高的GB200系統級芯片,其TDP已高達2,700W。如果把A100視為一個溫熱的小火爐,GB200則已進化為了一個燙手的大烤箱。
而隨著單個芯片功耗的顯著提升,也進一步帶來了從服務器再到機柜功率密度的指數級提升。目前搭載GB200芯片NVL72單機柜的功率密度就已達120kW,而根據英偉達GPU路線圖,未來其RubinUltra架構下的單柜功率預計還將突破1MW。
驅動力之一:功率密度的爆炸式增長。再僅僅靠給芯片“吹風扇”已明顯不夠用了,天然物理瓶頸導致傳統風冷解決方案的天花板已至。
物理形態來看,由于空氣的密度低、且分子間的作用力弱,其導致了風冷系統的載熱能力一眼就望到頭。綠色節能組織TGG就已將每機柜15-25kW的功率密度,作為傳統風冷解決方案的建議值上限。
再高的話,僅僅靠給芯片“吹風扇”就已經吹不透也吹不冷了。而溫度過熱,輕則會導致GPU降頻、影響GPU使用壽命,重則還會導致整個數據中心宕機。Uptime Institute數據顯示,目前制冷系統故障率已超過IT系統,成為數據中心宕機的主因之一。
而相比之下,液冷解決方案則具有明顯的競爭優異。相同體積水的熱容量為空氣的4,000倍,熱導率是空氣的25倍。液冷解決方案很容易就能做到兩倍于風冷方案的功率密度容量,甚至可以實現將單機柜功率密度大幅擴展至200kW。
![]()
圖片說明:各大散熱解決方案閾值; 資料來源:西南證券
因此從技術路徑來看,液冷取代風冷,已是高算力場景下不可逆轉的趨勢。傳統風冷方案已力不從心,給芯片“泡澡”才是終極選擇。
驅動力之二:數據中心的降本增效需求迫切,而作為占比大、彈性高、給芯片“退燒”的相關制冷費用正是企業的重要抓手。
產業鏈下游的數據中心多面臨著增收不增利的結構性壓力。
據順為咨詢統計,2024年其所選取數據中心行業的10家標桿企業中達7家實現營業收入同比增長,但只有潤澤科技、數據港2家企業錄得凈利潤同比增長,且均為個位數增速。
從2025年半年報數據來看,潤澤科技也出現了凈利潤同比下滑,其中公司AIDC業務的毛利率水平同比驟降達16.73個百分點。公司同時表示,正在積極擁抱液冷技術,將持續擴大液冷部署規模,想必其也深刻認識到液冷對于盈利質量改善的重要作用。
電費——壓在數據中心企業頭頂的“大山”。
據統計,假設一家數據中心運營周期為20年,則其期間運營成本估算在初始投資成本的3至5倍之間。而在遠超初始投資的運營成本中,電費支出占比約高達60%—70%。
進一步深挖電費支出構成,拋開剛性的IT設備運行相關電費支出不談,制冷系統的能耗占比緊隨其后、已達到43%。
![]()
圖片說明:數據中心能耗分布情況; 資料來源:NIISA
Supermicro曾算過這樣一筆賬,以此前TDP尚還不高的英偉達H100芯片測算,在采用液冷解決方案后,一方面能夠使得單個GPU服務器的自身功耗從風冷的 7kW 降低至 6.3kW;另一方面,每個機架的PUE指標也將從1.5顯著降低至1.1。
兩者共同驅動下,扣減掉液冷方案3萬美元的初始實施費用后,單個機架運營3年就將為企業節省約6萬美元的電費開支。
![]()
圖片說明:液冷方案與風冷方案電費開支測算; 資料來源:Supermicro
另據伊頓數據顯示,大型數據中心的機架數量一般在3,000 個-10,000 個之間,我們假設以平均數6,500個進行進一步測算。采用液冷方案后,平滑計算其每年將為一個大型數據中心帶來的運營成本降低收益將高達約1.3億美元。
此外液冷還能帶來機房空間占用的減少、設備壽命的延長,同時考慮到目前芯片的TDP早已較高于H100芯片,實施液冷方案的整體收益規模還應遠遠不止于此。
驅動力之三:雙碳政策“緊箍咒”高懸,能耗指標要求使得液冷技術正從可選項轉變為必選項。
雙碳目標下,作為耗電大戶的數據中心已成為重點管控對象,而PUE(電能使用效率)則是衡量數據中心能效的核心指標。通俗來講,該指標就是用數據中心的總電費/算力相關的電費,PUE指標越接近1意味著其整體能源利用效率越高。
2024年7月,發改委等部門聯合印發《數據中心綠色低碳發展專項行動計劃》,其明確硬性要求在2025 年底新建及改擴建大型數據中心的PUE需降至 1.25 以內,樞紐節點的PUE更是不得高于1.2。
各地方具體的管控措施也在相繼紛紛出臺,并直接向高PUE指標的數據中心開刀。如上海便將能耗高的小散老舊數據中心納入產業限制和淘汰目錄,北京則是對PUE>1.35的數據中心執行差別電價。
而傳統的風冷技術的PUE一般在1.5-1.8之間,其遠遠達不到專項行動計劃所要求的1.2-1.25理想水平。政策硬性要求之下,液冷解決方案正成為各大數據中心的必然選擇。
分析完液冷行業高成長性預期的三大底層邏輯,我們再來看看權威機構的市場規模預計數據也同樣樂觀,液冷賽道正迎來高速成長的黃金周期。
據IDC數據顯示,2024年我國液冷服務器行業已展現出極強的爆發力,其市場規模已攀升至23.7億美元,同比高增67%。而2024年液冷服務器的滲透率仍然較低,行業高景氣度預計將長期延續。IDC預計,至2029年我國液冷服務器的市場規模有望沖擊162億美元,期間年復合增長率將保持在46.8%的高水平。
從技術路徑,看短期與長期投資邏輯的博弈
冷板式技術路線主導當下,業績增長的確定性更高。
手機游戲玩家經常遇到手機發燙、游戲卡頓的情況,其立竿見影的解決方案就是給手機裝上散熱背夾。而作為給AI服務器“退燒”的神器,冷板式液冷技術便類似于芯片的散熱背夾。通過金屬冷板與芯片緊密貼合,冷卻液在冷板內部管道流動,實現快速帶走發熱元件產生的熱量。
因其技術方案相對簡單直接、兼容性高,且對機房改造要求也較低,已成為目前液冷的主流技術路線。所以從短期來看,估值之家認為該技術路徑相關企業的業績受益度最高。同時,在細分賽道的參與者中,也值得更多關注技術壁壘較高、核心環節的龍頭企業。
就價值量拆解來看,冷板式液冷產業鏈各環節的價值分布呈現著核心部件價值突出的結構性特征。中信建投數據顯示,以GB200 NVL72機柜為例,其內部液冷系統的整體價值約為8.4萬美元。而其中,芯片所對應冷板的合計價值量約為3.6萬美元,占比達43%;冷卻分配單元(CDU)價值量約為3萬美元,占比達35.8%。
![]()
圖片說明:冷板式液冷價值量拆分情況; 資料來源:中信建投
浸沒式液冷代表未來,需關注技術方案演進所帶來的成本曲線優化。
未來隨著單機柜功率密度的進一步提升,一旦達到冷板式液冷技術閾值后,則預計將會是浸沒式液冷的天下。通過將服務器直接浸入絕緣冷卻液中進行散熱,其傳熱路徑更短,熱交換效率高,相變浸沒式液冷技術可將PUE降至1.1以下。
但浸沒式液冷技術的全面鋪開目前仍面臨著多項問題的掣肘。
首要問題就是不菲的初始投入成本。現階段應用較多的方案為臥式機柜,其顛覆了傳統的機架設計,導致其初始投資成本較風冷系統高出約50%-80%。由于項目回本周期被顯著拉長,使得下游企業的投入意愿不強。
同時,目前主流冷卻液為氟化液,但因生產門檻高,市場供應相對不足等原因,導致其價格昂貴。
另外,部分氟化液存在潛在毒性風險,使得運維難度大、專業性高,也進一步阻礙了浸沒式液冷滲透率的提升。
但值得注意的是,目前已有企業定制開發了改性硅油替代方案,其具有環保且成本較低的優勢,未來可持續關注該方案的推廣與落地情況,以及浸沒式液冷整體技術成熟度與產能增長規模效應提升所帶來的成本優化空間。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.