![]()
制約AI發展的最大瓶頸是什么?有人說是算力儲存這類芯片,也有人說是具體的落地場景,還有人說是算法的迭代升級……
這些是AI發展的影響因素,但如今最大的制約因素卻是電力能耗——有沒有足夠的電能支持AI發展將成為算力芯片潮之后的新瓶頸。
可以說,在未來,誰有足夠的電能或是誰能夠大幅度降低能耗,誰就能夠在AI賽道上取得先手,為此不論是國外還是國內,AI大廠們紛紛開始開源節流措施,讓自己在新的一輪電力競爭中獲得優勢。
【1】電力成為AI新瓶頸
“今年晚些時候,除中國外,可能出現芯片產能過剩卻無足夠電力驅動的情況。很快,我們生產的芯片將多到沒有足夠的電來運行它們。”
在今年3月舉辦的達沃斯論壇上,馬斯克向火熱的AI行業潑出了一盆冷水,制約AI發展的瓶頸不再是算力芯片,而是更為基礎的電力能源。
很多人沒有意識到,在大模型算力高速增長的背后,是AI功率和能耗的指數級增長。
2018年,Open AI訓練GPT-1時,訓練能耗約為0.1MWh,但在五年之后的2023年,Open AI訓練GPT-4時,訓練能耗直接翻了50萬倍,達到驚人的5萬MWh。
主要的原因是GPU芯片使用量的大幅度提升,訓練GPT-1一共只使用了 8–16 塊 V100 GPU,而到了GPT-4時,Open AI共調用了25000塊英偉達A100 GPU。
模型復雜化、算力芯片的暴增,直接帶來AI訓練能耗的指數級增長,其實AI對電能的吞噬,不僅是在訓練上,在B端、C端用戶的日常使用中,AI消耗的電能同樣超乎想象。
數據顯示:ChatGPT每天要響應大約2億個請求,這個過程會消耗超過50萬度電力,相當于一個小型工業園區的全天用電總和。
這還只是Open AI一家公司一款產品的電能消耗,整個AI行業已經成為全球電能最大的增量。
國際能源署報告顯示:2025年,全球數據中心總用電量達到0.65萬億度,中遠期全球AI數據中心的總能耗將達到4.3億度,超過當前美國4億度的全年總用電量。
![]()
更為關鍵的是,在AI行業電力需求呈現出爆發式指數增長的同時,全球發電量卻呈現3.3%的龜速增長。
美國能源部預計到2028年,每100度電,12度電都將被AI數據中心消耗。
而這樣的行業現狀也引起了大佬們的普遍擔憂,黃仁勛多次發出“電力掐住了AI的咽喉”“電網成了AI的新天花板”等警告性言論。
可以說,在未來幾年,AI的瓶頸不再是算力芯片,而是電能。
【2】加強發電中心建設
相比馬斯克、黃仁勛的呼吁,AI大廠們則更早地感受到了電力短缺帶來的影響:微軟CEO納德拉公開表示:因無法找到足夠的電力來運行倉庫中已有的 GPU,導致約800億美元的Azure 訂單無法履約;
OpenAI提交的報告中直接顯示:電力不僅僅是一種公用事業,更是一項戰略資產,對于建設人工智能基礎設施至關重要。
缺電已經成為海外AI巨頭們面臨的新挑戰,為此這些企業開始集體“開源”:
2025年10月,Meta俄亥俄州數據中心放棄電網接入,改由管道公司Williams建設天然氣發電站,從而保障數據中心所需要的電能;
11月,谷歌與道達爾簽訂長達十五年的可再生電力供給協議,屆時道達爾直接向谷歌位于俄亥俄州的超大規模AI數據中心供應電力;
3月9日,谷歌和特斯拉宣布組建“電網利用聯盟”,希望利用儲能、虛擬電廠等技術激活電網閑置容量,保障旗下AI業務的供電量;
3月12日,xAI獲得批準運行41臺甲烷燃氣輪機,為“巨像2號”數據中心的AI超級計算機供電;
可以說,在AI巨大的電力需求面前,海外AI公司都在自建電站自救,甚至在1月達沃斯世界經濟論壇上,馬斯克表示,要將數據中心放在太空上,通過太陽能發電滿足日益增長的能耗需求。
與國外AI巨頭面臨電荒,需要自建電網不同,中國AI企業則沒有相似的感受。
![]()
原因在于以下幾點:一是中國年發電量10萬億千瓦時的底氣;二是中國掌握了特高壓輸電等在內的整套核心專利和產業;三是通過產業布局,如“東數西算”工程、“算電協同”戰略,將算力中心布局在貴州、內蒙古等能源省份。
“中國在電的問題上,沒有必要像美國人那么焦慮,以我們今天的算力規模來看,中國現有的電力供給其實是相當充足的”,在接受媒體采訪時,中國工程院院士王堅表示,對于中國而言,電力從來不是AI發展的問題。
【3】降耗成為AI新常態
基于國內電網遙遙領先的水平,中國AI廠商不用擔心用電荒,但同谷歌、Meta等海外廠商一樣,也要面臨降低能耗的問題——為了降低AI不斷飆升的成本。
在當前情況下,為了保持發展,算力能耗不可能降低,所以多數企業將目標放在了散熱能耗中,據司庫財經了解,為服務器降溫散熱所需要的能耗,約占算力中心總能耗的40%。
“當AI訓練集群將功率密度推至40千瓦以上,相當于把20臺家用電暖器塞進一個冰箱大小的機柜同時烤火,產生的熱量幾分鐘就能燒開一浴缸水”,此前浪潮通信副總經理郭振君曾對媒體表示,服務器散熱比想象中的難度更大。
據了解,此前多數的服務器是風冷,即通過加裝風扇,通過空氣流動帶走熱量,但當服務器能耗功率小時,風冷尚能滿足服務器需求,而一旦功率飆升,因物理限制,風冷根本起不到散熱作用。
傳統散熱已經到了極限,而液冷則是將服務器浸泡到高比熱容的液體,空氣與液體在比熱容上的物理差異,液冷在AI服務器能效上有著天然優勢。
液冷與風冷有著巨大的差異,目前采用風冷的數據中心,能源使用效率為1.5左右,每用1.5度電,即AI數據中心在計算存儲時,每耗費1度電,就額外需要0.5度用于散熱冷卻。
![]()
而液冷在散熱能耗的表現上則呈現指數級的進步,以華為的液冷方案為例,浸沒式液冷能將能源使用效率提升至1.05,即AI數據中心在計算存儲時,每耗費1度電,用在散熱上的電量只需要0.05度。
從以上數據對比中不難看出,液冷的散熱能耗只有風冷的十分之一,這也意味著,能夠節省大量的成本——華為數據顯示:一個5萬臺服務器的數據中心,如果采用浸沒式液冷方案,一年能夠節省1.2億電費。
西南證券在一份研究報告中直接指出,AI對電力消耗越來越大,成本越來越高,再加上散熱這件事本身巨大的耗電量,因此成本更低、耗能更小的散熱方案將進入一個新時代。
高盛在一份報告中預測:2024年,液冷在AI訓練服務器領域的滲透率只有15%,但在2027年,將會飆升到80%。
可以說,在AI耗電不斷攀升、散熱處理難的大背景下,液冷尤其是浸沒式液冷正在成為行業的標配。
人工智能的發展正站在一個全新的十字路口。曾經,我們以為芯片是AI前進的唯一引擎;如今,電力正在成為新的天花板,散熱則成為破局的關鍵鑰匙。
相比之下,中國憑借強大的電力基礎設施、領先的特高壓技術和前瞻性的產業布局,在這場全球AI電力競賽中占據了獨特的先發優勢。但“不缺電”并不等于“無憂慮”,決定AI不僅有算力更要看經濟效益。
如果說,算力定義了AI的起點,那么對于如今的行業而言,電力與散熱將共同決定AI能夠走多遠。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.