![]()
2026年,將是AI服務器系統(tǒng)級升級的關鍵窗口期。
摩根士丹利在最新研報中稱,AI服務器硬件正在經(jīng)歷一場由GPU和ASIC驅(qū)動的重大設計升級。2026年,英偉達即將推出的GB300、Vera Rubin平臺和Kyber架構,以及AMD的Helios服務器機架項目,都會帶來更高的計算能力和機柜密度。
與之匹配的,將是更有效的電源解決方案、標配的液冷散熱方案以及更高要求的PCB和高速互聯(lián)。這場系統(tǒng)級升級,也將讓2026 年的 AI 服務器迎來“不可估量的貴”。
01
AI服務器,需求爆發(fā)
AI服務器需求還在持續(xù)上升。
大摩預測,僅英偉達平臺,AI服務器機柜的需求就將從2025年的約2.8萬臺,在2026年躍升至至少6萬臺,實現(xiàn)超過一倍的增長。與此同時,AMD的Helios服務器機架項目(基于MI400系列)也獲得了良好進展,進一步加劇了市場對先進AI硬件的需求。
![]()
當前,英偉達Blackwell平臺,特別是GB200芯片,是當前AI服務器市場的核心驅(qū)動力。
到了2026年,AI硬件從H00/H200時代,轉(zhuǎn)向NVIDIA的GB200/300(Blackwell平臺)及后續(xù)的Vera Rubin(VR系列)平臺所驅(qū)動的新周期。
芯片功率不斷突破上限。從H100的700W TDP(TDP:散熱設計功耗),到B200的1000W,再到GB200的1200W,直至2026年下半年登場的Vera Rubin(VR200)平臺,其GPU最大TDP將飆升至2300W,而2026年末的VR200 NVL44 CPX 更是高達3700W。
隨著GPU功耗逼近4kW,傳統(tǒng)風冷方案徹底失效,液冷成為唯一可行路徑。英偉達已在GB200平臺中將液冷作為標準配置,并與主要OEM廠商聯(lián)合開發(fā)定制化冷板接口,確保熱量能高效傳導至冷卻回路。
此外,供電系統(tǒng)也面臨重構。主流服務器廠商正從12V VRM向48V直流母線遷移,以減少轉(zhuǎn)換損耗并提升電源響應速度。這些變化意味著未來的AI數(shù)據(jù)中心將不再僅僅是“放滿GPU的機房”,而是一個集電力、冷卻、信號傳輸于一體的復雜工程系統(tǒng),其建設成本與運維難度將顯著上升。
這都是導致AI服務器 “變貴” 的原因。
02
AI服務器代工廠商,產(chǎn)能全開
隨著英偉達在下半年轉(zhuǎn)向Blackwell Ultra平臺的GB300/B300后,明年會再迎來迭代的Vera Rubin平臺所驅(qū)動的新周期。
![]()
從交付主體看,鴻海、廣達、緯創(chuàng)、緯穎四家具備NVIDIA Certified Systems認證資質(zhì)的ODM廠商,構成了當前GB200/GB300整機柜的主要供應方。其中,鴻海為首批完成GB200及GB300整機柜量產(chǎn)交付的廠商。
鴻海第三季度AI服務器機柜出貨季增幅度高達300%。整體來看,鴻海2025年AI服務器收入預計將超過1萬億新臺幣的目標,占據(jù)40%的市場份額。管理層預計GB200與GB300不會出現(xiàn)重大過渡問題,并表示GB300將在2025年下半年主導出貨。
![]()
近期,廣達、緯創(chuàng)及緯穎11月營收齊創(chuàng)單月歷史新高。廣達、緯穎營收分別達1929.47億元及968.85億元新臺幣,環(huán)比增幅分別為11.4%和6.2%。最新數(shù)據(jù)顯示,緯創(chuàng)表現(xiàn)最為突出,11月合并營收沖上2806.24億元新臺幣,環(huán)比增51.6%,同比增幅更高達194.6%。
大摩預計,11月單月GB200出貨量為5500柜,較10月成長29%。其中廣達出貨1000-1100柜、緯創(chuàng)1200-1300柜、鴻海約2600柜。
從2025年度GB200、GB300機架服務器各ODM廠出貨的市場占比來看,鴻海占過半的市場份額,高達52%;緯創(chuàng)約占 21%;廣達占約 19%;就產(chǎn)品別來看,GB200占比高達81%,GB300則約 19%。
分析預期,隨著英偉達新款GB300架構AI服務器進入出貨旺季,三家廠商本季業(yè)績有望齊創(chuàng)新高,推動全年營收交出至少年增五成以上的優(yōu)異成績。
03
產(chǎn)業(yè)鏈升級
今年9月下旬,英偉達GB300 AI服務器出貨。到了2026年下半年,Vera Rubin系列出貨,其中包括電源、散熱設計均與GB系列不同,這對于零組件廠來說是出貨重新洗牌的機會,也帶動了整個產(chǎn)業(yè)鏈的升級。
電源
隨著AI 工作負載呈指數(shù)級增長,數(shù)據(jù)中心的功率需求也隨之激增。以搭載NVIDIA GB200 NVL72 或 GB300 NVL72 的設備為例,需配備多達 8 個電源架為 MGX 計算及交換機架供電。若沿用 54V 直流配電,在兆瓦級功率需求下,Kyber 電源架將占用高達 64U 的機架空間,導致計算設備無安裝空間。而在 2025 年 GTC 大會上,NVIDIA 展示的 800V 邊車方案,可在單個 Kyber 機架內(nèi)為 576 個 Rubin Ultra GPU 供電;另一種替代方案則是為每個計算機架配置專用電源架。
傳統(tǒng)的54V 機架內(nèi)配電系統(tǒng)專為千瓦級機架設計,已無法滿足現(xiàn)代 AI 工廠中兆瓦級機架的供電需求。英偉達正將其電源供應策略提升至全新戰(zhàn)略高度,通過下一代Kyber平臺,將技術護城河從芯片算力延伸至整個數(shù)據(jù)中心的電力架構,意圖定義未來AI工廠的標準。
![]()
英偉達的AI服務器電源戰(zhàn)略“Kyber”正雙線推進,其量產(chǎn)目標設定在2026年底前,早于市場普遍預期的2027年。
據(jù)天風國際證券分析師郭明錤分析,Kyber項目的參考設計范疇已顯著擴展,不再局限于GPU與機柜層級,而是將整個數(shù)據(jù)中心的供電與基礎設施納入規(guī)劃,包括800 VDC/HVDC配電和固態(tài)變壓器(SST)的應用。也就是說,自Kyber世代起,電源架構的重要性在英偉達內(nèi)部已提升至與半導體同等的戰(zhàn)略地位。
據(jù)大摩預測,到2027年,為Rubin Ultra機柜(采用Kyber架構)設計的電源解決方案,其單機柜價值將是當前GB200服務器機柜的10倍以上。同時,到2027年,AI服務器機柜中每瓦功耗對應的電源方案價值,也將比現(xiàn)階段翻倍。
散熱
隨著數(shù)據(jù)中心CPU和GPU性能的不斷提升,其功耗也隨之激增,散熱成本上漲的趨勢非常明顯。
英偉達的液冷技術路線呈現(xiàn)清晰的漸進式升級特征。早期GB200采用單板單向冷板+風冷組合方案,冷板覆蓋CPU、GPU等高溫區(qū),風冷負責電源等低溫部件。新一代GB300全面升級為全冷板液冷方案,可穩(wěn)定應對1400瓦散熱需求。面向未來Rubin芯片的超高功耗場景,英偉達已布局兩相冷板液冷與靜默式(浸沒式)液冷耦合方案。
![]()
![]()
具體來看,英偉達GB300 NVL72機架級AI系統(tǒng),單單是液冷散熱組件的價值就高達49860美元(約合人民幣近36萬元),這已經(jīng)比GB200 NVL72系統(tǒng)高了大約20%。
有數(shù)據(jù)表明,下一代Vera Rubin NVL144平臺的散熱總價將更高。隨著計算托架和交換機托架的冷卻需求進一步增加,預計每個機柜的冷卻組件總價值將增長17%,達到約55710美元(約合人民幣近40萬元),其中為交換機托架設計的冷卻模塊預計價值將顯著增長67%。
高端PCB
AI服務器等硬件升級推動高端PCB需求激增。每一次GPU迭代,都伴隨著對PCB層數(shù)、材料等級和尺寸的更高要求。
當前,隨著服務器功能的增強和算力的提升,在一些功能板卡上,例如BMC(基板管理控制器)板卡、網(wǎng)卡以及PoE(以太網(wǎng)供電)卡上的用量都有所增加。在迭代趨勢方面,PCB的層數(shù)正向更高端發(fā)展,目前普遍已經(jīng)達到44至46層。
高端PCB正展現(xiàn)出巨大需求潛力。Prismark數(shù)據(jù)顯示,2025Q1全球PCB市場規(guī)模同比增長6.8%,其中高端HDI板和18層以上高多層板需求增速分別達14.2%和18.5%。目前,包括東山精密、滬電股份等在內(nèi)的頭部廠商正將新增產(chǎn)能傾斜至18層以上的高端品類。
更關鍵的是,PCB 產(chǎn)品的迭代不僅僅是數(shù)量層級的提升,更是價格的翻倍式增長,這將直接體現(xiàn)在利潤的大幅增加上。例如,從400G升級到800G或1.6T,PCB的價格不是增長20%或30%,而是成倍增長。
滬電股份表示,AI仍然是當前確定性最強的需求。從海外資本開支預期可看到云計算廠商正在爭相在 AI 基礎設施布局,2025 年 META、谷歌、微軟、亞馬遜資本開支分別同比增加 60%、43%、45%、20%,AI 服務器從以往的14~24 層提升至 20~30 層,交換機提升至 38~46 層,部分產(chǎn)品還會引入 HDI 工藝,行業(yè)附加值有望增長。
04
金主已備好“黃金”
云廠商們已經(jīng)做好了準備。在AI服務器需求增長與成本升級的情況下,全球主要的八大CSPs資本支出持續(xù)擴大,為“變貴”的AI服務器提供了需求支撐。
TrendForce集邦咨詢將2025年全球八大主要CSPs資本支出(CapEx)總額年增率從原本的61%,上修至65%。預期2026年CSPs仍將維持積極的投資節(jié)奏,合計資本支出將進一步推升至6,000億美元以上,年增來到40%,展現(xiàn)出AI基礎建設的長期成長潛能。
![]()
這里統(tǒng)計的八大CSPs包含谷歌、AWS、Meta、微軟、Oracle(甲骨文)、騰訊、阿里、百度。面對 AI 數(shù)據(jù)和云端需求的激增,谷歌把 2025 年的資本支出上調(diào)到 910-930 億美元;Meta 亦上修 2025 年資本支出至 700-720 億美元,并指出 2026 年還將顯著成長;Amazon(亞馬遜)則調(diào)升 2025 年資本支出預估至 1250 億美元。
2026年,AI服務器會變得不可估量的貴。從GPU功耗突破到液冷、供電、PCB 的全鏈條升級,再到代工廠產(chǎn)能與成本的同步提升,每一環(huán)都在推高最終價格;而CSPs的持續(xù)投入,又讓這場 貴價升級”有了堅實的需求基礎。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.