當2025世界人工智能大會(WAIC)的7萬平方米展廳被3000余款AI成果填滿時,一個共識愈發清晰:算力不再是簡單的“參數競賽”,而是要像水電煤一樣,精準匹配千行百業的“用能需求”。在這場全球AI盛宴的H1館A105展位,樸賽帶來的兩款旗艦級AI服務器——PGI654-D08L與PGA644-D08L,正用“場景化算力”的思路,重新定義智能計算的核心邏輯。
![]()
雙平臺旗艦:Intel與AMD的“算力雙子座”
走進樸賽展位,最吸睛的莫過于兩臺并排放置的6U機架式服務器。它們看似相似,卻藏著兩套截然不同的“算力引擎”——這正是樸賽本次展出的核心:分別基于Intel和AMD平臺的雙旗艦,精準覆蓋不同場景的算力需求。
PGI654-D08L是Intel陣營的“性能猛獸”。它搭載第四/五代至強可擴展處理器,最亮眼的是支持8張600W三寬GPU——這意味著它能同時驅動8顆頂級算力芯片,像8個并行工作的超級大腦,輕松扛住千億參數大模型的訓練任務。32個DDR5內存插槽(最高8TB容量,5600MHz速率)則像一條超寬高速路,讓數據在CPU與GPU間流轉無阻。對于需要處理海量數據的科研機構或大型AI企業來說,12個硬盤插槽的“存儲彈性”更是關鍵——當訓練數據從TB級躍升至PB級時,無需更換服務器,只需擴容硬盤就能跟上節奏。
![]()
隔壁的PGA644-D08L則是AMD平臺的“效率專家”。基于AMD SP5平臺的它,更擅長平衡性能與能耗:支持8張450W雙寬GPU,24個DDR5內存插槽(6TB容量,4800MHz速率),默認配置10個SATA硬盤+2個NVMe SSD。這套組合看似參數稍遜,卻在“精準算力”場景中更具優勢——比如為中小科技公司提供大模型推理服務,或支撐云游戲的實時渲染,既不會因算力過剩造成浪費,又能保證響應速度。
這種“雙平臺策略”暗藏樸賽的行業洞察:如今的AI算力需求早已分化——互聯網巨頭需要Intel平臺的“極限性能”來訓練大模型,而中小企業更需要AMD平臺的“性價比算力”來跑推理;科研機構看重內存帶寬,游戲廠商則在意存儲速度。兩款服務器如同“算力雙子座”,剛好卡住了不同場景的需求痛點。
![]()
場景化算力:從“通用”到“定制”的破局點
在WAIC現場,不少觀眾圍著樸賽服務器的參數表討論:“8卡GPU不算新鮮,樸賽的核心競爭力到底在哪?”答案藏在“場景化適配”的細節里。
以AI訓練場景為例,當訓練一個千億參數的大模型時,數據需要在GPU間高頻交換,這對內存帶寬和穩定性要求極高。PGI654-D08L的5600MHz DDR5內存就像“超導電纜”,能減少數據傳輸延遲,讓8顆GPU協同工作時效率提升20%;而三寬GPU的散熱設計,則避免了長時間滿負載運行時的“降頻卡頓”——這對需要連續數周訓練的團隊來說,意味著能提前3-5天完成任務。
![]()
再看大模型推理場景。當用戶在手機上與AI助手對話時,每一次提問都需要推理服務器快速響應。PGA644-D08L的450W雙寬GPU更擅長“輕量高頻計算”,配合NVMe SSD的高速讀寫,能讓單條推理請求的響應時間壓縮到50毫秒以內(相當于人類眨眼時間的1/4)。某到場的智能客服企業工程師坦言:“我們試過用通用服務器跑推理,經常因延遲過高被用戶投訴,樸賽這種針對性設計的機型,剛好解決了我們的痛點。”
更值得關注的是“混合場景適配”能力。比如一家同時做自動駕駛訓練和車路協同推理的企業,白天可用PGI654-D08L訓練算法模型,夜間切換到PGA644-D08L處理實時路測數據——這種“一機多用”的靈活性,能讓算力資源利用率提升40%,這在算力成本高企的當下,無疑是企業的“降本神器”。
能效比革命:當算力進入“精打細算”時代
在WAIC的綠色計算論壇上,“算力能效比”成了高頻詞。當數據中心的電費占比超過硬件采購成本時,“高性能+低能耗”不再是加分項,而是生存必需。樸賽兩款服務器96%的電源能效比,在現場引發了不少數據中心運維人員的熱議。
“別小看這4%的差距。”一位來自華東某超算中心的負責人給記者算了筆賬:一臺AI服務器每天滿負載運行,電源能效從92%提升到96%,單臺每年可節省電費約1200元;若一個數據中心部署1000臺,年省電費超百萬。更重要的是,低能耗意味著散熱壓力減小,機房空調成本還能再降15%。“這就是為什么我們寧愿多花點錢買高能效機型——長期看反而是賺的。”
![]()
而0℃~35℃的寬溫設計,則讓服務器能適應更復雜的環境。對于邊緣計算場景(如工廠、礦區的AI監控),無需額外搭建恒溫機房,直接部署在工業環境中即可穩定運行。這一點,剛好契合了“AI向產業下沉”的趨勢——當算力從云端走向工廠車間、田間地頭,適應力就是核心競爭力。
從“賣硬件”到“造基建”:樸賽的13年算力積淀
在AI服務器賽道,樸賽算不上最“年輕”的玩家,但2012年成立的它,卻用13年時間磨出了“全棧能力”。從通用計算到智算服務器,從高校科研到智慧金融,其服務的客戶覆蓋了AI算力需求最復雜的多個領域——這種積累,讓它比純硬件廠商更懂場景,比互聯網大廠更懂硬件落地。
比如針對AI大模型訓練的“突發算力需求”,樸賽不僅提供服務器硬件,還能配套定制化存儲方案(最高十TB帶寬),避免“算力強但數據傳不動”的尷尬;針對中小企業的預算限制,其“分期擴展”設計允許客戶先買4卡GPU,后期再升級到8卡,用最小成本啟動項目。這種“硬件+服務”的模式,讓算力從“奢侈品”變成了“可按需采購的基建”。
![]()
在WAIC現場,樸賽展位的人流始終不斷。有科研人員拿著參數表追問內存擴展性,有企業IT負責人盤算著能效比帶來的成本優化,還有創業者在詢問邊緣場景的適配方案——這恰好印證了一個趨勢:智能時代的算力競爭,早已不是誰的GPU更多、參數更高,而是誰能像水電煤一樣,精準、高效、低成本地滿足每個場景的“剛需”。
當大模型、自動駕駛、工業AI的競賽進入深水區,樸賽在WAIC 2025展出的兩款旗艦服務器,或許只是一個開始。但可以肯定的是,那些能把“通用算力”轉化為“場景化能力”的玩家,終將成為智能時代的“基建運營商”,這或許是樸賽留給行業的啟示。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.