![]()
新一代AI工廠旨在實現更快速的并網上線,并作為參與者在電網中協同運行。
英偉達(Nvidia)和Emerald AI表示,他們正與包括AES Corporation、Constellation Energy、Invenergy、NextEra Energy、Nscale Energy&Power以及Vistra在內的多家美國主要電力生產商聯手,共同開發新一代“AI工廠”。這些工廠旨在實現更快速的并網上線,并作為積極的參與者在電網中協同運行。
此舉反映了行業內更廣泛的趨勢,即努力將人工智能基礎設施的快速擴張與美國日益緊張的電力系統現狀相協調。通過整合計算、發電和電網管理,這些企業旨在建設一種新型數據中心:它們不僅消耗海量電力,還能根據電網狀況做出動態響應。
該計劃的核心是英偉達的Vera Rubin DSX參考架構及其配套的DSX Flex軟件,這使得大規模AI設施能夠與電網服務進行交互。這種設計允許所謂的“混合AI工廠”在初期依賴于同址發電和電池儲能(鑒于電網并網周期漫長,這通常是必不可少的),隨后再過渡到更靈活的角色,即在需要時向電網反向輸電。
此類設施有助于加速AI基礎設施的部署,同時緩解現有電網的壓力。這些公司表示,即使是沒有配備專用現場發電設備的AI工廠,也能通過實現更快速、更大規模的電網接入而從該架構中獲益。
Emerald AI的Conductor平臺旨在協調計算工作負載與現場能源資源(包括電池和表后系統),使運營商能夠在不犧牲性能的前提下實時調整功耗。這些公司指出,這種靈活性有望縮短對臨時“過渡電源”的依賴,降低基礎設施成本,并提升整體電網的穩定性。
英偉達首席執行官黃仁勛(Jensen Huang)表示:“AI工廠是智能時代的引擎。”他補充道,未來的系統必須將計算、能源、網絡和散熱整合到單一架構中。Varun Sivaram則表示,此類設施不應被視為被動的電力負載,而應作為既能創造經濟價值又能為電網提供支持的資產。
解決電網瓶頸與行業痛點
這一計劃出臺之際,正值AI數據中心的用電需求激增,暴露了美國電網在結構上的低效問題:該電網雖然是為滿足用電高峰而建,但在大部分時間里卻處于未充分利用的狀態。這些企業預估,通過更高效地利用現有資源并有選擇地增加新增發電量,更具靈活性的AI基礎設施有望釋放高達100吉瓦(GW)的額外容量。
參與該項目的主要能源合作伙伴表示,他們將具備靈活性、能夠響應電網調度的AI設施視為一種在不導致系統超載的前提下滿足日益增長的需求的有效途徑。通過將龐大的計算負載與自適應的電力調度及新增發電產能相結合,他們的目標是在保障可靠性的同時,加快項目的推進速度。
這種模式還緩解了行業內日益加劇的供需矛盾。為了避開漫長的電網接入審批,許多大型AI項目紛紛轉向自建現場發電設施;然而,將這些資源完全與外部隔離會導致效率低下并推高長期成本。這些公司認為,采用混合模式能夠讓這些電力資產既服務于AI工作負載,又能惠及更廣泛的電網。
在過去一年中,英偉達和Emerald AI已在全球多個數據中心對這些理念進行了測試。他們預計將于今年晚些時候在弗吉尼亞州的一處AI研究設施中進行DSX Flex系統的商業化規模部署,該設施計劃成為首批基于Vera Rubin平臺打造的具備全面電力調節能力的AI工廠之一。
這些公司表示,他們計劃在未來的項目中進一步推廣該模式,以加速AI基礎設施的部署,提升電網韌性,并將能源與計算投資所產生的經濟效益惠及當地社區。
英偉達將在2027年底前向亞馬遜出售100萬顆GPU芯片
英偉達一位高管表示,到2027年,英偉達將向亞馬遜的云計算部門出售100萬顆圖形處理器芯片,以及一系列其他產品。英偉達和亞馬遜網絡服務(AWS)本周宣布,AWS已達成協議,將購買英偉達的100萬塊GPU,但并未透露交易的具體時間。英偉達超大規模和高性能計算副總裁伊恩·巴克周四稱,銷售將于今年開始,并持續到2027年。
就在同一時期,黃仁勛表示,該公司預計其Rubin和Blackwell系列芯片的整體銷售機會將達到1萬億美元。英偉達和亞馬遜并未披露交易的具體財務條款。但巴克告訴路透社,此次交易除了100萬塊GPU外,還包括英偉達的多種芯片,例如Spectrum網絡芯片和Groq芯片。Groq芯片是英偉達在去年底與一家人工智能芯片初創公司達成170億美元的授權協議后,于本周發布的。具體來說,AWS計劃使用英偉達的Groq芯片以及英偉達的其他六款芯片,以實現更高效的推理。推理是指人工智能系統代表用戶生成答案和執行任務的過程。
“推理很難,難得要命,”巴克稱。“要想在推理方面做到最好,并非只靠一個芯片就能完成的。我們實際上要用到全部七個芯片。”該協議還包括在AWS數據中心部署英偉達的Connect X和Spectrum X網絡設備。此舉意義重大,因為AWS數據中心使用的是AWS多年來不斷完善的定制網絡設備。“他們當然還會繼續這樣做,”巴克說。“但我們現在正與AWS合作,為人工智能領域的重要工作負載和最大客戶部署Connect X和Spectrum X。”
隨著AI模型的廣泛應用,需要進行推理計算的硬件日益增多,對推理芯片的需求也將“水漲船高”。國際數據公司(IDC)的報告顯示,未來幾年,推理端的AI服務器占比將持續攀升。預計到2027年,用于推理的工作負載將占據七成以上。
*聲明:本文系原作者創作。文章內容系其個人觀點,我方轉載僅為分享與討論,不代表我方贊成或認同,如有異議,請聯系后臺。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.