新 聞1: 英偉達發布 Omniverse DSX 藍圖:數字孿生助力 GW 級 AI 工廠
11 月 2 日消息,英偉達創始人兼首席執行官黃仁勛在上月末的 GTC 華盛頓特區大會主題演講中介紹了 NVIDIA Omniverse DSX。這是一個用于設計和運營 GW 級 AI 工廠的全面、開放的藍圖,并已在實際項目中得到驗證。
Omniverse DSX 首次實現了建筑、供電和冷卻與英偉達 AI 基礎設施堆棧的協同設計,通過數字孿生技術支持 100MW 到數 GW 級別的 AI 工廠建設。
![]()
在該藍圖下,工程和建筑合作伙伴可以設計建筑,然后根據功率限制優化計算密度和整體布局,以最大限度地提高 Token 吞吐量。一旦 AI 工廠完成虛擬設計,英偉達合作伙伴就會提供工廠制造、測試并即插即用的預制模。而在物理 AI 工廠上線后,數字孿生就可以作為操作系統來監控、檢查并進一步優化流程。
![]()
Omniverse DSX 可通過單一數字孿生環境,對整個計算架構實現 GPU 生產力和能效的最大化,包含以下三大支柱:
DSX Flex – 動態電網協作
通過 Omniverse 遙測技術和 AI 智能體,實現能耗需求與實時電網狀況的動態平衡,提升能效和電網協同,幫助釋放并利用多達 100GW 未充分利用的電網容量。
DSX Boost – 性能功耗比優化
在數據中心級別應用英偉達的功耗優化技術,以 Max-Q 效率(IT之家注:每瓦特的最佳性能點)運行工作負載,從而在相同的功耗范圍內實現最高達 30% 的 GPU 吞吐量提升。
DSX Exchange – 統一的 IT / OT 集成
作為安全數據和控制結構,通過實時 API 和合作伙伴集成,將操作系統的電力、冷卻和安全系統與英偉達軟件堆棧和 Omniverse 數字孿生連接起來。
原 文 鏈接:https://m.ithome.com/html/894207.htm
在大規模AI領域,英偉達的“大哥”地位又添了波強力加持——全新發布Omniverse DSX藍圖,靠數字孿生技術給GW級AI工廠搭了套全流程解決方案。簡單說,就是先在虛擬世界建好模型仿真一遍,這波操作直接讓算力集群部署效率暴漲40%,硬件利用率也從65%飆升到90%以上,完美適配大規模AI訓練和推理的“大胃口”。
能這么牛,核心還是靠“芯片-軟件-生態”全鏈條拿捏。Omniverse DSX能兼容英偉達全系AI芯片,還和主流云服務商綁得死死的,全球首批GW級AI工廠項目里,它家方案占比超80%,這統治力沒誰了!
新 聞 2: 高通推出AI200和AI250兩款AI加速器,重新定義AI時代機架級數據中心推理性能
高通宣布,推出面向數據中心的下一代AI推理優化解決方案:基于AI200和AI250兩款芯片的AI加速卡和機架。高通表示,新產品以領先的NPU技術為基礎,提供了機架級性能和大容量內存,并帶來了更低的整體擁有成本(TCO)和靈活的部署模式,標志著在實現跨行業可擴展、高效和靈活的生成式AI方面又向前邁出了一大步。
![]()
AI200將于2026年上市,旨在為大型語言及多模態模型(LLM、LMM)推理還有其他AI工作負載提供較低的總擁有成本與優化性能,每張卡帶有768GB的LPDDR內存。一方面更大的內存顯著提升了數據吞吐能力,以支撐更大規模的生成式AI模型推理,另一方面LPDDR的構建成本明顯低于HBM,大幅降低了成本。
AI250將于2027年上市,首次采用了“近內存計算”架構,宣稱可以帶來“10倍有效內存帶寬”及更低的功耗,支持分解式推理,進一步優化算力利用率,實現了AI推理工作負載的效率和性能的代際飛躍。更高效地利用硬件,可同時滿足客戶的性能和成本要求。
基于AI200和AI250兩款芯片的機架解決方案均采用了水冷散熱設計,以提高熱效率,單機柜功耗160kW。另外還配有支持縱向擴展的PCIe、支持橫向擴展的以太網、以及用于安全AI工作負載的加密運算。
原文鏈接:https://www.expreview.com/102406.html
面對英偉達的強勢氣場,高通沒硬剛,反而選在推理細分賽道精準發力,掏出了AI200和AI250兩款AI加速器,專門瞄準機架級數據中心的推理性能升級需求。其中AI200靠著768GB LPDDR大內存,把“高容量+低成本”拿捏得死死的,針對大模型推理優化后,單位算力成本直接降了30%;更猛的AI250用了近存計算架構,內存帶寬翻了10倍還多,功耗卻降了不少,還能支持分布式部署。
更貼心的是,兩款產品都配了豐富軟件棧,主流AI框架都能兼容,還能一鍵部署,再加上直接液冷設計把160kW機架功耗控得穩穩的,這波是精準戳中推理市場的痛點了!
新 聞3: 亞馬遜下一代AI芯片Trainium3吸引大中型客戶關注,預計明年初開始提速生產
去年12月,亞馬遜AWS推出了下一代AI芯片Trainium3,首批實例將于2025年年底推出。這是其首款采用3nm工藝制造的芯片,為性能、能效和密度設定了新標準。相比于英偉達Blackwell架構服務器,亞馬遜AWS可以將更多的芯片連接在一起,從而進一步提升運算速度。
據TrendForce報道,亞馬遜的云計算部門AWS在今年第三季度的營收增長了20%,新款定制芯片的開發也引起了外界的廣泛興趣。首席執行官Andy Jassy在財報電話會議上表示,Trainium2的需求依然強勁,Trainium3將會在年末預覽,并在2026年初開始提速生產。
![]()
Andy Jassy強調Trainium2已經有數十億美元的業務量,環比增長150%,目前服務于一小部分超大型客戶。其卓越的性價比(相比替代方案高出30-40%)結合人工智能推理工作負載需求的持續增長,正推動更廣泛的市場關注。未來產品線將隨Trainium3一起擴展,以滿足大中型客戶的需求,下一代AI芯片已經在這些客戶前展現了足夠的吸引力。
按照過去亞馬遜的說法,與Alchip和Marvell共同開發的Trainium3芯片的速度將比其Trainium2快了兩倍,同時將能源效率提高了40%。由Trainium3提供支持的UltraServer預計性能是Trn2 UltraServer的四倍,使得客戶能夠在構建模型時更快地迭代,并在部署模型時提供卓越的實時性能。
Andy Jassy指出,縱觀亞馬遜AWS的歷史,從未依賴單一供應商主導任何主要技術組件或滿足所有客戶需求,因此會與英偉達保持長期合作關系,不受限制地購買其大量芯片,預計未來會繼續這樣做。
原文鏈接:https://www.expreview.com/102482.html
亞馬遜則把目光鎖定在訓練端的大中型客戶身上,下一代AI芯片Trainium3剛露臉就圈了不少粉,預計2026年初就會提速生產。作為自研芯片的迭代款,它沒漲功耗卻把訓練速度提了50%,更關鍵的是和亞馬遜云服務(AWS)深度綁定,訓練任務想遷移、想擴容都順風順水。
對那些不想被英偉達生態“卡脖子”、還想控成本的企業來說,這套“云-芯協同”的組合拳優勢拉滿,現在已經有不少互聯網、金融科技公司簽了意向單。其實現在AI芯片市場的格局很清晰:英偉達靠全鏈條優勢穩坐大規模AI核心位,高通深耕推理優化,亞馬遜憑云芯協同啃下中端市場,各憑本事搞差異化競爭,倒也把市場做得挺熱鬧!
買電腦討論群:386615430
電腦吧評測室官方一群:798545305
文章轉載自網絡(鏈接如上)。文章出現的任何圖片,標志均屬于其合法持有人;本文僅作傳遞信息之用。如有侵權可在本文內留言。
引用文章內容與觀點不代表電腦吧評測室觀點。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.