英偉達正面臨來自谷歌TPU和亞馬遜Trainium等競爭對手的挑戰,為鞏固其AI芯片市場主導地位,公司近期展開了一系列密集的技術“自證”與公開回應。繼此前通過私函反駁看空觀點、公開宣稱其GPU技術“領先行業一代”后,英偉達再次發布技術博文,強調其GB200 NVL72系統可將頂尖開源AI模型的性能提升最高10倍。
12月4日,據媒體報道,英偉達發文稱GB200 NVL72系統能夠將頂級開源AI模型的性能提升多達10倍。該公司在周三的博客文章中重點強調了其服務器系統對混合專家模型(MoE)的優化能力,這些模型包括中國初創公司月之暗面開發的Kimi K2 Thinking和DeepSeek的R1模型。![]()
英偉達一系列技術"自證"被視為對市場擔憂的直接回應。此前有媒體報道稱,英偉達的關鍵客戶Meta正考慮在其數據中心大規模采用谷歌自研的AI芯片——張量處理單元(TPU)。據華爾街見聞,谷歌TPU直接挑戰了英偉達在AI芯片市場超過90%的份額。市場擔心,如果Meta這樣的超大規模客戶開始轉向谷歌,將意味著英偉達堅不可摧的護城河出現了缺口。
英偉達密集發聲并未改善市場擔憂,公司股價近一個月跌幅已接近10%。
![]()
GB200 NVL72技術優勢凸顯
英偉達在官方博客中表示,其GB200 NVL72系統可以顯著提高領先的開源 AI 模型的性能。博文中詳細闡述了GB200 NVL72系統的技術優勢。該系統將72顆NVIDIA Blackwell GPU集成為一個整體,提供1.4 exaflops的AI性能和30TB的快速共享內存。通過NVLink Switch連接,系統內部GPU間通信帶寬達到130TB/s。
在性能測試中,被Artificial Analysis排行榜評為最智能開源模型的Kimi K2 Thinking在GB200 NVL72系統上實現了10倍性能提升。DeepSeek-R1和Mistral Large 3等其他頂級MoE模型同樣獲得顯著性能改善。
混合專家模型(MoE)已成為前沿AI模型的主流選擇。英偉達指出,Artificial Analysis排行榜前10名的開源模型均采用MoE架構,包括DeepSeek-R1、Kimi K2 Thinking和Mistral Large 3等。這種架構模仿人腦工作方式,僅激活處理特定任務所需的專門"專家"模塊,而非調用全部模型參數,這使得MoE模型能夠在不成比例增加計算成本的情況下,實現更快速、高效的token生成。
英偉達強調,其系統通過硬件和軟件的協同設計,解決了MoE模型在生產環境中的擴展難題,有效消除了傳統部署中的性能瓶頸。
云服務商部署加速落地
英偉達透露,GB200 NVL72系統正被主要云服務提供商和英偉達云合作伙伴部署,包括亞馬遜云服務、Core42、CoreWeave、Crusoe、谷歌云、Lambda、微軟Azure、Oracle云基礎設施和Together AI等。
CoreWeave聯合創始人兼首席技術官Peter Salanki表示:"在CoreWeave,我們的客戶正在利用我們的平臺將專家混合模型投入生產。通過與英偉達的密切合作,我們能夠提供緊密集成的平臺。"
Fireworks AI聯合創始人兼CEO Lin Qiao指出:"英偉達GB200 NVL72的機架規模設計使MoE模型服務效率顯著提升,為大規模MoE模型服務設立了新的性能和效率標桿。"據悉,該公司目前已在英偉達B200平臺上部署Kimi K2模型,在Artificial Analysis排行榜上實現最高性能表現。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.