本文來源:時代周報 作者:朱成呈
![]()
過去幾年,AI算力需求的爆發讓英偉達一度成為最大贏家。但近期多重信號表明,這種“單邊行情”正在發生變化。行業內部的“抱怨”與資本市場的情緒在同步轉向,“天下苦英偉達久矣”不再是一句戲謔,而成為一段市值波動背后的真實寫照。自10月29日以來,英偉達市值在一個月時間里蒸發超7000億美元(約合人民幣5萬億元)。
11月27日,英偉達創始人黃仁勛現身臺北。值得注意的是,他向媒體直言“我真的超級累”。
觸發這一輪變化的關鍵,并非傳統意義上的競爭對手,而是谷歌。長期以來保持低調的TPU路線,首次站在了主導敘事的位置。
據媒體報道,全球AI基礎設施投入最大的公司之一Meta,正在與谷歌洽談一筆規模可觀的芯片采購:從2027年起,計劃投入數十億美元購買谷歌的TPU,用于其數據中心。Meta今年的資本支出預計在700億至720億美元之間,這筆潛在訂單的象征意義遠大于商業價值,意味著行業頭部玩家對谷歌AI芯片體系的認可與驗證。
谷歌來勢洶洶,英偉達的反擊迅速而果斷。北京時間11月26日,英偉達公開表示,公司依然“領先業界一代”,并強調自己是“唯一一個可以運行所有人工智能模型的平臺,并且可以在任何地方進行計算”。
英偉達的防御邏輯依然堅硬:與谷歌TPU等專用ASIC芯片相比,GPU擁有更優秀的通用性和靈活性。在CUDA生態的加持下,英偉達依然掌握著最為廣泛的開發者護城河。
但行業的討論已經轉向另一個維度——能效比。AI訓練與推理的規模正繼續擴大,而能耗正在成為新的約束。在同等工藝下,TPU的能效比明顯優于GPU,而Gemini 3全程基于谷歌TPU訓練的事實,使這種優勢開始具備現實意義。
除此之外,一個圍繞ASIC(專用集成電路) 路線的新“挑戰者聯盟”正在成型:Meta、亞馬遜、微軟、阿里巴巴、百度等云服務廠商,以及博通、寒武紀等一批芯片企業,都在構建面向特定場景的定制化AI芯片。
與此同時,通用GPU陣營也出現了更多參與者。AMD、英特爾、海光信息(688041.SH)、摩爾線程(688795.SH)、沐曦、壁仞等公司在持續推出新產品,試圖通過系統架構及集群優化提升整體競爭力。
市場對英偉達的看法也在變得更加審慎。從“難以替代”到“存在替代可能”,情緒的轉向往往先于產業格局的轉折。
這并不意味著英偉達的主導地位會在短期內動搖。CUDA生態和通用算力優勢依然構成它的核心護城河,但這個行業第一次出現真正能夠挑戰的變量:當谷歌能用TPU訓練出最先進的模型,當Meta認真考慮將數十億美元投向競爭對手時,原本牢固的結構開始出現細微裂縫。產業變遷往往就是從這些不易察覺的裂縫開始的。
谷歌TPU更有性價比
在硅谷,所有的昂貴最終都會輸給“夠用且便宜”。
投資者之所以重新評估英偉達的主導地位,很大程度上源于谷歌正在提供一種更具性價比的“AI模式”,依靠功能相對單一但價格更低的自研TPU,去完成大模型訓練。SemiAnalysis的模型數據顯示,谷歌TPUv7在成本效率上對英偉達構成了絕對優勢。
TPU是為特定任務(如深度學習中的矩陣乘法和卷積運算)優化的ASIC,通過犧牲通用性,換取極致的性能和能效。半導體資深專家張國斌在接受時代周報記者采訪時表示,“在同等工藝下,TPU 的能效比(性能/瓦特)遠高于GPU。例如,最新一代的Ironwood TPU的能效比是初代TPU的30 倍。”
事實上,谷歌在這一技術路線上的投入已持續十年。從2015年推出第一代TPU起,每一代產品都在性能、可擴展性與系統效率上不斷提升。伴隨光互連技術融入TPU系統,谷歌得以在2025年的 TPU v7 上構建超過9000顆芯片的超大規模集群。
這種提升并未停留在谷歌內部生態。OpenAI已開始使用TPU進行部分訓練;Anthropic明確承諾將以TPU v5e 作為其下一階段的大規模訓練平臺,并強調選擇理由是“性能與成本的平衡”。谷歌也在主動將TPU網絡拓展至中小型云廠商,通過更靈活的合作方式降低進入門檻。
其中最受市場關注的,是谷歌基于“硬件即服務”(HaaS)的合作模式。不同于一次性硬件銷售,谷歌保留TPU的所有權,將設備部署在合作伙伴的數據中心,并按使用量進行分成。華泰證券研報認為,這是一種典型的“游擊戰式”市場滲透策略;巧妙地降低合作伙伴的capex(資本性支出)進入壁壘,免除新興和中小型云廠商數十億美元的硬件投資壓力。
此外,谷歌正在打造“算力—網絡—模型—用”全棧體系(TPU+OCS+Gemini+云服務),實現了從芯片到應用的深度整合。這種整合使得谷歌可以進行系統級優化,例如數據中心網絡拓撲完全為 TPU超節點服務。張國斌認為,隨著競爭對手的不斷進步和市場的多樣化需求,英偉達的壟斷壁壘確實面臨挑戰。特別是ASIC(專用集成電路)在特定任務中的高效率和低功耗表現,可能在某些細分市場對英偉達構成實質性威脅。
單卡性能重要性在下降
在單卡性能上,英偉達依舊占據絕對優勢,但是超節點集群的高效連接和系統級優化可能削弱英偉達在大規模數據中心和云服務提供商中的優勢。
所謂“超節點”(SuperPod),原本是英偉達提出的概念,通過系統級架構創新,將成千上萬顆計算芯片緊密耦合為一個高速互連域,以彌補傳統服務器之間帶寬不足、時延偏高的問題。行業在過去一年里大步走向這一方向,速度超出許多人的預期。
谷歌在Google Cloud Next 25大會上正式推出第七代張量處理器 Ironwood,通過其 ICI scale-up 網絡,超節點規模可達到9216顆芯片,峰值性能達到4614TFLOPS,是上一代TPU v5p的10倍。
中國廠商的動作同樣密集。華為輪值董事長徐直軍在9月的公開演講中判斷,超節點已成為大型算力基礎設施的主導形態。他透露,超節點產品 Atlas 950 SuperPoD和Atlas 960 SuperPoD,分別支持8192及15488張昇騰卡,在卡規模、總算力、內存容量、互聯帶寬等關鍵指標上全面領先,在未來多年都將是全球最強算力的超節點。
阿里云在2025云棲大會上推出磐久128超節點服務器,依托自研CIPU 2.0 和 EIC/MOC 網卡,單柜即可容納128顆AI芯片。百度昆侖芯今年4月已在百舸5.0中全面啟用超節點,并實現量產部署。
國產GPU廠商也在加速追趕:曦智科技聯合壁仞、中興推出光互連GPU超節點 LightSphereX;燧原的云燧ESL超節點系統單節點可實現64卡全帶寬互聯;沐曦的曦云C600支持MetaXLink 超節點擴展;摩爾線程則以自研KUAE計算集群,通過5D分布式并行技術實現上千節點協作。
從華為、阿里、百度到“GPU”四小龍壁仞、燧原、沐曦、摩爾線程,國產陣營紛紛發力超節點。
華龍證券認為,中美AI競爭正從“單卡性能”走向“系統級效率”,中國正在用集群建設+開源生態+工程化交付的方式完成AI基建方面的彎道超車。
當AI算力競爭從“芯片之爭”轉向“體系之爭”。單卡性能的重要性在下降,系統效率、能效比、規模化集群交付能力正在成為新的評價標準。
對英偉達來說,現實既不至于悲觀,也絕不輕松。英偉達依然擁有最成熟的生態、最強大的通用算力體系,以及行業最廣的開發者基礎。但是谷歌靠TPU打開了一個新的可能性窗口,云服務廠商的自研ASIC與超節點集群也在持續擴大影響力。圍繞“夠用、便宜、可規模化”,越來越多的變量正在同時發力。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.