![]()
新智元報道
編輯:好困 桃子
【新智元導(dǎo)讀】去GPU化的浪潮,已經(jīng)攔不住了!OpenAI嫌英偉達(dá)太慢,Anthropic砸1486億投奔TPU,老黃被迫200億天價收購「叛徒」自救。如今,算力軍備賽正式進(jìn)入能效為王的新時代:誰先卡住「每焦耳每微秒」的極限,誰或許就是下一個十年的霸主。
再過兩周,黃仁勛將站上GTC 2026的舞臺。
他提前放了話:「我們準(zhǔn)備了幾款世界上前所未見的全新芯片。」
底氣來自一份炸裂的成績單——
英偉達(dá)2026財年年收入2159億美元,凈利潤翻倍,數(shù)據(jù)中心業(yè)務(wù)三年翻了13倍。
在財報電話會上,CFO直接甩出一個數(shù)字:客戶已經(jīng)部署了9吉瓦的Blackwell基礎(chǔ)設(shè)施!
![]()
但詭異的一幕出現(xiàn)了。
財報發(fā)布當(dāng)晚,英偉達(dá)盤后一度漲超4%。隨后股價悄然轉(zhuǎn)跌,次日直接低開低走,收跌5.46%,一夜蒸發(fā)數(shù)千億美元市值。
華爾街不是看不懂?dāng)?shù)字,是看懂了趨勢。
前有Anthropic甩出210億美元訂單,全面采購基于谷歌TPU的算力系統(tǒng);后有Meta跟谷歌簽下數(shù)十億美元芯片大單,大規(guī)模租用TPU訓(xùn)練模型。
為了給編程帶來接近實時的響應(yīng)體驗,OpenAI更是歷史上首次將主力級產(chǎn)品GPT-5.3-Codex-Spark,部署在了更低延遲與更低能耗的非GPU芯片Cerebras上。
英偉達(dá)最大的幾個客戶,正在集體分散籌碼。
![]()
全球AI芯片中GPU架構(gòu)和非GPU架構(gòu)比例(數(shù)據(jù)來源:高盛全球投資研究部)
根據(jù)摩根大通的產(chǎn)能報告,谷歌計劃在2027年部署600至700萬顆TPU,大部分供給Anthropic、OpenAI、Meta和蘋果等外部客戶。
高盛投資研究部的模型顯示,全球AI服務(wù)器中非GPU芯片出貨占比,將從2024年的36%升至2027年的45%。
類似的,IDC也預(yù)測,到2028年,中國非GPU服務(wù)器市場規(guī)模占比將逼近50%。
GPU的致命短板
一個更深層的轉(zhuǎn)折正在發(fā)生:AI的競爭焦點,正從單純的算力規(guī)模,轉(zhuǎn)向?qū)δ苄П扰c延遲的極致追求。
過去拼誰卡多、誰集群大。
現(xiàn)在拼的是,同樣花一塊錢,誰能吐出更多Token。
「每美元產(chǎn)生的Token數(shù)」正在取代峰值算力,成為衡量芯片商業(yè)價值的核心指標(biāo)。
究其原因在于,GPU的架構(gòu)決定了,每次計算時數(shù)據(jù)都要在外部顯存和計算單元之間來回搬運(yùn)。
路徑長、次數(shù)多,能耗就高、延遲就大。堆更多卡解決不了這個問題。
路透社爆料,OpenAI已多次表達(dá)對英偉達(dá)芯片的「不滿」——響應(yīng)速度沒達(dá)預(yù)期,在代碼生成產(chǎn)品Codex上感受尤為明顯。
壓力迫使英偉達(dá)這條「巨龍」尋求改變。
圖靈獎得主David Patterson教授在最新研究中指出,大模型每次token生成都繞不開數(shù)據(jù)搬運(yùn),而搬運(yùn)能耗遠(yuǎn)高于計算本身。
未來的核心命題是「讓數(shù)據(jù)離計算更近」。
為此,他給出了三個AI芯片的演進(jìn)方向:近內(nèi)存處理、3D堆疊、低延遲互連。
實際上,這些都指向同一件事——用架構(gòu)創(chuàng)新降低數(shù)據(jù)搬運(yùn)的能耗和延遲。
換句話說就是,誰能用更低的能耗、更低的延遲跑通下一代模型,誰就能在未來十年的算力牌桌上占得先機(jī)。
谷歌TPU殺向商用市場
一直以來,谷歌TPU專供自家大模型訓(xùn)練和推理,外人用不到。
去年開始,谷歌把TPU推向了商用。
訂單隨即涌入。
博通CEO透露,Anthropic下了210億美元的大單;Meta簽下數(shù)十億美元TPU租賃協(xié)議;潛在客戶還包括蘋果和已與SpaceX合并的xAI。
原因不難理解。大模型進(jìn)入規(guī)模化落地階段,算力需求爆發(fā)、成本壓力加劇,單一依賴GPU的瓶頸越來越明顯。而谷歌TPU的性能,已經(jīng)具備與頂級GPU分庭抗禮的實力。
2025年推出的第七代TPU,是谷歌迄今為止性能最高、可擴(kuò)展性最強(qiáng)的AI芯片——
單芯片峰值算力4614 TFLOPS(FP8精度),最大集群9216顆芯片、總算力達(dá)42.5 EFLOPS。
劃重點:TPU v7在同等算力輸出下功耗僅為英偉達(dá)B200的40%至50%。
不僅如此,谷歌自研的光電路交換機(jī)(OCS)技術(shù),還讓萬卡級集群實現(xiàn)近乎線性的加速比。相比之下,傳統(tǒng)GPU集群規(guī)模越大,通信損耗越嚴(yán)重;而TPU集群基本不吃這個虧。
![]()
Google TPU v5e、v5p、v6、v7芯片關(guān)鍵性能對比
谷歌TPU崛起還有更為直接的例證:在TPU上訓(xùn)練的Gemini 3,在多個權(quán)威基準(zhǔn)測試中位居榜首,為業(yè)界頂尖模型之一。
回到成本賬上。
TPU憑借AI專用架構(gòu)帶來的2-4倍能效優(yōu)勢,將大模型推理的綜合成本相比GPU拉低50%以上。而這正是Anthropic、Meta們用訂單投票的根本邏輯。
當(dāng)下,大多數(shù)大模型企業(yè)已經(jīng)在用TPU+GPU的組合來緩解成本壓力。
去年11月,半導(dǎo)體研究機(jī)構(gòu)SemiAnalysis對比大模型公司的采購成本后發(fā)現(xiàn):與OpenAI相比,同時使用TPU與GPU的Anthropic,在與英偉達(dá)談判時擁有更強(qiáng)的議價權(quán)。
手里有TPU,就多了一張跟老黃討價還價的牌。未來頭部AI公司大概率都會走「多芯片并行」路線。
![]()
OpenAI與Anthropic購買算力的成本對比
性能跨越式提升,頂尖大模型規(guī)模化驗證,頭部公司主動布局——TPU已從算力產(chǎn)業(yè)的補(bǔ)充路線,升級為主流路線。
英偉達(dá)一家獨大的格局,正在被改寫。
![]()
十年磨一劍
「TPU之父」要造下一代AI芯片
2025年底,英偉達(dá)斥資200億美元,拿下AI芯片創(chuàng)企Groq的核心技術(shù)和團(tuán)隊。
這是英偉達(dá)史上最大的一筆交易,溢價近三倍。
Groq創(chuàng)始人Jonathan Ross,被稱為「TPU之父」,谷歌TPU的核心設(shè)計者之一。離開谷歌后,他創(chuàng)立Groq的目標(biāo)很明確:做一顆超越谷歌TPU的芯片。
兩者的差異在架構(gòu)。
谷歌TPU走的是「固定架構(gòu)+集群擴(kuò)展」路線。
其中,芯片內(nèi)部搭載固定計算單元,依托二維數(shù)據(jù)流運(yùn)算;芯片間通過3D Torus拓?fù)鋵崿F(xiàn)高效互聯(lián)。架構(gòu)穩(wěn)定,但靈活性有限。
![]()
谷歌TPU架構(gòu)
Groq的TSP(Tensor Streaming Processor)則是一種「軟件定義硬件」的數(shù)據(jù)流處理器。
其核心理念是,通過構(gòu)建可重構(gòu)的軟硬件系統(tǒng),在保持可編程性的同時,達(dá)到接近ASIC的極致性能。
具體來說,芯片內(nèi)部做了功能切片化微架構(gòu)設(shè)計,配合軟件層的靈活配置,可根據(jù)不同任務(wù)實時調(diào)整計算邏輯和數(shù)據(jù)流路徑。
同時,依托大容量片上SRAM及靜態(tài)調(diào)度機(jī)制,顯著提升了數(shù)據(jù)訪存效率并降低搬運(yùn)能耗。
美國DARPA「電子復(fù)興計劃」(ERI)高度看好「軟件定義硬件」方向,將其列為國家級戰(zhàn)略核心。這也是Groq被稱為「高階TPU」的原因。
數(shù)據(jù)顯示,在相同推理任務(wù)中,Groq芯片首token延遲比谷歌TPU v7降低20%至50%,每token成本降低10%至30%。
這場芯片革命,才剛開始加速
Groq被收編,但「高階TPU」的進(jìn)化沒停。
國內(nèi)清微智能、海外Cerebras等公司正在高效數(shù)據(jù)流動態(tài)配置和先進(jìn)集成方式上持續(xù)突破。
1. 通過3D Chiplet技術(shù)構(gòu)建三維立體數(shù)據(jù)流架構(gòu)。
具體來說,「計算核心+3D DRAM芯粒」的組合在垂直與水平兩個維度上形成了高效的數(shù)據(jù)流計算模式,突破了傳統(tǒng)二維架構(gòu)的效率局限。
三維架構(gòu)可以依據(jù)計算任務(wù)的需求和數(shù)據(jù)特性,在兩個維度上靈活調(diào)度數(shù)據(jù)流,最大化縮短傳輸路徑,降低搬運(yùn)過程中的延遲與能耗,從而進(jìn)一步提升整體計算效率。
2. 依托算力網(wǎng)格技術(shù)構(gòu)建靈活數(shù)據(jù)流計算范式。
傳統(tǒng)固定組網(wǎng)存在擴(kuò)展性和語義適配瓶頸。而算力網(wǎng)格技術(shù)則可以通過靈活組網(wǎng),實現(xiàn)Scale up與Scale out的協(xié)同。
根據(jù)AI任務(wù)特性,系統(tǒng)能實時下發(fā)數(shù)據(jù)流的動態(tài)配置信息,在多種互聯(lián)拓?fù)浣Y(jié)構(gòu)間靈活切換、精準(zhǔn)調(diào)度。最終降低互聯(lián)延遲,充分釋放數(shù)據(jù)流架構(gòu)的算力。
3. 通過前沿的晶圓級芯片技術(shù),將數(shù)據(jù)流架構(gòu)的優(yōu)勢發(fā)揮到極致。
這項技術(shù)將數(shù)據(jù)流架構(gòu)從芯片尺度擴(kuò)展到整片晶圓。
在整張晶圓上高密度集成大量計算核心,計算核心間的互聯(lián)距離被極大縮短。帶來的結(jié)果是,互聯(lián)帶寬實現(xiàn)數(shù)量級提升,通信延遲大幅降低。
數(shù)據(jù)流架構(gòu)的算力規(guī)模與計算效能由此被推到極致。這也是為什么晶圓級芯片被視為數(shù)據(jù)流計算架構(gòu)的理想物理載體。
以Cerebras為例。
數(shù)據(jù)顯示,Cerebras CS 3系統(tǒng)推理性能比英偉達(dá)旗艦DGX B200快21倍,成本與功耗均降低三分之一,在算力、成本、能效上展現(xiàn)出顯著的綜合優(yōu)勢。
在實測中,OpenAI的Codex-Spark跑出了每秒超1000 token的生成速度,讓代碼編寫第一次有了實時交互的體驗。
![]()
Cerebras CS-3 vs英偉達(dá)GPU:大模型推理速度對比
GPU獨霸的時代,回不去了
谷歌TPU走出圍墻,OpenAI擁抱晶圓級芯片,英偉達(dá)天價收編Groq。
這些信號均指向同一個方向:TPU已變成巨頭們真金白銀押注的主戰(zhàn)場。
算力世界的單極時代,正在被多元架構(gòu)終結(jié)。
決定下一代AI天花板的,不是算力堆砌的軍備競賽,而是能耗、延遲、確定性共同構(gòu)成的新指標(biāo)。
對國產(chǎn)芯片來說,這場變局既是機(jī)遇也是挑戰(zhàn)。 跟隨者只能分殘羹,走出自己的底層創(chuàng)新之路,才有資格參與下一輪全球算力洗牌。
參考資料:
全球算力格局震蕩,“高階TPU”崛起!
https://www.theinformation.com/articles/google-strikes-multibillion-dollar-ai-chip-deal-meta-sharpening-nvidia-rivalry
https://groq.com/newsroom/groq-and-nvidia-enter-non-exclusive-inference-technology-licensing-agreement-to-accelerate-ai-inference-at-global-scale
https://openai.com/index/introducing-gpt-5-3-codex-spark/
https://cloud.google.com/blog/products/compute/ironwood-tpus-and-new-axion-based-vms-for-your-ai-workloads
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.