![]()
「你必須為模型將要去的方向設計硬件,而不是為今天的模型。」
作者|張勇毅
編輯|靖宇
昨天,當 OpenAI 做智能手機的具體規格與供應鏈爆料發布時,我第一反應不是「他們要做手機了」,而是「OpenAI 最終也不得不踏出這一步」,同時想起兩周前 Richard Ho 在 Stanford 那場交流。
Richard Ho 是 OpenAI 的硬件負責人,從 Google 做 TPU 出來。
![]()
Richard Ho |圖片來源:Synopsys
那場在 IEEE 內部組織的交流上,他沒有講過一次「手機」這個詞。但把昨天的新聞和他當時說過的話放在一起看,整條路徑其實已經被講得很清楚——只是當時沒有一個具體的產品形態來錨定它。
OpenAI 做手機這件事,在外界看來像一次跨界。但順著 Richard Ho 那場交流的邏輯往下推,你會發現這是一條早就鋪好的路。
畢竟對于所有模型廠商來講,手機都只是終點之一,不是起點。
01
模型的下一次「躍遷」,誕生自硬件
那場交流的核心,是關于 OpenAI 為什么必須自己做硬件。
Richard Ho 反復強調的一句話是:「真正的限制不再只是模型,而是算力、能耗、成本、延遲,是整個系統。」
聽起來像一句普通的技術陳述。但放在 OpenAI 的位置上,這句話的分量完全不一樣——它意味著這家公司已經不把自己單純當作一家模型公司。
GPU 是為通用并行計算設計,在推薦系統、傳統的并行任務,跑得很好。
但面對今天主流的 Transformer、agent、長上下文推理,其實已經偏離了 GPU 當初的設計假設。尤其是 agent——多輪、持續執行、跨任務協同,整個系統層的低效會被放大很多倍。Richard Ho 當時的原話是:「GPU 把我們帶到了今天,但它并不是為這種(AI 負載任務)而設計的。」
這句話背后的含義其實是:繼續依賴 NVIDIA 所設定好的硬件路徑,OpenAI 永遠沒辦法把模型推到下一個量級。不是說 GPU 不能用,而是說在能耗、成本、效率這些維度上,OpenAI 無法一直被動地接受外部的硬件節奏。
所以這件事的本質從一開始就不是「OpenAI 進入芯片/硬件行業」,而是 OpenAI 想重新拿回 AI 運行的底層控制權。
如果只看媒體報道,你會以為 OpenAI 在做的事情是「組裝一臺手機」或者更深入一些的「自研一顆 AI 芯片」。但 Richard Ho 自己澄清得很直接:「我們不是在做一顆芯片,而是在做一個系統。」
這個「系統」包括芯片、機架、網絡、電力、散熱、數據中心——和 Google 當年做 TPU 的路徑很像,但更強調端到端的控制。
進度的部分有點出乎我意料。Richard Ho 說團隊是從零搭起來的,但「兩年時間已經從空白走到 tape-out(芯片設計完成交付流片生產)」,并且已經有芯片在真實 workload 中跑了——他特意強調這不是紙面上的數據,而是「已經在真實環境里 work 的東西」。
兩年從零到 tape-out 是個什么概念?傳統芯片公司從架構到流片,五到七年很正常。Google TPU 第一代用了大約三年,而且是有 Jeff Dean 這種基礎設施大牛背書、又有 Google 內部完整的工程協同體系作支撐。OpenAI 能做到兩年——背后只能是兩件事:要么是從 TPU、Apple、Google 等公司挖了大批已經成熟的硬件團隊(這是事實),要么是 Broadcom 這類合作方在底層 IP 上提供了相當大的支持(這也部分是事實)。
但更值得說的是 OpenAI 和硬件供應商之間的關系邊界。
「他們會參與 IP、physical design、packaging。」Richard Ho 談到 Broadcom 時說得很克制,緊接著補了一句——「他們并不看到完整的架構。」他還專門解釋,「很多時候他們只看到一部分,但看不到整體是怎么拼起來的。」
這句話其實透露了 OpenAI 自身的一個判斷:架構層和工程層是兩件事,前者必須完全握在自己手里。Broadcom 提供的是模塊和制造能力,系統級的設計邏輯——也就是「這顆芯片到底要怎么和模型配合」這件事——必須留在內部——就像蘋果做硬件的邏輯一樣。
Richard Ho 提到,外界看到的模型是幾個月發布一次,但內部其實是一條連續的 pipeline——「我們能看到接下來 6 到 9 個月模型會怎么變」。
這句話才是整段最關鍵的。它意味著 OpenAI 的硬件團隊不是在為今天的模型設計芯片,而是在為還沒出現的模型「預備」設計。
具體到細節上,這種「向前看」會影響很多決定:模型對內存壓力的變化會直接決定 HBM 應該用 8-high、12-high 還是 16-high;網絡帶寬要擴到多少;新的 compression algorithm 出現會不會改變數據流的形狀;inference 和 training 的比例正在快速變化(推理負載越來越重),這對硬件的要求又是另一套。
Richard Ho 把這一點總結成一句話:
「你必須為模型將要去的方向設計硬件,而不是為今天的模型。」
這就是 OpenAI 的芯片和 NVIDIA、AMD 的根本不同之處——它不是一顆對外銷售的通用 GPU,而是高度貼合 OpenAI 自身模型路徑的、幾乎一對一定制的系統。從這個角度看,OpenAI 做芯片更像 Google 做 TPU,而不是像 NVIDIA 做 H100。
但即便如此,硬件優化的天花板遠沒有到。Richard Ho 反對「晶體管進步變慢,所以芯片紅利結束」這個論斷。他的判斷是:單顆芯片確實在變慢,但整個系統層面還遠遠沒有被優化好。memory hierarchy、networking、data movement——這些大瓶頸都沒解。他舉的例子很具體:現在高速 copper 互聯在高帶寬下只能支持大約 2 米的距離,這對數據中心布局是非常大的限制。
簡單說一句:OpenAI 在做的事情不是把一顆芯片做得更快,而是把整個 AI 計算系統重新優化一遍。
手機這件事,是這個系統的最末端。
02
「手機不是為 agent 設計的」
回到手機。
Richard Ho 在那場交流上有一句話,今天回頭看幾乎就是 OpenAI 做手機的全部理由——「手機不是為 agent 設計的」。
「今天的手機交互是 app-based、session-based 的,你打開一個 app,做一件事,關掉。但 agent 需要的是持續存在、持續執行、跨任務協同。一個真正的 agent 不會等你打開它再開始工作,它會在后臺一直理解你的狀態、調度你的任務、跟其他 agent 通信。」
這種交互范式,直接等同于在說:今天的 iOS 和 Android 都不是為它設計的。
這就是為什么 OpenAI 必須自己做。Richard Ho 的判斷是「未來不是 cloud-only,也不是 edge-only,而是兩者結合」——個人上下文、隱私數據、低延遲交互必須在設備端,復雜推理留在云端。如果一個 agent 想隨時拿到用戶的「當下狀態」,它必須在操作系統層有完整權限。
![]()
現有手機系統在滿足 AI 時代原生用戶需求面前有天然的短板 | 圖片來源:io
這件事在 iOS 和 Android 上很難干凈地做——不是技術問題,是利益問題。Apple 不會把系統級權限完全開放給一個第三方 agent,Google 也不會。
也是從這個角度,去年 OpenAI 收購 Jony Ive 團隊相關的公司(io)的邏輯就清楚了。Richard Ho 說,做端側個人設備這部分工作「是目前最有意思的一塊」——因為這是第一次把基礎設施和消費電子設備真正接在一起。
這其實是 OpenAI 整個硬件戰略里最有想象力的部分,也是最危險的部分。有想象力是因為它在做 Apple 當年沒做的事:用 AI agent 把操作系統重寫一遍。危險是因為消費電子是另一套游戲規則——產品節奏、供應鏈、零售、品牌——不是從云端工程師團隊里能長出來的能力。
但 io 的存在解決了一部分問題。Jony Ive 不是來做芯片或者操作系統的,他是來做硬件形態和工業設計的——這本來就是 Apple 這些年從 OpenAI 手里能短暫保住的最后一塊地。
03
不是所有 AI 公司都在做同一件事
消費電子的難度有多大,看過去兩年其他 AI 公司在硬件上的嘗試就清楚了。
每一家都想用 AI 重新定義某個硬件形態。但每一家走的路徑不一樣,結果也很不一樣。
最早的是 Rabbit R1。
2024 年初的 CES 上,呂騁拿出那臺橙色小盒子,喊出「干翻所有 App」——用 LAM(大動作模型)替代手機里 App 的交互方式,一句話訂外賣、打車、訂機票。當時引發的關注度堪比「AI 時代的 iPhone 時刻」,開售兩周賣出 5 萬臺。
![]()
Rabbit R1 是首批 AI 硬件中為數不多「口碑反轉」的產品|圖片來源:Rabbit
但首批用戶體驗出來之后,事情翻得很快。先是被開發者證實是套殼安卓——Rabbit OS 實際上是 AOSP 的修改版,APK 可以直接裝到 Pixel 6a 上跑。LAM 被發現依賴 OpenAI 的 API。續航 4 小時,訂一次外賣要試十幾次。
Rabbit 失敗的真正原因不是產品質量,而是路徑——它只做了硬件殼子,沒碰底層。芯片是聯發科 Helio P35(入門手機水平),系統是套殼 Android,模型靠第三方 API。這種做法的天花板很明顯:你做的事情,一個手機 App 都能做,而且做得更好。
Meta 選了一條完全不同的路。
Meta 的判斷是不挑戰手機這個形態,讓 AI 借眼鏡這個已經存在的硬件形態進入日常。Ray-Ban Meta 做對了三件事:找 EssilorLuxottica(雷朋母公司)做合作方,讓眼鏡回歸眼鏡本身——時尚、輕、舒適;把 AI 做成「附加項」,299 美元起售;不強求每個用戶都用 AI,先把一副好眼鏡賣出去,AI 是 bonus。
結果是 Ray-Ban Meta 賣出超過 200 萬副,Meta 一家拿下全球智能眼鏡市場 75% 以上的份額。
但這條路的邊界也清楚——Meta 解決的是「AI 怎么進入日常」這個問題,不是「AI 怎么重新定義計算」這個問題。眼鏡只是一個加了攝像頭和麥克風的入口,它不會替代手機,也沒打算替代。
阿里千問基本上是 Meta 路徑的中國版本。今年 2 月 MWC 發布、3 月 G1 系列發售(國補到手價 1997 元起)、4 月 S1 上市(國補到手價 3499 元),節奏很快。邏輯也清晰:千問 App 已經做到超 3 億月活、8000 萬 DAU,眼鏡是把 AI 助手能力從手機延伸到日常佩戴形態——支付寶、高德、淘寶、飛豬一整套阿里生態都接進來,用戶對眼鏡說「點外賣」「打車」「翻譯」就能辦事。芯片是高通驍龍 AR1,系統在 Android 之上,模型用千問。
千問眼鏡本質上是一次生態延伸,不是底層重構。它的優勢是阿里生態足夠厚,眼鏡成為阿里 AI 服務的一個新入口。
把這三條路放在一起看,再對比 OpenAI——你會發現 OpenAI 是唯一一家在做「全棧重新定義」的公司:
Rabbit 想繞過 App 但沒動操作系統,結果是空中樓閣;Meta 選擇不挑戰手機,讓眼鏡做配角,做對了爆款但天花板就是配角;千問跟隨 Meta 的形態選擇,把眼鏡做成 AI 服務的延伸入口;而 OpenAI——從芯片、基礎設施、能源、操作系統、設備一路打通。
這是另一個量級的事。
04
真正的護城河,不在模型層
那場交流的最后,Richard Ho 還給了一句對未來格局的判斷:
「(模型公司)不再是在芯片層贏,而是在系統層贏。」
這句話的意思是,未來的 AI 競爭不只是模型能力的競爭,而是整套系統能力的競爭——同樣的功耗下能提供多少計算、能服務多少用戶、延遲能壓到多低。這種系統級的優勢,單靠模型本身是沒法替代的。
放在 OpenAI 的位置上看,這是一種相當自洽的邏輯:模型團隊在 GPT、o 系列、agent 這些方向上往前推,但一旦推到某個體量,模型本身的進步就要被基礎設施的瓶頸限制住。所以 OpenAI 必須從模型公司變成基礎設施公司——再變成設備公司。
這也是為什么 Richard Ho 在被問到未來算力規模時,給出的數字是20GW。把 OpenAI、Oracle、SoftBank 等合作方的規劃加起來,未來需要的算力大約相當于十幾到二十個核電站的發電量。
這個數字第一次聽到的時候我沒反應過來。20GW 已經不是數據中心能解決的問題——它是國家電網和能源政策的問題。Richard Ho 自己也說,「當你開始談這種規模,就必須談電力,甚至是國家安全」。
把這件事和「OpenAI 做手機」放在一起看,才能看清楚整個圖景:一邊是國家級別的能源基礎設施,一邊是用戶兜里的一臺設備,中間是一整套自研的芯片、系統、操作系統。OpenAI 想做的,是把這兩端連起來。
把所有的點串起來——模型、基礎設施、自研芯片、能源、edge device、操作系統——會發現 OpenAI 做手機不是一個單點決策,而是這條路徑自然長出來的結果。
手機只是第一個被外界看見的形態。但真正的變化是更底下的那一層:計算范式正在從 app 為中心,轉向 agent 為中心。
一旦默認入口變成 agent,今天的設備、芯片、操作系統,都會被重新定義一次。
這一次重新定義里,OpenAI 不再只是一家做模型的公司。
*頭圖來源:AI 生成
本文為極客公園原創文章,轉載請聯系極客君微信 geekparkGO
極客一問
當 agent 成為默認入口,
今天的操作系統會被重寫嗎?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.