![]()
大數據文摘受權轉載自 AI 科技評論
作者丨鄭佳美
編輯丨馬曉寧
如果說過去幾年 OpenAI 是靠 GPT 模型打天下,那么現在,它的野心已經遠遠不止做一家模型公司。
《金融時報》最新消息,OpenAI 正在和博通合作,自研一顆代號“XPU”的 AI 推理芯片,預計會在2026 年量產,由臺積電代工。不同于英偉達 的 GPU,這款芯片不會對外銷售,而是專門滿足 OpenAI 內部的訓練與推理需求,用來支撐即將上線的 GPT-5 等更龐大的模型。
為什么要自己造?原因其實很直接。
首先,Nvidia 芯片不僅貴,而且還不好搶,OpenAI 每次訓練新模型都要消耗成千上萬張 GPU。自研芯片可以降低成本、提升效率,更關鍵的是,它能把命脈握在自己手里。
當然,這一舉動也被外界解讀為 OpenAI 從買算力走向造算力的關鍵一步。
![]()
據報道,博通 CEO Hock Tan 在財報中提及,公司新增一筆規模高達100 億美元的定制芯片訂單,并將在 2026 年進入“強勁發貨期”。
雖然未點名客戶,但業內普遍將矛頭指向 OpenAI,此舉將不僅讓 OpenAI 成為繼谷歌 TPU、亞馬遜 Trainium、Meta Artemis 之后,又一家押注自研 AI 芯片的大廠,也讓博通的 AI 定制芯片業務再添一名重量級客戶。
01 OpenAI 在多線出擊
這并不是 OpenAI 最近唯一的大動作,它的野心遠不止在芯片上落子。今年以來 OpenAI 在硬件、應用和算力基建三條戰線上幾乎是在同時提速。
先說硬件。今年 5 月,OpenAI 花了65 億美元收購了由蘋果前設計大師 Jony Ive 創辦的 AI 硬件公司io。值得一提的是,這個硬件公司的團隊成員正是當年設計 iPhone 的那群人,履歷相當豪華,現在他們加入 OpenAI,意味著公司不再滿足于軟件服務,而是真的要把 AI 做成人人手里的消費級設備。
![]()
再看應用。就在前幾天,OpenAI 又出手收購了一家做產品測試和實驗平臺的公司Statsig,交易金額在11 億美元左右,是 OpenAI 迄今最大規模的收購之一。而 Statsig 的強項是做 A/B 測試和功能實驗,能幫助工程團隊快速迭代產品。
收購之后,創始人 Vijaye Raji 直接加入 OpenAI,當上了“應用 CTO”,負責 ChatGPT、Codex 等核心產品的工程和架構。與此同時,OpenAI 的管理層也在調整:前 Instacart CEO Fidji Simo 負責應用業務,Kevin Weil 轉去研究,Srinivas Narayanan 接管 B2B 應用。
從這里能看出,OpenAI 正在刻意把研究和應用兩條線拆開,并且分別配上重量級操盤手。這種組織架構,已經更接近一家成熟大廠,而不只是單純的研究機構了。
![]()
在算力基建上,OpenAI 也在加碼。它正在推進代號“Stargate”的超級數據中心項目,投入規模據說可能高達數百億美元。奧特曼甚至放話,到 2025 年底,OpenAI 擁有的 GPU 數量將突破100 萬臺。
這是什么概念?放在幾年前,整個行業加起來可能都沒有這個量。算力擴容的背后,就是要保證未來的 GPT-5、GPT-6 能有足夠的糧草去訓練。
與此同時,OpenAI 還在分散風險,一邊租 Google 的 TPU,一邊和 AMD 合作,避免完全受制于英偉達。
![]()
02 一條最難走的路
放在行業背景里看,這一步也讓 OpenAI 成為繼谷歌、亞馬遜、Meta 之后,又一家把自研芯片提上日程的 AI 巨頭。谷歌有 TPU,亞馬遜有 Trainium,Meta 有 Artemis,如今 OpenAI 補上了 XPU。
目前外界披露的情況是:OpenAI 研發的芯片是專門面向推理場景的,由前谷歌 TPU 工程師Richard Ho帶領大約40 人的團隊負責,博通提供關鍵設計與 IP,臺積電則計劃用3nm 工藝代工。
![]()
從 AI infra 的角度去看,OpenAI 確實邁出了非常勇敢的一步。
畢竟過去的幾年中,行業的優化幾乎都圍繞著如何讓 GPU 的利用率更高,如何讓每一張卡都物盡其用的節奏去走。而這次 OpenAI 選擇先做推理芯片,其實也是這個邏輯。
而且推理芯片的設計門檻相對低一些,它可以在現有的 GPU 體系之外起到補位的作用。換句話說,XPU 不是要立刻取代英偉達芯片,而是要先把推理這一環牢牢掌握在自己手里。
這也足以說明 OpenAI 的野心:它已經不滿足于依賴現成 GPU,而是開始嘗試從底層重塑算力體系。
但問題是,這條路的好處和弊端都同樣明顯。
自研的好處十分直觀。首先,它可以完全針對大模型的計算模式進行定制,不必像英偉達 GPU 那樣兼顧各種任務。這樣一來,推理效率更高、能耗更低,還能在內存帶寬和互聯架構等瓶頸上做專門優化。
其次,成本壓力也是核心驅動力。英偉達 GPU 的價格居高不下,大模型的訓練和推理往往要消耗成千上萬張卡。如果自研芯片能帶來哪怕20% 的能效提升,長期節省下來的電費和算力時間,就足以抵消掉巨額的研發投入。
更重要的是,自研還能擺脫對單一供應商的依賴,把模型、軟件和硬件深度綁定,形成更堅固的護城河。
但問題同樣很現實。首先是資金和周期,先進制程芯片的設計與流片成本動輒數億美元,整個周期至少要三到五年。而在這段時間里,英偉達的 GPU 還在不斷迭代,等 XPU 真正上線時能否保持競爭力,還是個未知數。
其次是人才瓶頸,能設計超大規模 AI 加速器的架構師鳳毛麟角,團隊搭建本身就是一道難關。軟件生態問題更為棘手,英偉達最大的優勢不是硬件,而是 CUDA 生態,已經成為行業事實標準。
這也意味著,OpenAI 不僅要造出芯片,還要重新搭建編譯器、驅動、工具鏈,并說服自家工程師愿意遷移,這一點比造出硬件本身還要更難。
03 屬于 OpenAI 的下一個十年
越激進,風險越大,故事也越精彩。
芯片研發的失敗率從來不低,消費級 AI 設備的市場需求依舊模糊,超級數據中心的投入更是前所未有。OpenAI 所走的,可能是整條產業鏈中最昂貴、最復雜、也最容易摔跤的一條路。
正因如此,它的故事才更值得關注。OpenAI 今天的選擇,不只是為了應對 GPT-5 的算力問題,而是在為未來十年乃至二十年的競爭埋下伏筆。它想要的是,在下一個時代里,像蘋果之于智能手機、微軟之于 PC 操作系統一樣,占據一個不可撼動的核心位置。
所以,當我們談論 OpenAI 的下一個十年,真正的問題不再是“它還能不能造出更強的 GPT”,而是它能不能用芯片、硬件、算力和應用,一起構筑出屬于 AI 時代的基礎設施。
如果它做到了,那未來科技產業的秩序,可能會因為今天的這幾步棋,而徹底被改寫。
https://www.ft.com/content/e8cc6d99-d06e-4e9b-a54f-29317fa68d6f?utm_source=chatgpt.com
https://openai.com/sam-and-jony/?utm_source=chatgpt.com
https://x.com/sama/status/1947057625780396512?utm_source=chatgpt.com
https://x.com/ns123abc/status/1963800300386681308?t=jOyS-5EhQOOSkX0taCSaRA&s=09
注:頭圖AI生成
作者長期關注 AI 產業與學術,歡迎對這些方向感興趣的朋友添加微信Q1yezi,共同交流行業動態與技術趨勢!
GPU 訓練特惠!
H100/H200 GPU算力按秒計費,平均節省開支30%以上!
掃碼了解詳情?
點「贊」的人都變好看了哦!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.