全文 4,000字 | 閱讀約 13 分鐘
![]()
(黃仁勛詳談:OpenAI 如何成為下一個萬億美元公司)
2025 年 9 月 26 日,英偉達 CEO 黃仁勛(Jensen Huang) 接受 BG2 播客專訪,參與節目《NVIDIA:OpenAI 與算力的未來》,進行了一場時長 110 分鐘的深度對談。
這場訪談的核心不是英偉達芯片性能,而是重新定義:英偉達,到底是一家什么樣的公司。
更重要的是,就在這場訪談發布前 72 小時(9 月 22 日), 英偉達剛剛宣布與 OpenAI 達成合作,支持其自建 10GW AI 工廠(Stargate 項目)。 這筆合作預計將為英偉達帶來最高 4000 億美元收入, 是其歷史上規模最大的一次 AI 基礎設施項目。
這已經不是“賣卡”的生意, 而是全新的商業模式。
黃仁勛在訪談中明確提出三點:
OpenAI 很可能成為 下一個萬億美元公司;
AI 不再是模型,而是一個需要持續供能的“智能工廠”;
每個國家、每家企業,都要開始建自己的“AI 發電廠”。
英偉達的角色,也正從賣芯片的供應商,變成全球 AI 電力的調度平臺。
他不是在解釋未來, 他是在建設未來。
第一節|OpenAI 投資背后:AI 工廠,不是 AI 模型
這場對話真正的爆點,并不是某個技術細節,而是黃仁勛親口確認的一筆合作:
我們將和 OpenAI 一起建 10GW 的 AI 工廠。 OpenAI 正在從租用算力,轉向自建算力。
對外界來說,這是一項“交易”:
投資額預計高達 1000 億美元,
如果全線使用英偉達設備,回報將接近 4000 億美元。
但在黃仁勛眼中,這不僅是一筆生意,而是一次商業模式的轉型:
過去,AI 模型是租來的,電力是用一點算一點; 現在,AI 企業開始自建電廠,擁有自己的發電系統。
他說:
“OpenAI 正在從使用 Azure,轉向建設自己的算力基礎。就像 X.ai 那樣,像 Meta 那樣,成為一個真正的超大規模公司。”
換句話說,OpenAI 不再只是訓練出 GPT 的 AI 公司, 它要做的,是建立一個“能不斷產出智能”的長期發電廠。
英偉達,在這其中扮演的,不再是提供芯片的供應商, 而是幫助客戶啟動整套“AI 發電廠”的合作伙伴。
更關鍵的是,這并不是孤立事件。 他說,英偉達已經同時在推進三個電廠項目:
微軟 Azure,與 OpenAI 聯合使用
OCI(Oracle、Softbank 聯合建設)
CoreWeave,自建云計算平臺
而這次與 OpenAI 的新合作,是第四個,也是最全面的一個。
這是第一次,英偉達直接參與芯片層、軟件層、數據中心層,幫助 OpenAI 從 0 到 1 建立完整的 AI 發電廠。
不是用一次,生成一段;
而是每天思考,反復生成,持續提供智能服務。
當智能需求不再是偶爾使用,而是像水電一樣常用時, 模型只是其中的一環,真正重要的是支撐它持續運行的算力基礎設施。
競爭的焦點發生了根本轉變:這不再是訓練模型的競賽,而是哪家公司擁有自己的 AI 發電廠。
第二節|AI 推理爆發,不是加速,而是轉方向
黃仁勛這次談得最多的,不是算得更快,而是算得更久。
他說,以前的 AI 更像是一臺計算器, 你提問,它立刻給答案。 現在的 AI,開始像人一樣,在回答前要先思考、查資料、組織邏輯。
“過去推理是一次性的,問一句,答一句。現在是鏈式推理:先想,再查,再想,再回答。”
這背后的底層變化,是一個新概念:AI 現在不是模型,而是一個推理流程。
它不再只做記憶題和填空題, 而是要自己分析、推導、綜合信息,甚至臨時學習新的方法。
而這帶來了兩個結果:
一是:推理過程越來越復雜
黃仁勛說,現在很多 AI 系統,在真正生成答案前,要先思考幾十步,每一步都涉及數據調取和算法調用。
這就像一個人寫作業,不再是背答案, 而是要自己做推理題、畫草圖、反復嘗試。
現在你有三個階段:預訓練、后訓練、推理。越是后面,算得越久、過程越復雜。
他甚至直接下了判斷:
“推理的增長,不是 100 倍,不是 1000 倍,是 100 億倍。”
二是:推理開始持續在線,不再是臨時調用
這就是黃仁勛說的推理從一次性計算轉向 AI 工廠連續運轉的原因。
今天的軟件是寫一次、運行一次。明天的軟件,是實時生成、持續運行。
過去一個模型處理一條指令,只運行幾秒;
現在一個智能體要不斷保持在線,時刻應對新任務。
模型需要更多時間想明白,也需要更多資源持續運行。
黃仁勛舉了個簡單的例子:
現在 OpenAI 的用戶數增長是指數級的,每個用戶的使用頻率和推理時間,也在指數增長。
用戶變多、用得更久、推理變復雜,三重增長疊加,需求規模直接躍升到全新量級。
這也就能解釋:為什么現在要建 AI 工廠? 不是為了追風口,而是因為過去的計算模式根本承載不了新的推理方式。
接下來,英偉達面臨關鍵抉擇:
是繼續當“芯片賣家”? 還是成為 AI 推理持續供能的“發電站”?
第三節|英偉達的轉向:賣的不再是芯片,而是“AI 產能”
黃仁勛說,現在大家都在說 AI 短缺,GPU 不夠。
但他明確了一點:
全球的計算短缺,并不是因為我們不想造,而是客戶給的預測,全都低估了需求。
過去幾年的模式很簡單:客戶說需要多少,英偉達就造多少。但每次預測出來的需求,都遠遠低于實際使用量。
所以,他們一直在追著需求跑。給的預測從沒一次是夠的。
這不是個別公司的問題,是整個行業進入“推理爆發期”的共性。
而在這種背景下,英偉達也開始重新定義自己要提供什么:
以前,是賣芯片;現在,是供產能。
現在已經不是一家公司小規模采購幾塊 GPU 的時代了,而是動輒幾十萬片、上百億美金的超大規模部署。
黃仁勛在播客上提出英偉達在做的,是為 AI 工廠提前布局整個供應鏈:
從晶圓開始,
到 HBM 高速內存、封裝、冷卻、主板、網絡、交換芯片……
提前一年甚至兩年,把一整條產線都準備好。
為什么?
因為一個 10GW 的 AI 工廠,要用幾十萬個 GPU,沒有提前一年布局,根本不可能同時交付。
他進一步解釋:
“你要想想,要啟動數千億美金的建設, 需要提前一年下晶圓單,下存儲單,準備所有部件。 沒有人能跟得上,除非你已經規劃好整條產線。”
這意味著英偉達的角色正在變:不再是等著客戶下訂單的賣家, 而是變成幫客戶建 AI 發電廠的合伙人。換句話說,他們現在賣的,已經不是 GPU,是讓 AI 能動起來的算力產能。
這種模式像什么?
像能源行業。
你不只是買電線、電池,你要的是穩定供電。你不只是買芯片、電路板,你要的是“穩定智能”。
而英偉達現在在做的,就是這個 AI 時代的“電力公司”。
第四節|AI 工廠值不值:看組合效率,也看智能密度
AI 工廠不是比誰卡多、誰芯片大,誰能把所有部件組合成一套高效的智能生產解決方案。
黃仁勛說,現在的競爭,不是硬件跑分比拼, 而是看誰能把芯片、內存、網絡、電力、軟件全部組合好,讓每一瓦電、每一塊卡、每一個冷卻通道都發揮最大價值。
他拿出了實際數據:
“英偉達的頂級芯片Blackwell 比上一代快 30 倍,不是因為晶體管變強了,是靠協同設計實現出來的。”
這背后的設計思路,就是他提出的:極限協同設計(Extreme Co-Design)
什么叫協同設計?
舉個通俗的例子:傳統方法像是造一輛很快的發動機,再配一個通用的底盤、輪胎。而英偉達的做法,是:發動機、底盤、方向盤、導航、冷卻系統,全一起設計。
具體來看:
Blackwell 引入第五代 NVLink 高速互聯,多個 GPU 能并行推理;
網絡用了專為 AI 設計的 Spectrum-X;
存儲是 HBM 高帶寬內存,讓模型運行更流暢;
軟件層也開源了 Dynamo,幫企業管理大規模模型運行調度。
所有這些組合,只為一個目標:讓每一臺機器、每一個瓦特,都能多產出一點智能。
現在英偉達每年要同時做六七款芯片,不是誰做得快、誰發布得早,而是要確保這些芯片能形成完整的產品體系,精準覆蓋不同需求。
但僅僅“能組合”還不夠。
黃仁勛提出另一個核心指標:單位功耗下,誰的 AI 工廠產出最多有效的AI計算。
為什么這個指標如此重要?主持人問他,客戶怎么評估哪家 AI 工廠值得投錢?
黃仁勛的回答是:現在最稀缺的,不是芯片,而是電力。
一個客戶的數據中心,功率上限可能就 2GW。你不可能無限擴容電力、土地和冷卻設備。所以關鍵問題變成了:每瓦電,產出多少智能?
他說得很直白:
“就算別人把芯片免費送你,如果產出低、效率差,你用它就是在浪費預算。”
他說他親耳聽到一個客戶的 CFO 這么算賬:
有 2GW 功率上限,
要部署大模型,需要幾萬個 GPU,
電費和空間已定,只能選“每瓦智能產出最高”的那套方案。
這也解釋了另一個外界常問的問題: “為什么客戶愿意給英偉下 500 億美元大單?”
黃仁勛說,客戶不是買卡的參數, 而是買你能不能如期交付整廠、能不能支撐大規模運算、能不能穩定運行 AI。
英偉達能提前一年準備好晶圓、封裝、內存、交換芯片、主板、冷卻,沒有哪個對手能做到這點。
最終比的是三件事:
誰能把所有零件組合成一整套能運轉的 AI 工廠;
誰的工廠單位產出更高,能用更少資源產出更多推理結果;
能穩定地、按時地把這套工廠交到客戶手里,讓客戶放心投資、敢于擴容。
黃仁勛說,現在全球都在關注 GPU 缺不缺、芯片夠不夠。
但他想提醒大家:真正的核心,不是卡有沒有,而是你的國家有沒有自己的 AI 發電廠。
每個國家,最終都會建自己的 AI 工廠,就像需要建設自己的電廠、網絡、云計算中心一樣。
過去是數據主權,現在是智能主權。
如果你沒有自己的 AI 工廠,意味著三件事:
你沒法支撐本國的 AI 模型訓練和部署;
企業用 AI,要依賴別人提供的算力服務;
數據留在本地,但智能的生成、分發、運行能力都依賴外部的 AI 基礎設施。。
黃仁勛在訪談中多次表示:
“AI 是新電力。就像沒有電,你什么都干不了。沒有 AI 產能,你未來很多事也干不了。”
? 不只是美國:各國都開始建自己的 AI 電廠
節目中主持人問他:是不是只有美國在沖這個方向?
黃仁勛的回答:不止美國。現在歐洲、中東、以色列、沙特、阿聯酋,都在加速建自己的 AI 工廠。
這些國家不見得有自己的模型公司, 但它們已經意識到:要掌握未來智能能力,必須有自己的 AI 推理基礎設施。
沙特就公開宣布,要建設全國級的 AI 基礎設施,拉上英偉達合作;
阿聯酋也成立了專門的國家級 AI 投資平臺,押注底層模型和算力結構。
未來,你不可能靠租用別人 GPU 來支撐國家級 AI 能力,就像你不可能永遠靠別人的電廠供電。
? 與中國相關嗎?當然相關
在這場全球AI 競賽中,中國是不能忽視的變量。
即使面對地緣政治的復雜性,黃仁勛依然表示:
中國是全球最大市場之一。它會建起自己的 AI 工廠,這點毫無疑問。
他說,中國不僅有華為,還有大量具備建設能力的企業:
工程能力強、執行速度快
對資源調配極有經驗
擁有自給自足的產業鏈結構
黃仁勛對此的判斷很直接:這不是脫鉤,是競賽。
? 誰會贏?不是看政策,而是看誰先“通電”
全球每個國家都站在一條起跑線上:
誰先建完 AI 工廠,誰的智能基礎設施先投入使用;
誰能在 10GW、20GW 電力下支撐全國智能服務;
誰能做到電力、數據、推理資源本地統一。
黃仁勛說:
“AI工廠的基礎設施建設,會成為下一個全球核心主權指標。”
換句話說,關鍵不是擁有多少 GPU,而是要有產能調度能力,能夠運行自己的智能任務,讓國內的企業、機構、醫院、法院、學校,都能連上自己的 AI 發電廠。
這已經不再是技術之爭,而是誰先把 AI 工廠通電投產。
結語|下一場 AI 戰爭,不打參數,而比“智能密度”
黃仁勛這場對話,說的不是模型有多強,而是 AI 工廠能產出多少智能。
能不能建出來?建完能產出多少價值?這才是核心競爭力。
英偉達的角色已經徹底改變:從賣芯片變成賣 AI 產能,從 GPU 公司變成“智能電廠”合作伙伴。
而接下來,所有國家、企業都要面臨同一個現實:智能的上限,取決于你有多少電力資源,能支撐多少 AI 持續運行。
全球大模型的競賽,正在從發布會,走向“工業建設”主戰場。
OpenAI 建 10GW 工廠,各大公司自研芯片建廠,每個動向背后都是同一件事:比誰先把智能變成產能,比誰能讓每度電產生更多有效智能。
黃仁勛已經開始在算這筆賬。
下一步,你要不要也算一算?
本文由AI深度研究院出品,內容整理自英偉達CEO黃仁勛最新訪談。未經授權,不得轉載。
星標公眾號, 點這里 1. 點擊右上角 2. 點擊"設為星標" ← AI深度研究員 ? ← 設為星標
https://www.youtube.com/watch?v=pE6sw_E9Gh0
https://timesofindia.indiatimes.com/technology/tech-news/nvidia-ceo-jensen-huang-elon-musks-xai-did-in-19-days-what-everyone-else-needs-/articleshow/124063499.cms
https://www.pcgamer.com/hardware/processors/jensen-huang-says-intel-and-nvidia-have-been-discussing-and-architecting-solutions-now-for-coming-up-to-a-year-and-kept-it-really-quiet
https://www.businessinsider.com/nvidia-investing-up-to-100-billion-openai-ai-deal-2025-9?utm
https://blogs.nvidia.com/blog/openai-nvidia/
來源:官方媒體/網絡新聞,
排版:Atlas
編輯:深思
主編:圖靈
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.