英偉達的創始人兼CEO老黃, 雖然60多歲了,但看著他最近一系列的密集運作, 體力真是令我欽佩 。
前不久,英偉達50億美金投資了Intel,占股大概有個4%,實現了這對世紀冤家的“歡喜大結盟”。
而就在昨天, 英偉達宣布“霸凌式投資”OpenAI 1000億美金:現階段一分不給。
等到 OpenAI用英偉達的卡每建成1GW的數據中心后,才打款十分之一,也就是100億,而為了這 1GW的數據中心, OpenAI要花500-600億,其中300-350億要給 英偉達。
而OpenAI此前還和甲骨文簽了5年3000億美金的云服務合同,為了提供這個服務,甲骨文還得去買英偉達的卡。
而甲骨文自己手頭根本沒有那么多錢, 甲骨文客戶給它的錢都屬于還沒付的應收賬款,它自己 必須去融資或者發債,才能”賣腎買卡”。
最后,今天阿里宣布了和英偉達的一系列合作,Physical AI之類的概念一大堆,其實開發者由此可以在阿里云上使用英偉達的軟件棧,但在我看來,其關鍵在于,市場似乎認為英偉達找到了在無法直接賣卡給中國公司的困局下,依然和中國公司保持緊密合作的妥協方案,這對它的“護城河”尤為關鍵。
今天這篇文章,是Ben Thompson最近連續幾篇關于英偉達文章的合集,我把不相關的內容去掉了,最后是Sam Altman今天凌晨發表的一篇小博客的譯文,他解釋了下為何OpenAI最近會瘋狂買算力(也就是為什么老黃最近會春風得意),我給合成一篇發表了(有些敏感詞我用同義詞替代了)。
【正文開始】
今年二季度,英偉達的當季營業額達到了467億美元,基本符合分析師預期。但是,關鍵的數據中心部門 data-center segment (就是賣芯片的部門)的營收,增長了56%,但仍然略低于分析師預期的413億美元。
英偉達預測,第三財季營收為540億美元,略高于華爾街分析師的一致預期。但是,在連續多個業績大增的季度之后,這一營收增速被認為不過如此,并引發了人們對于AI芯片需求增長可能已趨于瓶頸期的擔憂。
當時在財報發布后,英偉達股價三連跌。
但是,我認為,分析英偉達財報最重要的是看“供需平衡”。
一年半前,我就指出過這一點,現在仍然如此:只要市場上對英偉達GPU的需求超過供應,英偉達的銷售額就取決于他們能生產出多少 GPU。供應當然在增加,這也正是英偉達銷售額能持續攀升的原因,但是,假設供應只是線性增長,那么到頭來,隨著基數變得越來越大,因為英偉達此前的營收本身已實現指數級增長,英偉達的增長率這個數字就勢必會變小了。
從一個有趣的角度來看待英偉達和中國,以及黃仁勛極力想向該國出售產品的原因,就是英偉達“護城河moat”的本質。黃仁勛在回答一個關于 ASIC 的提問時說道:
“我們先談談 ASIC,很多項目都起步了,許多初創公司涌現,但真正能打造產品的少之又少。原因很簡單,這事兒太難了。加速計算accelerated computing,不同于通用計算general-purpose computing,你不能只是寫個軟件,然后編譯成可在處理器上運行的代碼。加速計算,涉及全棧的協同設計full-stack co-design。而過去幾年里,AI 工廠變得愈發復雜,因為問題規模激增。這真的是當今世界上最終極、最極端的計算機科學問題,所以全棧都很復雜。模型在飛速演進,從基于自回歸的生成模型,到基于擴散的生成模型,再到混合模型和多模態模型。涌現出的不同模型,實在太多,要么是 Transformer 的衍生模型,要么是 Transformer 的衍化模型,數量之龐大令人望而生畏。”
“而英偉達的一個優勢,就是英偉達無處不在。所有云,都有我們的存在,每家計算機公司,都在用我們。從云端、到本地、再到邊緣乃至機器人領域,我們都采用同一個編程模型。因此全球每種框架都支持英偉達。當你構建新的模型架構時,在英偉達上發布是最明智的選擇。我們的平臺具有多樣性,既能適應任何架構演進,又遍布各處,并且我們加速了整個流程,從數據處理、預訓練、到帶有強化學習的后訓練,一直到推理。所以,當你用英偉達平臺構建數據中心時,其效用是最好的,設備壽命也長得多。”
上述回答,其實已經體現了護城河的兩個層面。
第一,就是 CUDA本身,英偉達控制了GPU的軟件棧,這是默認選項,然后是CUDA 的普及度,由于CUDA 無處不在,這意味著你可以前往任何云廠商,也可以找到熟悉 CUDA 的開發者。
黃仁勛還說:“再補充一點,除了剛才說的這些,這本質上已經成了一個極其復雜的系統級問題。大家總是談論芯片本身,許多人談論的 ASIC 就只有一個,也就是 GPU。但為了打造 Blackwell 平臺和 Rubin 平臺,我們還得打造 CPU 來連接高速內存,為 Agentic AI 提供所需的大容量、超高能效緩存,以此連接到 GPU,再連接到超級 NIC,再連接到縱向擴展交換機,也即NVLink,如今已發展到第五代,然后再連接到橫向擴展交換機,無論是 Quantum 還是 Spectrum-X 以太網,再進一步橫跨交換機擴展,以便我們為那些擁有數吉瓦計算能力、互聯成網的 AI 超級工廠做好準備。我們稱之為 Spectrum-XGS。所以,我們所做的一切復雜得難以置信,而且,現在這一切都是在極其龐大的規模下完成的。”
這就是護城河的第二部分:網絡networking。
我一直在討論英偉達的GPU,但實際上,GPU是在系統層面協同工作的,尤其在訓練方面。
而英偉達將多顆 GPU,聯結為單一協調系統的能力,無人能及。這也成了一個重大的收入驅動力:本季度,2025年Q2,英偉達的網絡業務收入達到73億美元,已經超過了其2019年收購 Mellanox 時支付的價錢,而Mellanox 正是其網絡產品的基礎。
這筆收購,堪稱史上最成功的收購之一。
“最后再說一點:我們之所以能進入所有云平臺是有原因的,我們是最節能的,我們的每瓦性能performance per watt,是任何計算平臺中最好的。而在電力受限的數據中心,每瓦性能,直接驅動營收。各位也聽我說過,在很多情況下,你買得越多,增長越快the more you buy, the more you grow。再加上我們的每美元性能performance per dollar,也就是性價比實在驚人,因此我們的利潤率也極高。所以,采用英偉達 架構所帶來的增長機會和毛利空間絕對是最優的。所以每家云服務商、每家初創公司、每家計算機公司都選擇英偉達 ,我們真正提供的是 AI 工廠的一體化全棧解決方案。”
上述最后一點,也即第三點,我認為或許是英偉達在西方世界(注意是在西方)長期護城河中最關鍵的組成部分。
如果,AI公司最終受到功耗限制,那么他們就必須最大化每瓦性能,只要英偉達還在這一指標上保持領先,他們高昂的價格,就物有所值。(關于AI大模型的性能雖然越來越強,但消耗的tokens卻越來越多,可見這篇: AI 公司們如今陷入了一種囚徒困境:他們都必須提高模型性能,以領先競爭對手,但他們提高性能的方式,實際上摧毀了自身的盈利能力,與此同時,英偉達則扮演著那個收稅人的角色:AI 公司虧得越多,英偉達賺得就越多。)
然而,在中國,功耗很可能不會是限制因素,因此,英偉達的護城河將更多地依賴CUDA,而這一切的前提,是中國公司的大模型,的確使用英偉達的芯片來進行訓練和推理。
讓中國公司使用英偉達的芯片,其實確保了美國對主流 AI 軟件棧的主導地位,但是反過來,如果中國公司不用英偉達芯片,其實不僅削弱了美國的控制力,而且對英偉達而言,將長期威脅其在世界各地的銷售。
原因事關整體競爭格局,一旦由中國推出了開源CUDA 的替代方案,且形成規模,不僅中國市場,全球市場上的英偉達芯片,都將面臨競爭。
黃仁勛其實以一直依賴都在擔憂,中國肯定是未來 AI 芯片最重要的市場之一,然而,即便不受到限制,可以自由銷售,英偉達在該市場也沒有可持續存在的差異化優勢。
關于不久前,英偉達投資英特爾50億的案子,Ben Thomson認為這筆交易的最大輸家,并非臺積電,而是AMD:“一直以來,AMD區別于Intel之處,在于它不僅在x86 CPU領域展開競爭,還在GPU領域有所布局,這得益于其2006年收購了當時英偉達最大的競爭對手:ATI。但不幸的是,AMD的軟件實力向來不足,它既沒有建立起像英偉達那樣的AI軟件棧,也不具備英偉達的網絡能力。這意味著,同時擁有CPU和GPU業務,并未給AMD帶來原本可能擁有的優勢。如今,對于那些想要英偉達GPU又需要x86 CPU的公司來說,Intel將成為顯而易見的首選,而且這些Intel CPU還將擁有AMD所沒有的另一項專有技術:比如Thunderbolt。不過,需要指出的是,這種損失對AMD而言,更多只是錯失良機。AMD在只看重性能和總體擁有成本(Total Cost of Ownership)的領域,依然表現強勁,而且這一勢頭應會持續下去。實際上,你也可以說這筆交易在相當程度上延長了x86架構的生命力,而這歸根結底對AMD也是有利的。”
附:Sam Altman最新Blog《豐裕的智能Abundant Intelligence》
AI 服務的使用增長,令人驚嘆,但我們預期未來會更加令人驚嘆。
隨著 AI 變得更聰明,獲取 AI 將成為經濟體發簪的基本驅動力,甚至最終會成為一項基本人權,幾乎所有人都會希望有更多的 AI 為自己工作。
為了能夠提供世界所需,既提供運行這些模型的推理算力,也提供讓它們持續變得更好的訓練算力,我們正在發力鋪設基建,以便顯著擴大我們建設 AI 的雄心。
如果,AI 按照我們認為的軌跡進步,那么許多驚人的事情將成為可能。
也許,在 10 吉瓦的算力下,AI 能夠找到治愈癌癥的方法;也許,在 10 吉瓦的算力下,AI 能夠為地球上的每一位學生提供個性化輔導。
如果,受到算力限制,我們就不得不在兩者之間取舍......沒有人愿意做這種選擇,所以讓我們盡快開始吧。
我們的愿景很簡單,我們想打造一座工廠,每周都能產出 1 吉瓦的 AI 基礎設施。
要把這件事執行出來,極其困難。達到這一里程碑,需要我們用上數年時間,并且要求在整個技術棧的每一層——從芯片、供電、建筑、機器人——都進行創新。
但我們一直在為此努力,并且相信這是可行的。在我們看來,這將是有史以來最酷、也最重要的基礎設施項目。
我們對在美國大規模建設這些設施,格外興奮。眼下,其他國家在建設芯片晶圓廠以及新的能源產能方面的速度,遠快于我們,而我們希望扭轉這一趨勢。
在接下來的幾個月里,我們將談一談部分規劃,以及我們正在與之合作、把這一愿景變為現實的伙伴。今年晚些時候,我們會介紹我們的融資方式,鑒于如何提升算力是提升收入的關鍵所在how increasing compute isthe literal key to increasing revenue,我們有一些有趣的新想法。
【點擊標題擴展閱讀】
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.