![]()
![]()
出品|搜狐科技
作者|梁昌均
編輯| 楊 錦
陷入AI泡沫爭議的英偉達依然在超越投資者預期。
這家全球市值最高的公司剛發布的2026財年第四財季報告顯示,期內營收681億美元,較上一季度增長20%,同比增長73%。
這也帶來了強勁的盈利增長,期內凈利潤近430億美元,環比增長35%,同比增長94%。失去中國市場的英偉達,依然表現強勁。
對比來看,在整個2026財年,英偉達該財季無論是營收還是凈利潤,均創下最高的同比增速,由此繼續刷新業績紀錄。
從全年來看,英偉達總營收達2159億美元(約合人民幣1.5萬億元),同比增長65%,首次躋身營收規模超萬億人民幣公司之列。
英偉達該財年凈利潤同比增長65%至1200億美元(約合人民幣8200億元),相當于每天賺超22億元、每秒賺2.5萬元,凈利潤水平居于全球前列。
![]()
數據中心營收占比首超90%
受益于持續高漲的AI投資熱潮,英偉達的芯片繼續大賣。
財報顯示,英偉達2026財年的數據中心收入增長68%,創下1937億美元的紀錄。其中第四財季為623億美元,環比增長22%,同比增長75%,在過去四個季度同樣創下最高增速。
![]()
英偉達2026財年四個財季營收及其數據中心業務情況
拉長周期看,自ChatGPT問世以來,英偉達的數據中心業務規模已擴大了近13倍。
到了該財季,數據中心首次成為英偉達營收占比超過90%的業務,游戲、專業可視化、汽車等業務占比被擠壓至不足10%。
最新財季,英偉達游戲業務營收約37億美元,環比下降13%,同比增長47%。該公司稱,游戲產品的終端需求強勁,預計供應限制將成為未來發展阻力。
數據中心業務規模的擴展,主要得益于Blackwell系列產能爬坡的持續強勁勢頭。
英偉達披露,過去四個季度已出貨600萬顆Blackwell GPU,主要云服務提供商、超大規模計算企業、AI模型制造商等部署并消耗了近9吉瓦基于Blackwell的基礎設施。
在數據中心業務中,英偉達的客戶群體也在持續擴大且多樣化,前五大云服務提供商(CSP)和超大規模計算企業貢獻超50%的收入,AI模型制造商、企業和主權國家也在快速增長。
過去一段時間,英偉達還與OpenAI、Meta、Anthropic等AI大模型制造商深化了合作。
去年9月,英偉達宣布計劃逐步向OpenAI投資千億美元,并部署至少10吉瓦的英偉達系統,幫助其訓練和運行下一代模型,第一階段預計今年下半年在Vera Rubin平臺上線。
隨后,英偉達又向Anthropic投資了100億美元,后者還將基于Grace Blackwell和Vera Rubin系統進行模型訓練和推理。
就在上周,英偉達又和Meta達成合作,后者將部署數以百萬計的Blackwell和Rubin GPU等用于訓練和推理,有望為后續增長提供支撐。
英偉達的主權AI業務同樣進展迅速,2026財年收入同比增長了兩倍多,超過300億美元,主要由位于加拿大、法國、荷蘭、新加坡和英國的客戶推動。
對于中國市場,英偉達CFO科萊特·克雷斯提到,雖然美國政府批準了向中國客戶提供少量H200產品,但尚未產生任何收入,并且不知道是否會允許任何進口進入中國。
英偉達年報顯示,在去年8月美國政府授予對中國客戶出售H20的許可后,英偉達僅產生了約6000萬美元的H20收入。
“我們在中國的競爭對手最近在IPO的支持下取得了進展,從長遠看有顛覆全球AI產業結構的潛力。”科萊特表示,英偉達將繼續與兩國政府接觸,并倡導美國在全球競爭的能力。
在產品迭代節奏上,在Blackwell強勁爬坡的同時,英偉達于CES推出的下一代Vera Rubin平臺也即將走向量產。
該平臺包括Vera CPU、Rubin GPU等六款新芯片,與Blackwell相比能在使用四分之一GPU數量的情況下訓練MOE模型,并將推理Token成本降低多達10倍。
亞馬遜、谷歌、微軟和甲骨文成為首批部署基于Vera Rubin的廠商。科萊特透露,本周早些時候,已發出首批Vera Rubin樣品,有望在今年下半年量產出貨。
![]()
未來還能持續增長嗎?
英偉達還在財報中給出了創紀錄的業績指引,預計新財年第一財季總營收為780億美元,且仍不包含來自中國的任何數據中心計算營收。
按此看,英偉達新財季營收將環比增長15%,同比增長77%。英偉達預計,全年毛利率將保持在75%左右,表明其在備貨情況下還不太會受到存儲等漲價帶來的影響。
不過,在財報電話會上,分析師對英偉達未來的持續增長能力進行了追問。
“你對云服務提供商和超大規模計算企業繼續增加資本支出有多大信心?如果它們的資本支出沒有增長,英偉達還能找到增長點嗎?”有分析師向英偉達CEO黃仁勛發問。
黃仁勛則表示,對這些企業現金流的增長充滿信心,因為已經看到了代理式AI(Agentic AI)的拐點,以及生成Token的指數級增長和代理的實用性,這將帶來令人難以置信的計算需求。
他還稱贊了Anthropic的Claude Cowork代理平臺,稱其是革命性的,打開了企業級AI采用的閘門。“在Claude Cowork和OpenAI Codex的推動下,計算需求正在飆升,代理式AI的ChatGPT時刻已經到來。”
這是黃仁勛給AI下的最新論斷。“在AI的新時代,計算即收入。沒有計算,就沒有辦法生成Token;沒有Token,就沒有辦法實現收入增長。”
他表示,代理式AI正在生成能夠為客戶帶來生產力、為云服務提供商帶來利潤的Token,而現在每一家CSP和超大規模企業都明白資本支出將轉化為算力,其最終將轉化為收入。
“如果現在不投資產能、不投資算力,就不可能實現收入增長。”黃仁勛強調。
據英偉達披露,分析師對排名前五的CSP和超大規模計算企業在今年資本支出的預期,自年初以來已上調1200億美元,接近7000億美元。這其中,絕大多數可能都會投向英偉達。
這使得科萊特有底氣在電話會上預言,英偉達今年各季度營收都將實現環比增長,并有機會超出黃仁勛此前提出的5000億美元營收預期。
黃仁勛此前預計,到2030年,全球AI基礎設施投資規模將達到3至4萬億美元。但有投資者認為目前似乎已過了投資高峰期,質疑此預期實現的可能性。
OpenAI最近就透露,計劃至2030年投入約6000億美元建設計算基礎設施,這與該公司CEO奧特曼此前宣稱的至2033年投入1.4萬億美元的計劃大幅縮水,引發市場擔憂。
黃仁勛對此則回應稱,從第一性原理來看,未來開發軟件的方式是利用AI驅動,未來Token生成幾乎處于所有與軟件和計算相關的中心位置。
“過去世界每年在經典計算上的投資大約是3000億到4000億美元,而現在AI所需的計算量要高出一千倍,這遠遠不僅僅是7000億美元所能涵蓋的。”
黃仁勛表示,從現在起,需要繼續生成Token,繼續投資計算能力。因為歸根結底,所有公司都由軟件驅動,每個軟件都需要依賴AI。
“這就是為什么我們說這是一場新的工業革命。只要我們相信生成Token是計算的未來,我堅信這一點,我認為整個行業也相信,那么從現在起我們將繼續建設這種能力,繼續擴張。”
黃仁勛表示,目前正在經歷的浪潮是代理式AI的爆發,下一個拐點則是將物理AI以及代理系統引入物理應用中,比如制造業、機器人,前方存在著巨大的機會。
![]()
黃仁勛回應“與OpenAI合作生變”
對于英偉達為何要投資OpenAI、Anthropic、AI芯片公司Grok等,黃仁勛表示,英偉達已從一家基于GPU的計算平臺轉型為AI計算基礎設施公司,投資是為了擴大和深化生態系統。
他劇透,將利用Grok的創新來擴展英偉達的架構,以實現AI基礎設施性能和價值的新高度,將在下個月的GTC大會上分享更多信息。
不過,英偉達與OpenAI千億美元的合作早前則被爆出生變。有媒體報道稱,該計劃因英偉達內部人士對這筆交易存疑而停滯不前,正在重新考慮未來的合作關系。
黃仁勛隨后則回應稱,最初的1000億美元協議并非具有約束力,也尚未最終確定。
媒體報道稱,雖然黃仁勛對OpenAI的業務運營有所不滿,且對其面臨的競爭表示擔憂,但其認為如果OpenAI落后于其他AI開發商,可能會影響英偉達的銷售。
黃仁勛此次在財報會上強調,英偉達會繼續與OpenAI推進合作協議,并相信已接近達成。“這是一家十年難遇的公司,我們很榮幸從他們成立的第一天起就與之合作。”
最新報道顯示,OpenAI接近完成新一輪近千億美元融資,估值將突破8500億美元,亞馬遜擬出資最高500億美元,軟銀出資約300億美元,而英偉達預計投資200億至300億美元。
財報會上,黃仁勛還被問到馬斯克等人提出的太空算力的可行性。他表示,目前的經濟效益還很差,但會隨著時間推移而改善。
他提到,太空的工作方式與在地球上截然不同。太空中有豐富的能源,有著充足的空間,需要巨大的太陽能電池板,同時需要制造的尺寸相當大的散熱器,液冷顯然不可能,因為它很重而且會結冰。
“但有許多不同的計算問題,確實很適合在太空中進行處理。”黃仁勛表示,英偉達已擁有世界上首個太空GPU,AI未來在太空中將會有非常出色、非常有趣的應用。
![]()
![]()
運營編輯 |曹倩審核|孟莎莎
![]()
![]()
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.