![]()
時間:2025年10月28日(美國東部時間中午12點,北京時間10月29日凌晨)
地點:華盛頓特區·沃爾特·E·華盛頓會議中心
演講時長:1小時43分鐘
黃仁勛主題演講全程
開場致辭
華盛頓特區!華盛頓特區,歡迎來到 GTC。很難不對美國感到感傷和自豪——我得告訴你。剛才那個視頻很棒,對吧?謝謝。英偉達的創意團隊做得非常出色。
歡迎來到 GTC,今天我們有很多內容要和大家分享。GTC 是我們討論行業、科學、計算、當下與未來的地方。所以今天我有很多內容要分享。
但在開始之前,我想感謝所有幫助、贊助這次盛會的合作伙伴。你們會在展會上看到他們,他們都在這里與大家見面。如果沒有整個生態系統的合作伙伴,我們就無法完成今天所做的事情。
人們說,這是人工智能的超級碗。那每一個超級碗,都該有一個精彩的賽前表演。你們覺得這個表演怎么樣?還有我們的全明星運動員陣容,看看這些人。不知為何,我成了最健壯的那一個。你們覺得怎么樣?我不知道這是不是和我有關。
加速計算:超越摩爾定律
正如你們在視頻中看到的,英偉達在 60 年來首次發明了一種新的計算模型。新的計算模型非常罕見——它需要大量時間與特定條件。我們發明它,是為了應對通用計算機無法解決的問題。
我們很早就觀察到,總有一天晶體管數量會繼續增加,但性能與功率卻會下降。摩爾定律終將失效,受物理極限的約束。那個時刻,現在已經到來。登納德縮放定律在大約十年前就已停止。事實上,晶體管的性能及功率效率都已大幅下降,盡管數量仍在增長。
我們很久以前就看到了這一趨勢。過去 30 年,我們一直在推進這種稱為“加速計算”的新型計算模式。
我們發明了 GPU,也創造了名為 CUDA 的編程模型。我們觀察到,如果能讓一個新的處理器利用更多晶體管,通過并行計算補充順序處理的 CPU,那么計算能力就能被大幅擴展。
那個時刻真的到來了。我們已經看到了那個拐點——加速計算的時代正式到來。
不過,加速計算是完全不同的編程模型。你不能只是把 CPU 上的順序程序直接放到 GPU 上運行,那樣反而更慢。必須重新發明算法、創建新的庫、重寫整個應用程序。這就是為什么我們花了將近三十年的時間,一次只專注解決一個領域。
CUDA-X:公司的真正寶藏
這是我們公司的財富。多數人談論的是 GPU,GPU 當然重要,但如果沒有建立在其之上的編程模型、沒有持續保持跨世代兼容,就不會有今天的生態。
我們即將推出 CUDA 13 與 CUDA 14。數億個 GPU、遍布全球的每臺計算機,完全兼容。如果我們沒做到這一點,開發者就不會以此為目標平臺。如果我們沒有創建這些庫,開發者就不會知道如何調用算法,也無法充分發揮架構潛能。這才是我們真正的寶藏。
cuLitho——計算光刻,我們花了近 7 年時間打造。現在臺積電、三星、ASML 都在使用它,這是芯片制造流程的第一步。
cuOpt——數值優化引擎,打破幾乎所有記錄。它能在供應鏈中將數百萬種產品與數百萬客戶高效匹配。
Warp——面向 CUDA 的 Python 模擬求解器。
cuDF——加速 SQL 與 DataFrame 的數據引擎,是 AI 數據處理的啟動點。
cuDNN及其上的Megatron Core庫,使我們能夠模擬并訓練極其大型的語言模型。
![]()
這樣的例子還有很多。MONAI——全球第一的醫學影像 AI 框架。順便說一句,今天我們不會過多談醫療,但請務必觀看金伯利的主題演講,她將介紹我們在醫療健康領域的工作。
類似的例子不勝枚舉:基因組學處理、空氣動力仿真……而今天我們還要做一件重要的事——cuQuantum,量子計算庫。這只是我們公司 350 個不同庫中的一部分代表。每一個庫都重新設計了加速計算的算法,讓我們的生態伙伴能充分利用 GPU 加速,并不斷開拓新的市場。
讓我們來看看 CUDA-X 能做什么。
很棒吧?你們看到的一切都是模擬——沒有藝術渲染,沒有動畫。這就是數學之美。這是計算機科學與數學的深度融合,令人難以置信的美妙。它涵蓋了每個行業,從醫療與生命科學,到制造、機器人、自動駕駛、計算機圖形,甚至電子游戲。
你們看到的第一張圖,就是英偉達最初的應用程序。那是 1993 年,我們從那時起就相信自己要做的事。很難想象,從第一個虛擬格斗場景,到今天的超級計算生態,我們始終在踐行同一個信念。
這真是一段不可思議的旅程。我想感謝所有英偉達的員工,為這一切所做出的努力。真的太棒了。
今天我們要介紹很多內容:人工智能、6G、量子計算、模型、企業計算、機器人與工廠。我們有很多重大消息要宣布,也有很多新的合作伙伴會讓你們驚喜。讓我們開始吧。
電信革命:與諾基亞合作推進 6G
電信是我們經濟、產業以及國家安全的支柱和命脈。自無線技術誕生以來,我們曾經定義這項技術,制定全球標準,把美國技術出口到世界各地,讓全世界在美國技術和標準的基礎上建設。這種情況,已經很久沒有發生過了。如今,世界各地的無線技術很大程度上都建立在外國技術之上。我們的基本通信結構建立在外國技術的基礎上,而這種情況必須結束。我們有機會做到這一點,特別是在這個根本性的平臺轉折時期。
正如你們所知,計算機技術幾乎是每一個行業的基礎。它是科學最重要的工具,也是工業最重要的工具。我剛才說過,我們正在經歷一次平臺轉變——一個一生只有一次的機會,讓我們重新回到賽場,讓我們再次用美國的技術去創新。
今天,我們宣布將這樣做。我們與諾基亞建立了大型合作伙伴關系。諾基亞是世界第二大電信設備制造商,這是一個價值 3 萬億美元的產業,基礎設施價值數千億美元,全球有數百萬個基站。如果我們能夠合作,就能在這項基于加速計算和人工智能的新技術之上進行建設,讓美國成為 6G 革命的中心。
![]()
NVIDIA ARC:空中無線電網絡計算機
今天,我們宣布英偉達推出一條全新的產品線——NVIDIA ARC(Air Radio Computer),空中無線電網絡計算機,也稱為空中無線電接入網計算機。ARC 由三項核心技術構建而成:Grace CPU、Blackwell GPU,以及我們專為此應用設計的 ConnectX Mellanox ConnectX 網絡。所有這些組件使我們能夠運行之前提到的 Aerial CUDA-X 庫。
Aerial 本質上是一個運行在 CUDA-X 之上的無線通信系統。我們將首次創造出一臺“軟件定義、可編程”的計算機,它能夠同時執行無線通信與人工智能處理。這是徹底的革命性創新,我們稱之為NVIDIA ARC。
![]()
諾基亞將與我們合作,整合我們的技術,重寫他們的協議棧。這是一家擁有 7000 項關鍵 5G 專利的公司——很難想象在電信領域有比他們更出色的領導者。我們將與諾基亞攜手,把 NVIDIA ARC 作為他們未來的基站平臺。
NVIDIA ARC 與諾基亞現有的 AirScale 基站完全兼容。這意味著,我們能夠將這項新技術部署到全球數百萬個基站,通過 6G 與人工智能實現升級。
6G 與人工智能至關重要,因為我們將首次能夠使用 AI 技術應用于 RAN(無線接入網),從而顯著提升頻譜效率。AI 和強化學習可以根據環境、流量、移動性、天氣等因素,實時且有針對性地調整波束成形,提高頻譜使用率。頻譜效率影響全球約 1.5% 到 2% 的電力消耗。提高頻譜效率,不僅能在不增加能耗的情況下傳輸更多數據,也能讓通信網絡更加智能。
我們還可以做另一件事——“用于 RAN 的人工智能”,以及“RAN 上的人工智能”。這將開啟一個全新的機會。記住,互聯網實現了通信,而令人驚訝的是,像 AWS 這樣的智能公司在互聯網之上構建了云計算系統。我們現在將在無線通信網絡之上做同樣的事情。這個新的“云”將是一個邊緣工業機器人云。
第一個層面是“用于 RAN 的人工智能”,它可以提升無線電頻譜效率;第二個層面是“RAN 上的人工智能”,本質上是為無線通信系統提供的云計算平臺。這個云計算將直接延伸到邊緣——沒有數據中心的地方,因為全球各地都有基站。
這真是一個令人振奮的公告。諾基亞首席執行官賈斯汀·霍達(Justin Hoda),我想他就在這里——感謝你們的合作,也感謝你們幫助美國把電信技術帶回美國。這是一次非常棒的合作,也是慶祝諾基亞的最佳方式。謝謝。
量子計算的突破
讓我們來談談量子計算。1981 年,粒子物理學家、量子物理學家理查德·費曼提出了一種能夠直接模擬自然的新型計算機——因為自然本身就是量子的。他稱之為“量子計算機”。
四十年過去,這個領域終于迎來了根本性的突破。就在去年,量子計算領域取得了一個真正的里程碑:我們現在能夠制造出“邏輯量子比特”——一個相干、穩定并經過糾錯的邏輯量子比特。
一個邏輯量子比特有時由十個,有時由數百個物理量子比特協同構成。大家知道,量子比特極其脆弱,任何外界觀察、采樣或環境變化都會破壞其相干性。因此,我們需要極其可控的環境,還需要許多物理量子比特一起工作,以便進行誤差校正,通過輔助量子比特(或稱 syndrom 量子比特)推斷出邏輯量子比特的狀態。
目前,業界存在多種量子計算機路線:超導、光子、囚禁離子、穩定原子等,不同的方式都有其探索路徑。
我們現在意識到一件關鍵的事:將量子計算機直接連接到 GPU 超級計算機至關重要。這樣我們才能進行誤差校正、AI 校準與控制,并在兩者之間進行協同模擬。正確的算法在 GPU 上運行,正確的算法在 QPU 上運行,兩臺計算機并肩協作——這,就是量子計算的未來。
你知道,首席執行官們,我們不僅僅是坐在辦公桌前敲鍵盤——這真是一項“體力活”。所以今天,我們宣布推出NVQLink。
這項互聯技術使得 GPU 與量子計算機可以進行實時協作,用于控制與校準、量子糾錯以及混合模擬。更重要的是,它是完全可擴展的架構。它不僅能為今天的數百量子比特提供誤差校正,也為未來的數萬甚至數十萬個量子比特打下基礎。我們終于擁有了一種能夠控制、協同模擬、執行量子糾錯并持續擴展的體系結構。
![]()
行業支持與能源部合作
在 CUDA-Q 發明之后,行業給予了極大的支持。要知道,CUDA 最初是為 GPU、CPU 加速計算設計的,讓兩種處理器各自發揮所長。而現在,CUDA-Q 把這種理念擴展到了 QPU(量子處理單元),讓 GPU 與 QPU 能夠在幾微秒內相互傳遞計算任務——這種延遲控制是實現混合量子計算的關鍵。
如今,CUDA-Q 已被眾多開發者采用。我們今天宣布,已有 17 家量子計算公司支持 NVQLink。同時,還有8 個美國能源部實驗室與我們合作,包括伯克利、布魯克海文、芝加哥費米實驗室、林肯實驗室、洛斯阿拉莫斯、橡樹嶺、太平洋西北和圣地亞哥國家實驗室。幾乎每一個能源部實驗室都在與我們及量子計算生態伙伴攜手,將量子計算融入科學的未來。
我還有一個重要的宣布:能源部正與英偉達合作,建設 7 臺全新的 AI 超級計算機,用于推動美國科學發展。
![]()
我必須特別致敬能源部長克里斯·賴特。他為能源部注入了驚人的活力與熱情,讓美國再次走在科學最前沿。正如我所提到的,計算是科學的基本工具,而我們正經歷多重平臺轉型。
一方面,是加速計算——未來的每一臺超級計算機都將以 GPU 為核心。
另一方面,是人工智能——AI 與基于原理的模擬、物理求解器將協同工作,相互增強。
此外,經典計算也將與量子計算融合,用于理解自然界的真實狀態。
未來,我們要面對前所未有的數據規模與信號密度。遙感、實驗、模擬都將需要更高效的方式進行。而這些實驗室若想以我們期望的規模和速度前進,就必須成為“機器人工廠”,成為“機器人實驗室”。
所有這些技術正同時進入科學體系。賴特部長深刻理解這一點——他希望能源部抓住這一時刻,全面提升能力,確保美國繼續引領科學的未來。
人工智能:新的工業革命
讓我們來談談人工智能。什么是人工智能?大多數人會說人工智能是一個聊天機器人,這是理所當然的。毫無疑問,ChatGPT正處于人們所認為的AI的前沿。然而,正如你此刻所見,這些科學超級計算機不會運行聊天機器人,他們將從事基礎科學研究。
科學AI的世界遠比想象中更廣闊,遠不止是一個聊天機器人。當然,聊天機器人極其重要,而通用AI則具有根本性的關鍵意義。深層計算機科學、非凡的計算能力以及重大突破,仍是實現AGI的關鍵要素。但除此之外,AI還有更多可能。
AI重構計算堆棧
實際上,我將用幾種不同的方式來描述AI。第一種方式,即人們最初對AI的認知,是它徹底重構了計算棧。我們過去做軟件的方式是手工編碼,在CPU上運行手工編碼軟件。如今,AI就是機器學習、訓練,或者說數據密集型編程,由在GPU上運行的AI訓練和學習而成。為實現這一目標,整個計算棧已發生改變。
注意,你在這兒看不到Windows,也看不到CPU。你看到的是完全不同的、從根本上截然不同的架構。在能源之上還有這些GPU。這些GPU被連接到、集成到我稍后將展示的基礎設施中。在這項基礎設施之上——它由巨型數據中心構成,其規模輕松達到這個房間的數倍之多。巨大的能量隨后通過名為GPU超級計算機的新設備轉化,從而生成數據。這些數字被稱為tokens。
語言,也就是計算的基本單位,是AI的詞匯表。幾乎任何東西都可以進行tokens化。當然,你可以對英語單詞進行分詞處理,你可以對圖像進行分詞處理,這就是你能夠識別圖像或生成圖像的原因。對視頻進行分詞,對3D結構進行分詞。你可以對化學物質、蛋白質和基因進行tokens化處理,你可以對單元格進行tokens化處理,將具有結構的幾乎任何事物、具有信息內容的任何事物進行分詞處理。
一旦能夠將其tokens化,AI就能學習該語言及其含義。一旦它學會了那種語言的含義,它就能翻譯,它能回應,就像你與ChatGPT互動那樣,它能生成內容。因此,你所看到ChatGPT所做的一切基礎功能,你只需想象一下,如果它是一種蛋白質會怎樣?如果它是一種化學物質呢?如果它是一個3D結構,比如工廠呢?如果它是一個機器人,而tokens是理解行為并將其轉化為動作和行為的標記呢?所有這些概念基本上是一樣的。這正是AI取得如此非凡進展的原因。
在這些模型之上還有應用程序。Transformers是一個極其有效的模型,但并不存在放之四海皆準的通用模型。只是AI具有普遍影響。模型種類繁多。在過去的幾年里,我們享受了發明帶來的樂趣,并經歷了創新的洗禮,例如多模態的突破。有這么多不同類型的模型,有CNN模型(卷積神經網絡模型),有狀態空間模型,也有圖神經網絡模型,多模態模型,當然,還包括我剛才描述的所有不同的分詞方式和分詞方法。
你可以構建在理解層面具有空間特性、針對空間感知能力進行了優化的模型。你可以擁有針對長序列進行優化、在較長時間內識別微妙信息的模型。有如此多不同類型的模型。在這些模型之上,還有構建在這些模型架構之上的架構——這些就是應用程序。
AI是工作者,不是工具
過去的軟件產業致力于創造工具。Excel是一個工具,Word是一款工具,網頁瀏覽器是一種工具。我之所以知道這些是工具,是因為你使用它們。工具行業,正如螺絲刀和錘子,其規模有限。就IT工具而言,它們可以是數據庫工具,這些IT工具的價值約為一萬億美元左右。
但AI并非工具,AI是工作,這就是本質上的區別。AI實際上就是能夠真正使用工具的勞動者。我特別興奮的一件事,就是歐文在Perplexity公司開展的工作。Perplexity使用網頁瀏覽器預訂假期或購物,本質上就是一個使用工具的AI。Cursor是一款AI系統,是我們在英偉達使用的具有自主決策能力的AI系統。英偉達的每位軟件工程師都在使用Cursor,它極大地提高了我們的生產效率。它基本上是每位軟件工程師的代碼生成助手,并且它使用了一個工具,它使用的工具名為VSCode。因此,Cursor是一個基于VSCode的智能代理式AI系統。
所有這些不同的行業,無論是聊天機器人、數字生物學、AI助手研究員,還有在自動駕駛出租車內,當然,AI司機是無形的。但顯然有一個AI司機在工作,而他完成這項工作的工具就是汽車。因此,我們迄今為止所創造的一切,整個世界,我們迄今為止創造的一切,都是工具,供我們使用的工具。技術如今首次能夠承擔工作,并幫助我們提高生產力。機遇清單源源不斷,這正是AI能夠觸及IT從未涉足的經濟領域的原因。
IT是支撐著100萬億美元全球經濟的工具之下,蘊藏著數萬億美元價值的基石。如今,AI將首次參與這100萬億美元的經濟體,并提升其生產力,讓它增長得更快,變得更大。我們面臨嚴重的勞動力短缺問題,擁有能夠增強勞動力的AI將助力我們實現增長。
從科技產業的角度來看,這點同樣耐人尋味:除了AI作為新興技術正在開拓經濟新領域之外,AI本身也是一種新興產業。正如我先前所解釋的,這個token,這些數字,在你對所有這些不同信息模態進行token化之后,需要有一個工廠來生產這些數字。與過去的計算機行業和芯片行業不同。
注意,如果你看過去的芯片行業,芯片行業大約占多萬億美元IT行業的5%到10%,也許更少,大約5%左右。原因在于,使用Excel不需要那么多計算。使用瀏覽器不需要那么多計算。使用Word不需要那么多計算。我們進行計算。但在這個新世界里,需要有一臺計算機始終理解上下文。它無法預先計算,因為每次你使用AI計算機時,每次你要求AI做某事時,上下文都不同。所以,它必須處理所有這些信息。環境信息,例如在自動駕駛汽車的情況下,它必須處理汽車的上下文。上下文處理。你要求AI做什么的指令是什么?然后它必須去分解問題,逐步推理,想出一個計劃并執行它。每一個步驟都需要生成大量的tokens,這就是為什么我們需要一種新型系統,我稱之為AI工廠。簡稱AI工廠。
AI工廠的誕生
它不像過去的數據中心。它是一個AI工廠,因為這個工廠生產一件東西,不像過去的數據中心做所有事情。為我們所有人存儲文件,運行各種不同的應用程序。你可以像使用計算機一樣使用那個數據中心進行各種應用。你可以用它玩游戲。你可以用它瀏覽網頁。你可以用它做賬。所以那是過去的計算機,一個通用的通用計算機。
我在這里談論的計算機是一個工廠。它基本上運行一件事。它運行AI,其目的,其目的是設計生產盡可能有價值的tokens,這意味著它們必須是智能的。你希望以驚人的速度生產這些tokens,因為當你向AI索要東西時,你希望它回應。注意在高峰時段,這些AI現在響應越來越慢,因為它有很多工作要為很多人做。所以你想以驚人的速度生產有價值的tokens,你想以成本效益的方式生產它。我使用的每一個詞都與AI工廠一致,與汽車工廠或任何工廠一致。它絕對是一個工廠。這些工廠,這些工廠以前從未存在過。在這些工廠內部是堆積如山的芯片。
![]()
這就引出了今天。過去幾年發生了什么?事實上,今年發生了什么?今年發生了一些相當深刻的事情。實際上,如果你看年初,每個人對AI都有一些態度。那種態度通常是這將是大事。這將是未來。不知何故,幾個月前,它進入了渦輪增壓狀態。原因有幾個。
AI的三大縮放定律
首先是我們在過去幾年中找到了如何讓AI變得更加聰明的方法。而不僅僅是預訓練,預訓練基本上是說讓我們采用人類創造的所有信息。讓我們把它給AI學習。這本質上是記憶和泛化。
這就像我們小時候上學一樣。學習的第一階段。預訓練從來不是,就像學前教育從來不是教育的終點。預訓練,學前教育只是教你智能的基本技能,這樣你就可以學習其他一切。沒有詞匯,不理解語言和如何交流,如何思考,就不可能學習其他一切。接下來是后訓練。預訓練后的后訓練是教你技能。解決問題的技能。分解問題。推理。如何解決數學問題。如何編碼。如何逐步思考這些問題。使用第一原理推理。
然后之后就是計算真正發揮作用的地方。如你所知,對我們許多人來說,你知道,我們上了學,在我的情況下是幾十年前。但從那以后我學到了更多,思考了更多。原因是我們不斷地將自己扎根于新知識。我們不斷地進行研究,我們不斷地思考。思考才是智能的真正所在。
所以現在我們有三項基本技術技能。我們有這三項技術。預訓練,仍然需要巨大的計算量。我們現在有后訓練,它使用更多的計算,現在思考對基礎設施施加了難以置信的計算負載,因為它代表我們每個人思考。因此AI思考推理所需的計算量真的非常驚人。
現在我以前聽人說推理很容易。英偉達應該做訓練。英偉達將做,你知道,他們真的擅長這個。所以他們將做訓練。推理很容易。思考怎么可能容易?重復記憶的內容很容易。重復乘法表很容易。思考很難。這就是為什么這三個規模,這三個新的縮放定律,全力運行,對計算量施加了如此大的壓力。
現在從這三個縮放定律中發生了另一件事。我們得到更智能的模型,這些更智能的模型需要更多計算。但當你得到更智能的模型時,你得到更多智能。人們使用它。
那么,我說到哪里了?你的模型越聰明,你的模型越聰明,就有更多人使用它。它現在更扎根。它能夠推理。它能夠解決它以前從未學過如何解決的問題,因為它可以做研究。去學習它。回來,分解它,推理如何回答你的問題,如何解決你的問題,然后去解決它。思考量使模型更智能。它越智能,就有越多人使用它。它越智能,就需要越多計算。但這是發生的事情。
去年,AI行業轉過了拐點,這意味著AI模型現在足夠聰明了。它們正在賺錢,它們是值得的。它們值得付費。英偉達為Cursor的每個許可證付費。我們很樂意這樣做。我們很樂意這樣做,因為Cursor正在幫助數十萬名軟件工程師或AI研究員提高許多倍的生產力。所以,當然,我們非常樂意這樣做。這些AI模型已經變得足夠好,值得為它們付費。Cursor、ElevenLabs、Synthesia、D-ID、Open Evidence,名單還在繼續。當然,OpenAI,當然,Claude。這些模型現在如此出色,人們正在為它們付費。因為人們為它們付費并使用更多,每次他們使用更多,你就需要更多計算。我們現在有兩個指數。
這兩個指數,一個是三個縮放定律的指數計算需求。第二個指數,越多人,它越聰明,越多人使用它,越多人使用它,它需要越多計算。兩個指數現在正在給世界的計算資源施加壓力,恰恰在我之前告訴你的,摩爾定律基本上已經結束的時候。
所以問題是我們該怎么辦?如果我們有這兩個指數需求增長,如果我們找不到降低成本的方法,那么這個正反饋系統,這個循環反饋系統,本質上稱為良性循環,對幾乎任何行業都至關重要,對任何平臺行業都至關重要。這對英偉達至關重要。我們現在已經達到了CUDA的良性循環。應用程序越多,人們創建的應用程序越多,CUDA就越有價值。CUDA越有價值,購買的CUDA計算機就越多。購買的CUDA計算機越多,開發者就越想為它創建應用程序。英偉達的這個良性循環在30年后已經實現。我們也實現了這一點。15年后,我們為AI實現了這一點。AI現在已經達到了良性循環,所以你使用它越多,因為AI很聰明,我們為它付費,產生的利潤就越多,產生的利潤越多,投入到網格上的計算就越多,投入到AI工廠的計算就越多,AI變得越聰明,越多人使用它,更多應用程序使用它,我們可以解決更多問題。
這個良性循環現在正在旋轉。我們需要做的是大幅降低成本。這樣一來,用戶體驗更好,當你提示AI時,它會更快地回應你,二來,我們通過降低成本來保持這個良性循環運轉,這樣它可以變得更聰明,這樣更多人使用它,如此等等。這個良性循環現在正在旋轉,但當摩爾定律真的達到這個極限時,我們該如何做到這一點呢?
極致協同設計
答案叫做協同設計。你不能只是設計芯片,然后希望它上面的東西會變得更快。你在設計芯片方面能做的最好的事情是每隔幾年增加我不知道50%的晶體管,如果你增加更多晶體管,你知道我們可以增加更多晶體管,臺積電有很多晶體管,令人難以置信的公司,我們只是不斷增加更多晶體管,然而那都是百分比,不是指數。我們需要復合指數來保持這個良性循環運轉。
極致協同設計是當今世界上唯一一家公司,它真正從一張白紙開始,可以思考新的基本架構、計算機架構、新芯片、新系統、新軟件、新模型架構和新應用程序,全部同時進行。所以這個房間里的很多人都在這里,因為你們是那個堆棧不同部分的不同部分,與英偉達合作。我們從頭開始徹底重新設計一切,然后因為AI是如此大的問題,我們把它放大。
我們創造了一臺完整的計算機,有史以來第一次擴展到整個機架的計算機。那是一臺計算機,一個GPU。然后我們通過發明一種新的AI以太網技術來擴展它,我們稱之為Spectrum以太網。每個人都會說以太網就是以太網。以太網幾乎不是以太網。以太網Spectrum-X以太網是為AI性能設計的,這就是它如此成功的原因。
即使那還不夠大。我們將用AI超級計算機和GPU填滿整個房間。那還不夠大,因為AI的應用程序數量和用戶數量繼續呈指數增長。我們將多個這樣的數據中心連接在一起,我們稱之為跨越Spectrum-XGS千兆規模X Spectrum-X千兆規模XGS。
通過這樣做,我們在如此巨大的水平上進行協同設計,如此極端的水平,性能優勢是令人震驚的。不是每一代提高50%,不是每一代提高25%,而是要多得多。這是我們制造過的最極端的協同設計計算機,坦率地說,是現代制造的。自IBM system 360以來,我認為計算機從未像這樣從頭開始重新發明過。這個系統創建起來非常困難。我馬上會向你展示好處。
Grace Blackwell NVL72
但基本上我們所做的,基本上我們所做的,我們創造了……嘿,Janine,你可以出來了。你必須跟我走到一半。好吧。所以,這有點像美國隊長的盾牌。
所以,NVL72,如果我們要創建一個巨大的芯片,一個巨大的GPU,它會是這樣的。這就是我們必須進行的晶圓級處理的水平。這太不可思議了。所有這些,所有這些芯片現在都被放入一個巨大的機架中。
![]()
是我做的還是其他人做的?進入那一個巨大的機架。你知道,有時候我覺得我不是一個人在這里。只是這一個巨大的機架讓所有這些芯片作為一個整體工作。這實際上是完全不可思議的。我會向你展示好處。它看起來像這樣。所以,謝謝,Janine。
我喜歡這個。好吧,女士們先生們,Janine Paul。我明白了。將來下一次,我就要像雷神那樣。就像當你在家里夠不到遙控器時,你就這樣做,有人把它拿給你。那是的。同樣的想法。我從來沒有遇到過。我只是在做夢。我只是說。好的。所以,無論如何,無論如何,我們基本上,這是我們過去創造的。這是NVLink 8。
現在,這些模型是如此巨大。我們解決它的方法是將這個模型,這個巨大的模型,變成一大堆專家。這有點像一個團隊。所以,這些專家擅長某些類型的問題。我們將一大堆專家集合在一起。所以,這個巨大的數萬億參數AI模型有所有這些不同的專家,我們將所有這些不同的專家放在一個GPU上。
現在,這是NVL72。我們可以將所有芯片放入一個巨大的結構中,每一個專家都可以相互交談。所以主專家,主要專家可以與所有真正的工作以及所有必要的上下文和提示以及我們必須發送給所有專家的大量數據,我們必須發送給所有專家的大量tokens交談。被選中解決答案的專家中的任何一個,然后會去嘗試回應,然后它會去做那一層又一層。有時八層,有時16層,有時這些專家,有時64個,有時256個。但關鍵是有越來越多的專家。好吧,這里NVL72,我們有72個GPU。因此,我們可以在一個GPU中放入四個專家。
你需要為每個GPU做的最重要的事情是生成tokens,這就是你在HBM內存中擁有的帶寬量。我們有一個H一個GPU為四個專家生成思考,而這里因為這些計算機每個只能放8個GPU。我們必須將32個專家放入一個GPU。所以這一個GPU必須為32個專家思考,而這個系統每個GPU只需要為四個專家思考。因此,速度差異是令人難以置信的。
這個剛剛出來。這是Semi Analysis做的基準測試。他們做得非常非常徹底,他們對所有可以基準測試的GPU進行了基準測試,事實證明并不多。如果你看可以實際基準測試的GPU列表,大約90%是英偉達。好的。但所以我們在與自己比較,但世界上第二好的GPU是H200,它運行所有工作負載。
Grace Blackwell每個GPU是10倍的性能。現在,當它只有兩倍的晶體管數量時,你如何獲得10倍的性能?答案是極致協同設計。通過理解未來AI模型的本質,我們在整個堆棧中思考,我們可以為未來創建架構。這是一件大事。它說我們現在可以更快地響應。但這是更大的事情。這下一個,看看這個。這說的是世界上成本最低的tokens是由Grace Blackwell NVLink 72生成的。最昂貴的計算機。
一方面,GB200是最昂貴的計算機。另一方面,它的token生成能力非常強大,以至于它以最低的成本生產,因為每秒tokens除以Grace Blackwell的總擁有成本非常好。這是生成tokens的成本最低的方式。通過這樣做,提供令人難以置信的性能,10倍的性能,提供10倍更低的成本,那個良性循環可以繼續。
CSP資本支出與市場需求
這就引出了這個。我昨天才看到這個。這是CSP資本支出。這些天人們問我關于資本支出的問題,這是看待它的好方法。事實上,前六大CSP的資本支出,這一個是亞馬遜、Coreweave、谷歌、Meta、微軟和Oracle。好的,這些CSP一起將在資本支出上投資這么多,我會告訴你時機再好不過了,原因是現在我們有了Grace Blackwell NVLink 72,在全球所有地方都在大規模生產供應鏈制造它。所以我們現在可以向所有人交付這種新架構,這樣資本支出投資于提供最佳TCO的儀器計算機。
現在在這下面發生了兩件事。所以當你看這個時,它實際上相當非凡,無論如何它相當非凡。但下面正在發生的是,有兩個平臺轉變同時發生。一個平臺轉變是從通用計算到加速計算。
記住加速計算,正如我之前提到的,它做數據處理,它做圖像處理,計算機圖形,它做各種計算。它運行SQL,運行Spark,它運行,你知道,你問它,你告訴我們你需要運行什么,我相當確定我們有一個很棒的庫給你。你可以是,你知道,一個試圖制造掩模來制造半導體的數據中心。我們有一個很棒的庫給你。
所以無論AI如何,世界正在從通用計算轉向加速計算,無論AI如何。事實上,許多CSP已經有了很久以前在AI之前就有的服務。記住,它們是在機器學習時代發明的。經典機器學習算法,如XGBoost,算法如數據框,用于推薦系統,協同過濾,內容過濾,所有這些技術都是在通用計算的舊時代創建的。即使是那些算法,即使是那些架構,現在用加速計算會更好。所以即使沒有AI,世界的CSP也將投資于加速。英偉達的GPU是唯一可以做所有這些加上AI的GPU。ASIC可能能夠做AI,但它不能做任何其他的。英偉達可以做所有這些,這解釋了為什么傾向于英偉達的架構是如此安全。
我們現在已經達到了我們的良性循環,我們的拐點。這是非常非凡的。我有很多合作伙伴在房間里,你們所有人都是我們供應鏈的一部分,我知道你們有多努力工作。我想感謝你們所有人有多努力工作,非常感謝。
現在我要向你展示為什么這就是我們公司業務中正在發生的事情。我們看到Grace Blackwell的非凡增長,原因就是我剛才提到的所有原因。它由兩個指數驅動。我們現在有可見性。我認為我們可能是歷史上第一家在2026年之前擁有累計5000億美元Blackwell和Rubin早期增長的可見性的科技公司。如你所知,2025年還沒有結束,2026年還沒有開始。這是賬面上的業務量。到目前為止價值5000億美元。
現在,這是其中的一部分。我們已經在最初幾個季度出貨了600萬個Blackwell。我猜是生產的前四個季度,三個半季度的生產。我們還有一個季度要完成2025年。然后我們有四個季度。所以接下來的五個季度有5000億美元,5000億美元,5000億美元。那是Hopper增長率的5倍。這告訴你一些事情。
這是Hopper的整個生命周期。這不包括中國和亞洲。所以Hopper在其整個生命周期中有400萬個GPU。Blackwell。每個Blackwell在一個大封裝中有兩個GPU。Blackwell和Rubin早期有2000萬個GPU。令人難以置信的增長。
所以,我想感謝我們所有的供應鏈合作伙伴。每個人,我知道你們有多努力工作。我制作了一個視頻來慶祝你們的工作。讓我們播放它。
Blackwell制造:美國制造
我們再次在美國制造。這太不可思議了。特朗普總統要求我的第一件事就是把制造業帶回來。把制造業帶回來,因為這對國家安全是必要的。把制造業帶回來,因為我們想要工作,我們想要經濟的那部分。九個月后,九個月后,我們現在在亞利桑那州全面生產Blackwell。
下一代:Vera Rubin
極致Blackwell GB 200 NV Grace Blackwell NVL 72極致協同設計給了我們每代10倍。這完全不可思議。現在,真正不可思議的部分是這個。這是我們制造的第一臺AI超級計算機。這是2016年我將它交付給舊金山的一家初創公司,后來被證明是OpenAI。這就是那臺計算機。為了創建那臺計算機,我們設計了一個芯片。我們設計了一個新芯片,以便我們進行協同設計。
現在,看看我們必須做的所有芯片。這就是它所需要的。你不會用一個芯片讓計算機快10倍。那不會發生。讓計算機快10倍的方法,我們可以繼續指數級提高性能,我們可以繼續指數級降低成本,是極致協同設計并同時處理所有這些不同的芯片。
我們現在在家里有Rubin。這是Rubin。這是Vera Rubin和Rubin。女士們先生們,Rubin。
![]()
這是我們的第三代NVLink 72機架規模計算機。第三代GB200是第一代。我們在世界各地的所有合作伙伴,我知道你們有多努力工作。這太瘋狂了。這太瘋狂了。第二代,順利得多。這一代,看看這個。完全無線纜。完全無線纜。
這,這現在都回到實驗室了。這是下一代Rubin。當我們正在運送GB300時,我們正在準備Rubin投入生產。你知道,明年這個時候,也許稍早一點。所以,每一年,我們都將提出最極端的協同設計系統,這樣我們就可以繼續提高性能,繼續降低token生成成本。看看這個。這只是一臺令人難以置信的美麗計算機。
現在,所以這太神奇了。這是100 petaflops。我知道這沒有任何意義。100 petaflops,但與我10年前,9年前交付給OpenAI的DGX-1相比,它是這里100倍的性能,而不是那臺超級計算機的100倍。其中100個會像這些機架中的25個全部被這一件東西取代。100倍100個那些,讓我們看看,100個那些將像25個這樣的機架全部被這一件東西取代。
一個Vera Rubin。好的。所以這是計算托盤,這是所以Vera Rubin超級芯片。好的。這是計算托盤。這個,哦,就在這里。安裝起來非常容易。只需打開這些東西,推進去。即使我也能做到。好的。這是Ver Vera Rubin計算托盤。如果你決定想要添加一個特殊的處理器,我們添加了另一個處理器。它被稱為上下文處理器,因為我們給AI的上下文量越來越大。我們想在它回答問題之前閱讀一大堆PDF。想閱讀一大堆檔案論文,觀看一大堆視頻,在你為我回答問題之前去學習所有這些。所有那些上下文處理可以添加。
所以你在底部看到8個ConnectX 9新的超級網卡。你有CX,你有CPX,8個。你有BlueField 4這個新的數據處理器,兩個Vera CPU和四個Rubin封裝或八個Rubin GPU。所有這些都在這一個節點中,完全無線纜,100%液冷。
然后這個新處理器,我今天不會談論太多。我沒有足夠的時間,但這是完全革命性的。原因是你的AI需要有越來越多的內存。你與它互動越來越多。你希望它記住我們上次的對話。我代表我學到的一切,下次我回來時請不要忘記它。所以所有那些內存將創建這個叫做KV緩存的東西。那個KV緩存檢索它,你可能已經注意到每次你進入你的AI這些天,刷新和檢索所有以前的對話需要越來越長的時間,原因是我們需要一個革命性的新處理器,那就是BlueField 4。
接下來是ConnectX交換機,對不起,NVLink交換機,就在這里。好的,這是NVLink交換機。這就是使我們能夠將所有計算機連接在一起的原因。這個交換機現在是整個世界峰值互聯網流量的幾倍帶寬。所以那個骨干網將通信并將所有數據同時傳送到所有GPU。
除此之外,除此之外,這是Spectrum-X交換機。這個以太網交換機設計成所有處理器可以同時相互交談而不會堵塞網絡。堵塞網絡。這非常技術性。好的。所以,這三個結合在一起。然后這是Quantum交換機。這是用于Infiniband的。這是以太網。我們不在乎你想使用什么語言,無論你喜歡使用什么標準。我們為你提供了很好的擴展結構。無論是Infiniband還是Quantum還是Spectrum以太網,這個使用硅光子學,完全是共封裝光學器件。基本上,激光直接到硅并連接到我們的芯片。好的。所以,這是Spectrum-X以太網。
所以,現在讓我們談談。謝謝。哦,這就是它的樣子。這是一個機架。這是兩個半。這是2000。這是兩噸。150萬個部件。骨干網,這個骨干網就在這里,在一秒鐘內承載整個互聯網流量。同樣的速度在所有這些不同的處理器之間移動。100%液冷。全部為了,你知道,世界上最快的token生成率。好的,所以這就是一個機架的樣子。
現在那是一個機架。一個千兆瓦數據中心將有,你知道,叫它16個機架將是一千,然后500個那些。所以無論500乘以16,所以叫它9000個這樣的,8000個這樣的將是一個千兆瓦數據中心。好的。那就是未來的AI工廠。
AI工廠的設計:Omniverse DSX
現在我們使用,正如你注意到的,英偉達從設計芯片開始,然后我們開始設計系統,我們設計AI超級計算機。現在我們正在設計整個AI工廠。每次我們向外移動并整合更多的問題來解決時,我們都會提出更好的解決方案。我們現在建造整個AI工廠。這個,這個AI工廠就是我們為Vera Rubin建造的,我們創造了一項技術,使我們所有的合作伙伴能夠數字化地集成到這個工廠中。讓我給你看。
完全完全數字化,在Vera Rubin作為真實計算機存在之前很久,我們就一直在使用它作為數字孿生計算機。現在,在這些AI工廠存在之前很久,我們將使用它,我們將設計它,我們將規劃它,我們將優化它,我們將作為數字孿生來操作它,所以所有與我們合作的合作伙伴,我非常高興你們所有人支持我們。Gio在這里,GE Vernova在這里。Schneider,我想Olivia在這里。Olivia Blum在這里。Siemens,令人難以置信的合作伙伴。好的。Roland Busch,我想他在看。嗨Roland。所以無論如何,真的非常棒的合作伙伴與我們合作。
一開始我們有CUDA,我們有所有這些不同的軟件合作伙伴生態系統。現在我們有Omniverse DSX,我們正在建造AI工廠,我們再次擁有這些令人難以置信的合作伙伴生態系統與我們合作。
![]()
開放模型
讓我們談談模型。開源模型,特別是在過去幾年中。發生了幾件事。一,開源模型由于推理能力而變得相當有能力。由于它們的多模態性而變得相當有能力,由于蒸餾而它們非常高效。所以所有這些不同的能力使開源模型有史以來第一次對開發者來說非常有用。它們現在是初創公司的命脈。不同行業的初創公司的命脈,因為顯然正如我之前提到的,每個行業都有自己的用例,自己的數據,自己擁有的數據,自己的飛輪。所有那些能力,那些領域專業知識需要有能力嵌入到模型中。開源使之成為可能。研究人員需要開源。開發者需要開源。世界各地的公司,我們需要開源。開源模型真的非常非常重要。
美國必須在開源方面保持領先。我們有令人驚嘆的專有模型。我們有令人驚嘆的專有模型。我們還需要令人驚嘆的開源模型。我們的國家依賴它。我們的初創公司依賴它。所以英偉達正在致力于去做這件事。我們現在是最大的,我們在開源貢獻方面處于領先地位。我們在排行榜上有23個模型。我們有所有這些不同的領域,從語言模型到物理AI模型。我將談論機器人模型到生物學模型。這些模型中的每一個都有巨大的團隊,這就是為什么我們為自己建造超級計算機以使所有這些模型能夠被創建的原因之一。我們有第一的語音模型,第一的推理模型,第一的物理AI模型。下載次數真的非常非常好。我們致力于此,原因是科學需要它,研究人員需要它,初創公司需要它,公司需要它。
企業AI與生態系統
我很高興AI初創公司建立在英偉達之上。他們這樣做有幾個原因。一,當然,我們的生態系統很豐富。我們的工具工作得很好。我們所有的工具在我們所有的GPU上都能工作。我們的GPU無處不在。它實際上在每一個云中。它可以在本地使用。你可以自己構建它。你可以構建一個帶有多個GPU的發燒友游戲PC,你可以下載我們的軟件棧,它就能工作。我們受益于豐富的開發者,他們正在使這個生態系統越來越豐富。所以我對我們正在合作的所有初創公司真的很滿意。我對此表示感謝。
同樣的情況是,這些初創公司中的許多現在正在創造更多享受我們GPU的方式。Coreweave、Nscale、Nebius、Lambda,所有這些公司,Crusoe公司正在建立這些新的GPU云來服務初創公司,我真的很感激這一切都是可能的,因為英偉達無處不在。
我們整合我們的庫。我談到的所有CUDA-X庫。我談到的所有開源AI模型。我談到的所有模型,我們整合到AWS,例如,真的很喜歡與Matt合作。我們整合到Google Cloud,例如,真的很喜歡與Thomas合作。這些云中的每一個都整合英偉達GPU和我們的計算,我們的庫以及我們的模型。
喜歡與Microsoft Azure的Satya合作。喜歡與Oracle的Clay合作。這些云中的每一個都整合英偉達堆棧。因此,無論你去哪里,無論你使用哪個云,它都工作得令人難以置信。我們還將英偉達庫整合到世界SaaS中,這樣這些SaaS中的每一個最終都將成為代理式SaaS。
我喜歡Bill McDermott對ServiceNow的愿景。在那里。是的,就在那里。我想那可能是Bill。嗨,Bill。所以,ServiceNow,它是什么?85%的世界企業工作負載,工作流程。SAP,80%的世界商務。Christian Klein和我正在合作整合英偉達庫,CUDA-X和Nemo和Neotron,我們所有的AI系統到SAP,與Synopsys的Sassine合作,加速世界CAE、CAD、EDA工具,使它們可以更快并可以擴展,幫助他們創建AI代理。總有一天,我想雇用一個AI代理,ASIC設計師與我們的ASIC設計師一起工作。本質上是Synopsys的Cursor。
我們正在與Anirudh合作。Anirudh在這里,我今天早些時候見到他。他是賽前表演的一部分。Cadence做令人難以置信的工作,加速他們的堆棧,創建AI代理,這樣我們就可以有Cadence AI作為設計師和系統設計師與我們合作。
與CrowdStrike和Palantir的合作
今天我們宣布一個新的。AI將增強生產力。AI將改變幾乎每個行業。但AI也將增強網絡安全挑戰,壞的AI。所以我們需要一個令人難以置信的防御者。我無法想象比CrowdStrike更好的防御者。George,George在這里。他在那里,是的,我之前見到他。
我們與CrowdStrike合作,使網絡安全光速,創建一個在云中有網絡安全AI代理的系統,但在本地或邊緣也有令人難以置信的好AI代理。這樣,每當有威脅時,你就能在瞬間檢測到它。我們需要速度,我們需要快速的代理式AI,超級智能的AI。
我有第二個公告。這是世界上最快的企業公司。可能是當今世界上最重要的企業堆棧。Palantir Ontology。Palantir的人在這里嗎?我剛才和Alex談過。
這是Palantir Ontology。他們獲取信息,他們獲取數據,他們獲取人類判斷,他們將其轉化為商業洞察。我們與Palantir合作加速Palantir所做的一切,這樣我們就可以進行數據處理,以更大的規模和更快的速度進行數據處理,無論是過去的結構化數據,當然我們將有結構化數據,人類記錄的數據,非結構化數據,并為我們的政府,為國家安全和世界各地的企業處理那些數據。以光速處理那些數據并從中找到洞察。這就是未來的樣子。Palantir將整合英偉達,這樣我們就可以以光速和非凡的規模進行處理。好的,英偉達和Palantir。
物理AI:連接數字與現實
讓我們談談物理AI。物理AI需要三臺計算機,就像訓練語言模型需要兩臺計算機一樣。一臺用于訓練它,評估它,然后推理它。好的,所以那就是你看到的大GB 200。為了為物理AI做這件事,你需要三臺計算機。你需要計算機來訓練它。這是GB,Grace Blackwell NVLink 72。
我們需要一臺計算機進行我之前用Omniverse DSX展示的所有模擬。它基本上是機器人學習如何成為好機器人的數字孿生,工廠本質上成為數字孿生。那臺計算機是第二臺計算機,Omniverse計算機。這臺計算機必須在生成式AI方面非常出色,它必須擅長計算機圖形、傳感器模擬、光線追蹤、信號處理,這臺計算機被稱為Omniverse計算機。
一旦我們訓練模型,在數字孿生中模擬那個AI,那個數字孿生可以是工廠的數字孿生,以及一大堆機器人的數字孿生。然后你需要操作那個機器人。這是機器人計算機。這個進入自動駕駛汽車。一半可以進入機器人。好的?或者你實際上可以有,你知道,相當敏捷和相當快速操作的機器人。它可能需要兩臺這樣的計算機。所以這是Thor Jetson Thor機器人計算機。這三臺計算機都運行CUDA。它使我們能夠推進物理AI。理解物理世界,理解物理定律,因果關系,永久性,你知道,物理AI。
美國再工業化
我們有令人難以置信的合作伙伴與我們合作創建工廠的物理AI。我們正在使用它自己在德克薩斯州創建我們的工廠。現在,一旦我們創建了機器人工廠,我們就有一堆機器人在里面。這些機器人也需要物理AI應用物理AI并在數字孿生中工作。讓我們看一看。
那就是制造業的未來,工廠的未來。我想感謝我們的合作伙伴Foxconn,CEO Younglu在這里,但所有這些生態系統合作伙伴使我們能夠創造機器人工廠的未來。
工廠本質上是一個機器人,正在協調機器人來構建機器人的東西。你知道,這所需的軟件量是如此密集,除非你能在數字孿生中做到,規劃它,設計它,在數字孿生中操作,否則讓這個工作的希望幾乎是不可能的。我也很高興看到Caterpillar,我的朋友Joe,Joe Creed和他的百年老公司也在他們制造的方式中整合數字孿生。
這些工廠將有未來的機器人系統,最先進的之一是Figure。Brett Adcock今天在這里。他在三年半前創立了一家公司。他們價值近400億美元。今天我們正在合作訓練AI,訓練機器人,模擬機器人,當然還有進入Figure的機器人計算機,真的很棒。我有幸看到它。真的非常非常不凡。
人形機器人很可能,我的朋友Elon也在研究這個,這很可能成為最大的新消費電子市場之一,當然也是最大的工業設備市場之一。Peggy Johnson和Agility的人正在與我們合作研究倉庫自動化機器人。Johnson & Johnson的人再次與我們合作訓練機器人,在數字孿生中模擬它,還操作機器人。這些John Johnson & Johnson外科機器人甚至將進行完全非侵入性手術,以世界從未見過的精度。
當然,有史以來最可愛的機器人,有史以來最可愛的機器人,迪士尼機器人。這真的非常接近我們的心。我們正在與迪士尼研究合作開發一個全新的框架和模擬平臺,基于稱為Newton的革命性技術。那個Newton模擬器使機器人能夠在物理感知的基于物理的環境中學習如何成為好機器人。讓我們看一看。
女士們先生們,迪士尼Blue。告訴我那不可愛。那不可愛。我們都想要一個。我們都想要一個。
現在,記住你剛才看到的一切,那不是動畫。不是電影。這是模擬。那個模擬是在Omniverse中。Omniverse,數字孿生。所以這些工廠的數字孿生,倉庫的數字孿生,手術室的數字孿生,Blue可以學習如何操縱和導航并與世界互動的數字孿生。完全實時完成。這將成為世界上最大的消費電子產品線。其中一些現在工作得非常好。這是人形機器人的未來,當然還有Blue。好的。
自動駕駛:輪式機器人的崛起
現在,人形機器人仍在開發中。但與此同時,有一個機器人顯然處于拐點,它基本上就在這里,那就是輪式機器人。這是robo taxi。robo taxi本質上是一個AI司機。
現在,我們今天正在做的一件事,我們宣布NVIDIA Drive Hyperion。這是一件大事。我們創建了這個架構,以便世界上的每家汽車公司都可以創建汽車,車輛可以是商用的,可以是客運的,可以專用于robo taxi。創建robo taxi就緒的車輛。帶有環繞攝像頭和雷達以及激光雷達的傳感器套件使我們能夠實現最高級別的環繞繭式傳感器感知和安全所需的冗余最高級別。
![]()
Hyperion Drive,Drive Hyperion現在設計到Lucid、Mercedes-Benz,我的朋友Ola,K?llenius,Stellantis的人,還有許多其他汽車即將推出,一旦你有了基本的標準平臺,那么AV系統的開發者,有這么多才華橫溢的人,Waymo、Aurora、Momenta、Pony.ai,有這么多,WeRide,有這么多可以然后采用他們的AV系統并在標準底盤上運行它。基本上,標準底盤現在已經成為輪式計算平臺。因為它是標準的,傳感器套件是全面的,他們都可以將他們的AI部署到它。讓我們快速看一下。
好的,那是美麗的舊金山。正如你所看到的,正如你所看到的,robo taxi拐點即將到來。在未來,每年行駛數萬億英里,每年制造1億輛汽車。全世界有大約5000萬輛出租車。它將被大量robo taxi增強。所以,這將是一個非常大的市場,將其連接并部署到世界各地。
與Uber的合作
今天,我們宣布與Uber建立合作伙伴關系。Uber,Derek,Dara,Dara將要,我們正在合作將這些NVIDIA Drive Hyperion汽車連接到全球網絡,現在在未來你會能夠召喚這些汽車中的一輛,生態系統將非常豐富,我們將在世界各地擁有Hyperion或Robo taxi汽車。這將成為我們的新計算平臺,我期待它會相當成功。好的。
閉幕總結
所以這就是我們今天談到的。我們談到了大量的事情。我們談到了,記住這的核心是兩個或兩個平臺轉型,從通用計算到加速計算。英偉達CUDA和那套被稱為CUDA-X的庫使我們能夠觸及幾乎每個行業,我們處于拐點。它現在正在增長,正如良性循環所暗示的那樣。
第二個拐點現在降臨到我們身上。第二個平臺轉型,AI,從經典的手工編寫軟件到人工智能。兩個平臺轉型同時發生,這就是為什么我們感受到如此難以置信的增長。
量子,量子計算。我們談到了開放模型。我們談到了,我們談到了與CrowdStrike和Palantir的企業加速他們的平臺。我們談到了機器人技術,潛在的最大消費電子和工業制造部門之一。當然我們談到了6G。英偉達有6G的新平臺。我們稱之為ARC。我們有機器人汽車的新平臺。我們稱之為Hyperion。我們甚至有工廠的新平臺。兩種類型的工廠。AI工廠,我們稱之為DSX。然后帶有AI的工廠,我們稱之為Mega。
所以現在我們也在美國制造。女士們先生們,感謝你們今天加入我們,感謝你們讓我帶來……
感謝你們讓我們將GTC帶到華盛頓特區。我們希望每年都能舉辦。感謝你們所有人的服務,讓美國再次偉大。謝謝。
【演講結束】
本文根據英偉達GTC 2025華盛頓特區大會官方直播內容完整編譯整理
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.