<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      黃仁勛親自“定義”英偉達:將“電子”轉為“Token”的轉換器

      0
      分享至

      英偉達CEO黃仁勛用一句話定義了自己的公司:輸入是電子,輸出是Token,中間是英偉達。

      4月15日,英偉達CEO黃仁勛接受播客主持人Dwarkesh Patel的深度訪談,內容涵蓋英偉達的供應鏈護城河、TPU競爭威脅,以及英偉達為何不自己做云服務等問題。

      英偉達:“電子Token”轉換器

      訪談開篇,主持人提出了一個尖銳問題:英偉達本質上只是寫軟件,芯片由臺積電制造,內存由SK 海力士、美光、三星提供,封裝由臺灣ODM廠商完成——如果軟件被商品化,英偉達會不會也被商品化?

      黃仁勛給出了他對英偉達最精煉的定義:

      最終,需要有某個東西把電子轉化成Token。把電子轉化成Token,并且讓這些Token隨時間變得更有價值,這件事很難被完全商品化。

      他進一步說:“輸入是電子,輸出是Token,中間是英偉達。我們的工作是盡可能高效地完成這一轉化。”

      在供應鏈層面,外界關注的焦點是英偉達的采購承諾規?!钚仑攬箫@示接近1000億美元,行業分析機構SemiAnalysis預測這一數字未來可能達到2500億美元。黃仁勛解釋了這背后的邏輯:

      如果未來幾年是萬億美元規模,我們的供應鏈能支撐它。

      他說,這種能力并非單純來自合同,而來自對上游CEO的持續“告知、激勵和對齊”——讓他們看清AI產業的規模和方向,然后愿意為英偉達的需求進行投資。CoWoS封裝是典型案例:兩年前是全行業最緊缺的瓶頸,英偉達“連續幾個翻倍”地擴產之后,現在已基本不再是話題。

      他判斷,供應鏈上的任何瓶頸都不會持續超過兩三年:“EUV機器、邏輯產能、封裝——這些東西都不難復制,只需要需求信號。”他認為真正的長期制約在下游:能源政策。“你不能在沒有電力的情況下建立一個工業,這才是需要時間的事情。”


      TPU競爭:沒有一家敢來跑基準測試

      云巨頭(Hyperscalers)貢獻了英偉達約60%的收入,但谷歌、亞馬遜、甚至OpenAI等大客戶都在加碼自研TPU或其他ASIC芯片,這直接質疑英偉達的競爭地位。

      黃仁勛的回應分兩層。

      第一層是定性區分:英偉達做的是“加速計算”,而不是專用張量處理單元。加速計算覆蓋分子動力學、流體力學、數據處理、量子計算等幾乎所有科學計算領域,遠比AI更寬。

      我們是唯一一家加速所有類型應用的公司。

      第二層,黃仁勛稱,球沒有任何一個平臺的性能和總擁有成本能優于英偉達,谷歌TPU、亞馬遜Trainium都無法與之匹敵,我并不認可Trainium所宣稱的40%成本優勢。英偉達毛利率能達到70%,而ASIC芯片毛利率約為65%,企業替換產品并不能實現顯著的成本節省。

      英偉達的計算棧是全球最佳性價比,沒有例外。沒有一家公司能向我證明,今天世界上有任何平臺的AI數據中心的總擁有成本(TCO)比我們更好。沒有。Dylan的InferenceMAX擺在那里供所有人用,TPU不來,Trainium不來。

      對于Anthropic大量使用TPU的問題,黃仁勛直接回應:

      Anthropic是一個特例,不是趨勢。沒有Anthropic,TPU的增長從哪里來?是100%來自Anthropic。沒有Anthropic,Trainium的增長從哪里來?也是100%來自Anthropic。

      他也坦承,早年未能及時向Anthropic進行戰略投資是自己的判斷失誤:

      當時谷歌和亞馬遜AWS投入了大量資金,Anthropic因此使用了他們的算力。我當時沒有深刻意識到,風投根本不可能給一家AI實驗室投50億、100億美元。這是我的失誤。但我不會再犯同樣的錯誤。

      目前,黃仁勛已分別對OpenAI和Anthropic進行了大規模投資,據報道金額分別高達300億和100億美元。

      為什么不自己做云?“盡可能少做”是哲學

      手握巨額現金流,英偉達近期頻頻向CoreWeave等初創云服務商提供資金和算力支持。市場猜測,英偉達是否會越過客戶,親自下場做超大規模云服務商,收取算力租用費?

      黃仁勛的回答涉及公司哲學:

      我們應該做盡可能必要的事,做盡可能少的事。我們做的這些事,如果我們不做,我真的相信它們就不會發生。但云服務?如果我不做,有人會來做的。

      他舉了CoreWeave、Nscale、Nebius等“新云”作為例子——這些公司若沒有英偉達的早期投資和支持,根本不會存在。但英偉達的介入是“讓生態繁榮”,而不是轉行做金融租賃或云計算運營。

      他對于“不挑贏家”也有明確表態:“當我投資其中一家,我會投資所有家?!崩碛墒牵河ミ_自己當年在60家3D圖形公司中幾乎是被公認“最不可能活下來”的一家,“我有足夠的謙遜來認識到這一點”。

      堅守賣鏟人定位,GPU分配絕不搞“價高者得”

      在供需極度失衡的背景下,英偉達如何分配緊俏的GPU?黃仁勛明確否認了“價高者得”的市場傳聞。

      我們絕不會那樣做,這是糟糕的商業行為。你定好價格,然后人們決定是否購買。

      黃仁勛解釋了英偉達的分配邏輯:優先考察客戶的排產預測和采購訂單(PO),其次看客戶數據中心的就緒程度,最終遵循先到先得的原則。“我更希望成為行業可靠的基石。如果你下達了1000億美元的AI工廠訂單,沒問題,全世界只有我們能給你這種確定性承諾?!?/p>

      不會放棄全球第二大市場

      針對當前的芯片出口管制,黃仁勛從商業與技術標準的角度表達了務實的看法。

      他指出,算力只是AI產業的底層輸入,當受到約束時,競爭對手可以通過堆疊更多能源、使用更多上一代芯片,以及優化算法來彌補硬件代差。

      他表示,首先要認識到:中國并不缺芯片。他們擁有全球頂尖的計算機科學家,眾所周知,這些AI實驗室里的AI研究人員有相當大比例是中國人。他們擁有全球約50%的AI研究人員。

      他們是競爭對手,我們希望美國勝出,但我認為進行對話和研究交流可能是最安全的做法。放棄整個市場不會讓美國長期在技術競賽中在芯片層、計算堆棧中獲勝。這是一個事實。
      CUDA生態系統與飛輪效應

      英偉達的核心競爭壁壘就是成熟的開發者生態,GPU全球裝機量達到數億級別,應用場景實現全面覆蓋。

      行業發展飛輪效應清晰,依靠最大的裝機量、可編程的架構、豐富的生態體系以及全球海量的AI公司,形成強勁發展動力。再加上性價比、能效、客戶基數均處于全球領先地位,進一步推動發展飛輪持續運轉。

      架構優勢(對比ASIC/TPU)

      黃仁勛表示,傳統摩爾定律每年性能增長約25%,想要實現10到100倍的性能飛躍,必須依靠算法與計算架構的雙重革新。Blackwell架構的能效相比Hopper架構提升50倍,這一成果絕非單純依靠晶體管進步就能實現,架構優化與計算機科學創新才是核心關鍵。該架構支持全流程可編程以及全棧協同設計,依托NVLink、Spectrum-X技術實現,沒有CUDA生態根本無法完成。
      對于產品路線圖與發布節奏。黃仁勛透露,英偉達產品會保持年度穩定迭代,從Vera Rubin到Vera Rubin Ultra,再到Feynman,每年都會推出穩定升級的新品。同時我們是全球唯一一家,能夠承接從1000萬美元到1000億美元任意規模AI算力訂單的企業。


      訪談文字實錄(略有刪減)

      章節目錄
      • (00:00:00) 英偉達最大的護城河,是否在于對稀缺供應鏈的掌控?
      • (00:16:25) TPU能否打破英偉達對AI算力的壟斷?
      • (00:41:06) 英偉達為何不轉型為超大規模云服務商?
      • (01:35:06) 英偉達為何不同時開發多種不同的芯片架構?
      00:00:00——英偉達最大的護城河,是否在于對稀缺供應鏈的掌控?
      Dwarkesh Patel
      我們看到許多軟件公司的估值大幅下跌,因為人們預期AI將使軟件商品化。有一種可能過于簡單的看法是:英偉達把GDS2文件發給臺積電,臺積電制造邏輯芯片和交換機,再與SK海力士、美光和三星生產的HBM一起封裝,然后發往臺灣的ODM廠商組裝成機架。英偉達本質上是在做軟件,而制造由他人完成。如果軟件被商品化,英偉達是否也會被商品化?

      Jensen Huang
      歸根結底,總需要有某種東西把電子轉化為Token。將電子轉化為Token,并持續提升Token的價值,這件事很難被徹底商品化。這個轉化過程本身就是一段了不起的旅程——讓這個Token變得有價值,就像讓一個分子比另一個分子更珍貴,讓一個Token比另一個Token更珍貴。其中涉及的藝術性、工程智慧、科學原理和創新發明,我們正在實時見證這一切的發生。這個轉化過程、這套制造體系、所有的科學積累,遠未被深刻理解,這段旅程也遠未結束。我不認為商品化會發生。
      我們當然會持續提升效率。你描述問題的框架,正是我理解這家公司的方式:輸入是電子,輸出是Token,英偉達在中間。我們的職責是:在實現這種轉化的過程中,做一切必要的事,同時盡可能少做。所謂"盡可能少做",就是凡是我不需要親自完成的,我都找合作伙伴來做,納入我的生態系統。

      如果你今天審視英偉達,我們可能擁有全球最大的合作伙伴生態系統,上游有供應鏈,下游有所有計算機公司、應用開發者和模型創造者。AI是一塊五層蛋糕,我們在整個五層都擁有生態系統。我們盡可能少做,但我們必須親自完成的那部分,恰恰是極其困難的事,我不認為那會被商品化。
      事實上,我也不認為企業軟件公司或工具制造商會被商品化。如今大多數軟件公司都是工具制造商,也有一些是工作流程編碼系統。但就工具制造商而言,Excel是工具,PowerPoint是工具,Cadence做工具,Synopsys做工具——我看到的前景與很多人恰恰相反。我認為AI智能體的數量將會指數級增長,工具使用者的數量也將指數級增長,各類工具的實例數量極有可能會急速飆升。
      Synopsys Design Compiler的實例數量很可能會急劇增加,使用平面規劃器、布局工具和設計規則檢查器的智能體數量也會如此。如今我們受限于工程師的數量,但將來,這些工程師將得到大批智能體的支持。我們將以前所未有的方式探索設計空間,而我們使用的,正是今天這些工具。
      我認為工具使用的爆發將推動軟件公司的價值飆升。之所以尚未發生,是因為智能體使用工具的能力還不夠強。未來,要么這些公司自己打造智能體,要么智能體本身足夠強大,能夠運用這些工具。我認為兩種情況都會發生。
      Dwarkesh Patel
      根據你們最新的財務文件,英偉達在晶圓廠、內存和封裝方面的采購承諾接近1000億美元。SemiAnalysis報道稱,這類采購承諾總額將達到2500億美元。有一種解讀認為,英偉達真正的護城河,在于你們鎖定了未來多年所需的稀缺元器件供應。競爭對手或許能做出一款加速芯片,但他們能拿到所需的內存來制造嗎?能拿到邏輯芯片來制造嗎?這真的是英偉達未來幾年最大的護城河嗎?
      Jensen Huang
      這是我們能做、而他人難以復制的事情之一。我們在上游做出了巨大承諾,有些是你提到的顯性承諾,有些則是隱性的。舉個例子,上游的許多投資,是由我們的供應鏈合作伙伴主動做出的,因為我曾對那些CEO們說:"讓我告訴你這個行業將會有多大,讓我解釋為什么,讓我和你一起推演,讓我展示給你我所看到的未來。"
      正是通過這個告知、激勵、與各行業上游CEO達成共識的過程,他們愿意做出投資。為什么他們愿意為我而不是為別人投資?因為他們知道,我有能力消化他們的產能,并通過我的下游渠道銷售出去。英偉達的下游供應鏈規模和下游需求體量如此龐大,所以他們才愿意在上游持續投入。
      看看GTC,人們驚嘆于它的規模和與會者的構成——整個AI宇宙匯聚一堂,因為他們彼此都需要見到對方。我把他們聚在一起,讓下游看到上游,上游看到下游,所有人共同見證AI的進步。更重要的是,他們都能親眼看到那些AI原生公司、那些正在構建的AI初創企業,以及所有令人振奮的發展,親身印證我所描述的一切。我花了大量時間,直接或間接地讓我們的供應鏈、合作伙伴和生態系統,了解我們面前的機遇。
      有人說,在大多數科技發布會上,都是一個接一個的公告,但我們的發布會總有一部分有些"折磨人",因為它更像是在傳授知識。事實上,這正是我的用意。我需要確保整個供應鏈的上下游,以及整個生態系統,都理解即將到來的是什么,為什么會來,什么時候會來,規模會有多大,并且能夠像我一樣系統地進行推演。
      關于你描述的護城河,我們之所以能夠為未來做好準備,是因為:如果未來幾年的規模達到萬億美元,我們有供應鏈來支撐它。沒有我們的影響力和業務的高速運轉——就像現金流帶來供應鏈流動和業務周轉——沒有人會為一個業務周轉率低的架構專門建設供應鏈。我們能夠維持這種規模,恰恰是因為我們的下游需求如此旺盛,而他們看到了這一切,聽到了這一切,一切都歷歷在目。這才使我們得以在如此規模上做成今天能做的事。
      Dwarkesh Patel
      我想更具體地了解,上游供應鏈能否跟上。多年來,你們的營收一直在逐年翻倍,每年向全球提供的算力也在以翻倍以上的速度增長。
      Jensen Huang
      而且在如今這個規模上繼續翻倍,是真的了不起。
      Dwarkesh Patel
      正是如此。但再看邏輯芯片這一環——你們是臺積電N3節點最大的客戶,也是N2節點最大客戶之一。根據SemiAnalysis的數據,AI今年將占N3產能的60%,明年將達到86%。你已經是多數,還怎么翻倍?又如何年復一年地持續下去?我們是否已經進入了一個AI算力增長必須因上游瓶頸而放緩的階段?你有沒有破局之法?歸根結底,我們怎樣才能每年新建兩倍的晶圓廠?
      Jensen Huang
      在某種程度上,瞬時需求始終大于全球的供給能力。在任何時刻,我們都可能受限于某一環節的產能——水暖工短缺就是個真實案例。
      Dwarkesh Patel
      水暖工要被邀請參加明年的GTC了。
      Jensen Huang
      其實這是個好主意。但瞬時需求大于總供給,本身是個好現象。你希望身處一個供不應求的行業,反過來才糟糕。如果某個特定元器件的缺口過大,整個行業就會蜂擁而至,集中攻克。舉個例子,注意現在幾乎沒人再談CoWoS了。
      原因就在于過去兩年我們已經全力以赴、連續翻倍地擴產。如今CoWoS的供給已經相當充裕。臺積電現在明白,CoWoS的供給必須與邏輯芯片和內存的需求同步擴張,并以相同的節奏規?;疌oWoS及未來的封裝技術。這是一大進步——過去很長一段時間,CoWoS和HBM內存都是相當小眾的專業品,但如今它們已經是主流計算技術,整個行業都意識到了這一點。
      當然,我們現在也能對更廣泛的供應鏈施加更大的影響。AI革命之初,我今天所說的這些話,五年前我就已經在說了。一些人相信了并付諸行動,比如Sanjay和美光團隊。我至今清楚地記得那次會議,當時我明確說明了即將發生什么、為什么會發生,以及對今日的預判。他們真的All-in了,我們在LPDDR和HBM內存領域開展了深度合作,他們為此大力投資,這對美光來說顯然是一段非凡的旅程。有些人來得稍晚,但現在他們都到位了。
      每一個瓶頸都會受到高度關注,而我們現在已經提前數年預判下一個瓶頸。比如,過去幾年我們在Lumentum、Coherent以及硅光子生態系統上的投資,從根本上重塑了供應鏈。我們圍繞臺積電構建了一整套供應鏈,與他們合作推進COUPE項目,發明了一系列新技術,并將這些專利授權給整個供應鏈,以保持其開放性。
      我們通過發明新技術、新工藝、雙面探針測試等新型測試設備,以及投資企業、幫助其擴大產能等方式,主動塑造生態系統,確保供應鏈隨時準備好支撐所需的規模。
      Dwarkesh Patel
      有些瓶頸似乎比其他的更容易解決。擴大CoWoS產能,對比擴大——
      Jensen Huang
      我直接說最難的那個。
      Dwarkesh Patel
      是什么?
      Jensen Huang
      水暖工,還有電工。這也是我對"末日論者"渲染工作終結、大規模失業的說法感到擔憂的原因之一。如果我們把人嚇退出軟件工程這個行業,我們就會面臨軟件工程師短缺的問題。十年前也有過類似的預言——有些末日論者告訴大家,無論如何都不要去做放射科醫生。你或許還能在網上找到這些視頻,聲稱放射科會是第一個消亡的職業,世界將不再需要放射科醫生。現在我們短缺的是什么?恰恰是放射科醫生。
      Dwarkesh Patel
      回到剛才關于哪些東西可以擴展、哪些不能的話題——邏輯芯片的產量,究竟如何實現每年翻倍?歸根結底,內存和邏輯芯片的產能都受限于EUV光刻機。我們怎樣才能每年擁有兩倍的EUV機器?
      Jensen Huang
      這些都不是短期內無法快速擴展的問題。在兩三年內完全可以實現,關鍵是要有明確的需求信號。一旦你能造出一臺,就能造出十臺,造出十臺就能造出一百萬臺。這些東西并不難復制。
      Dwarkesh Patel
      你會深入到供應鏈的哪個層級去溝通?比如,你會直接去找ASML說:"如果三年后英偉達要做到年營收兩萬億美元,我們需要更多的EUV光刻機"嗎?
      Jensen Huang
      有些情況需要我親自去溝通,有些可以間接推動,還有些……如果我能說服臺積電,ASML自然也會被說服。我們需要著眼于關鍵的瓶頸節點——而如果臺積電已經信服,幾年內就會有充足的EUV機器。
      我的核心觀點是,任何一個瓶頸的持續時間都不會超過兩三年。與此同時,我們持續將計算效率提升10倍、20倍,從Hopper到Blackwell甚至提升了30到50倍。我們通過CUDA的高度靈活性持續推出新算法,開發各種新技術,在擴大產能的同時不斷驅動效率提升。這些問題我都不擔心。真正令我憂慮的是我們下游的問題——能源政策阻礙了能源的發展,而沒有能源,什么產業都建不起來。
      我們希望重新工業化美國,希望帶回芯片制造、計算機制造和封裝產業,希望構建新興產業,比如電動汽車、機器人和AI工廠。而這一切都離不開能源,能源基礎設施的建設需要很長時間。相比之下,擴大芯片產能是一個兩到三年的問題,擴大CoWoS產能也是兩到三年的問題。
      Dwarkesh Patel
      有意思。我感覺有些嘉賓告訴我的恰好相反,但在這個問題上,我自己沒有足夠的專業知識來判斷誰對。
      Jensen Huang
      好在這次你在和行家聊。
      00:16:25——TPU能否打破英偉達對AI算力的壟斷?
      Dwarkesh Patel
      說得對。我想談談你的競爭對手???strong>全球排名前三的模型,Claude和Gemini這兩個,可以說都是在TPU上訓練的。這對英偉達的未來意味著什么?
      Jensen Huang
      我們做的是截然不同的東西。英偉達做的是加速計算,而不是張量處理器。加速計算的應用范圍極為廣泛:分子動力學、量子色動力學、數據處理、數據框架、結構化數據、非結構化數據、流體動力學、粒子物理——此外,我們也將它用于AI。
      加速計算的多樣性要豐富得多。雖然AI是當下最熱門的話題,影響力也顯而易見,但計算的外延遠比AI寬廣。英偉達從根本上重新定義了計算范式,從通用計算轉向加速計算。我們的市場覆蓋范圍,遠超任何TPU或ASIC所能企及的邊界。
      從我們的定位來看,英偉達是唯一一家能夠加速各類應用的公司,我們擁有龐大的生態系統,各類框架和算法都能在英偉達上運行。
      因為我們的計算平臺本就設計為可供他人運營,任何運營商都可以直接購買我們的系統。而那些自研系統,則大多只能自己運營,因為它們從未被設計成足夠靈活、可供第三方運營的形態。正因為任何人都可以運營我們的系統,我們得以進駐每一朵云——包括谷歌、亞馬遜、微軟Azure和OCI。
      如果你想以出租方式運營,就需要跨越眾多行業擁有龐大的客戶生態作為消化方。如果你想自己運營,我們完全有能力幫你實現,就像我們為馬斯克的xAI所做的一樣。而且,因為我們能夠支持任何公司、任何行業的運營者,你可以用它為禮來這樣的藥企建造一臺超級計算機,用于科學研究和藥物發現,幫助他們自主運營,并將其應用于整個藥物研發和生命科學領域——而這些,恰好都是我們能夠加速的領域。
      有大量TPU根本無法處理的應用場景,我們都可以覆蓋。英偉達在CUDA上構建出了出色的張量處理能力,同時也涵蓋了數據處理、計算和AI的完整生命周期。我們的市場機遇更大,覆蓋范圍也更廣。正因為我們支持世界上幾乎所有應用,英偉達的系統可以部署在任何地方,并且都能找到用戶,這是一種完全不同的競爭格局。
      Dwarkesh Patel
      這是一個比較長的問題。你們營收驚人,但你們一個季度賺600億美元,不是靠制藥或量子計算,而是因為AI是一項前所未有、以前所未有的速度增長的技術。
      問題在于,什么才是真正最有利于AI本身的?我自己沒有深入研究過,但我的AI研究員朋友們說:"當我用TPU的時候,它是一個巨大的脈動陣列,非常適合做矩陣乘法;而GPU非常靈活,特別適合有大量分支或不規則內存訪問的情形。"
      但AI到底是什么?就是一遍又一遍、非常規律地做矩陣乘法。你不需要為線程調度器或線程與內存庫之間的切換犧牲任何芯片面積。而TPU恰恰就是針對這一需求——當前算力需求增長最快的那部分——高度優化的。我很好奇你對此有何看法。
      Jensen Huang
      矩陣乘法是AI的重要組成部分,但不是全部。如果你想開發新的注意力機制、以不同方式進行解耦,或者發明全新的架構——比如混合SSM——你就需要一個通用可編程的架構。如果你想創建一個融合擴散模型和自回歸技術的模型,你也需要一個通用可編程的架構。我們可以運行你能想到的任何算法,這正是核心優勢——它讓新算法的發明變得更加容易,因為它是一個可編程系統。
      正是這種發明新算法的能力,推動著AI如此迅速地向前演進。TPU和所有其他東西一樣,受到摩爾定律的約束,而摩爾定律每年帶來的提升大約只有25%。想要實現10倍乃至100倍的飛躍,唯一的途徑是每年從根本上改變算法及其計算方式。
      這就是英偉達的根本優勢所在。我們之所以能讓Blackwell比Hopper提升50倍,正源于此——當我最初宣布Blackwell的能效將比Hopper提升35倍時,沒有人相信。后來Dylan寫了一篇文章,說我保守估計了,實際上是50倍。單靠摩爾定律是不可能做到這一點的。我們解決這個問題的方式,是通過新的模型架構,比如MoE——它在一套計算系統中實現了并行化、解耦和分布式部署。如果沒有CUDA的可編程性來做到這一點,我甚至不知道該從哪里下手。
      Dwarkesh Patel
      這觸及了一個關于英偉達客戶群的有趣問題。你們60%的營收來自五大超大規模云服務商。在早期不同的客戶群體中——比如做實驗的教授——他們需要CUDA,無法使用其他加速器,只能在CUDA上運行PyTorch,依賴全套優化。
      但這些超大規模云服務商有資源自己寫內核。事實上,為了在自家特定架構上榨出最后5%的性能,他們也不得不這樣做。Anthropic和谷歌主要運行自家加速器和TPU、Trainium。就算是使用GPU的OpenAI,也有Triton——因為他們需要自己的內核。他們直接寫到CUDA C++層面,不用cuBLAS和NCCL,而是構建了一套可編譯到其他加速器的自有技術棧。
      如果你大部分的主要客戶都能、并且確實在為自己的CUDA替代方案,CUDA究竟在多大程度上還是讓前沿AI在英偉達上發生的真正動因?
      Jensen Huang
      CUDA是一個內容極為豐富的生態系統。如果你想要在任何計算機上率先構建,優先基于CUDA來開發,是極為明智的選擇。因為生態系統如此豐富,我們支持所有框架。如果你想創建自定義內核——我們對Triton的貢獻也是巨大的,Triton的后端蘊含著大量英偉達的技術。
      我們很樂意幫助每一個框架發揮到極致??蚣艿姆N類繁多:Triton、vLLM、SGLang等等。如今還有一批新的強化學習框架涌現,比如verl和NeMo RL,后訓練和強化學習整個領域正在爆炸式發展。所以,如果你想在某個架構上構建,首選CUDA是最明智的,因為你知道這個生態系統足夠成熟。
      你知道,一旦出現問題,更可能是你自己的代碼,而不是底層那座代碼山。在構建這些系統時,當某個地方無法運行,到底是你的問題,還是計算機的問題?你希望問題永遠在你這邊,希望能信任這臺計算機。當然,我們自己也還有很多bug,但我們的系統經過了充分的驗證,至少可以作為可靠的基礎。這是第一點:生態系統的豐富性、架構的可編程性,以及整體的能力深度。
      第二點是,對于任何開發者來說,最重要的事情是安裝基礎。你希望自己寫的軟件能在盡可能多的計算機上運行,因為你不只是在為自己開發,而是在為自己的集群,或者作為框架開發者,為其他所有人的集群開發。英偉達的CUDA生態系統,是我們真正的核心財富。
      如今,我們大約有數億張GPU分布在世界各地,每一朵云都有。從A10、A100、H100、H200,到L系列、P系列,各種型號、各種規格都有。如果你是一家機器人公司,你希望這套CUDA技術棧能直接運行在機器人本身上。我們已經無處不在。龐大的安裝基礎意味著,一旦你開發了某個軟件或模型,它就能在任何地方發揮價值,這本身就是極其寶貴的。
      最后,我們存在于每一朵云中,這使我們真正做到了獨一無二。如果你是一家AI公司或開發者,你不一定清楚自己將來會與哪家云服務商深度合作,或在哪里運行。我們到處都能跑,包括本地部署。生態系統的豐富性、安裝基礎的廣泛性,以及部署地點的多樣性,共同鑄就了CUDA無可替代的價值。
      Dwarkesh Patel
      這很有道理。我想追問的是,這些優勢對你的主要客戶來說是否真的舉足輕重。在大多數情形下,真正有能力自己搭建整套軟件棧的人——比如那些超大規模云服務商——恰恰貢獻了你們大部分的營收。
      尤其是進入一個AI越來越擅長處理"強驗證閉環"任務的世界——比如通過強化學習來優化內核性能,因為你可以對結果進行驗證——那么,如何在規模化的前提下,為注意力機制或MLP寫一個在各種配置下都最高效的內核,這是一個非??沈炞C的反饋閉環。
      超大規模云服務商都能自己寫這些內核。英偉達在性價比上依然很強,所以他們可能仍然傾向于選擇英偉達。但問題在于,這是否會變成一場單純拼規格的競爭——誰在同樣的價格下能提供更好的算力和內存帶寬?歷史上英偉達之所以能夠擁有整個AI產業中最高的70%以上的毛利率——橫跨硬件和軟件——正是憑借CUDA的護城河。那么,當你的大多數主要客戶都有能力自建替代方案時,你能守住這樣的利潤率嗎?
      Jensen Huang
      我們派駐到各個AI實驗室的工程師數量之多,令人咋舌——他們就在那里,與實驗室團隊并肩工作,持續優化技術棧。原因很簡單:沒有人比我們更了解自己的架構。這些架構并非像CPU那樣的通用平臺。CPU有點像一輛凱迪拉克,舒適、穩健,永遠不會太快,大多數人開起來都輕松自如,有巡航控制,一切都很簡單。但在很多層面上,英偉達的GPU和加速器更像F1賽車——以時速160公里駕駛它或許誰都能做到,但要真正把它推到極限,需要相當深厚的專業功底。我們大量運用AI來打造我們的內核。
      我相當確信,我們在相當長的時間內仍然是不可或缺的。我們的專業能力能幫助AI實驗室合作伙伴輕松從技術棧中榨出額外的2倍性能。我們經常見到這種情況:當我們完成技術?;蛱囟▋群说膬灮螅麄兊哪P图铀倭?倍、2倍或50%。這是一個巨大的數字,尤其當你考量到他們龐大的硬件規?!切〩opper和Blackwell的集群——性能提升兩倍,就等于營收翻倍,直接轉化為收入增長。
      英偉達的計算技術棧在全球范圍內擁有最佳的總擁有成本(TCO)性價比,沒有例外。沒有任何一個平臺能向我證明,今天全球存在比我們更優的性能/TCO比。沒有一家。事實上,相關基準測試公開擺在那里:Dylan的InferenceMAX就在那,所有人都可以用,但沒有一家——TPU不來,Trainium也不來。
      我一直鼓勵他們使用InferenceMAX,來展示他們出色的推理成本。但這很難,沒有人愿意出現。MLPerf也是如此。我非常歡迎Trainium來證明他們一直宣稱的那40%,我也很想看看TPU在成本優勢上的實際表現。這在我看來毫無道理,從第一性原理出發根本說不通。
      所以,我認為我們之所以如此成功,根本原因就在于我們的TCO是極其出色的。其次,你說60%的客戶是前五大云服務商,但其中大部分業務是面向外部客戶的。比如,英偉達在AWS上的大部分,是為外部客戶服務的,而非AWS自用。英偉達在Azure上的客戶,顯然都是外部客戶。在OCI上的客戶,也都是外部客戶,并非自用。他們之所以偏愛我們,是因為我們的覆蓋范圍極其廣泛,能夠為他們帶來全球最優質的客戶群。這些公司都建立在英偉達之上,而原因正是我們無可比擬的覆蓋面與靈活性。
      所以,我認為這個飛輪的運轉邏輯,是:安裝基礎、架構的可編程性、生態系統的豐富性,以及全球AI公司的數量。如今有數以萬計的AI公司,如果你是其中一家,你會選擇哪種架構?你會選擇全球最普及的那個——我們是最普及的;你會選擇安裝基礎最大的那個——我們擁有最大的安裝基礎;你會選擇生態系統最豐富的那個。
      這就是飛輪。我們的每美元算力性價比極高,客戶能以最低的成本生產Token;我們的每瓦算力性能全球最強——如果我們的合作伙伴建造一座1吉瓦的數據中心,這1吉瓦必須要產生最大的營收和Token數量。你希望它產出盡可能多的Token,讓這座數據中心的收益最大化——我們擁有全球每瓦Token產出最高的架構。最后,如果你的目標是出租基礎設施,我們在全球擁有最多的客戶,這就是飛輪得以運轉的原因。
      Dwarkesh Patel
      有意思。問題歸根結底是:實際的市場格局是怎樣的?即便有其他公司存在,也可以存在一個數以萬計的AI公司大致均等地分配算力的世界。但即使通過這五大超大規模云服務商,真正使用那些算力的,也是Anthropic、OpenAI以及這些大型基礎模型實驗室——它們本身就有資源和能力,讓不同的加速器跑通自己的模型。
      Jensen Huang
      不,我認為你的前提是錯誤的。
      Dwarkesh Patel
      也許吧。但讓我換個角度問你。
      Jensen Huang
      回頭記得讓我來糾正你的前提。
      Dwarkesh Patel
      好的。讓我先換一個問題。
      Jensen Huang
      但一定要記得讓我回來糾正,因為這對AI太重要了,對科學的未來太重要了,對這個行業的未來太重要了。這個前提……
      Dwarkesh Patel
      讓我先把問題說完,然后我們一起來討論。
      Jensen Huang
      好。
      Dwarkesh Patel
      如果你所說的這些關于價格、性能、每瓦性能等等都是事實,你認為為什么Anthropic就在幾天前宣布了一項與Broadcom和谷歌合作、涉及多吉瓦規模、大量使用TPU的計算協議?對谷歌來說,TPU顯然是主流算力。所以當我審視這些大型AI公司時,它們的相當大一部分算力……曾經全是英偉達,但現在已經不是了。如果這些優勢都是真實存在的,那我很想知道,為什么它們會選擇其他加速器?
      Jensen Huang
      Anthropic是個特殊案例,不代表趨勢。如果沒有Anthropic,TPU的增長從何而來?那100%是Anthropic帶動的。如果沒有Anthropic,Trainium的增長從何而來?也是100%來自Anthropic。我認為這一點大家都相當清楚。這并不說明ASIC機會遍地開花,只是恰好有Anthropic這樣一家公司存在。
      Dwarkesh Patel
      但OpenAI和AMD有合作,他們也在自研Titan加速芯片。
      Jensen Huang
      是的,但我想大家都承認,他們仍然以英偉達為主。未來我們還會一起做很多工作。別人嘗試其他方案,我并不介意。如果他們不去嘗試,又怎么知道我們有多好?有時候需要對比才能體會到。我們必須持續贏得現有的地位。
      總會有很多宏大的聲明,但看看有多少ASIC項目已經被取消。僅僅是打算造一塊ASIC,你還得造出比英偉達更好的東西。造出比英偉達更好的東西,并不那么容易,說實話,并不容易。英偉達必然是某個地方存在明顯短板,才能被超越。憑借我們的規模和速度,我們是全世界唯一一家每年都在持續突破、每年都有重大飛躍的公司。
      Dwarkesh Patel
      我想他們的邏輯是:"它不需要更好,只要別比英偉達差70%就行",因為他們在給你付70%的利潤率。
      Jensen Huang
      別忘了,ASIC的利潤率也相當高。英偉達的毛利率比如說是70%,ASIC的毛利率大概是65%,你真正省下來多少?
      Dwarkesh Patel
      你是說像Broadcom這樣的公司嗎?
      Jensen Huang
      是啊。你總得付給誰。據我所知,ASIC的利潤率極為可觀,他們自己也心知肚明,對自己出色的ASIC利潤率相當引以為豪。
      說到你問的"為什么",很久以前,我們在財務上就是沒有能力這樣做。當時,我也沒有深刻意識到,打造一家像OpenAI和Anthropic這樣的基礎AI實驗室有多艱難,以及它們需要供應商本身做出巨額投資。我們當時根本沒有能力向Anthropic投入數十億美元,支持他們使用我們的算力。但谷歌和AWS做到了。他們從一開始就大力投資,換來的是Anthropic使用他們的算力。我們當時真的沒有那個能力。
      我說自己的失誤,在于沒有深刻認識到:他們其實別無選擇,風險投資根本不可能向一家AI實驗室投入五十億甚至一百億美元,指望它成為另一個Anthropic。這是我的疏漏。但即使當時我看清楚了,以英偉達彼時的規模,也未必能做到。不過這個錯誤我不會再犯了。
      我很高興能夠投資OpenAI,很高興幫助他們擴大規模,我也認為這是必須做的事。后來當Anthropic向我們走來的時候,我也很高興成為他們的投資人,幫助他們擴大規模。只是在那時,我們確實沒有能力這樣做。如果可以把一切倒回去——如果當年英偉達就像今天這么大——我會毫不猶豫地去做。
      00:41:06——英偉達為何不轉型為超大規模云服務商?
      Dwarkesh Patel
      這其實相當耐人尋味。多年來,英偉達一直是AI領域賺錢最多的公司,現在你們開始把這些錢投出去。據報道,你們在OpenAI投入了高達300億美元,在Anthropic投入了100億美元。但如今它們的估值已經大幅攀升,而且相信還會繼續上漲。
      這么多年來,如果你們一直在為它們提供算力,也清楚地看到行業走向,而它們的估值在幾年前——或者就在一年前——還只有今天的十分之一,而你們又握有大量現金,那么完全可以有另一種選擇:要么英偉達自己成為一家基礎模型實驗室,要么以現在更低的估值更早做出這些投資。你們完全有這個財力。所以我很想知道,為什么沒有早點這樣做?
      Jensen Huang
      我們在能夠做的時候就做了。在條件允許的那一刻,我們就行動了;如果能更早,我會更早。在Anthropic需要我們出手的時候,我們在財務上和認知上都沒有準備好。
      Dwarkesh Patel
      怎么說?是資金問題嗎?
      Jensen Huang
      是投資規模的問題。當時我們從未在公司外部做過這個量級的投資,也沒有意識到這樣做是必要的。我一直以為他們可以去找風險投資,就像所有公司那樣。但他們想做的事,根本不是通過VC能夠完成的。OpenAI想做的事,VC也做不到。這一點我現在明白了,但當時不知道。
      這正是他們的高明之處,也是他們的智慧所在。他們當時就意識到必須走這條路。我為此感到高興。即使因為我們的缺席,Anthropic不得不轉向其他方,我仍然為這件事感到慶幸。Anthropic的存在對這個世界是一件好事,我真心希望它存在。
      Dwarkesh Patel
      不過你們現在仍在大量賺錢,而且季度利潤還在持續增長。
      Jensen Huang
      即便如此,還是可以有遺憾的。
      Dwarkesh Patel
      那問題仍然存在。好,現在我們來到了今天這個節點,手握越來越多的現金,英偉達接下來應該怎么用這些錢?有一種選擇是:如今已經形成了一個專門將資本支出(CapEx)轉化為運營支出(OpEx)的中間商生態系統,這些新型云服務商可以為AI實驗室提供算力出租服務。因為芯片價格昂貴,但在整個生命周期內盈利豐厚,而AI模型不斷進步,使得它們生產的Token價值持續提升。這些芯片部署成本高,但英偉達有錢來承擔這筆CapEx。據報道,你們還在為CoreWeave提供高達63億美元的背書,并已投資20億美元。
      英偉達為什么不自己做云服務?為什么不自己成為超大規模云服務商,直接出租這些算力?你們有足夠的現金。
      Jensen Huang
      這是公司的經營哲學,我認為它是正確的:做一切必要的事,盡可能少做。這意味著,我們在構建計算平臺這件事上所付出的努力,如果不是我們來做,我真誠地相信,沒有人會去做。如果我們不承擔我們承擔的風險——如果我們沒有以那樣的方式構建NVLink,沒有構建整個技術棧,沒有打造那個生態系統,沒有在二十年里持續耕耘CUDA并在大部分時間里處于虧損——如果我們當初沒有這樣做,沒有人會這樣做。
      如果我們沒有創建所有CUDA-X領域專用庫——十五年前我們就開始推進領域專用庫的建設,因為我們意識到如果不這樣做,無論是光線追蹤、圖像生成,還是早期的AI模型,還是數據處理、結構化數據處理、向量數據處理,這些庫如果不是我們來做,沒有人會做。我對此深信不疑。我們為計算光刻創建了cuLitho這個庫,如果不是我們,也不會有人做。所以,如果我們沒有做這些工作,加速計算就不會取得今天的進展。
      這些事,我們應該做。我們應該全力以赴,傾公司之力去做。但是,世界上有很多云服務。即使我們不做,也會有人站出來做。所以,遵循"做必要的事、盡可能少做"這一哲學,我用這個視角審視我做的每一件事。
      具體到云服務商,如果不是我們支持CoreWeave的存在,這些新型AI云就不會存在。如果不是我們幫助CoreWeave起步,它們就不會有今天。如果不是我們支持Nscale,它們不會走到今天。如果不是我們支持Nebius,它們也不會有今天的成就?,F在它們都做得非常出色。
      這是一個我們應該投入的商業模式嗎?我們做必要的事,盡可能少做。我們投資生態系統,是因為我希望生態系統繁榮,希望這個架構和AI能夠連接盡可能多的行業和國家,讓整個星球都能建立在AI之上,建立在美國技術棧之上。這正是我們追求的愿景。
      我提到的另一件事是,有這么多出色的基礎模型公司,我們盡力投資所有的公司。這是我們做事的另一個方式:不挑贏家。我們需要支持所有人。這既是我們樂于做的,也是我們業務上的迫切需要。但我們也刻意不去挑贏家。所以每當我投資其中一家,我也會投資其他所有家。
      Dwarkesh Patel
      為什么你特別刻意地不去挑贏家?
      Jensen Huang
      第一,這不是我們的職責。第二,英偉達剛成立時,市場上有60家3D圖形公司,我們是唯一一家存活下來的。如果當時有人要從這60家里預測誰能最終勝出,英偉達大概會排在最不可能的那一梯隊。
      這是在你出生之前的事了,但英偉達當年的圖形架構方向是"恰好走錯了"——不是稍微偏了點,而是完全走錯了方向。我們從扎實的第一性原理出發來推演,但最終走到了一個錯誤的答案,開發出了一個開發者幾乎無法支持的架構,看起來毫無未來可言。當時每個人都會把我們排除在外。但你看,我們在這里。
      這份經歷讓我有足夠的謙遜去認識到:不要挑贏家。要么放手讓他們各自證明自己,要么把所有人都扶持起來。
      Dwarkesh Patel
      有一件事我沒明白。你說,"我們支持這些新型云服務商,并不只是為了扶持他們而扶持他們。"但緊接著你又列舉了一批新型云服務商,說如果沒有英偉達,它們就不會存在。這兩句話怎么能并立?
      Jensen Huang
      首先,他們自己要有存在的意愿,要主動來尋求我們的幫助。當他們有意愿存在、有商業計劃、有專業能力和熱情,也具備必要的實力,但在起步階段需要一些投資才能落地時,我們會在那里。但我們的目標是,他們的飛輪越快自轉越好。
      你的問題是,我們是否想做融資業務?答案是不。有專門做融資的機構,我們寧愿與所有這些機構合作,而不是自己成為一個融資方。我們的目標是專注于我們所做的事,保持商業模式的簡潔,支持我們的生態系統。
      當OpenAI這樣的公司在IPO之前需要三百億美元規模的融資,而我們深信他們,深信他們已經是一家非凡的公司、將來也必然是一家卓越的公司,世界需要他們存在,我也需要他們存在,他們有強勁的發展勢頭,那就讓我們支持他們,幫助他們擴大規模。這樣的投資我們會做,因為他們需要我們。但我們并不是努力做盡可能多的事——我們是做盡可能少的事。
      Dwarkesh Patel
      這也許是個顯而易見的問題,但我們已經在這種GPU短缺的狀態下生活了好多年,隨著模型不斷進步,這種短缺還在加劇。
      Jensen Huang
      我們確實面臨GPU短缺。
      Dwarkesh Patel
      是的。英偉達以非單純競價方式來分配稀缺的配額,而是會說:"我們希望確保這些新型云服務商存活下去,給CoreWeave一些,給Crusoe一些,給Lambda一些。"這對英偉達有什么好處?首先,你是否認同我這個"分散市場"的描述?
      Jensen Huang
      不。不,你的前提是錯的。我們對這些事情相當用心。首先,如果你不下采購訂單,說再多也沒用。在我們收到采購訂單之前,我們能做什么?所以,第一件事是我們與各方努力完成預測,因為這些東西需要很長時間來制造,數據中心的建設也需要很長時間。我們通過預測來對齊供需關系,這是第一要務。
      第二,我們努力與盡可能多的合作伙伴完成預測,但歸根結底,你還是必須下訂單。也許因為某種原因,你沒有及時下單,我能怎么辦?到了某個節點,就要先來先得。但除此之外,如果你因為數據中心沒有準備好,或者某些組件還沒到位,暫時無法搭建數據中心,我們可能會決定先服務另一個客戶,這是為了最大化我們自己工廠的產出,我們可能會做一些這樣的調整。
      除此之外,排序原則就是先來先得,你必須下采購訂單。當然,網上有各種傳言,比如那篇關于Larry Ellison和埃隆·馬斯克與我共進晚餐、向我"乞討"GPU的文章。這從來都沒有發生過。我們確實一起吃了晚飯,那是一頓很愉快的晚餐,但他們從始至終沒有"乞討"過GPU,他們只是下了訂單而已。一旦他們下了訂單,我們就會盡力滿足產能。我們沒有那么復雜。
      Dwarkesh Patel
      好的。聽起來,流程上有一個隊列,根據你的數據中心是否準備就緒,以及你何時下了采購訂單,來決定供貨時間。但這聽起來并不是價高者得。有什么原因不這樣做嗎?
      Jensen Huang
      我們從來不這樣做。
      Dwarkesh Patel
      好的。
      Jensen Huang
      從來不。
      Dwarkesh Patel
      為什么不直接價高者得?
      Jensen Huang
      因為這是不好的商業行為。你定好價格,客戶決定買不買。我知道芯片行業有人在需求旺盛時漲價,但我們從來不這樣做,這從來就不是我們的做法。你可以信賴我們。我更希望成為行業的基石,一個可以依賴的存在。你不需要猜測。我給你報了一個價,就是這個價,就算需求沖到天上也好,隨它去。
      Dwarkesh Patel
      另一面,這也是你們與臺積電保持良好關系的原因,對吧?
      Jensen Huang
      是的,英偉達與臺積電的合作已經差不多三十年了。英偉達和臺積電之間并沒有正式的法律合同,有時我占了便宜,有時我吃了虧,但總體而言,這段關系非常出色,我可以完全信任他們,完全依賴他們。
      英偉達有一件事你可以確定:今年,Vera Rubin會非常出色;明年,Vera Rubin Ultra會來臨;后年,Feynman會到來;再下一年,我還沒公布名字。你可以每年都指望我們。全球你去找另一個ASIC團隊,任何一個,你能說"我可以把我的全部身家都押在你身上,相信你每年都會出現,每年的Token成本都會下降一個數量級,我可以像信賴時鐘一樣信賴你"——我剛才說的是臺積電,歷史上沒有哪家晶圓廠能讓你這么說,但今天你可以這樣說英偉達。
      如果你想購買價值10億美元的AI算力工廠,沒問題;1億美元,沒問題;1000萬美元或一個機架,沒問題;一張顯卡,也沒問題;想下一筆1000億美元的AI算力工廠訂單,沒問題。今天全球只有我們一家公司可以這么說。
      我對臺積電也一樣:買一臺,買十億臺,沒問題,只需要走正常的計劃流程。英偉達作為全球AI產業基石的地位,是用數十年的巨大承諾和奉獻換來的。我們公司的穩定性和一致性,是極其重要的。
      關于中國競爭Dwarkesh Patel
      好,我想聊聊中國這個話題。
      Jensen Huang
      首先,Mythos是在相當普通的算力規模上訓練出來的,由一家非凡的公司完成。它所使用的算力規模和類型,在中國是完全可以獲得的。所以,首先要認識到:中國并不缺芯片。
      他們生產全球約60%的主流芯片,甚至可能更多,這對他們來說是個龐大的產業。他們擁有全球頂尖的計算機科學家,眾所周知,這些AI實驗室里的AI研究人員有相當大比例是中國人。他們擁有全球約50%的AI研究人員。所以問題是:考慮到他們已經擁有的這些資產——充裕的能源、大量的芯片、大多數AI研究人員——如果你擔憂他們,創造一個安全世界的最佳方式是什么?
      他們是競爭對手,我們希望美國勝出,但但我認為進行對話和研究交流可能是最安全的做法。
      當然我們希望美國擁有盡可能多的計算資源。我們受到能源的限制,但我們有很多人在努力解決這個問題。我們不能讓能源成為我們國家的瓶頸。但我們還希望確保世界上所有的AI開發者都在美國技術棧上進行開發,并將AI的進步——尤其是開源的——提供給美國生態系統。創建兩個生態系統將是極其愚蠢的:一個開源生態系統,它只能在一個外國技術棧上運行;以及一個封閉的生態系統,它在美國技術棧上運行。我認為這對美國來說將是一個可怕的結局。
      認為英偉達是一家美國公司嗎?好的。第一,為什么我們不制定一個更平衡的法規,讓英偉達可以在全球獲勝,而不是放棄世界?你為什么要讓美國放棄世界?
      芯片行業是美國生態系統的一部分。它是美國技術領先地位的一部分。它是AI生態系統的一部分。它是AI領先地位的一部分。為什么你的政策、你的哲學會導致美國放棄世界市場的巨大一部分?
      首先,解決這個問題的方法是與研究人員對話,與中國對話,與所有國家對話,確保人們不會那樣使用技術。這是必須進行的對話。好的。第一點。
      第二點,我們還需要確保美國領先,確保Vera Rubin、Blackwell在美國豐富、大量地可用。顯然,我們的結果會顯示這一點。豐富,大量的。我們擁有的計算資源很棒。我們這里有很棒的AI研究人員。很棒。我們應該保持領先。
      然而,我們也必須認識到,AI不僅僅是一個模型。AI是一個五層蛋糕。AI產業在每一層都很重要,包括芯片層。放棄整個市場不會讓美國長期在技術競賽中在芯片層、計算堆棧中獲勝。這是一個事實。
      為了美國技術產業放棄那個市場,是對我們國家的傷害。
      01:35:06 – 英偉達為什么不制造多種不同的芯片架構?Dwarkesh Patel
      我們之前討論了臺積電、內存等方面的瓶頸。
      所以,如果我們處在一個你已經是N3節點主要客戶的世界里——在某個時候你會用到N2,并且你會是N2的主要客戶——你是否認為你可以回到N7節點,一個更舊工藝節點的閑置產能,然后說,“嘿,對AI的需求如此巨大,而我們擴展前沿節點的能力無法滿足它,所以我們將制造一個Hopper或Ampere,但使用我們今天所知道的關于數值運算的所有知識以及你描述的所有其他改進”?你認為在2030年之前這種情況會發生嗎?
      Jensen Huang
      沒有必要。原因在于,每一代架構不僅僅是晶體管尺寸的問題。你在做大量的工程、封裝和堆疊工作,以及數值運算和系統架構。
      當你產能耗盡時,輕松回到另一個節點……那是一種沒人能負擔得起的研發水平。我們能夠承擔向前推進的成本。我認為我們承擔不起回頭?,F在,如果世界只是說……如果在那一刻,讓我們做個思想實驗,在那一刻我們被告知,“聽著,我們再也不會有更多的產能了?!蔽視厝ビ?納米嗎?毫不猶豫地,我當然會。
      Dwarkesh Patel
      我交談過的人有一個問題,為什么英偉達不同時運行多個完全不同架構的芯片項目?你可以做一個Cerebras風格的晶圓級芯片。你可以做一個Dojo風格的大封裝。你可以做一個沒有CUDA的。你有資源和工程人才可以并行做所有這些。那么,鑒于誰知道AI和架構可能會走向何方,為什么要把所有雞蛋放在一個籃子里呢?
      Jensen Huang
      哦,我們可以。只是我們沒有更好的主意。我們可以做所有那些事情。只是它們不是更好的。我們在模擬器中模擬了所有,證明它們更差。所以我們不會去做。我們正在做的正是我們想要做的項目。如果工作負載發生巨大變化——我指的不是算法,我實際上指的是工作負載,這取決于市場的形態——我們可能會決定增加其他加速器。
      例如,最近我們增加了Groq,我們計劃將Groq整合到我們的CUDA生態系統中。我們現在正在這樣做,因為Token的價值已經變得如此之高,以至于你可以有不同的Token定價。在過去,僅僅幾年前,Token要么免費,要么幾乎不貴。但現在你可以有不同的客戶,這些客戶想要不同的答案。因為客戶賺了很多錢——例如,我們的軟件工程師——如果我能給他們響應更快的Token,讓他們比今天更高效,我愿意為此付費。
      但那個市場最近才出現。所以我認為我們現在有能力根據響應時間,為同一個模型提供不同的細分市場。這就是為什么我們決定擴展帕累托前沿,創建一個響應時間更快的推理細分市場,即使它的吞吐量較低。直到現在,更高的吞吐量總是更好。我們認為可能存在一個世界,其中可能有非常高ASP(平均售價)的Token,即使工廠的吞吐量較低,ASP也能彌補這一點。
      這就是我們這樣做的原因。但除此之外,從架構的角度來看,如果我有更多的錢,我會把更多的錢投入到英偉達的架構背后。
      Dwarkesh Patel
      我認為這種極致優質的Token和推理市場的分解是一個非常有趣的想法。
      Jensen Huang
      它的細分。
      Dwarkesh Patel
      是的。好了,最后一個問題。假設深度學習革命沒有發生。英偉達會在做什么?顯然是游戲,但考慮到——
      Jensen Huang
      加速計算,和我們一直在做的一樣。我們公司的前提是摩爾定律將……通用計算對很多事情有好處,但對很多計算來說并不理想。
      所以我們結合了一種稱為GPU、CUDA的架構和一個CPU,這樣我們就可以加速CPU的工作負載。不同的內核代碼或算法可以被卸載到我們的GPU上。因此,你可以將應用程序加速100倍、200倍。你可以在哪里使用它?顯然是工程、科學、物理、數據處理、計算機圖形、圖像生成,各種各樣的東西。即使今天沒有AI,英偉達也會非常非常大。
      原因相當根本,那就是通用計算繼續擴展的能力基本上已經走到了盡頭。而唯一的方法……不是唯一的方法,但實現這一目標的方法是通過特定領域的加速。我們開始的領域之一是計算機圖形,但還有許多其他領域。有各種各樣的。粒子物理和流體、結構化數據處理,所有不同類型受益于CUDA的算法。
      我們的使命確實是向世界提供加速計算,并推進通用計算無法完成的應用類型,并將其能力擴展到有助于突破某些科學領域的水平。一些早期的應用是分子動力學、用于能源發現的地震處理、當然還有圖像處理,所有這些通用計算效率低下的領域。
      如果沒有AI,我會非常難過。但是,由于我們在計算方面取得的進步,我們使深度學習民 主化了。我們使任何地方、任何研究人員、任何科學家、任何學生都能夠使用PC或GeForce擴展卡進行出色的科學研究成為可能。這個根本承諾沒有改變,一點也沒有。
      如果你看GTC大會,有整個開頭部分。那里面沒有AI。那一整部分關于計算光刻、量子化學工作、數據處理工作,所有這些東西都與AI無關。它仍然非常重要。我知道AI非常有趣且令人興奮,但有很多人正在做很多非常重要的非AI相關工作,而張量并不是你計算的唯一方式。我們想幫助所有人。
      Dwarkesh Patel
      Jensen,非常感謝。
      Jensen Huang
      不客氣。我很享受。
      Dwarkesh Patel
      我也是。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      震驚!面館“免費加”被指性暗示,網友:99%的人不知哪有性暗示

      震驚!面館“免費加”被指性暗示,網友:99%的人不知哪有性暗示

      火山詩話
      2026-04-17 07:28:41
      59:40通過,內塔尼亞胡惱羞成怒,美議員:停止向以色列供武!

      59:40通過,內塔尼亞胡惱羞成怒,美議員:停止向以色列供武!

      尋途
      2026-04-18 07:27:20
      不愧中超本土標王:140萬歐當紅國腳表現完勝巴甲外援!

      不愧中超本土標王:140萬歐當紅國腳表現完勝巴甲外援!

      邱澤云
      2026-04-17 23:12:46
      定了!國足第三檔身份參加抽簽,或將進超級死亡之組,出線又懸了

      定了!國足第三檔身份參加抽簽,或將進超級死亡之組,出線又懸了

      綠茵舞著
      2026-04-17 10:30:20
      國家發改委:當前外部環境不確定性不穩定性明顯增強,要堅持油氣核心需求自主保障,確保糧食、能源這兩個飯碗牢牢端在自己手中

      國家發改委:當前外部環境不確定性不穩定性明顯增強,要堅持油氣核心需求自主保障,確保糧食、能源這兩個飯碗牢牢端在自己手中

      上觀新聞
      2026-04-17 11:36:07
      我空降到家鄉擔任副省長,參加校友聚會,卻被班花的處長丈夫嘲笑

      我空降到家鄉擔任副省長,參加校友聚會,卻被班花的處長丈夫嘲笑

      紅豆講堂
      2025-04-16 10:47:03
      破防了!羅永浩因網友評論引熱議,被網友戳中痛點,連發長文自證

      破防了!羅永浩因網友評論引熱議,被網友戳中痛點,連發長文自證

      火山詩話
      2026-04-17 10:37:56
      旅行后,你對哪個城市祛魅了?網友:異域風情哈爾濱

      旅行后,你對哪個城市祛魅了?網友:異域風情哈爾濱

      夜深愛雜談
      2026-04-17 17:29:36
      伊朗高級官員:伊美有望在數日內達成一項初步協議

      伊朗高級官員:伊美有望在數日內達成一項初步協議

      每日經濟新聞
      2026-04-18 08:05:29
      蘇林2400公里高鐵行程:從雄安到南寧,越南天平傾斜

      蘇林2400公里高鐵行程:從雄安到南寧,越南天平傾斜

      秘密即將揭曉
      2026-04-18 01:05:14
      蘇林搭火車回國,臨走前向中國借飛機,越南出大事,燒毀2節列車

      蘇林搭火車回國,臨走前向中國借飛機,越南出大事,燒毀2節列車

      愛下廚的阿釃
      2026-04-17 21:40:02
      中央決定,林戟履新職

      中央決定,林戟履新職

      新京報政事兒
      2026-04-17 14:24:13
      甘肅最牛詐騙犯,剛出獄就冒充市委副書記,因政績優秀而被抓

      甘肅最牛詐騙犯,剛出獄就冒充市委副書記,因政績優秀而被抓

      神奇的錘子
      2025-02-23 22:11:02
      伊能靜長文控訴!十年沒二人世界,她抑郁是秦昊缺位還是自作自受

      伊能靜長文控訴!十年沒二人世界,她抑郁是秦昊缺位還是自作自受

      郭蛹包工頭
      2026-04-17 14:14:44
      虧了也要賣!武漢一老板娘最終決定:專供中東!首款5天全部賣光

      虧了也要賣!武漢一老板娘最終決定:專供中東!首款5天全部賣光

      新浪財經
      2026-04-17 15:19:51
      袁檢文,已任東莞市人民政府副秘書長?

      袁檢文,已任東莞市人民政府副秘書長?

      南方都市報
      2026-04-18 10:24:08
      山東省紀委監委網站通報:2人被查

      山東省紀委監委網站通報:2人被查

      齊魯壹點
      2026-04-17 16:07:06
      歷史老師跌入“無人區”:某高中20人教研組,近一半無學生可教

      歷史老師跌入“無人區”:某高中20人教研組,近一半無學生可教

      聽心堂
      2026-03-31 15:52:04
      以色列的大麻煩出現,黎巴嫩導彈覆蓋全境,內塔尼亞胡越打越危險

      以色列的大麻煩出現,黎巴嫩導彈覆蓋全境,內塔尼亞胡越打越危險

      漫步獨行俠
      2026-04-17 08:11:36
      俄烏戰爭打了4年,中國終于明白:統一臺灣前,這3種人必須鏟除

      俄烏戰爭打了4年,中國終于明白:統一臺灣前,這3種人必須鏟除

      近史博覽
      2026-03-29 06:14:56
      2026-04-18 11:31:00
      華爾街見聞官方 incentive-icons
      華爾街見聞官方
      中國領先的金融商業信息提供商
      144773文章數 2653295關注度
      往期回顧 全部

      財經要聞

      "影子萬科"2.0:管理層如何吸血萬物云?

      頭條要聞

      男子吐血搶救后死亡7.5小時用100余支止血針 家屬質疑

      頭條要聞

      男子吐血搶救后死亡7.5小時用100余支止血針 家屬質疑

      體育要聞

      時隔25年重返英超!沒有人再嘲笑他了

      娛樂要聞

      劉德華摯友潘宏彬離世 曾一起租房住

      科技要聞

      傳Meta下月擬裁8000 大舉清退人力為AI騰位

      汽車要聞

      奇瑞威麟R08 PRO正式上市 售價14.48萬元起

      態度原創

      教育
      本地
      親子
      房產
      旅游

      教育要聞

      韓國競賽題:妥妥的送分題,很多學生錯在最后一步

      本地新聞

      12噸巧克力有難,全網化身超級偵探添亂

      親子要聞

      后悔晚接觸寶寶巴士!新手家長有了這套兒童繪本

      房產要聞

      重磅利好!2500個學位,??跒I江片區,要建九年一貫制學校!

      旅游要聞

      柳林:文冠果花綻放香嚴寺 古剎春意醉游人

      無障礙瀏覽 進入關懷版