
![]()
從算得多,到算的久、算得起。
來(lái)源 |騰訊科技
作者 |李海倫 蘇揚(yáng)
北京時(shí)間1月6日,英偉達(dá)CEO黃仁勛身著標(biāo)志性皮衣再次站在CES2026的主舞臺(tái)上。
2025年CES,英偉達(dá)展示了量產(chǎn)的Blackwell芯片和完整的物理AI技術(shù)棧。
在會(huì)上,黃仁勛強(qiáng)調(diào),一個(gè)“物理AI時(shí)代”正在開(kāi)啟。
他描繪了一個(gè)充滿想象力的未來(lái):
自動(dòng)駕駛汽車具備推理能力,機(jī)器人能夠理解并思考,AI Agent(智能體)可以處理百萬(wàn)級(jí) token 的長(zhǎng)上下文任務(wù)。
轉(zhuǎn)眼一年過(guò)去,AI行業(yè)經(jīng)歷了巨大的變革演進(jìn)。
黃仁勛在發(fā)布會(huì)上回顧這一年的變化時(shí),重點(diǎn)提到了開(kāi)源模型。
他說(shuō),像DeepSeek R1這樣的開(kāi)源推理模型,讓整個(gè)行業(yè)意識(shí)到:
當(dāng)開(kāi)放、全球協(xié)作真正啟動(dòng)后,AI的擴(kuò)散速度會(huì)極快。
盡管開(kāi)源模型在整體能力上仍比最前沿模型慢大約半年,但每隔六個(gè)月就會(huì)追近一次,而且下載量和使用量已經(jīng)呈爆發(fā)式增長(zhǎng)。
相比2025年更多展示愿景與可能性,這一次英偉達(dá)開(kāi)始系統(tǒng)性地希望解決“如何實(shí)現(xiàn)”的問(wèn)題:
圍繞推理型AI,補(bǔ)齊長(zhǎng)期運(yùn)行所需的算力、網(wǎng)絡(luò)與存儲(chǔ)基礎(chǔ)設(shè)施,顯著壓低推理成本,并將這些能力直接嵌入自動(dòng)駕駛和機(jī)器人等真實(shí)場(chǎng)景。
在本次黃仁勛在CES上的演講,圍繞三條主線展開(kāi):
·在系統(tǒng)與基礎(chǔ)設(shè)施層面,英偉達(dá)圍繞長(zhǎng)期推理需求重構(gòu)了算力、網(wǎng)絡(luò)與存儲(chǔ)架構(gòu)。
以Rubin平臺(tái)、NVLink 6、Spectrum-X以太網(wǎng)和推理上下文內(nèi)存存儲(chǔ)平臺(tái)為核心,這些更新直指推理成本高、上下文難以持續(xù)和規(guī)模化受限等瓶頸,解決AI多想一會(huì)、算得起、跑得久的問(wèn)題。
·在模型層面,英偉達(dá)將推理型 AI(Reasoning / Agentic AI)置于核心位置。
通過(guò)Alpamayo、Nemotron、Cosmos Reason 等模型與工具,推動(dòng) AI 從“生成內(nèi)容”邁向能夠持續(xù)思考、從“一次性響應(yīng)的模型”轉(zhuǎn)向“可以長(zhǎng)期工作的智能體”。
·在應(yīng)用與落地層面,這些能力被直接引入自動(dòng)駕駛和機(jī)器人等物理AI場(chǎng)景。
無(wú)論是 Alpamayo 驅(qū)動(dòng)的自動(dòng)駕駛體系,還是GR00T 與 Jetson的機(jī)器人生態(tài),都在通過(guò)云廠商和企業(yè)級(jí)平臺(tái)合作,推動(dòng)規(guī)模化部署。
01
從路線圖到量產(chǎn)
Rubin首次完整披露性能數(shù)據(jù)
在本次CES上,英偉達(dá)首次完整披露了Rubin架構(gòu)的技術(shù)細(xì)節(jié)。
演講中,黃仁勛從Test-time Scaling(推理時(shí)擴(kuò)展)開(kāi)始鋪墊。
這個(gè)概念可以理解為,想要AI變聰明,不再只是讓它“多努力讀書”,而是靠“遇到問(wèn)題時(shí)多想一會(huì)兒”。
過(guò)去,AI 能力的提升主要靠訓(xùn)練階段砸更多算力,把模型越做越大;
而現(xiàn)在,新的變化是哪怕模型不再繼續(xù)變大,只要在每次使用時(shí)給它多一點(diǎn)時(shí)間和算力去思考,結(jié)果也能明顯變好。
如何讓“AI多思考一會(huì)兒”變得經(jīng)濟(jì)可行?
Rubin架構(gòu)的新一代AI計(jì)算平臺(tái)就是來(lái)解決這個(gè)問(wèn)題。
黃仁勛介紹,這是一套完整的下一代AI計(jì)算系統(tǒng),通過(guò)Vera CPU、Rubin GPU、NVLink 6、ConnectX-9、BlueField-4、Spectrum-6的協(xié)同設(shè)計(jì),以此實(shí)現(xiàn)推理成本的革命性下降。
英偉達(dá)Rubin GPU 是Rubin 架構(gòu)中負(fù)責(zé) AI 計(jì)算的核心芯片,目標(biāo)是顯著降低推理與訓(xùn)練的單位成本。
說(shuō)白了,Rubin GPU 核心任務(wù)是“讓 AI 用起來(lái)更省、更聰明”。
Rubin GPU 的核心能力在于:同一塊 GPU 能干更多活。
它一次能處理更多推理任務(wù)、記住更長(zhǎng)的上下文,和其他 GPU 之間的溝通也更快。
這意味著很多原本要靠“多卡硬堆”的場(chǎng)景,現(xiàn)在可以用更少的 GPU 完成。
結(jié)果就是,推理不但更快了,而且明顯更便宜。
黃仁勛現(xiàn)場(chǎng)給大家復(fù)習(xí)了Rubin架構(gòu)的NVL72硬件參數(shù):
包含220萬(wàn)億晶體管,帶寬260 TB/秒,是業(yè)界首個(gè)支持機(jī)架規(guī)模機(jī)密計(jì)算的平臺(tái)。
![]()
整體來(lái)看,相比Blackwell,Rubin GPU在關(guān)鍵指標(biāo)上實(shí)現(xiàn)跨代躍升:
NVFP4 推理性能提升至 50 PFLOPS(5 倍)、訓(xùn)練性能提升至 35 PFLOPS(3.5 倍);
HBM4 內(nèi)存帶寬提升至 22 TB/s(2.8 倍);
單 GPU 的 NVLink 互連帶寬翻倍至 3.6 TB/s。
這些提升共同作用,使單個(gè) GPU 能處理更多推理任務(wù)與更長(zhǎng)上下文,從根本上減少對(duì) GPU 數(shù)量的依賴。
![]()
Vera CPU是專為數(shù)據(jù)移動(dòng)和Agentic處理設(shè)計(jì)的核心組件,采用88個(gè)英偉達(dá)自研Olympus核心,配備1.5 TB系統(tǒng)內(nèi)存(是上代Grace CPU的3倍),通過(guò)1.8 TB/s的NVLink-C2C技術(shù)實(shí)現(xiàn)CPU與GPU之間的一致性內(nèi)存訪問(wèn)。
與傳統(tǒng)通用CPU不同,Vera專注于AI推理場(chǎng)景中的數(shù)據(jù)調(diào)度和多步驟推理邏輯處理,本質(zhì)上是讓“AI多想一會(huì)兒”得以高效運(yùn)行的系統(tǒng)協(xié)調(diào)者。
NVLink 6通過(guò)3.6 TB/s的帶寬和網(wǎng)絡(luò)內(nèi)計(jì)算能力,讓Rubin架構(gòu)中的72個(gè)GPU能像一個(gè)超級(jí)GPU一樣協(xié)同工作——
這是實(shí)現(xiàn)降低推理成本的關(guān)鍵基礎(chǔ)設(shè)施。
這樣一來(lái),AI 在推理時(shí)需要的數(shù)據(jù)和中間結(jié)果可以迅速在 GPU 之間流轉(zhuǎn),不用反復(fù)等待、拷貝或重算。
在Rubin架構(gòu)中,NVLink-6負(fù)責(zé)GPU內(nèi)部協(xié)同計(jì)算;
BlueField-4負(fù)責(zé)上下文與數(shù)據(jù)調(diào)度;
而ConnectX-9則承擔(dān)系統(tǒng)對(duì)外的高速網(wǎng)絡(luò)連接。
它確保Rubin系統(tǒng)能夠與其他機(jī)架、數(shù)據(jù)中心和云平臺(tái)高效通信,是大規(guī)模訓(xùn)練和推理任務(wù)順利運(yùn)行的前提條件。
![]()
相比上一代架構(gòu),英偉達(dá)也給出具體直觀的數(shù)據(jù):
相比 NVIDIA Blackwell 平臺(tái),可將推理階段的 token 成本最高降低10倍,并將訓(xùn)練混合專家模型(MoE)所需的 GPU 數(shù)量減少至原來(lái)的1/4。
英偉達(dá)官方表示,目前微軟已承諾在下一代Fairwater AI超級(jí)工廠中部署數(shù)十萬(wàn)Vera Rubin芯片,CoreWeave等云服務(wù)商將在2026年下半年提供Rubin實(shí)例。
這套“讓AI多想一會(huì)兒”的基礎(chǔ)設(shè)施正在從技術(shù)演示走向規(guī)模化商用。
![]()
02
“存儲(chǔ)瓶頸”如何解決?
讓AI“多想一會(huì)兒”還面臨一個(gè)關(guān)鍵技術(shù)挑戰(zhàn):
上下文數(shù)據(jù)該放在哪里?
當(dāng)AI處理需要多輪對(duì)話、多步推理的復(fù)雜任務(wù)時(shí),會(huì)產(chǎn)生大量上下文數(shù)據(jù)(KV Cache)。
傳統(tǒng)架構(gòu)要么把它們?nèi)M(jìn)昂貴且容量有限的GPU內(nèi)存,要么放到普通存儲(chǔ)里(訪問(wèn)太慢)。
這個(gè)“存儲(chǔ)瓶頸”如果不解決,再?gòu)?qiáng)的GPU也會(huì)被拖累。
針對(duì)這個(gè)問(wèn)題,英偉達(dá)在本次CES上首次完整披露了由BlueField-4驅(qū)動(dòng)的推理上下文內(nèi)存存儲(chǔ)平臺(tái)(Inference Context Memory Storage Platform),核心目標(biāo)是在GPU內(nèi)存和傳統(tǒng)存儲(chǔ)之間創(chuàng)建一個(gè)“第三層”。
既足夠快,又有充足容量,還能支撐AI長(zhǎng)期運(yùn)行。
從技術(shù)實(shí)現(xiàn)上看,這個(gè)平臺(tái)并不是單一組件在發(fā)揮作用,而是一套協(xié)同設(shè)計(jì)的結(jié)果:
BlueField-4 負(fù)責(zé)在硬件層面加速上下文數(shù)據(jù)的管理與訪問(wèn),減少數(shù)據(jù)搬移和系統(tǒng)開(kāi)銷;
Spectrum-X 以太網(wǎng)提供高性能網(wǎng)絡(luò),支持基于 RDMA 的高速數(shù)據(jù)共享;
DOCA、NIXL和Dynamo等軟件組件,則負(fù)責(zé)在系統(tǒng)層面優(yōu)化調(diào)度、降低延遲、提升整體吞吐。
我們可以理解為,這套平臺(tái)的做法是:
將原本只能放在GPU內(nèi)存里的上下文數(shù)據(jù),擴(kuò)展到一個(gè)獨(dú)立、高速、可共享的“記憶層”中。
一方面釋放 GPU 的壓力,另一方面又能在多個(gè)節(jié)點(diǎn)、多個(gè) AI 智能體之間快速共享這些上下文信息。
在實(shí)際效果方面,英偉達(dá)官方給出的數(shù)據(jù)是:
在特定場(chǎng)景下,這種方式可以讓每秒處理的 token數(shù)提升最高達(dá)5倍,并實(shí)現(xiàn)同等水平的能效優(yōu)化。
黃仁勛在發(fā)布中多次強(qiáng)調(diào),AI正在從“一次性對(duì)話的聊天機(jī)器人”,演進(jìn)為真正的智能協(xié)作體:
它們需要理解現(xiàn)實(shí)世界、持續(xù)推理、調(diào)用工具完成任務(wù),并同時(shí)保留短期與長(zhǎng)期記憶。
這正是 Agentic AI 的核心特征。
推理上下文內(nèi)存存儲(chǔ)平臺(tái),正是為這種長(zhǎng)期運(yùn)行、反復(fù)思考的 AI 形態(tài)而設(shè)計(jì),通過(guò)擴(kuò)大上下文容量、加快跨節(jié)點(diǎn)共享,讓多輪對(duì)話和多智能體協(xié)作更加穩(wěn)定,不再“越跑越慢”。
03
新一代DGX SuperPOD
讓576個(gè)GPU協(xié)同工作
英偉達(dá)在本次CES上宣布推出基于Rubin架構(gòu)的新一代DGX SuperPOD(超節(jié)點(diǎn)),將Rubin從單機(jī)架擴(kuò)展到整個(gè)數(shù)據(jù)中心的完整方案。
什么是DGX SuperPOD?
如果說(shuō)Rubin NVL72是一個(gè)裝有72個(gè)GPU的“超級(jí)機(jī)架”,那么DGX SuperPOD就是把多個(gè)這樣的機(jī)架連接起來(lái),形成一個(gè)更大規(guī)模的AI計(jì)算集群。
這次發(fā)布的版本由8個(gè)Vera Rubin NVL72機(jī)架組成,相當(dāng)于576個(gè)GPU協(xié)同工作。
當(dāng)AI任務(wù)規(guī)模繼續(xù)擴(kuò)大時(shí),單個(gè)機(jī)架的576個(gè)GPU可能還不夠。
比如訓(xùn)練超大規(guī)模模型、同時(shí)服務(wù)數(shù)千個(gè)Agentic AI智能體、或者處理需要數(shù)百萬(wàn)token上下文的復(fù)雜任務(wù)。
這時(shí)就需要多個(gè)機(jī)架協(xié)同工作,而DGX SuperPOD就是為這種場(chǎng)景設(shè)計(jì)的標(biāo)準(zhǔn)化方案。
對(duì)于企業(yè)和云服務(wù)商來(lái)說(shuō),DGX SuperPOD提供的是一個(gè)“開(kāi)箱即用”的大規(guī)模AI基礎(chǔ)設(shè)施方案。
不需要自己研究如何把數(shù)百個(gè)GPU連接起來(lái)、如何配置網(wǎng)絡(luò)、如何管理存儲(chǔ)等問(wèn)題。
新一代DGX SuperPOD五大核心組件:
· 8個(gè)Vera Rubin NVL72機(jī)架
提供計(jì)算能力的核心,每個(gè)機(jī)架72個(gè)GPU,總共576個(gè)GPU;
· NVLink 6擴(kuò)展網(wǎng)絡(luò)
讓這8個(gè)機(jī)架內(nèi)的576個(gè)GPU能像一個(gè)超大GPU一樣協(xié)同工作;
· Spectrum-X以太網(wǎng)擴(kuò)展網(wǎng)絡(luò)
連接不同的SuperPOD,以及連接到存儲(chǔ)和外部網(wǎng)絡(luò);
· 推理上下文內(nèi)存存儲(chǔ)平臺(tái)
為長(zhǎng)時(shí)間推理任務(wù)提供共享的上下文數(shù)據(jù)存儲(chǔ);
· 英偉達(dá)Mission Control軟件
管理整個(gè)系統(tǒng)的調(diào)度、監(jiān)控和優(yōu)化。
這一次的升級(jí),SuperPOD的基礎(chǔ)以DGX Vera Rubin NVL72機(jī)架級(jí)系統(tǒng)為核心。
每一臺(tái) NVL72本身就是一臺(tái)完整的AI超級(jí)計(jì)算機(jī),內(nèi)部通過(guò)NVLink 6 將72塊Rubin GPU 連接在一起,能夠在一個(gè)機(jī)架內(nèi)完成大規(guī)模推理和訓(xùn)練任務(wù)。
新的DGX SuperPOD,則由多臺(tái)NVL72 組成,形成一個(gè)可以長(zhǎng)期運(yùn)行的系統(tǒng)級(jí)集群。
當(dāng)計(jì)算規(guī)模從“單機(jī)架”擴(kuò)展到“多機(jī)架”后,新的瓶頸隨之出現(xiàn):
如何在機(jī)架之間穩(wěn)定、高效地傳輸海量數(shù)據(jù)。
圍繞這一問(wèn)題,英偉達(dá)在本次 CES 上同步發(fā)布了基于 Spectrum-6 芯片的新一代以太網(wǎng)交換機(jī),并首次引入“共封裝光學(xué)”(CPO)技術(shù)。
簡(jiǎn)單來(lái)看,就是將原本可插拔的光模塊直接封裝在交換芯片旁邊,把信號(hào)傳輸距離從幾米縮短到幾毫米,從而顯著降低功耗和延遲,也提升了系統(tǒng)整體的穩(wěn)定性。
04
英偉達(dá)開(kāi)源AI“全家桶”
從數(shù)據(jù)到代碼一應(yīng)俱全
本次CES上,黃仁勛宣布擴(kuò)展其開(kāi)源模型生態(tài)(Open Model Universe),新增和更新了一系列模型、數(shù)據(jù)集、代碼庫(kù)和工具。
這個(gè)生態(tài)覆蓋六大領(lǐng)域:
生物醫(yī)學(xué)AI(Clara)、AI物理模擬(Earth-2)、Agentic AI(Nemotron)、物理AI(Cosmos)、機(jī)器人(GR00T)和自動(dòng)駕駛(Alpamayo)。
訓(xùn)練一個(gè)AI模型需要的不只是算力,還需要高質(zhì)量數(shù)據(jù)集、預(yù)訓(xùn)練模型、訓(xùn)練代碼、評(píng)估工具等一整套基礎(chǔ)設(shè)施。
對(duì)大多數(shù)企業(yè)和研究機(jī)構(gòu)來(lái)說(shuō),從零開(kāi)始搭建這些太耗時(shí)間。
具體來(lái)說(shuō),英偉達(dá)開(kāi)源了六個(gè)層次的內(nèi)容:
算力平臺(tái)(DGX、HGX等)、各領(lǐng)域的訓(xùn)練數(shù)據(jù)集、預(yù)訓(xùn)練的基礎(chǔ)模型、推理和訓(xùn)練代碼庫(kù)、完整的訓(xùn)練流程腳本,以及端到端的解決方案模板。
Nemotron系列是此次更新的重點(diǎn),覆蓋了四個(gè)應(yīng)用方向。
在推理方向,包括Nemotron 3 Nano、Nemotron 2 Nano VL等小型化推理模型,以及NeMo RL、NeMo Gym等強(qiáng)化學(xué)習(xí)訓(xùn)練工具。
在RAG(檢索增強(qiáng)生成)方向,提供了Nemotron Embed VL(向量嵌入模型)、Nemotron Rerank VL(重排序模型)、相關(guān)數(shù)據(jù)集和NeMo Retriever Library(檢索庫(kù))。
在安全方向,有Nemotron Content Safety內(nèi)容安全模型及配套數(shù)據(jù)集、NeMo Guardrails護(hù)欄庫(kù)。
在語(yǔ)音方向,則包含Nemotron ASR自動(dòng)語(yǔ)音識(shí)別、Granary Dataset語(yǔ)音數(shù)據(jù)集和NeMo Library語(yǔ)音處理庫(kù)。
這意味著企業(yè)想做一個(gè)帶RAG的AI客服系統(tǒng),不需要自己訓(xùn)練嵌入模型和重排序模型,可以直接使用英偉達(dá)已經(jīng)訓(xùn)練好并開(kāi)源的代碼。
05
物理AI領(lǐng)域
走向商業(yè)化落地
物理AI領(lǐng)域同樣有模型更新——
用于理解和生成物理世界視頻的Cosmos,機(jī)器人通用基礎(chǔ)模型Isaac GR00T、自動(dòng)駕駛視覺(jué)-語(yǔ)言-行動(dòng)模型Alpamayo。
![]()
黃仁勛在CES上聲稱,物理AI的“ChatGPT時(shí)刻”快要來(lái)了,但面對(duì)挑戰(zhàn)也很多:
物理世界太復(fù)雜多變,采集真實(shí)數(shù)據(jù)又慢又貴,永遠(yuǎn)不夠用。
怎么辦呢?合成數(shù)據(jù)是條路。
于是英偉達(dá)推出了Cosmos。
這是一個(gè)開(kāi)源的物理AI世界基礎(chǔ)模型,目前已經(jīng)用海量視頻、真實(shí)駕駛與機(jī)器人數(shù)據(jù),以及3D模擬做過(guò)預(yù)訓(xùn)練。
它能理解世界是怎么運(yùn)行的,可以把語(yǔ)言、圖像、3D和動(dòng)作聯(lián)系起來(lái)。
黃仁勛表示,Cosmos能實(shí)現(xiàn)不少物理AI技能,比如生成內(nèi)容、做推理、預(yù)測(cè)軌跡(哪怕只給它一張圖)。
它可以依據(jù)3D場(chǎng)景生成逼真的視頻,根據(jù)駕駛數(shù)據(jù)生成符合物理規(guī)律的運(yùn)動(dòng),還能從模擬器、多攝像頭畫面或文字描述生成全景視頻。就連罕見(jiàn)場(chǎng)景,也能還原出來(lái)。
![]()
黃仁勛還正式發(fā)布了Alpamayo。
Alpamayo是一個(gè)面向自動(dòng)駕駛領(lǐng)域的開(kāi)源工具鏈,也是首個(gè)開(kāi)源的視覺(jué)-語(yǔ)言-行動(dòng)(VLA)推理模型。
與之前僅開(kāi)源代碼不同,英偉達(dá)這次開(kāi)源了從數(shù)據(jù)到部署的完整開(kāi)發(fā)資源。
Alpamayo最大的突破在于它是“推理型”自動(dòng)駕駛模型。
傳統(tǒng)自動(dòng)駕駛系統(tǒng)是“感知-規(guī)劃-控制”的流水線架構(gòu),看到紅燈就剎車,看到行人就減速,遵循預(yù)設(shè)規(guī)則。
而Alpamayo引入了“推理”能力,理解復(fù)雜場(chǎng)景中的因果關(guān)系,預(yù)測(cè)其他車輛和行人的意圖,甚至能處理需要多步思考的決策。
比如在十字路口,它不只是識(shí)別出“前方有車”,而是能推理”那輛車可能要左轉(zhuǎn),所以我應(yīng)該等它先過(guò)”。
這種能力讓自動(dòng)駕駛從“按規(guī)則行駛”升級(jí)到“像人一樣思考”。
黃仁勛宣布英偉達(dá)DRIVE系統(tǒng)正式進(jìn)入量產(chǎn)階段。
首個(gè)應(yīng)用是全新的梅賽德斯-奔馳CLA,計(jì)劃2026年在美國(guó)上路。
這款車將搭載L2++級(jí)自動(dòng)駕駛系統(tǒng),采用“端到端AI模型+傳統(tǒng)流水線”的混合架構(gòu)。
機(jī)器人領(lǐng)域同樣有實(shí)質(zhì)性進(jìn)展。
黃仁勛表示包括Boston Dynamics、Franka Robotics、LEM Surgical、LG Electronics、Neura Robotics和XRlabs在內(nèi)的全球機(jī)器人領(lǐng)軍企業(yè),正在基于英偉達(dá)Isaac平臺(tái)和GR00T基礎(chǔ)模型開(kāi)發(fā)產(chǎn)品,覆蓋了從工業(yè)機(jī)器人、手術(shù)機(jī)器人到人形機(jī)器人、消費(fèi)級(jí)機(jī)器人的多個(gè)領(lǐng)域。
![]()
在發(fā)布會(huì)現(xiàn)場(chǎng),黃仁勛背后站滿了不同形態(tài)、不同用途的機(jī)器人,它們被集中展示在分層舞臺(tái)上:
從人形機(jī)器人、雙足與輪式服務(wù)機(jī)器人,到工業(yè)機(jī)械臂、工程機(jī)械、無(wú)人機(jī)與手術(shù)輔助設(shè)備,展現(xiàn)出一版“機(jī)器人生態(tài)圖景”。
從物理AI應(yīng)用到RubinAI計(jì)算平臺(tái),再到推理上下文內(nèi)存存儲(chǔ)平臺(tái)和開(kāi)源AI“全家桶”——
英偉達(dá)在CES上展示的這些動(dòng)作,構(gòu)成了英偉達(dá)對(duì)于推理時(shí)代AI基礎(chǔ)設(shè)施的敘事。
正如黃仁勛反復(fù)強(qiáng)調(diào)的那樣,當(dāng)物理 AI 需要持續(xù)思考、長(zhǎng)期運(yùn)行,并真正進(jìn)入現(xiàn)實(shí)世界,問(wèn)題已經(jīng)不再只是算力夠不夠,而是誰(shuí)能把整套系統(tǒng)真正搭起來(lái)。
CES 2026 上,英偉達(dá)已經(jīng)給出了一份答卷。
· END ·
合 作 對(duì) 接
掃碼添加投資人說(shuō)運(yùn)營(yíng)者微信,備注「商務(wù)合作」詳細(xì)溝通。
超 級(jí) 社 群
【投資人說(shuō)】正在組建超級(jí)創(chuàng)業(yè)者社群、超級(jí)讀者群、超級(jí)媒體群等,目前總?cè)藬?shù)已超1000人。
關(guān)注【投資人說(shuō)】微信公眾號(hào),發(fā)送信息「進(jìn)群」,與各行業(yè)精英直接交流,共同進(jìn)步。
旗 下 媒 體
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.