算力是智能的基礎(chǔ),充足的算力被認(rèn)為是大模型發(fā)展的第一性原理。在3月25日至29日召開的2026中關(guān)村論壇年會(以下簡稱年會)上,算力焦慮被眾多參會者多次提及。
“我認(rèn)為,未來12個月,最關(guān)鍵的問題可能還是算力。”在年會舉辦的AI(人工智能)開源前沿論壇圓桌會議(以下簡稱圓桌會議)上,智譜CEO(首席執(zhí)行官)張鵬表示,算力不足使得很多研究進(jìn)展受到制約,AI的發(fā)展轉(zhuǎn)向推理階段,需求正在以十倍、百倍的速度爆發(fā),大量需求沒有被滿足。
![]()
新華社
從產(chǎn)業(yè)趨勢來看,超節(jié)點(diǎn)產(chǎn)品成為應(yīng)對持續(xù)增長模型推理需求的方案。在年會召開期間,中科曙光發(fā)布了一款搭載40張GPU(圖形處理器)的中小規(guī)模超節(jié)點(diǎn)產(chǎn)品。中科曙光將之稱為性能與成本平衡的“甜點(diǎn)區(qū)”。
另外,北京清微智能科技股份有限公司(以下簡稱清微智能)聯(lián)合北京智源人工智能研究院(以下簡稱智源研究院)發(fā)布可重構(gòu)智算超節(jié)點(diǎn)技術(shù),將4096顆可重構(gòu)計(jì)算芯片互聯(lián)構(gòu)建成一個超節(jié)點(diǎn)。
事實(shí)上,放眼整個國產(chǎn)芯片廠商,紫光股份、浪潮信息、百度、華為等都已推出不同的超節(jié)點(diǎn)產(chǎn)品。
“超節(jié)點(diǎn)已從概念到產(chǎn)品,現(xiàn)在到了怎么用的階段。”3月29日下午,清微智能研發(fā)副總裁李彬?qū)Α睹咳战?jīng)濟(jì)新聞》記者表示,券商機(jī)構(gòu)預(yù)計(jì)2027年至2028年,產(chǎn)業(yè)將迎來拐點(diǎn),隨著算力芯片性能的提升,超節(jié)點(diǎn)的滲透率預(yù)計(jì)將從10% ~20%提升至50%~60%。
算力需求日益增加
對大部分人來講,超節(jié)點(diǎn)是個抽象的名詞。
公開資料顯示,英偉達(dá)首創(chuàng)了超節(jié)點(diǎn)概念,并持續(xù)迭代相關(guān)技術(shù)及產(chǎn)品。中國科學(xué)技術(shù)信息研究所發(fā)布的《人工智能前沿技術(shù)趨勢報告2025》顯示,2025年,智能算力在體系結(jié)構(gòu)方面創(chuàng)新活躍,包括超節(jié)點(diǎn)在內(nèi)的前沿技術(shù),加速構(gòu)建十萬卡以上大規(guī)模算力集群,為人工智能技術(shù)創(chuàng)新與產(chǎn)業(yè)化提供強(qiáng)力支撐。
何為超節(jié)點(diǎn)?今年1月,中興通訊發(fā)布的相關(guān)白皮書顯示,超節(jié)點(diǎn)是通過高速互聯(lián)協(xié)議與專用交換芯片構(gòu)建的高帶寬域,將數(shù)十至數(shù)百顆GPU芯片,在邏輯上整合為統(tǒng)一編址、低時延、高帶寬的協(xié)同計(jì)算系統(tǒng)。
“一個節(jié)點(diǎn)就是一臺服務(wù)器,超節(jié)點(diǎn)就是把很多算力服務(wù)器連接在一起,而連接在一起是為了滿足大模型的算力需求。”在接受媒體采訪時,李彬以通俗的語言對超節(jié)點(diǎn)概念進(jìn)行了介紹,超節(jié)點(diǎn)是一個體系化的技術(shù),是從芯片到系統(tǒng)再到網(wǎng)絡(luò)的整套方案,最終達(dá)成的是高性價比、高算力、低時延的超級節(jié)點(diǎn),這其中包含了芯片、集群和軟件技術(shù)等。
超節(jié)點(diǎn)技術(shù)的應(yīng)運(yùn)而生,背后是算力需求日益增加,進(jìn)而企業(yè)對成本愈加敏感。公開數(shù)據(jù)顯示,中國日均Token(詞元)調(diào)用量已從2024年年初的1000億,躍升至2025年底的100萬億,兩年間增長超千倍。“大家越來越看重以Token成本為基礎(chǔ)的新型算力的商業(yè)邏輯。”清微智能方面表示。
在圓桌會議召開期間,無問芯穹聯(lián)合創(chuàng)始人兼CEO夏立雪表示,OpenClaw(一款開源人工智能體框架,俗稱“龍蝦”)這類智能體產(chǎn)品,帶動了整個Token需求的大增。這種高增長對系統(tǒng)效率提出了更高要求。
“前兩天有消息稱,我國每天調(diào)用140萬億Tokens資源。我大概算了下,按照我們通常所說的算力,每天能有上萬臺機(jī)器在不停運(yùn)轉(zhuǎn)。”李彬表示,智能體時代,算力的需求越來越高,成本也隨之走高。如何降成本,是讓智能體真正走入千行百業(yè)、千家萬戶的關(guān)鍵。
“先拋開芯片本身不說,現(xiàn)在資本市場對整個人工智能產(chǎn)業(yè)的熱情相當(dāng)高,這不僅局限于中國。我們可以看到,國外的OpenAI、特斯拉等企業(yè),未來3到5年,規(guī)劃的投資都是萬億美元級別,我國的產(chǎn)業(yè)規(guī)模只會比美國更大。”李彬進(jìn)一步表示。
去年10月,曾有國產(chǎn)算力芯片廠商的高管預(yù)測,國產(chǎn)算力芯片的使用比例將會超過海外芯片。根據(jù)李彬的觀察,5年內(nèi),不論是大模型公司還是互聯(lián)網(wǎng)大廠,國產(chǎn)芯片已不再是替代方案,而是必須的選擇。
國產(chǎn)廠商探索不同路線
在此背景下,國產(chǎn)算力迎來更大的市場,國產(chǎn)芯片廠商開始進(jìn)行不同路線的探索。
在年會召開期間,中科曙光發(fā)布一款搭載40張GPU的中小規(guī)模超節(jié)點(diǎn)產(chǎn)品。據(jù)中科曙光方面介紹,基于客戶調(diào)研,公司發(fā)現(xiàn)40卡的超節(jié)點(diǎn),處于性能與成本平衡的“甜點(diǎn)區(qū)”,可以覆蓋大多數(shù)人工智能計(jì)算的場景。
與此同時,清微智能聯(lián)合智源研究院發(fā)布可重構(gòu)智算超節(jié)點(diǎn),將4096顆可重構(gòu)計(jì)算芯片緊密互聯(lián)。據(jù)清微智能方面介紹,其設(shè)計(jì)突破在于通過可重構(gòu)網(wǎng)格互聯(lián)技術(shù),使芯片自身具備了智能路由能力,可實(shí)現(xiàn)無交換機(jī)光纖直連組網(wǎng)。
當(dāng)前,英偉達(dá)在售主力產(chǎn)品為72 卡 NVL72(NVIDIA GB200NVL72),后續(xù)有望升級至144卡和576卡。華為則在384卡產(chǎn)品基礎(chǔ)上,繼續(xù)推進(jìn)8192卡Atlas 950與15488卡Atlas 960。華為Atlas 960超節(jié)點(diǎn)預(yù)計(jì)2027年第四季度上市,與英偉達(dá)的超節(jié)點(diǎn)產(chǎn)品形成競爭。公開資料顯示,NVIDIA GB200NVL72是英偉達(dá)發(fā)布的一套多節(jié)點(diǎn)液冷機(jī)架級擴(kuò)展系統(tǒng),適用于高度計(jì)算密集型的工作負(fù)載。
據(jù)李彬介紹,芯片與芯片相連需要經(jīng)過交換機(jī),交換機(jī)越多損耗越多,邊際效益就會遞減,因?yàn)椤皶速M(fèi)一些時間在路上”。
華為方面也曾介紹,在定義和設(shè)計(jì)Atlas 950、Atlas 960這兩個超節(jié)點(diǎn)的技術(shù)規(guī)格時,遭遇到了互聯(lián)技術(shù)的巨大挑戰(zhàn),主要體現(xiàn)在兩個方面:一是如何做到長距離而且高可靠;二是如何做到大帶寬而且低時延。Atlas 950、Atlas 960 最終突破了這兩個挑戰(zhàn)。
據(jù)《每日經(jīng)濟(jì)新聞》記者了解,諸多國產(chǎn)廠商都在推出并持續(xù)更新超節(jié)點(diǎn)產(chǎn)品,不過,當(dāng)前超節(jié)點(diǎn)的部署和應(yīng)用仍處于早期。
“我們認(rèn)為,產(chǎn)業(yè)拐點(diǎn)將會在2027年至2028年發(fā)生。隨著算力芯片性能的提升,超節(jié)點(diǎn)滲透率預(yù)計(jì)將從當(dāng)前的10%~20%,提升至屆時的50%~60%。隨著NVL576、Atlas 960等頭部方案的互聯(lián)速度要求、單柜功耗進(jìn)一步提升,各環(huán)節(jié)量價將迅速增長。”中信證券在3月27日發(fā)布的研報中指出。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.