![]()
過(guò)去兩年里,國(guó)內(nèi)AI圈有一個(gè)心照不宣的“焦慮”:國(guó)產(chǎn)算力已經(jīng)滿足了大規(guī)模的模型推理需求,可大模型的訓(xùn)練,特別是SOTA級(jí)模型的預(yù)訓(xùn)練,還是無(wú)法擺脫對(duì)英偉達(dá)生態(tài)的依賴。
2026年注定是一個(gè)分水嶺。
剛登陸港股市場(chǎng)的智譜,發(fā)布了新一代圖像生成模型GLM-Image,在文字渲染的權(quán)威榜單中達(dá)到了開源SOTA水平,并在“出生證明”上寫了一段關(guān)鍵信息:模型自回歸結(jié)構(gòu)基座基于昇騰Atlas 800T A2設(shè)備與昇思MindSpore AI框架,完成了從數(shù)據(jù)預(yù)處理到大規(guī)模訓(xùn)練的全流程構(gòu)建,驗(yàn)證了在自主創(chuàng)新算力底座上訓(xùn)練前沿模型的可行性。
全流程、SOTA、自主創(chuàng)新算力底座……每一個(gè)詞,都是對(duì)“國(guó)產(chǎn)算力不好用”等刻板印象的有力回?fù)簟M瑫r(shí)也預(yù)示著,國(guó)產(chǎn)算力已經(jīng)從“跑推理”正式邁向“數(shù)據(jù)預(yù)處理+預(yù)訓(xùn)練+SFT微調(diào)+RL訓(xùn)練”的端到端全流程,從“能用”進(jìn)階到了“好用”。
01 一場(chǎng)“地獄級(jí)”難度的壓力測(cè)試
在討論算力前,有必要先理解GLM-Image的“含金量”。
如果只是訓(xùn)練一個(gè)“二流模型”,對(duì)算力的考驗(yàn)也是“二流”的,而智譜瞄準(zhǔn)了下一代技術(shù)范式——認(rèn)知型生成。
過(guò)去的圖像生成模型,普遍存在“智商不夠”的瓶頸。比如讓AI畫一張“關(guān)于量子力學(xué)的科普海報(bào)”,可以畫出炫酷的原子結(jié)構(gòu)和星空背景,但上面的文字卻是亂碼,典型的“視覺(jué)強(qiáng),認(rèn)知弱”。
智譜GLM-Image沒(méi)有照搬開源常用的LDM方案,采用了創(chuàng)新的“自回歸+擴(kuò)散編碼器”混合架構(gòu),屬于兼具世界知識(shí)與推理能力的“認(rèn)知型生成”,不僅要會(huì)畫畫,還要理解物理規(guī)律、邏輯關(guān)系和文字符號(hào)。
可以簡(jiǎn)單地比作是“大腦”和“畫師”的組合:
9B大小的自回歸模型,扮演了“大腦”的角色,利用語(yǔ)言模型的底座優(yōu)勢(shì),專注于提升對(duì)指令的語(yǔ)義理解和畫面的全局構(gòu)圖;
7B大小的DiT擴(kuò)散解碼器,像一個(gè)技法高超的“畫師”,專注于還原圖像的高頻細(xì)節(jié)和文字筆畫,改善模型“提筆忘字”的現(xiàn)象。
基于架構(gòu)上的創(chuàng)新,GLM-Image在通用圖像生成質(zhì)量上能夠?qū)R業(yè)界主流隱空間擴(kuò)散模型方案,在文字渲染與知識(shí)密集型圖像生成場(chǎng)景中展現(xiàn)出了顯著優(yōu)勢(shì),以及出色的多分辨率自適應(yīng)能力,原生支持從1024x1024到2048×2048尺寸的任意比例圖像的生成任務(wù)。
參考行業(yè)慣例,先來(lái)“跑個(gè)分”。
![]()
在考察模型在圖像中同時(shí)生成多處文字準(zhǔn)確性的CVTG-2K榜單上,GLM-Image憑借0.9116的Word Accuracy(文字準(zhǔn)確率)成績(jī),位列開源模型第一。特別是NED(歸一化編輯距離)指標(biāo)上,GLM-Image以0.9557的得分領(lǐng)先,生成文字與目標(biāo)文字高度一致,錯(cuò)字、漏字情況更少。
考察模型渲染長(zhǎng)文本、多行文字準(zhǔn)確性的LongText-Bench,覆蓋了招牌、海報(bào)、PPT、對(duì)話框等8種文字密集場(chǎng)景,并分設(shè)中英雙語(yǔ)測(cè)試,GLM-Image以英文0.952、中文0.979的成績(jī)位列開源模型第一。
比“跑分”更有說(shuō)服力的是,GLM-Image開源不到24小時(shí)就沖上全球知名AI開源社區(qū)Hugging Face榜單的全球第一。
![]()
只是架構(gòu)越先進(jìn),對(duì)算力底座的挑戰(zhàn)越大。既要滿足LLM對(duì)顯存和序列長(zhǎng)度的極高要求,同時(shí)解決圖像生成對(duì)高并發(fā)計(jì)算的吞吐需求,對(duì)任何算力底座來(lái)說(shuō),都是一場(chǎng)“地獄級(jí)”的壓力測(cè)試。
02 智譜、昇騰、昇思的協(xié)同“破壁”
面對(duì)行業(yè)“無(wú)人區(qū)”,智譜和昇騰.昇思是怎么破局的呢?
智譜官方公眾號(hào)給出了答案:“依托昇騰NPU和昇思MindSpore AI框架,使用動(dòng)態(tài)圖多級(jí)流水下發(fā)、高性能融合算子、多流并行等特性,我們自研了模型訓(xùn)練套件,全面優(yōu)化數(shù)據(jù)預(yù)處理、預(yù)訓(xùn)練、SFT和RL的端到端流程。”
![]()
做個(gè)“翻譯”的話,主要解決了模型訓(xùn)練的三個(gè)核心痛點(diǎn)。
第一個(gè)是動(dòng)態(tài)圖多級(jí)流水下發(fā)。
在大模型訓(xùn)練的過(guò)程中,存在一個(gè)經(jīng)典的“Host-Device”協(xié)同問(wèn)題:Host側(cè)(CPU)負(fù)責(zé)下發(fā)指令,Device側(cè)(NPU)負(fù)責(zé)計(jì)算。但NPU算得太快了,CPU發(fā)指令的速度跟不上,導(dǎo)致NPU經(jīng)常處于“等活干”的空轉(zhuǎn)狀態(tài)。
昇思MindSpore引入了“動(dòng)態(tài)圖多級(jí)流水下發(fā)”機(jī)制,可以理解為將原先串行的“接單-備菜-炒菜”流程,變成了高度重疊的流水線:NPU炒上一道菜的時(shí)候,CPU已經(jīng)在處理下一道菜的訂單了。結(jié)果是驚人的,Host側(cè)的并行度與下發(fā)效率大幅提升,整體訓(xùn)練性能提升了20%。
第二個(gè)是多流并行執(zhí)行。
在多模態(tài)訓(xùn)練場(chǎng)景中,文本梯度同步、圖像特征廣播、混合并行等操作,會(huì)產(chǎn)生海量的通信需求。
傳統(tǒng)模式下,計(jì)算和通信往往是串行的——“路通了再走車”,昇騰的“多流并行執(zhí)行機(jī)制,相當(dāng)于給計(jì)算和通信修了座“立交橋”,通過(guò)共用內(nèi)存池,允許計(jì)算和通信同時(shí)運(yùn)行,而且不同通信域還能單獨(dú)分配“車道”,充分利用網(wǎng)絡(luò)帶寬消除通信串?dāng)_,讓整體訓(xùn)練性能又提升了10%。
第三個(gè)是高性能融合算子。
做過(guò)大模型訓(xùn)練的工程師都知道,最大的噩夢(mèng)就是擴(kuò)散模型訓(xùn)練后期的Loss震蕩。
為了解決這個(gè)問(wèn)題,昇騰CANN高性能算子庫(kù)提供了多種高性能融合算子,包括AdamW EMA融合算子,緩解擴(kuò)散模型訓(xùn)練后期loss震蕩問(wèn)題,使收斂效果更穩(wěn)定;COC通算融合算子,使用集合通信創(chuàng)新算法,用計(jì)算掩蓋多機(jī)多卡場(chǎng)景TP域中ReduceScatter和AllGather等核心通信算子的通信開銷,將通信效率提升了15%。
正如我們所看到的,GLM-Image不但驗(yàn)證了在自主創(chuàng)新算力底座上訓(xùn)練高性能多模態(tài)生成模型的可行性,更在權(quán)威榜單中達(dá)到了開源SOTA水平,詮釋了自主創(chuàng)新算力底座在模型訓(xùn)練環(huán)節(jié)的無(wú)限可能。
03 中國(guó)計(jì)算產(chǎn)業(yè)破局的“新范式”
GLM-Image的從0到1,預(yù)示著AI產(chǎn)業(yè)的一次深刻變革。
過(guò)去一段時(shí)間,外界習(xí)慣了“大力出奇跡”:只要堆疊的顯卡足夠多、帶寬足夠?qū)挘坪鯖](méi)有什么模型是跑不起來(lái)的。
時(shí)間來(lái)到2026年,“認(rèn)知型生成”漸漸成為新的技術(shù)范式,模型的架構(gòu)越來(lái)越復(fù)雜,既要LLM的邏輯推理能力、生成模型的渲染能力,甚至還要有視頻理解的時(shí)空建模能力。
面對(duì)動(dòng)態(tài)變化的計(jì)算需求,“堆算力”已經(jīng)捉襟見(jiàn)肘,如果不進(jìn)行底層創(chuàng)新,有效算力將被大量的通信開銷和內(nèi)存墻吞噬。
智譜和昇騰“背靠背”的作戰(zhàn),示范了模型反向定義算力底座的可能:比如為了配合語(yǔ)義Token的理解,專門優(yōu)化底層的通信流;為了解決混合架構(gòu)的收斂難題,深度定制融合算子……大模型廠商和算力企業(yè)不再是“甲方乙方”的關(guān)系,而是聯(lián)合攻堅(jiān)作戰(zhàn)的“隊(duì)友”。
除了技術(shù)上的“賬”,還有商業(yè)上的“利”。
“自回歸+擴(kuò)散編碼器”的混合架構(gòu),兼顧全局指令理解與局部細(xì)節(jié)刻畫,創(chuàng)造性地解決了海報(bào)、PPT、科普?qǐng)D等知識(shí)密集型場(chǎng)景生成難題。按照常理推斷,模型越復(fù)雜,計(jì)算量越大,成本就越高。但智譜官方公開的數(shù)據(jù)卻是:在API調(diào)用模式下,GLM-Image生成一張圖片僅需0.1元。
![]()
在智能體時(shí)代,一個(gè)復(fù)雜任務(wù)(比如設(shè)計(jì)一張雙十一促銷海報(bào))可能需要AI在后臺(tái)進(jìn)行數(shù)十次的自我迭代、草圖繪制、反思修改,最終才輸出一張成品。倘若生成一張圖的成本要幾塊錢,多步推理的智能體將被局限在實(shí)驗(yàn)室,在商業(yè)上根本跑不通。
智譜和昇騰.昇思的協(xié)同創(chuàng)新,通過(guò)計(jì)算效率的提升和算力利用率的優(yōu)化,“抹平”了復(fù)雜架構(gòu)帶來(lái)的“額外成本”,賦予了GLM-Image極致的性價(jià)比,讓AI生圖從一個(gè)需要小心翼翼計(jì)費(fèi)的“工具”,變成了電商、廣告、社交媒體等行業(yè)的“白菜價(jià)”基礎(chǔ)設(shè)施。
沿循這樣的邏輯,接下來(lái)的AI競(jìng)爭(zhēng),比拼的不只是誰(shuí)的算力多、模型強(qiáng),還在于是否擁有“算法-框架-芯片”三位一體的垂直整合能力:在訓(xùn)練端,穩(wěn)定、高效地進(jìn)行大模型訓(xùn)練;在推理端,低成本推進(jìn)產(chǎn)業(yè)落地。
像智譜和昇騰一樣,拆掉模型和算力之間的墻,進(jìn)行深度的軟硬協(xié)同,或?qū)⒊蔀橛?jì)算產(chǎn)業(yè)的新范式。
04 寫在最后
GLM-Image的一小步,或許是中國(guó)AI生態(tài)的一大步。
中國(guó)最頂尖的算法團(tuán)隊(duì)疊加最硬核的算力底座,蹚過(guò)了最深的水,踩過(guò)了最痛的坑,最終用一份開源SOTA的成績(jī)單告訴行業(yè):用自主創(chuàng)新算力底座訓(xùn)練大模型的路,不僅能走通,還能走得快、走得遠(yuǎn)。
當(dāng)然,也要清醒地看到,國(guó)產(chǎn)算力生態(tài)依然有差距,但GLM-Image撕開了一道口子,光已經(jīng)照進(jìn)來(lái)了。今天是一個(gè)圖像模型,明天可能就是萬(wàn)億參數(shù)的多模態(tài)“巨獸”。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.