![]()
智東西
作者 陳駿達(dá)
編輯 李水青
智東西3月6日?qǐng)?bào)道,今天,商湯科技發(fā)布最新技術(shù)博客——《NEO-unify:原生架構(gòu)打造端到端多模態(tài)理解與生成統(tǒng)一模型》。NEO-unify是一個(gè)從底層統(tǒng)一多模態(tài)理解與生成的端到端原生架構(gòu),在保留抽象語(yǔ)義與細(xì)粒度表征的同時(shí),展現(xiàn)更高數(shù)據(jù)訓(xùn)練效率。
當(dāng)前,多模態(tài)模型普遍采用“視覺(jué)編碼器(VE)用于理解,變分自編碼器(VAE)用于生成”的組合式設(shè)計(jì)。這套范式雖行之有效,卻也內(nèi)在割裂了感知與創(chuàng)造,常面臨模塊協(xié)同與效率權(quán)衡的挑戰(zhàn)。
能否更進(jìn)一步,讓AI像人一樣,直接從最原始的像素和文字中,統(tǒng)一地進(jìn)行學(xué)習(xí)、理解與生成?這正是NEO-unify嘗試回答的根本問(wèn)題。它摒棄了傳統(tǒng)的VE與VAE,首次構(gòu)建了一個(gè)真正的端到端原生統(tǒng)一模型,在同一個(gè)架構(gòu)內(nèi)直接處理像素與文本,并在此基礎(chǔ)上協(xié)同完成理解與生成任務(wù)。
初步研究成果顯示,該設(shè)計(jì)在保持強(qiáng)大語(yǔ)義理解與細(xì)節(jié)恢復(fù)能力的同時(shí),顯著提升了訓(xùn)練與計(jì)算效率。
博客地址(英文):
https://huggingface.co/blog/sensenova/neo-unify
博客地址(中文):
https://www.sensetime.com/cn/news-detail/51170543?categoryId=72
一、不需要VE也不需要VAE,模型表現(xiàn)打平Qwen3-VL
長(zhǎng)期以來(lái),多模態(tài)研究已形成一種默認(rèn)范式:視覺(jué)編碼器(Vision Encoder, VE)負(fù)責(zé)感知與理解,而變分自編碼器(Variational Autoencoder, VAE)則用于內(nèi)容生成。近期的一些工作嘗試構(gòu)建共享編碼器,但這種折衷往往引入新的結(jié)構(gòu)性設(shè)計(jì)權(quán)衡。
由此回到第一性原理:構(gòu)建一體化模型直接處理原生輸入,即像素本身與文字本身。商湯科技聯(lián)合南洋理工大學(xué),提出一種全新的架構(gòu)范式:NEO-unify(preview),一個(gè)原生、統(tǒng)一、端到端的多模態(tài)模型架構(gòu)。它不僅越過(guò)了當(dāng)前視覺(jué)表征的爭(zhēng)論,也擺脫了預(yù)訓(xùn)練先驗(yàn)和規(guī)模定律瓶頸的限制。最關(guān)鍵的是:不需要VE,也不需要VAE。
NEO-unify則是一個(gè)端到端統(tǒng)一框架,能夠直接從近乎無(wú)損的信息輸入中學(xué)習(xí),并由模型自身塑造內(nèi)部表征空間。
它首先引入近似無(wú)損的視覺(jué)接口,用于統(tǒng)一圖像的輸入與輸出表示;其次,采用原生混合Transformer(Mixture-of-Transformer,MoT)架構(gòu),使理解與生成能夠在同一體系中協(xié)同進(jìn)行。
最終,通過(guò)統(tǒng)一學(xué)習(xí)框架實(shí)現(xiàn)跨模態(tài)訓(xùn)練:文本采用自回歸交叉熵目標(biāo),視覺(jué)通過(guò)像素流匹配進(jìn)行優(yōu)化。
![]()
實(shí)驗(yàn)結(jié)果顯示,采用NEO-unify架構(gòu)的模型在多項(xiàng)基準(zhǔn)測(cè)試上的表現(xiàn)超過(guò)同尺寸的前沿視覺(jué)語(yǔ)言模型,排進(jìn)了同尺寸模型的第一梯隊(duì),基本與Qwen3-VL模型打了平手。
![]()
二、無(wú)編碼器同時(shí)保留抽象語(yǔ)義與細(xì)粒度表征,展現(xiàn)更高數(shù)據(jù)訓(xùn)練效率
那么,這一模型背后究竟有哪些關(guān)鍵技術(shù)發(fā)現(xiàn)呢?
商湯此前的工作NEO(Diao et al., ICLR 2026)表明,原生端到端模型同樣能夠?qū)W習(xí)到豐富的語(yǔ)義表征。在此基礎(chǔ)上,商湯進(jìn)一步觀察到一個(gè)有趣的現(xiàn)象:即使在凍結(jié)理解分支的情況下,獨(dú)立的生成分支仍然能夠從表示中抽取并恢復(fù)細(xì)粒度的視覺(jué)細(xì)節(jié)。
基于這一發(fā)現(xiàn),商湯訓(xùn)練了NEO-unify(2B)。在初步9萬(wàn)步預(yù)訓(xùn)練后,模型在MS COCO 2017上取得31.56 PSNR和0.85 SSIM,而Flux VAE的對(duì)應(yīng)指標(biāo)為32.65和0.91。這一結(jié)果表明,即使不依賴預(yù)訓(xùn)練VE或VAE,近似無(wú)損的原生輸入仍能夠同時(shí)支持高質(zhì)量的語(yǔ)義理解與像素級(jí)細(xì)節(jié)保真。
據(jù)此,商湯進(jìn)一步開(kāi)展探索:NEO-unify將所有全模態(tài)條件信息統(tǒng)一輸入到理解分支,而生成分支僅負(fù)責(zé)生成新的圖像。
在凍結(jié)理解分支的情況下,NEO-unify(2B)仍展現(xiàn)出較強(qiáng)的圖像編輯能力,同時(shí)顯著減少了輸入圖像token的數(shù)量。在使用開(kāi)源生成與圖像編輯數(shù)據(jù)集并進(jìn)行初步6萬(wàn)步混合訓(xùn)練后,模型在ImgEdit基準(zhǔn)上取得3.32的成績(jī),且理解分支在整個(gè)訓(xùn)練過(guò)程中保持凍結(jié)。
借助預(yù)訓(xùn)練的理解分支與生成分支,NEO-unify使用相同的中期訓(xùn)練(MT)與監(jiān)督微調(diào)(SFT)數(shù)據(jù)進(jìn)行聯(lián)合訓(xùn)練。即使在較低的數(shù)據(jù)比例和損失權(quán)重下,理解能力依然保持穩(wěn)定,而生成能力則收斂很快。二者在MoT主干中協(xié)同提升,整體沖突極小。
![]()
此外,商湯首先進(jìn)行web-scale預(yù)訓(xùn)練,隨后在多樣且高質(zhì)量的數(shù)據(jù)語(yǔ)料上依次進(jìn)行中期訓(xùn)練(MT)和監(jiān)督微調(diào)(SFT)。與7BBagel模型相比,NEO-unify展現(xiàn)出更高的數(shù)據(jù)訓(xùn)練效率,在使用更少訓(xùn)練token的情況下取得了更優(yōu)的性能。
![]()
結(jié)語(yǔ):多模態(tài)理解與生成一體化或成世界模型基礎(chǔ)
NEO-unify團(tuán)隊(duì)認(rèn)為,隨著多模態(tài)理解生成一體化的模型出現(xiàn),模型不再在模態(tài)之間進(jìn)行轉(zhuǎn)換,而是能夠原生地跨模態(tài)思考。多模態(tài)AI不再只是連接不同系統(tǒng),而是構(gòu)建一個(gè)從未割裂的統(tǒng)一智能體,并讓所需能力從其內(nèi)部自然涌現(xiàn)。
理解生成一體化是AI大模型領(lǐng)域的前沿方向之一,被認(rèn)為是更接近人類智能的一種模型形式。目前,業(yè)界已經(jīng)基本完成文字理解生成一體化模型的探索,而多模態(tài)理解生成一體化模型,則有望成為全模態(tài)推理、視覺(jué)推理、空間智能乃至世界模型的重要基礎(chǔ)。
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.