<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      LLaVA-OneVision-1.5開源,8B模型預訓練只需4天、1.6萬美元

      0
      分享至



      LLaVA 于 2023 年提出,通過低成本對齊高效連接開源視覺編碼器與大語言模型,使「看圖 — 理解 — 對話」的多模態能力在開放生態中得以普及,明顯縮小了與頂級閉源模型的差距,標志著開源多模態范式的重要里程碑。



      LLaVA 用低成本對齊打通「視覺編碼器 + 大語言模型」起步,LLaVA?1.5 以更大更干凈的數據與高分辨率輸入強化理解,LLaVA?NeXT 拓展 OCR / 數理與多場景任務;隨后分支為 LLaVA?NeXT?Video 處理時序視頻、多幀推理,及 LLaVA-NeXT-Interleave 支持交替多圖文與跨圖聯推;最終在 LLaVA?OneVision 匯聚為統一接口,覆蓋圖像 / 文檔 / 圖表 / 多圖 / 視頻,兼顧效果與效率。

      盡管多模態對齊的接口與架構趨于收斂,真正「可復現」的開源路徑仍與「僅開放權重」存在間距。Qwen2.5?VL、InternVL3.5 在 OCR、文檔理解、數理與跨圖推理上樹立高基線,但完整的數據清單、清洗與混合比例,以及對齊 / 采樣與訓練日程多為部分披露,難以端到端重現。Molmo 以更干凈的數據流水線與精細化設計,在多項評測與偏好中逼近閉源強基線;Open?Qwen2VL 則表明在更高效范式下,即便原始多模態 token 占比較低亦能取得強對比性能。當前主要鴻溝在于 「配方與工程細節的可復現性」,而非單一的模型架構選擇。



      靈感實驗室團隊聯合 LMMs-Lab 圍繞「高性能 — 低成本 — 強復現」三大目標,在 LLaVA-OneVision 體系上推出完整開放的概念均衡 85M 預訓練數據集(LLaVA-OV-1.5-Mid-Training-85M)與精篩 22M 指令數據集(LLaVA-OV-1.5-Instruct-22M),并沿用緊湊的三階段流程(語言–圖像對齊 Stage?1、概念均衡與高質量知識注入 Stage?1.5、指令微調 Stage?2),結合離線并行數據打包(最高約 11× padding 壓縮)與 Megatron?LM + 分布式優化器,將 8B 規模 VL 模型的 Stage?1.5 預訓練在 128 張 A800 上控制在約 4 天內完成,預算控制在 1.6 萬美元。

      在此基礎上,我們提出LLaVA?OneVision?1.5,繼承并擴展 LLaVA 系列:引入 RICE?ViT 支持原生分辨率與區域級細粒度語義建模、強化圖表 / 文檔 / 結構化場景理解,延續緊湊三階段范式以避免冗長 curriculum,構建并強調「質量 — 覆蓋 — 均衡」的 85M 預訓練與 22M 指令集合,并真正意義上實現全鏈條透明開放(數據、訓練與打包工具鏈、配置腳本、日志與可復現評測命令及其構建與執行細節),以確保社區低成本復現與可驗證拓展。

      實驗結果顯示,LLaVA?OneVision 在多項公開多模態基準上較 Qwen2.5?VL 展現出競爭性乃至更優性能(詳見技術報告)。



      • 論文標題:LLaVA-OneVision-1.5: Fully Open Framework for Democratized Multimodal Training
      • 代碼地址:
      • https://github.com/EvolvingLMMs-Lab/LLaVA-OneVision-1.5
      • 技術報告地址:
      • https://arxiv.org/abs/2509.23661
      • 數據 / 模型地址:
      • https://huggingface.co/collections/lmms-lab/llava-onevision-15-68d385fe73b50bd22de23713
      • Demo:
      • https://huggingface.co/spaces/lmms-lab/LLaVA-OneVision-1.5

      數據構建要點



      用于通用視覺語言的預訓練集(85M)與指令微調數據集(22M)。其中 85M 預訓練數據融合 COYO-700M、Obelics、DataComp-1B、LAION-CN、ImageNet-21K、SAM-1B、MINT、Zero250M 等 8 大異構來源,形成約 2,000 萬中文與 6,500 萬英文圖文對。

      為破解長尾概念稀疏與原始 caption 噪聲 / 缺失問題,我們不再依賴原始文本詞頻,而是采用特征驅動的「概念均衡」策略:利用 MetaCLIP 編碼器將全部圖像與 50 萬規模概念詞嵌入共享向量空間,對每張圖像檢索 Top-K 最相似概念,統計概念頻次后按逆頻加權重采樣,抑制高頻背景類并提升罕見細粒度實體、屬性與場景占比,顯著平坦化長尾分布;隨后使用高質量 Captioner 生成對齊的中英文增強描述。系統實驗表明,在相同或更低 token 預算下,擴大高質量數據規模并結合概念均衡采樣,可在多模態理解、長尾識別與指令泛化等核心指標上獲得顯著且可復現的性能提升。



      指令數據 22M 覆蓋八大類別:Caption、Chart & Table、Code & Math、Domain-specific、General VQA、Grounding & Counting、OCR、Science。通過多源聚合、格式統一、指令重寫、雙語互轉、模板去同質化與安全篩除,保持類別與難度分布均衡。并且我們的指令數據疊加 FineVision 數據集之后,結果會繼續增加。



      訓練策略

      1. 視覺編碼器預訓練

      為了讓模型在 OCR、表格 / 文檔、區域理解與后續指令推理上具有更高的下限,我們在 LLaVA-OneVision-1.5 中采用自研的 MVT v1.5(RICE-ViT) 作為視覺主干。

      相較僅做全局對齊的 CLIP / SigLIP 類對比模型,RICE-ViT 針對「實例只用單一全局向量」這一結構性瓶頸,引入統一的 Region Cluster Discrimination 機制:在 4.5 億圖像與 24 億候選區域上訓練,利用區域聚類判別 + 區域感知注意力顯式建模局部實體 / 文本塊與上下文關系,并結合 2D 旋轉位置編碼(2D RoPE)實現多分辨率原生支持。

      與 SigLIP2 依賴多套專用損失(SILC、TIPS、LocCa 等)不同,我們用單一聚類判別范式同時強化通用語義、OCR 識別與定位能力,訓練與推理鏈路更簡潔、可維護性更高。在多模態融合階段,通過輕量投影與后續全參數聯合訓練,將這一細粒度語義底座無縫接入語言模型,減少冗余適配模塊并提升跨任務遷移效率。



      2. 三階段學習流程

      • Stage-1:語言–圖像對齊

      使用 LLaVA-1.5 558K 數據集訓練視覺投影層,將視覺編碼輸出映射到語言模型詞嵌入空間。此階段控制參數更新范圍以快速穩定收斂。

      • Stage-1.5:高質量知識中期預訓練

      在概念均衡的 85M 預訓練數據上進行全參數訓練,注入廣域視覺語義與世界知識,強調數據質量與覆蓋而非盲目擴張 token 規模。

      • Stage-2:視覺指令對齊

      基于 22M 指令數據與 FineVision 等多源視覺指令語料繼續全參數訓練,提升任務泛化、推理組織與響應格式控制能力。

      3. 離線并行數據打包

      為降低多模態樣本長度差異帶來的 padding 浪費、提升有效 token 利用率,我們采用離線并行數據打包:先按樣本長度或長度區間進行哈希桶聚類,減少全局排序與掃描成本;再在數據準備階段以多線程將多條短樣本拼接為接近目標長度的定長序列。該流程一次性處理全量語料,具備確定性與可復現性,避免在線動態打包引入的運行時不穩定與額外 CPU 開銷。

      在 85M 規模的預訓練樣本上,相比原始方案可實現最高約 11× 的 padding 有效壓縮(定義:原始方案總 padding token / 打包后總 padding token)。

      4. 混合并行與長上下文高效訓練,訓練端采用混合并行與長上下文優化

      張量并行(TP)+ 流水并行(PP)+ 序列 / 上下文并行(Sequence/Context Parallel)與分布式優化器協同,以在大規模集群中同時提升算力利用與顯存效率;同時采用原生分辨率策略,保留圖表、文檔與密集文本區域的結構細節,避免統一縮放帶來的信息損失。

      在 128×A800 集群上,8B 規模模型的 Stage?1.5(85M 樣本、原生分辨率)約 3.7 天完成,兼顧吞吐與成本。

      結論

      LLaVA-OneVision-1.5 證明:依托概念均衡的 85M 預訓練數據與高質量指令數據,結合 RICE?ViT 細粒度視覺底座和緊湊的三階段策略(對齊–高質量知識注入–指令泛化),再配合離線并行打包(最高約 11× padding 減少)與混合并行 / 原生分辨率等工程優化,8B 規模即可在更低 token 與算力成本下,對標乃至部分超越主流開源與部分閉源多模態模型,體現「高質量結構化數據 + 系統效率協同」相較單純堆量的優勢。

      這是一次非常簡單的復現工作:我們完整開放數據、工具鏈、腳本、配置、日志與評測配方,復現路徑清晰、依賴明確,無需復雜調參即可跑通。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      1-0!金球先生救主,登貝萊送助攻,絕殺保級隊,大巴黎重回榜首

      1-0!金球先生救主,登貝萊送助攻,絕殺保級隊,大巴黎重回榜首

      我的護球最獨特
      2026-01-24 04:58:48
      被雙開的胡繼勇:在四川工作十四年,當年的上級曾任中石油副總裁

      被雙開的胡繼勇:在四川工作十四年,當年的上級曾任中石油副總裁

      嘆為觀止易
      2026-01-21 10:21:06
      正式退出,趙睿官宣決定,10年堅持白費,原因找到,杜鋒祝福

      正式退出,趙睿官宣決定,10年堅持白費,原因找到,杜鋒祝福

      懂球社
      2026-01-23 14:54:31
      TOP14位身高170以上的女神,有顏有燈有演技

      TOP14位身高170以上的女神,有顏有燈有演技

      素然追光
      2026-01-02 02:45:02
      大陸發布26道警告,賴家人已逃亡美國,洪秀柱:統一指日可待

      大陸發布26道警告,賴家人已逃亡美國,洪秀柱:統一指日可待

      浪子阿邴聊體育
      2026-01-23 14:15:35
      已致45人死亡,西班牙高鐵事故初步報告:列車駛過事發地點前,鐵軌就已經發生斷裂

      已致45人死亡,西班牙高鐵事故初步報告:列車駛過事發地點前,鐵軌就已經發生斷裂

      魯中晨報
      2026-01-23 20:31:40
      提升人居環境,農家有了新面貌(深閱讀·創造鄉村優質生活空間)

      提升人居環境,農家有了新面貌(深閱讀·創造鄉村優質生活空間)

      金臺資訊
      2026-01-24 06:23:03
      張又俠發表署名文章

      張又俠發表署名文章

      上觀新聞
      2025-11-12 08:41:04
      弟弟想造反?阿門:奧薩爾在場竟叫我小弟,我這場干了他好幾球

      弟弟想造反?阿門:奧薩爾在場竟叫我小弟,我這場干了他好幾球

      懂球帝
      2026-01-24 14:01:10
      2-1到0-1!中國隊先贏后輸,亞足聯給出數據對比,日本奪冠穩了?

      2-1到0-1!中國隊先贏后輸,亞足聯給出數據對比,日本奪冠穩了?

      侃球熊弟
      2026-01-24 00:25:03
      30年營養謊言被戳穿:為什么醫生們突然改口讓你吃肉?

      30年營養謊言被戳穿:為什么醫生們突然改口讓你吃肉?

      富貴說
      2026-01-18 20:36:47
      【話題】曼聯花1.19億英鎊用卡塞米羅4年,值不值得?

      【話題】曼聯花1.19億英鎊用卡塞米羅4年,值不值得?

      體壇周報
      2026-01-23 13:13:11
      反轉,官方確認董路直播違法,最高面臨1.6億元罰款,董路麻煩了

      反轉,官方確認董路直播違法,最高面臨1.6億元罰款,董路麻煩了

      體壇風之子
      2026-01-24 04:30:02
      重磅!官方宣布:禁止房子大降價,“限跌令”重出江湖!

      重磅!官方宣布:禁止房子大降價,“限跌令”重出江湖!

      常州壹樓市
      2026-01-17 23:59:54
      美國專家也看不懂!中國為何又把頂尖材料,給干成“白菜價”了?

      美國專家也看不懂!中國為何又把頂尖材料,給干成“白菜價”了?

      愛史紀
      2026-01-22 09:50:37
      中國移動:重磅合并重組啟動!

      中國移動:重磅合并重組啟動!

      環球通信
      2026-01-24 11:48:01
      遭遇極端高溫,王欣瑜比賽將不早于北京時間14點30分重啟

      遭遇極端高溫,王欣瑜比賽將不早于北京時間14點30分重啟

      懂球帝
      2026-01-24 13:40:07
      朱拉尼恐怖色彩的“大一統”:庫爾德“娘子軍”被排隊爆頭畫面

      朱拉尼恐怖色彩的“大一統”:庫爾德“娘子軍”被排隊爆頭畫面

      矚望云霄
      2026-01-23 10:17:27
      學醫后才知道,冠心病前最危險的信號,不是心臟疼,而是這5癥狀

      學醫后才知道,冠心病前最危險的信號,不是心臟疼,而是這5癥狀

      醫學科普匯
      2026-01-23 09:46:27
      德國政客想不通:孟買的高樓比上海都多,德企怎么就是不肯去呢?

      德國政客想不通:孟買的高樓比上海都多,德企怎么就是不肯去呢?

      滄海旅行家
      2026-01-23 16:30:59
      2026-01-24 15:48:49
      機器之心Pro incentive-icons
      機器之心Pro
      專業的人工智能媒體
      12179文章數 142549關注度
      往期回顧 全部

      科技要聞

      特斯拉Cybercrab即將落地 每公里不到1塊錢

      頭條要聞

      女生被男友發現"出軌"后被逼吃穢物 煙頭燙胸大腿內側

      頭條要聞

      女生被男友發現"出軌"后被逼吃穢物 煙頭燙胸大腿內側

      體育要聞

      當家球星打替補,他們在故意擺爛?

      娛樂要聞

      李微漪更新:狼王格林去世,3字淚目

      財經要聞

      “百年老字號”張小泉遭60億債務壓頂

      汽車要聞

      有增程和純電版可選 日產NX8或于3-4月間上市

      態度原創

      時尚
      本地
      手機
      房產
      公開課

      不一定能掀桌男主,但一定是個好演員!

      本地新聞

      云游中國|格爾木的四季朋友圈,張張值得你點贊

      手機要聞

      中國聯通確認:今年每月至少一款eSIM手機上市

      房產要聞

      正式官宣!三亞又一所名校要來了!

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 亚洲最大成人av在线天堂网| 亚洲伊人精品久视频国产| 色婷婷成人网| 日韩欧美猛交xxxxx无码| 亚卅成人网| 国产午夜亚洲精品不卡下载| 麻豆AV在线| 狼友视频一区二区三区| 中文日韩在线一区二区| 抽搐一进一出gif免费动态| 亚洲精品久久久久久下一站| 香河县| 97人人模人人爽人人少妇| 国产熟睡乱子伦视频在线播放| 夜夜欢夜夜干| 卫辉市| 国产精品色哟哟| 26uuu亚洲| 亚洲AV无码电影在线播放| 男女视频在线一区二区| 国产成人无码a区在线观看视频app | 精品国产AV| 蜜乳av久久久久久久久久久| 中文字幕精品av一区二区五区| 国产丰满乱子伦无码专| 亚洲国产成人精品女人久久久| 国产男女猛烈无遮挡免费视频网址| 色综合久久一区二区三区| 五月综合色| 人妻色综合网站| 国产熟女视频| 色婷婷亚洲精品天天综合| 亚洲无码五区| 色宗网| 日韩精品极品视频在线观看免费| 久久午夜无码鲁丝片直播午夜精品 | 91丨国产丨白浆秘?网站| 少妇人妻偷人精品免费| 国产99视频精品免视看9| 北岛玲中文字幕人妻系列| 玩弄放荡人妇系列av在线网站|