<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      剛剛,DeepSeek又探索新架構了,開源OCR 2

      0
      分享至





      機器之心編輯部

      嘿!剛剛,DeepSeek 又更新了!

      這次是更新了十月份推出的 DeepSeek-OCR 模型(參見:太強了!DeepSeek 剛剛開源新模型,用視覺方式壓縮一切)。

      當時 DeepSeek-OCR 的出世,引起了大家對視覺壓縮的關注與討論,而這一次,DeepSeek 對視覺編碼下手了。

      可以說,剛剛發布的 DeepSeek-OCR 2 通過引入 DeepEncoder V2 架構,實現了視覺編碼從「固定掃描」向「語義推理」的范式轉變!

      當然,和 DeepSeek 幾乎每次發布一樣,這一次同樣也是模型和技術報告齊開源。



      • 項目地址:https://github.com/deepseek-ai/DeepSeek-OCR-2
      • 論文地址:https://github.com/deepseek-ai/DeepSeek-OCR-2/blob/main/DeepSeek_OCR2_paper.pdf
      • 模型地址:https://huggingface.co/deepseek-ai/DeepSeek-OCR-2

      這項研究的三位作者分別是魏浩然、孫耀峰、李宇琨。

      具體來說,該研究的核心創新在于將原本基于 CLIP 的編碼器替換為輕量級語言模型(Qwen2-500M),并引入了具有因果注意力機制的「因果流查詢」

      這種設計打破了傳統模型必須按從左到右、從上到下的柵格順序處理圖像的限制,賦予了編碼器根據圖像語義動態重排視覺 Token 的能力。通過這種兩級級聯的 1D 因果推理結構(編碼器重排與譯碼器解析),模型能夠更精準地還原復雜文檔(如帶表格、公式和多欄布局)的自然閱讀邏輯。

      這就像是為機器裝上了「人類的閱讀邏輯」,讓 AI 不再只是生搬硬套地掃描圖像。對比之下,傳統的 AI 就像一個死板的復印機,不管頁面內容多復雜,都只能從左上角到右下角按行掃描。

      在維持極高數據壓縮效率的同時,DeepSeek-OCR 2 在多項基準測試和生產指標上均取得了顯著突破。模型僅需 256 到 1120 個視覺 Token 即可覆蓋復雜的文檔頁面,這在同類模型中處于極低水平,顯著降低了下游 LLM 的計算開銷。

      在 OmniDocBench v1.5 評測中,其綜合得分達到 91.09%,較前代提升了 3.73%,特別是在閱讀順序識別方面表現出了更強的邏輯性。

      此外,在實際生產環境中,該模型顯著降低了 OCR 識別結果的重復率,并為未來構建統一的 omni-modal(全模態)編碼器提供了可行路徑。是的,未來同一個 AI「大腦」或許能用同樣的方法去處理聲音、視頻等所有模態的數據,真正實現多模態的深度統一。

      DeepSeek-OCR 2 架構

      如圖 3 所示,DeepSeek-OCR 2 延續了 DeepSeek-OCR 的整體架構,由編碼器(encoder) 和解碼器(decoder) 組成。編碼器負責將圖像離散化為視覺 token,而解碼器則在這些視覺 token 與文本提示(text prompts)的條件約束下生成輸出。



      兩者的關鍵區別在于編碼器部分:DeepSeek 將原有的 DeepEncoder 升級為 DeepEncoder V2。在完整保留前代能力的基礎上,DeepEncoder V2 通過一種全新的架構設計,引入了因果推理能力(causal reasoning)

      DeepEncoder V2

      DeepEncoder V2 的第一個組成部分是視覺分詞器(vision tokenizer)。延續了 DeepEncoder 的設計,DeepSeek 采用了一種由參數規模為 8000 萬的 SAM-base 與兩層卷積層組成的架構。相比 DeepEncoder,DeepSeek 將最終卷積層的輸出維度從 1024 降至 896,以與后續處理流程保持一致。

      在 DeepEncoder 中,視覺分詞器之后接入的是一個 CLIP ViT,用于進一步壓縮和建模視覺語義。DeepEncoder V2 對這一組件進行了重新設計,將其改造為一種類 LLM 的架構,并引入了雙流注意力機制(dual-stream attention)。

      其中,視覺 token 采用雙向注意力,以保留 CLIP 所具備的全局建模能力;而新引入的因果流查詢(causal flow queries) 則使用因果注意力。這些可學習的查詢 token 被作為后綴追加在視覺 token 之后,每個查詢都可以關注所有視覺 token 以及其之前的查詢 token。通過保持查詢 token 與視覺 token 數量一致,該設計在不改變 token 總數的前提下,對視覺特征施加語義上的排序與蒸餾約束。最終,只有因果查詢 token 的輸出會被送入 LLM 解碼器。

      從整體上看,該架構實際上構建了一種兩階段級聯的因果推理機制:首先,編碼器通過可學習查詢對視覺 token 進行語義重排;隨后,LLM 解碼器在這一有序序列之上執行自回歸推理。與依賴位置編碼施加剛性空間順序的傳統編碼器不同,這種因果排序查詢能夠更自然地貼合連續的視覺語義,并與 LLM 的單向注意力模式高度一致。該設計有望在二維空間結構與一維因果語言建模之間搭建起一座橋梁。



      為更直觀地展示 DeepEncoder V2 的注意力機制,圖 5 對其注意力掩碼進行了可視化。該注意力掩碼由兩個相互區分的區域組成。

      左側區域對原始視覺 token 采用雙向注意力機制(類似于 ViT),使任意 token 都可以與其他所有 token 建立可見性,從而實現完整的全局建模;右側區域則針對因果流 token 使用因果注意力(三角形掩碼,與純解碼器 LLM 完全一致),其中每個 token 只能關注其之前的 token。



      DeepSeek-MoE Decoder

      由于 DeepSeek-OCR 2 的改進重點主要集中在編碼器 上,并未對解碼器部分進行升級。遵循這一設計原則,模型繼續沿用 DeepSeek-OCR 的解碼器 —— 一個參數規模為 30 億的 MoE 結構,其中約 5 億參數在推理時處于激活狀態。

      訓練數據與訓練流程

      在數據層面,DeepSeek-OCR 2 沿用了與 DeepSeek-OCR 相同的數據源,由 OCR 1.0、OCR 2.0 以及通用視覺數據組成,其中 OCR 數據占混合訓練數據的 80%。同時引入了以下兩項改進:

      • 針對 OCR 1.0 數據采用了更均衡的采樣策略,并按內容類型(正文、公式和表格)以 3:1:1 的比例對頁面進行劃分;
      • 通過合并語義相似的類別(例如統一「插圖說明」和「插圖標題」)來優化布局檢測的標簽。

      在訓練階段,DeepSeek-OCR 2 主要分為三個階段來完成:(1)編碼器預訓練;(2)查詢增強;(3)解碼器專門化

      其中第一階段使視覺分詞器(tokenizer)和 LLM 風格的編碼器獲得特征提取、token 壓縮和 token 重排的基礎能力。第二階段進一步加強編碼器的 token 重排能力,同時增強了視覺知識的壓縮。第三階段凍結編碼器參數,僅優化解碼器,從而在相同的 FLOPs 下實現更高的數據吞吐量。

      接著來看細節。

      首先是訓練 DeepEncoder V2。遵循 DeepSeek-OCR 和 Vary 的方法,使用語言建模目標來訓練 DeepEncoder V2,將編碼器與輕量級解碼器耦合,通過預測下一個 token 進行聯合優化。采用了 768×768 和 1024×1024 兩種分辨率的數據加載器。視覺分詞器初始化自 DeepEncoder,LLM 風格的編碼器則初始化自 Qwen2-0.5B-base。預訓練完成后,僅保留編碼器參數用于后續階段。

      本階段使用 AdamW 優化器,學習率采用余弦退火,從 1e-4 降至 1e-6,在 160 臺 A100 GPU(20 個節點 × 8 臺 GPU)上以 640 的批大小訓練 40k 次迭代(采用長度為 8K 的序列打包,約包含 1 億個圖文對樣本)。

      其次是查詢增強。在 DeepEncoder V2 預訓練之后,將其與 DeepSeek-3B-A500M 整合為最終的流水線。凍結視覺分詞器(SAM-conv 結構),并聯合優化 LLM 編碼器和 LLM 解碼器以增強查詢表示。本階段通過多裁剪策略將兩種分辨率統一到單個數據加載器中。此外采用 4 階段流水線并行:視覺分詞器(PP0)、LLM 風格編碼器(PP1)以及 DeepSeek-LLM 層(PP2-3 每階段 6 層)。

      本階段利用 160 臺 GPU(每臺 40GB 顯存),配置了 40 個數據并行副本(每個副本 4 臺 GPU),過程中使用相同的優化器,以 1280 的全局批大小進行訓練,學習率在 15k 次迭代中從 5e-5 退火至 1e-6。

      最后是LLM 持續訓練。為了快速消耗訓練數據,本階段凍結 DeepEncoder V2 的所有參數,僅更新 DeepSeek-LLM 的參數。本階段加速了訓練(在相同全局批大小下,訓練速度提升了一倍多),同時有助于 LLM 更好地理解 DeepEncoder V2 重排后的視覺 token。

      承接第二階段,本階段進行了另一次學習率退火,從 1e-6 降至 5e-8,共訓練 20k 次迭代。

      評估結果

      團隊選用 OmniDocBench v1.5 作為主要評測基準,該基準包含 1355 頁文檔,覆蓋中英文兩種語言的 9 大主要類別,包括雜志、學術論文、研究報告等。憑借其多樣化的測試樣本與嚴格的評測標準,OmniDocBench 為驗證 DeepSeek-OCR 2 的整體性能,尤其是 DeepEncoder V2 的有效性,提供了一個可靠有效的平臺。

      如表 1 所示,在使用最小視覺 token 上限(的情況下,DeepSeek-OCR 2 仍取得了 91.09% 的領先性能。與 DeepSeek-OCR 基線模型相比,在采用相似訓練數據來源的前提下,其性能提升了 3.73%,驗證了新設計架構的有效性。



      此外,除了整體性能提升,閱讀順序(R-order)指標上的編輯距離(Edit Distance,ED)也顯著下降,從 0.085 降至 0.057。這表明,新的 DeepEncoder V2 能夠根據圖像信息更有效地選擇并排列初始視覺 token。

      進一步如表 2 所示,在相同的視覺 token 預算(1120)條件下,DeepSeek-OCR 2 在文檔解析任務中的 ED(0.100)低于 Gemini-3 Pro(0.115)。這進一步證明了新模型在保持高視覺 token 壓縮率的同時,仍能確保更優的性能,并展現出極高的潛力。



      改進空間

      團隊在 9 種文檔類型上,對 DeepSeek-OCR 與 DeepSeek-OCR 2 進行了細致的性能對比,結果表明:DeepSeek-OCR 2 仍具有較大的提升空間,如表 3 所示。在文本識別的編輯距離(ED)指標上,DeepSeek-OCR 2 在大多數場景中優于 DeepSeek-OCR,但在某些類型上仍存在明顯不足,例如報紙類文檔,其 ED 超過 0.13。



      團隊認為主要原因有兩點:

      • 視覺 token 上限較低,可能影響了文本極為密集的報紙類文檔識別效果,這一問題可在未來通過增加局部裁剪(local crops)的數量來緩解;
      • 報紙類數據不足 —— 當前訓練集中僅包含約 25 萬條相關樣本,這對于訓練 DeepEncoder V2 來說仍然不夠充分。

      當然,在閱讀順序(R-order)這一指標上,DeepSeek-OCR 2 在所有類別中始終優于 DeepSeek-OCR,這進一步驗證了所提出的「視覺因果流」編碼器設計的有效性。

      實際應用

      DeepSeek-OCR 主要面向兩類生產場景:一是為 DeepSeek-LLM 提供圖像 / 文檔讀取能力的在線 OCR 服務,二是用于批量 PDF 處理的預訓練數據流水線。在比較了 DeepSeek-OCR 2 與 DeepSeek-OCR 在真實生產環境中的表現后發現,由于生產環境中無法獲得標準答案,因此團隊主要采用「重復率」作為核心質量指標。

      如表 4 所示,相比前代模型,DeepSeek-OCR 2 在實際可用性方面有了顯著提升:在在線用戶日志圖像中,重復率從 6.25% 降至 4.17%;在 PDF 數據生產場景中,重復率從 3.69% 降至 2.88%。



      這些結果進一步驗證了 DeepSeek-OCR 2 架構的有效性,尤其體現了其在邏輯性視覺理解方面的優勢。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      紐卡斯爾戰績不佳,英媒分析穆帥或成為紐卡斯爾新任主教練

      紐卡斯爾戰績不佳,英媒分析穆帥或成為紐卡斯爾新任主教練

      福醬的小時光
      2026-01-27 16:55:17
      《人民日報》:70%的病跟情緒有關!很多人被親人給慢性折磨死的

      《人民日報》:70%的病跟情緒有關!很多人被親人給慢性折磨死的

      詩詞中國
      2026-01-23 18:47:36
      靴子落地!安踏集團宣布收購彪馬29.06%股權成第一大股東

      靴子落地!安踏集團宣布收購彪馬29.06%股權成第一大股東

      體育大生意
      2026-01-27 08:43:27
      伊朗沒想到特朗普敢這么絕,美軍在準備一場“滅國之戰”?

      伊朗沒想到特朗普敢這么絕,美軍在準備一場“滅國之戰”?

      今夜繁星墜落
      2026-01-26 21:09:09
      一記悶棍!柯建銘萬萬沒想到,背后捅他最狠的,竟是他一直提攜的吳思瑤

      一記悶棍!柯建銘萬萬沒想到,背后捅他最狠的,竟是他一直提攜的吳思瑤

      阿天愛旅行
      2026-01-27 07:33:57
      張信哲:我基本不會約任何人吃飯,我的晚餐時間是屬于我媽的

      張信哲:我基本不會約任何人吃飯,我的晚餐時間是屬于我媽的

      秀語千尋
      2026-01-27 14:28:52
      早已領結婚證、和王曼昱地下戀,31歲林高遠身上標簽哪些是真的?

      早已領結婚證、和王曼昱地下戀,31歲林高遠身上標簽哪些是真的?

      以茶帶書
      2026-01-27 15:11:50
      喜訊!他將成首位通過邵佳一考察的國腳,國足熱身賽連續三場破門

      喜訊!他將成首位通過邵佳一考察的國腳,國足熱身賽連續三場破門

      籃球看比賽
      2026-01-27 12:28:45
      樓蘭是犯了什么天條嗎?讓中原人如此痛恨,古詩里一堆“斬樓蘭”

      樓蘭是犯了什么天條嗎?讓中原人如此痛恨,古詩里一堆“斬樓蘭”

      收藏大視界
      2025-12-16 18:48:56
      李亞鵬被質疑私挪慈善基金!網友甩出多條證據,稱房東才是慈善家

      李亞鵬被質疑私挪慈善基金!網友甩出多條證據,稱房東才是慈善家

      古希臘掌管月桂的神
      2026-01-27 10:52:41
      又來了!蘋果又發布 iOS 26.3 新系統更新

      又來了!蘋果又發布 iOS 26.3 新系統更新

      XCiOS俱樂部
      2026-01-27 10:04:55
      6名中國男子日本滑雪被困“死亡谷”,歷時20小時獲救,事發前一日剛有人脫困,大使館兩度發文提醒注意安全

      6名中國男子日本滑雪被困“死亡谷”,歷時20小時獲救,事發前一日剛有人脫困,大使館兩度發文提醒注意安全

      極目新聞
      2026-01-26 18:36:30
      “很后悔托舉了他!”被丈夫和閨蜜背叛女子一夜白頭:聽到兒子叫第三者媽媽,心在滴血

      “很后悔托舉了他!”被丈夫和閨蜜背叛女子一夜白頭:聽到兒子叫第三者媽媽,心在滴血

      臺州交通廣播
      2026-01-26 22:00:12
      早田希娜:雖然我才25歲但已被稱老將 輸給17歲的張本美和不甘心

      早田希娜:雖然我才25歲但已被稱老將 輸給17歲的張本美和不甘心

      勁爆體壇
      2026-01-27 15:22:03
      上海女教師被丈夫殺害藏尸冰柜105天!盲目追帥哥的代價太慘痛

      上海女教師被丈夫殺害藏尸冰柜105天!盲目追帥哥的代價太慘痛

      六目先生
      2026-01-27 07:15:03
      深圳這一天,娛樂圈的人情冷暖,在梁小龍追悼會體現得淋漓盡致

      深圳這一天,娛樂圈的人情冷暖,在梁小龍追悼會體現得淋漓盡致

      墨印齋
      2026-01-26 18:25:03
      班長要開同學會,每人收5000,我直接退群,聚會那天他們人都懵了

      班長要開同學會,每人收5000,我直接退群,聚會那天他們人都懵了

      小秋情感說
      2026-01-27 14:35:17
      詞窮了,已經沒有適合她的詞來形容她的美了

      詞窮了,已經沒有適合她的詞來形容她的美了

      動物奇奇怪怪
      2026-01-26 13:01:49
      越南不恨美國,不恨日本,就連殖民幾十年的法國都不恨,只恨中國

      越南不恨美國,不恨日本,就連殖民幾十年的法國都不恨,只恨中國

      安安說
      2026-01-06 11:48:33
      他是潛藏在軍隊里的大間諜,給國家造成永久損失,被注射死刑嚴懲

      他是潛藏在軍隊里的大間諜,給國家造成永久損失,被注射死刑嚴懲

      近史談
      2025-10-23 20:24:33
      2026-01-27 18:00:49
      機器之心Pro incentive-icons
      機器之心Pro
      專業的人工智能媒體
      12200文章數 142551關注度
      往期回顧 全部

      科技要聞

      馬化騰3年年會講話透露了哪些關鍵信息

      頭條要聞

      企業30年燃氣特許權被單方取消 兩級法院判定政府違法

      頭條要聞

      企業30年燃氣特許權被單方取消 兩級法院判定政府違法

      體育要聞

      帶著母親遺愿戰斗12年,交易添頭成了隊魂

      娛樂要聞

      張雨綺被曝代孕,春晚被拒,代言跑路

      財經要聞

      多地對壟斷行業"近親繁殖"出手了

      汽車要聞

      標配華為乾崑ADS 4/鴻蒙座艙5 華境S體驗車下線

      態度原創

      旅游
      藝術
      家居
      本地
      公開課

      旅游要聞

      冰雪春天|“冰雪熱”持續升溫,“冰雪+”撬動冬日新消費

      藝術要聞

      日本東京國立博物館中的100幅宋畫

      家居要聞

      現代古典 中性又顯韻味

      本地新聞

      云游中國|撥開云霧,巫山每幀都是航拍大片

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版