<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      復旦大學破解長文本AI的"注意力盲點"問題,讓處理效率提升5倍

      0
      分享至


      在人工智能快速發展的今天,大型語言模型處理長文本的能力變得越來越重要。從理解數小時的視頻內容到分析整個代碼庫,這些應用都需要AI能夠高效處理超長的文本序列。然而,傳統的注意力機制在處理長文本時面臨著嚴重的效率瓶頸。

      這項由復旦大學、上海創新研究院、字節跳動和OpenMOSS團隊聯合完成的研究發表于2026年2月,論文編號為arXiv:2602.08426v1。研究團隊開發了一種名為Prism的新方法,成功解決了長文本處理中的關鍵技術難題,讓AI在處理128K長度文本時的速度提升了5.1倍,同時保持了與原有方法相同的準確性。

      當我們談到AI處理長文本的困難時,可以把它比作一個人試圖同時關注一個巨大圖書館中的每一本書。傳統的注意力機制要求AI對文本中的每一個詞都給予同等程度的關注,這就像要求一個人同時閱讀圖書館里的所有書籍一樣不現實。隨著文本長度的增加,這種全面關注的計算量呈平方級增長,很快就會變得無法承受。

      為了解決這個問題,研究者們提出了塊稀疏注意力的概念。這就像是教AI學會"跳讀"——只關注文本中最重要的部分,而忽略那些不太相關的內容。然而,如何準確識別哪些部分最重要,這本身就是一個巨大的挑戰。

      研究團隊深入分析后發現,現有方法的問題根源在于一個被稱為"均值池化"的技術操作。當AI試圖快速評估文本塊的重要性時,它會使用均值池化來獲得每個文本塊的代表性信息。這就像是把一整段文字壓縮成一個簡短的摘要。然而,研究團隊通過數學分析發現,這種壓縮過程實際上會造成信息的嚴重丟失。

      這個發現可以用調音臺來比喻。在現代AI模型中,位置信息被編碼在不同的"頻率通道"中,就像音樂中的高音和低音。高頻通道負責編碼精細的局部位置關系,比如相鄰詞語之間的關系;低頻通道則負責編碼全局的語義信息,比如整個句子或段落的含義。均值池化在這個過程中就像一個有缺陷的混音器,它能很好地保留低頻的全局信息,但會嚴重破壞高頻的局部位置信息。

      具體來說,研究團隊發現均值池化實際上充當了一個"低通濾波器"。在高頻維度中,快速旋轉的位置向量在聚合過程中會產生"破壞性干擾",導致信號強度幾乎歸零。這種現象創造了一個光譜"盲點",有效地從池化表示中抹去了細粒度的位置信息。這就解釋了為什么標準方法在沒有昂貴校正的情況下難以維持局部連貫性。

      為了驗證這一理論發現,研究團隊進行了詳細的能量分析。他們使用Qwen3-8B模型,測量了查詢向量在均值池化前后的RMS范數。結果顯示了明顯的"光譜分歧":在詞元級別,高頻區域保持著穩健的強度,證實了高頻位置特征對預訓練模型具有內在重要性。然而,在塊級池化表示中,高頻區域出現了戲劇性的"能量坍塌",RMS值從約1.0降至約0.1,這實證驗證了均值池化確實充當低通濾波器,抑制了局部位置信息。

      基于這些發現,研究團隊開發了Prism方法。Prism的核心思想是將傳統的單一塊重要性評估分解為兩個并行的分支,分別處理高頻和低頻信息。這就像是使用兩個不同的鏡頭來觀察同一個場景:一個鏡頭專門捕捉細節,另一個鏡頭負責捕捉整體結構。

      在Prism的設計中,低頻分支負責捕獲全局語義依賴關系,表現為塊稀疏模式,就像識別文檔的主要主題和章節結構。高頻分支則專門恢復被均值池化破壞的精細位置信息,能夠識別那些對局部連貫性至關重要的"斜線模式",比如相鄰詞語之間的語法關系。

      為了確保兩個分支的信息能夠有效整合,研究團隊還開發了一種基于能量的溫度校準技術。這種技術會根據每個頻譜分支的能量分布自動計算校準因子,恢復被衰減的位置信號。整個過程完全自動化,不需要人工調節任何參數。

      研究團隊在多個基準測試上驗證了Prism的效果。在語言建模任務中,使用PG19數據集的測試顯示,Prism在所有上下文長度上都保持了與完整注意力機制幾乎相同的困惑度,而其他基線方法在長度增加時會出現顯著的性能下降。特別是在128K長度時,XAttention的加速比被限制在3.0倍,而Prism達到了5.1倍的加速比。

      在長上下文理解能力測試中,使用LongBench基準的結果顯示,Prism在Llama-3.1-8B-Instruct上平均得分41.08,在Qwen-3-8B上平均得分39.12,與完整注意力基線相比降幅不到0.4%。值得注意的是,Prism在某些任務上甚至略優于完整注意力,比如在Qwen-3的少樣本學習任務上得分58.36,而完整注意力得分56.69。研究團隊將這種改進歸因于對高頻位置信號的顯式保留,這增強了模型執行上下文模式復制的能力。

      在長上下文檢索任務RULER上的測試結果顯示,所有方法在配置的閾值參數下都表現出可比較的性能。然而,關鍵在于Prism僅使用塊級操作就實現了這種性能等同性。相比之下,MInference和FlexPrefill等基線方法依賴于使用最后一個查詢塊的詞元級估計,這種啟發式方法對RULER格式天然有利,因為查詢通常位于末尾。

      為了驗證Prism在多模態場景中的適用性,研究團隊還在視頻理解任務上進行了測試。使用Qwen3-VL-8B模型在VideoMME和LongVideoBench上的評估顯示,Prism在兩個基準上都優于現有方法,達到了與完整注意力基線相當的性能。特別是在VideoMME的長視頻分段中,視頻時長從30分鐘到1小時不等,Prism甚至超越了完整注意力基線。這可以歸因于稀疏注意力的去噪效果,它有效地過濾掉了不相關的視覺詞元,使模型能夠專注于最顯著的視覺信息。

      從效率角度來看,Prism展現出了顯著的優勢。在H100 GPU上的延遲比較顯示,Prism在所有序列長度上都實現了一致的加速。相比之下,MInference和FlexPrefill只有在64K和32K長度以上才開始優于FlashAttention,因為它們的顯著估計開銷在較短長度時會抵消稀疏性收益。XAttention雖然在中等長度上表現出可比較的加速比,但在極長長度時會出現收益遞減的現象。

      在估計開銷的詳細分析中,Prism展現了其純塊級設計的結構優勢。Prism在所有序列長度上都實現了最低的估計延遲。MInference和FlexPrefill由于其詞元級估計組件而保持相對較高的恒定開銷。XAttention在長序列上遭受戲劇性的延遲激增,在128K時達到約85毫秒,主要是由于其詞元級訪問和計算的成本。相比之下,Prism隨序列長度優雅地擴展,直接受益于其高效的基于矩陣乘法的評分。這種優勢還延伸到內存消耗,Prism在128K時僅需FlexPrefill使用內存的約20%,在所有序列長度上都保持最低。

      為了深入理解Prism設計的合理性,研究團隊還進行了詳細的消融研究。關于光譜分割的分析證實了均值池化確實是一個低通濾波器:僅使用低頻帶表現出與直接使用完整維度幾乎相同的行為,甚至更低,表明高頻分量在均值池化塊重要性估計中只起到噪聲的作用。研究還發現,將高頻帶限制在理論死區會產生次優性能,這證實了在死區內,位置信號被破壞性干擾有效地抹除。嘗試對準和校準這個子空間只會放大背景噪聲,導致嚴重的性能下降。

      關于基于能量的溫度校準效果的驗證顯示,校準配置始終主導未校準配置,顯著推動帕累托前沿朝向更好的效率。沒有校準的情況下,高頻對數保持衰減狀態,導致平坦的softmax分布。因此,自適應Top-P策略無法區分弱位置信號和背景噪聲,迫使其選擇大量不相關的塊,導致效率低下的密度膨脹。相比之下,校準恢復了對數幅度,有效地銳化分布,在有限的密度預算內捕獲顯著信息。

      研究團隊還分析了不同塊大小對性能的影響。理論上,較小的塊大小通過減少光譜衰減來增強信噪比,但由于塊數量的增加而平方級地增加估計開銷。實驗驗證了這種權衡:在精度方面,更細的粒度始終產生更好的性能,甚至由于有效的噪聲過濾而優于完整注意力基線。然而,在效率方面,B=64的估計延遲急劇上升,在128K時達到約22毫秒。雖然這仍然比許多現有基線快,但比B=128的開銷高出一倍多。因此,研究團隊選擇B=128作為精度和效率之間的良好妥協。

      說到底,這項研究不僅解決了長文本AI處理中的一個關鍵技術難題,更重要的是為我們提供了一種全新的思考方式。通過深入理解現有方法的根本局限性,研究團隊開發出了一種既高效又準確的解決方案。Prism方法的成功表明,有時候解決復雜問題的關鍵不在于使用更復雜的技術,而在于更深入地理解問題的本質。

      這項研究的意義遠不止于技術層面的突破。隨著AI應用越來越多地涉及長文本處理——從法律文件分析到學術研究輔助,從長視頻內容理解到代碼庫維護——Prism這樣的高效方法將使這些應用變得更加實用和普及。對于普通用戶而言,這意味著未來的AI助手將能夠更快速、更準確地處理復雜的長文本任務,同時消耗更少的計算資源。

      值得思考的是,這項研究展示了理論分析與實際應用相結合的強大力量。研究團隊并沒有簡單地嘗試各種可能的技術組合,而是從數學理論入手,深入分析問題的根源,然后針對性地設計解決方案。這種研究方法不僅在技術領域具有重要價值,在其他需要解決復雜問題的領域也同樣適用。

      歸根結底,Prism的成功提醒我們,在面對看似無解的技術難題時,仔細分析問題的本質往往比盲目增加系統復雜度更為有效。通過識別和解決"光譜盲點"這一根本問題,研究團隊不僅實現了顯著的性能提升,也為未來的相關研究指明了方向。有興趣深入了解技術細節的讀者可以通過論文編號arXiv:2602.08426v1查詢完整的研究內容。

      Q&A

      Q1:Prism方法是如何解決長文本處理效率問題的?

      A:Prism通過識別現有方法的"光譜盲點"問題來解決效率難題。它將傳統的單一塊重要性評估分解為高頻和低頻兩個并行分支,分別處理精細位置信息和全局語義信息,避免了均值池化造成的信息丟失,從而在保持準確性的同時大幅提升處理速度。

      Q2:什么是"光譜盲點",為什么會影響AI處理長文本的能力?

      A:光譜盲點是指均值池化在壓縮文本信息時會嚴重破壞高頻位置信息的現象。就像調音臺的混音器有缺陷,能保留低頻的整體信息但會損壞高頻的細節信息。這導致AI無法準確識別文本中重要的局部位置關系,影響了長文本處理的準確性和效率。

      Q3:Prism方法在實際應用中能帶來多大的性能提升?

      A:根據測試結果,Prism在處理128K長度文本時速度提升了5.1倍,同時在多項基準測試中保持了與完整注意力機制相同甚至略好的準確性。在內存使用方面,Prism只需要其他方法約20%的內存,顯著降低了計算資源需求。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      馬斯克談Seedance 2.0:發展速度太快

      馬斯克談Seedance 2.0:發展速度太快

      財聯社
      2026-02-12 13:40:07
      鐘南山:會用證據讓全世界服氣

      鐘南山:會用證據讓全世界服氣

      第一財經資訊
      2026-02-12 18:13:00
      官方:U17亞洲杯中國隊分組出爐!

      官方:U17亞洲杯中國隊分組出爐!

      五星體育
      2026-02-12 17:32:54
      筱梅提前報喜:小寶貝迫不及待,奔赴新年與溫暖

      筱梅提前報喜:小寶貝迫不及待,奔赴新年與溫暖

      觀察鑒娛
      2026-02-12 11:53:34
      今晚賽事:2月12日晚21點39,中央電視臺CCTV5、CCTV5+直播節目表

      今晚賽事:2月12日晚21點39,中央電視臺CCTV5、CCTV5+直播節目表

      皮皮觀天下
      2026-02-12 12:50:12
      沒了!再見,楊瀚森,主帥正式攤牌:沒那么多時間給年輕人

      沒了!再見,楊瀚森,主帥正式攤牌:沒那么多時間給年輕人

      球童無忌
      2026-02-12 15:28:35
      美司法部提起訴狀,要求強制中國隨銳集團從收購的美國丘比特系統公司撤資

      美司法部提起訴狀,要求強制中國隨銳集團從收購的美國丘比特系統公司撤資

      俄羅斯衛星通訊社
      2026-02-12 15:07:34
      郭德綱沒想到,封箱演出這晚郭麒麟用9個字,讓德云社口碑翻盤了

      郭德綱沒想到,封箱演出這晚郭麒麟用9個字,讓德云社口碑翻盤了

      白面書誏
      2026-02-12 14:35:14
      中國已購買部分美國政府出售的委內瑞拉石油?外交部回應

      中國已購買部分美國政府出售的委內瑞拉石油?外交部回應

      北青網-北京青年報
      2026-02-12 19:44:01
      國際雪聯公開陰陽谷愛凌:無緣金牌是報應!遭投訴后只發郵件道歉

      國際雪聯公開陰陽谷愛凌:無緣金牌是報應!遭投訴后只發郵件道歉

      念洲
      2026-02-12 11:35:10
      中國人民銀行通告全國:2月1日起,人民幣現金收付新規正式施行

      中國人民銀行通告全國:2月1日起,人民幣現金收付新規正式施行

      縱擁千千晚星
      2026-02-12 17:01:18
      16GB+1TB!新機官宣:2月26日,正式全球首發!

      16GB+1TB!新機官宣:2月26日,正式全球首發!

      科技堡壘
      2026-02-12 12:24:27
      南丁格爾做了張“玫瑰圖”,結果把士兵的死亡率從42%降到2.2%

      南丁格爾做了張“玫瑰圖”,結果把士兵的死亡率從42%降到2.2%

      果殼
      2026-02-12 16:48:42
      影石公司年會送出5套房 員工:獲獎房者都是90后、無高管 背后是認可和期許

      影石公司年會送出5套房 員工:獲獎房者都是90后、無高管 背后是認可和期許

      紅星新聞
      2026-02-12 14:13:24
      鄭州“路虎大哥”開車撞倒持刀男子,被認定見義勇為,因歹徒家境普通未向其索賠;此前曾做多年公益捐贈十幾萬

      鄭州“路虎大哥”開車撞倒持刀男子,被認定見義勇為,因歹徒家境普通未向其索賠;此前曾做多年公益捐贈十幾萬

      大風新聞
      2026-02-11 21:09:26
      TCL Mini LED登頂全球,從618霸榜看中國品牌“價值戰”新范式

      TCL Mini LED登頂全球,從618霸榜看中國品牌“價值戰”新范式

      趣寫科技
      2025-06-23 20:33:24
      楊蘭蘭不認罪

      楊蘭蘭不認罪

      藍鉆故事
      2026-02-11 16:19:23
      但斌爆猛料:公司有研究員炒黃金期貨,90萬賺了10多億...

      但斌爆猛料:公司有研究員炒黃金期貨,90萬賺了10多億...

      金石隨筆
      2026-02-11 23:32:38
      教育部亮紅牌!這些專業的學生“畢業即失業”,985也在連夜撤銷

      教育部亮紅牌!這些專業的學生“畢業即失業”,985也在連夜撤銷

      離離言幾許
      2026-02-09 20:16:57
      全球最貴!10歲馬來西亞男孩100美元買下域名“AI.com”,33年后賣出7000萬美元

      全球最貴!10歲馬來西亞男孩100美元買下域名“AI.com”,33年后賣出7000萬美元

      臺州交通廣播
      2026-02-12 00:21:21
      2026-02-12 20:31:00
      科技行者 incentive-icons
      科技行者
      科技正在如何變革商業世界
      7245文章數 550關注度
      往期回顧 全部

      科技要聞

      10倍速的一夜:三大模型春節前的暗戰

      頭條要聞

      女子返鄉"打順風車卻打到大貨車"視頻爆火 當事人發聲

      頭條要聞

      女子返鄉"打順風車卻打到大貨車"視頻爆火 當事人發聲

      體育要聞

      31歲首次參加冬奧,10年前她是個水管工

      娛樂要聞

      體操運動員墜樓涉事教練被立案調查

      財經要聞

      “影子萬科”如何掘金萬科?

      汽車要聞

      開212 T01柴油版去穿越 連牧馬人都跟不上

      態度原創

      本地
      時尚
      親子
      手機
      數碼

      本地新聞

      下一站是嘉禾望崗,請各位乘客做好哭泣準備

      穿好“奶油色”,狂甩別人幾條街

      親子要聞

      2026年水解奶粉選購指南:平衡防敏需求與寶寶成長的科學之選

      手機要聞

      逆勢獨漲!蘋果成1月中國手機市場唯一增長品牌 市占率近20%

      數碼要聞

      AMD發布26.2.1可選顯卡驅動:新增支持《仁王3》等、修復游戲崩潰問題

      無障礙瀏覽 進入關懷版