<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      賓夕法尼亞州立大學:讓AI模型壓縮不再損失推理能力的技術

      0
      分享至


      這項由賓夕法尼亞州立大學和卡內基梅隆大學非洲分校聯合開展的研究發表于2026年2月,論文編號為arXiv:2602.02581v1,為大型推理模型的量化壓縮領域帶來了重要突破。

      當今人工智能模型就像一座龐大的圖書館,里面存儲著海量的知識和推理能力。然而,這些模型實在太大了,就好比你需要隨身攜帶一整座圖書館才能使用它們。為了讓這些強大的AI模型能夠在普通設備上運行,科學家們一直在尋找"壓縮"這些模型的方法,這個過程叫做量化。但問題是,傳統的壓縮方法就像用粗暴的方式縮小圖書館,往往會丟失重要的書籍,導致AI的推理能力大幅下降。

      研究團隊注意到,當前專門用于復雜推理任務的大型AI模型(我們稱為"推理專家")在被壓縮后,其表現遠不如預期。這就好比一位經驗豐富的偵探被要求在極短時間內破案,雖然他的基本技能還在,但精密的推理過程卻變得混亂不堪。更令人困惑的是,現有的壓縮方法完全忽略了這些AI模型在訓練過程中留下的寶貴"線索"。

      研究人員產生了一個絕妙的想法:既然這些推理專家都經過了專門的訓練來增強推理能力,那么訓練過程中的"學習軌跡"是否包含了哪些知識最重要的信息呢?這就像一個學生在學習數學時,他的筆記本上不僅有最終答案,還記錄了思考過程中的重點和難點。如果我們能讀懂這些"學習筆記",是不是就能更聰明地決定在壓縮時保留什么、舍棄什么?

      一、揭秘"保護兩端"的神奇發現

      研究團隊首先進行了一個有趣的實驗。他們觀察AI模型在專門訓練過程中每個參數的變化情況,就像觀察一個學生在學習過程中哪些知識點被反復強調,哪些幾乎沒有變動。

      傳統的思路認為,變化最大的參數最重要,就像我們通常認為被大量修改的筆記內容最關鍵。然而,研究團隊發現了一個出人意料的現象:變化最小和變化最大的參數都很重要,而那些變化中等的參數反而不那么關鍵。他們將這個現象稱為"保護兩端"。

      這個發現可以用烹飪來類比。在調制一道復雜菜肴時,有些調料需要大量添加來突出新口味(變化最大的參數),有些基礎調料則需要保持原有分量以維持菜肴的基本味道(變化最小的參數),而那些調整適中的調料往往不是決定菜肴成敗的關鍵。

      為了驗證這個假設,研究團隊設計了一個巧妙的實驗。他們使用一種叫做"混合精度量化"的方法,就像在整理圖書館時,將一部分書籍保存在高質量書架上,其余的放在普通書架上。結果顯示,當他們保護"兩端"的參數時,AI模型在數學推理任務AIME-120上的表現從34.2%提升到49.2%,在邏輯推理任務FOLIO上從70.4%提升到77.8%。這個顯著提升證實了他們的直覺是正確的。

      相比之下,當他們保護那些變化中等的參數時,模型表現反而不如保護兩端的策略。這進一步驗證了"兩端最重要"的假設。更有趣的是,這種基于訓練軌跡的方法甚至超越了傳統的基于激活模式的壓縮方法,這說明AI模型的"學習筆記"確實包含了比靜態分析更豐富的信息。

      二、QuantLRM技術的核心秘訣

      基于這個重要發現,研究團隊開發了一套完整的技術方案,名為QuantLRM。這個名字的含義是"通過微調信號量化大型推理模型",但我們可以把它理解為一套"智能圖書館整理術"。

      QuantLRM的核心思想是利用AI模型在專門訓練過程中產生的"權重更新"信息。權重更新就像學生學習過程中對每個知識點的重視程度變化記錄。研究團隊設計了一個數學函數來量化這些變化的重要性,這個函數的巧妙之處在于它是一個U型曲線,對最小變化和最大變化都給予高分,對中等變化給予較低分數。

      然而,研究過程中出現了一個特殊情況:許多參數在訓練過程中完全沒有變化,即權重更新為零。這些"零變化"參數非常常見,在某些模型中甚至占到總參數的1%以上。研究團隊意識到,這些零變化參數可能代表了模型的"基礎能力",就像房子的地基一樣,雖然看似沒有變化,但對整體結構至關重要。

      因此,他們專門為零變化參數設計了特殊處理方法。不僅給這些參數分配高重要性分數,還專門統計每個通道中零變化參數的數量。通道可以理解為神經網絡中信息流動的"管道",如果一個管道中有很多參數都保持不變,說明這個管道承載著模型的核心穩定功能。

      最終的重要性計算公式將U型函數得出的平均分數與零變化參數的計數相乘。這樣既保護了學習過程中變化顯著的知識,也保護了那些穩如磐石的基礎能力,還特別照顧了那些保持高度穩定的信息通道。

      三、令人驚喜的實驗成果

      研究團隊在四個具有挑戰性的推理基準測試上驗證了QuantLRM的效果,這四個測試分別考查數學推理、邏輯推理、時間序列推理和科學推理能力,就像給AI模型安排了一場全方位的智力測驗。

      測試結果令人振奮。在數學推理最困難的AIME-120測試中,QuantLRM壓縮的模型表現始終優于傳統方法。對于一個經過強化學習訓練的70億參數模型,QuantLRM將其壓縮到3位精度后,平均性能提升了6.55%。這個提升幅度在AI壓縮領域是相當顯著的,相當于在不增加任何計算資源的情況下,讓模型變得更加聰明。

      更令人印象深刻的是,QuantLRM在使用最小的校準數據集的情況下達到了這些效果。校準數據集就像給壓縮算法提供的"參考樣本",傳統方法通常需要大量樣本才能工作良好,而QuantLRM只需要很少的樣本就能發揮優異性能,這說明微調信號確實提供了極其有價值的信息。

      研究團隊還測試了QuantLRM在不同類型訓練方法上的適用性。無論是監督微調、直接偏好優化,還是強化學習微調,QuantLRM都表現出了一致的改進效果。這種普適性說明"保護兩端"的原理是訓練過程的普遍規律,而不是某種特定訓練方法的偶然現象。

      在實際應用性能方面,QuantLRM壓縮的模型與傳統AWQ方法壓縮的模型具有相同的推理速度,因為它們使用相同的推理內核。但QuantLRM在準備階段只需要額外的2分27秒來處理微調信號,這個開銷對于獲得的性能提升而言是完全值得的。

      四、突破性的"偽微調"解決方案

      研究團隊意識到一個實際問題:并非所有的AI模型都公開了其微調前的版本,這就像我們只能看到學生的期末作業,卻看不到他的學習筆記。沒有微調前后的對比,就無法計算權重更新,似乎無法應用QuantLRM技術。

      面對這個挑戰,研究團隊提出了一個創新的解決方案:偽微調。這個方法的核心思想是,既然我們需要微調信號來指導壓縮,那么我們可以自己創造這些信號。具體做法是對目標模型進行短期的專門訓練,就像讓學生做一套練習題,然后觀察他在解題過程中對不同知識點的重視程度變化。

      他們選擇了一個1.7億參數的模型進行偽微調實驗。通過在數學問題數據集上進行訓練,他們收集了這個模型的權重更新信息。實驗結果顯示,隨著訓練步數的增加,QuantLRM的性能逐步提升,在1956步訓練后開始超越傳統的AWQ方法。

      這個發現具有重要的實際意義。它意味著即使面對那些沒有公開微調歷史的模型,研究人員和工程師仍然可以通過短期的專門訓練來獲得壓縮所需的信號。更重要的是,這種偽微調不需要等到模型完全收斂就可以停止,因為QuantLRM主要需要的是權重變化的趨勢信息,而不是最終的訓練結果。

      這種靈活性大大擴展了QuantLRM的應用范圍,使其從一個需要特定條件的研究工具轉變為一個實用的工程解決方案。對于那些想要壓縮現有模型但缺乏微調歷史信息的用戶來說,偽微調提供了一條可行的路徑。

      五、深度技術解析與創新突破

      QuantLRM的技術創新不僅體現在核心思想上,還體現在眾多精巧的工程細節中。研究團隊在實現過程中遇到了許多實際問題,并逐一找到了巧妙的解決方案。

      首先是數值穩定性問題。當處理非常大的模型時,零權重更新的數量可能變得極其龐大,導致計算溢出。研究團隊采用了"分片處理"的方法,將大型權重矩陣分割成較小的片段分別處理,然后將結果合并。這種方法既保持了計算精度,又避免了內存溢出問題。

      其次是模型適應性問題。不同架構和規模的模型在微調過程中表現出不同的特征,需要針對性的調整。對于某些模型,研究團隊發現將微調信號與傳統的激活統計信息結合使用效果更好,這相當于同時參考學生的學習筆記和課堂表現來評估知識重要性。

      在量化損失函數的設計上,QuantLRM采用了自適應搜索策略。系統會在預設的參數范圍內尋找最優的信號強度系數,這個過程類似于調音師為不同的樂器找到最佳的音量平衡。通過20個候選值的網格搜索,系統能夠為每個模型找到最適合的配置。

      研究團隊還發現,QuantLRM的效果在3位量化上最為顯著。在4位量化中,傳統方法已經能夠取得近乎無損的性能,QuantLRM的優勢相對較小。但在更激進的3位量化中,微調信號的價值就凸顯出來了。這個發現為實際應用提供了重要指導:當需要極限壓縮時,QuantLRM是不可或缺的工具。

      六、廣泛驗證與性能基準

      為了確保研究結果的可靠性和普適性,研究團隊進行了大規模的對比實驗。他們選擇了多個不同規模和架構的模型,從8億參數的小模型到700億參數的大模型,涵蓋了當前主流的模型家族。

      在基準測試的選擇上,研究團隊特意選擇了四個不同類型的推理任務。AIME-120專門測試復雜數學推理,題目難度相當于數學競賽水平。FOLIO測試一階邏輯推理,需要模型能夠處理復雜的邏輯關系。時間序列推理測試模型對時間關系的理解能力。GPQA-Diamond則考查跨學科的科學推理能力,涵蓋物理、化學、生物等多個領域。

      實驗結果展現了QuantLRM的一致性優勢。在所有測試的模型和任務組合中,QuantLRM都實現了性能提升,提升幅度從1.65%到6.55%不等。這種一致性表明,微調信號確實捕捉到了模型推理能力的本質特征,而不是某個特定場景下的偶然現象。

      特別值得注意的是,在最困難的數學推理任務中,QuantLRM的優勢最為明顯。這恰好說明了當任務復雜度增加時,精確保護重要參數的價值也隨之提升。就像在解決復雜問題時,經驗豐富的專家比新手更能識別關鍵信息一樣,QuantLRM比傳統方法更能識別對復雜推理至關重要的模型參數。

      研究團隊還進行了詳盡的消融實驗,逐一驗證了設計選擇的合理性。他們發現,去除零權重更新的特殊處理會導致性能下降5.95%,證明了這個設計的重要性。同時,U型重要性函數比線性函數或其他形式的函數都表現更好,驗證了"保護兩端"策略的科學性。

      說到底,這項研究為AI模型壓縮領域帶來了全新的視角。以往的方法就像盲人摸象,只能通過模型的靜態特征來猜測參數重要性。而QuantLRM則像擁有了X光眼,能夠透視模型的學習過程,從動態變化中發現真正的重要信息。

      這個突破的意義不僅在于技術層面的改進,更在于它開啟了一個新的研究方向。未來,研究者們可能會發現更多利用訓練軌跡信息的方法,不僅用于模型壓縮,還可能用于模型理解、安全檢測、性能優化等多個領域。

      對于普通用戶而言,這項技術的最終受益是能夠在個人設備上運行更強大的AI模型。當前,最先進的推理模型通常需要昂貴的服務器才能運行,普通人只能通過網絡接口使用。QuantLRM技術的成熟和普及,將讓這些強大的AI助手能夠在手機、平板甚至智能手表上流暢運行,真正實現人工智能的民主化。

      更重要的是,這項研究展示了科學研究中"換個角度思考"的力量。當所有人都在沿著同一個方向努力時,賓夕法尼亞州立大學的研究團隊選擇了回到最基本的問題:AI模型在學習過程中到底發生了什么?正是這種回歸本質的思考方式,讓他們發現了被所有人忽視的寶貴信息源,最終實現了技術突破。

      對于那些對技術細節感興趣的讀者,完整的研究論文可以通過arXiv:2602.02581v1編號查詢獲取,其中包含了更詳細的數學推導、實驗設置和結果分析。

      Q&A

      Q1:QuantLRM技術是什么,它解決了什么問題?

      A:QuantLRM是一種新的AI模型壓縮技術,專門解決大型推理模型在壓縮后推理能力下降的問題。傳統壓縮方法就像粗暴地縮小圖書館,會丟失重要信息。而QuantLRM通過分析模型訓練過程中的"學習軌跡",能夠智能識別哪些參數最重要,從而在壓縮時更好地保護模型的推理能力。

      Q2:什么是"保護兩端"策略,為什么它比傳統方法更有效?

      A:"保護兩端"是指在模型壓縮時,重點保護那些在訓練中變化最大和變化最小的參數,而不太關注變化中等的參數。這就像烹飪時,有些調料需要大量添加突出新口味,有些基礎調料需要保持原量維持基本味道,而調整適中的調料往往不是關鍵。實驗證明這種策略比傳統方法效果提升1.83%到6.55%。

      Q3:如果AI模型沒有公開訓練歷史,QuantLRM還能使用嗎?

      A:可以使用。研究團隊開發了"偽微調"解決方案,即對目標模型進行短期的專門訓練來生成所需的權重更新信息。這個過程只需要幾千個訓練步驟,不需要等到完全收斂,就能獲得足夠的信號來指導壓縮。這大大擴展了QuantLRM的應用范圍,讓它從研究工具變成了實用的工程解決方案。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      馬斯克談Seedance 2.0:發展速度太快

      馬斯克談Seedance 2.0:發展速度太快

      財聯社
      2026-02-12 13:40:07
      鐘南山:會用證據讓全世界服氣

      鐘南山:會用證據讓全世界服氣

      第一財經資訊
      2026-02-12 18:13:00
      官方:U17亞洲杯中國隊分組出爐!

      官方:U17亞洲杯中國隊分組出爐!

      五星體育
      2026-02-12 17:32:54
      筱梅提前報喜:小寶貝迫不及待,奔赴新年與溫暖

      筱梅提前報喜:小寶貝迫不及待,奔赴新年與溫暖

      觀察鑒娛
      2026-02-12 11:53:34
      今晚賽事:2月12日晚21點39,中央電視臺CCTV5、CCTV5+直播節目表

      今晚賽事:2月12日晚21點39,中央電視臺CCTV5、CCTV5+直播節目表

      皮皮觀天下
      2026-02-12 12:50:12
      沒了!再見,楊瀚森,主帥正式攤牌:沒那么多時間給年輕人

      沒了!再見,楊瀚森,主帥正式攤牌:沒那么多時間給年輕人

      球童無忌
      2026-02-12 15:28:35
      美司法部提起訴狀,要求強制中國隨銳集團從收購的美國丘比特系統公司撤資

      美司法部提起訴狀,要求強制中國隨銳集團從收購的美國丘比特系統公司撤資

      俄羅斯衛星通訊社
      2026-02-12 15:07:34
      郭德綱沒想到,封箱演出這晚郭麒麟用9個字,讓德云社口碑翻盤了

      郭德綱沒想到,封箱演出這晚郭麒麟用9個字,讓德云社口碑翻盤了

      白面書誏
      2026-02-12 14:35:14
      中國已購買部分美國政府出售的委內瑞拉石油?外交部回應

      中國已購買部分美國政府出售的委內瑞拉石油?外交部回應

      北青網-北京青年報
      2026-02-12 19:44:01
      國際雪聯公開陰陽谷愛凌:無緣金牌是報應!遭投訴后只發郵件道歉

      國際雪聯公開陰陽谷愛凌:無緣金牌是報應!遭投訴后只發郵件道歉

      念洲
      2026-02-12 11:35:10
      中國人民銀行通告全國:2月1日起,人民幣現金收付新規正式施行

      中國人民銀行通告全國:2月1日起,人民幣現金收付新規正式施行

      縱擁千千晚星
      2026-02-12 17:01:18
      16GB+1TB!新機官宣:2月26日,正式全球首發!

      16GB+1TB!新機官宣:2月26日,正式全球首發!

      科技堡壘
      2026-02-12 12:24:27
      南丁格爾做了張“玫瑰圖”,結果把士兵的死亡率從42%降到2.2%

      南丁格爾做了張“玫瑰圖”,結果把士兵的死亡率從42%降到2.2%

      果殼
      2026-02-12 16:48:42
      影石公司年會送出5套房 員工:獲獎房者都是90后、無高管 背后是認可和期許

      影石公司年會送出5套房 員工:獲獎房者都是90后、無高管 背后是認可和期許

      紅星新聞
      2026-02-12 14:13:24
      鄭州“路虎大哥”開車撞倒持刀男子,被認定見義勇為,因歹徒家境普通未向其索賠;此前曾做多年公益捐贈十幾萬

      鄭州“路虎大哥”開車撞倒持刀男子,被認定見義勇為,因歹徒家境普通未向其索賠;此前曾做多年公益捐贈十幾萬

      大風新聞
      2026-02-11 21:09:26
      TCL Mini LED登頂全球,從618霸榜看中國品牌“價值戰”新范式

      TCL Mini LED登頂全球,從618霸榜看中國品牌“價值戰”新范式

      趣寫科技
      2025-06-23 20:33:24
      楊蘭蘭不認罪

      楊蘭蘭不認罪

      藍鉆故事
      2026-02-11 16:19:23
      但斌爆猛料:公司有研究員炒黃金期貨,90萬賺了10多億...

      但斌爆猛料:公司有研究員炒黃金期貨,90萬賺了10多億...

      金石隨筆
      2026-02-11 23:32:38
      教育部亮紅牌!這些專業的學生“畢業即失業”,985也在連夜撤銷

      教育部亮紅牌!這些專業的學生“畢業即失業”,985也在連夜撤銷

      離離言幾許
      2026-02-09 20:16:57
      全球最貴!10歲馬來西亞男孩100美元買下域名“AI.com”,33年后賣出7000萬美元

      全球最貴!10歲馬來西亞男孩100美元買下域名“AI.com”,33年后賣出7000萬美元

      臺州交通廣播
      2026-02-12 00:21:21
      2026-02-12 20:31:00
      科技行者 incentive-icons
      科技行者
      科技正在如何變革商業世界
      7245文章數 550關注度
      往期回顧 全部

      科技要聞

      10倍速的一夜:三大模型春節前的暗戰

      頭條要聞

      女子返鄉"打順風車卻打到大貨車"視頻爆火 當事人發聲

      頭條要聞

      女子返鄉"打順風車卻打到大貨車"視頻爆火 當事人發聲

      體育要聞

      31歲首次參加冬奧,10年前她是個水管工

      娛樂要聞

      體操運動員墜樓涉事教練被立案調查

      財經要聞

      “影子萬科”如何掘金萬科?

      汽車要聞

      開212 T01柴油版去穿越 連牧馬人都跟不上

      態度原創

      房產
      親子
      旅游
      公開課
      軍事航空

      房產要聞

      999元開線上免稅店?海南爆出免稅大騙局,多人已被抓!

      親子要聞

      2026年水解奶粉選購指南:平衡防敏需求與寶寶成長的科學之選

      旅游要聞

      燈已亮起,雙廊等你

      公開課

      李玫瑾:為什么性格比能力更重要?

      軍事要聞

      特朗普:若美伊談判失敗 或再派一支航母打擊群

      無障礙瀏覽 進入關懷版