<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      陳天橋鄧亞峰聯手破解大模型記憶難題!4個月打造SOTA系統

      0
      分享至

      鷺羽 發自 凹非寺
      量子位 | 公眾號 QbitAI

      開年,DeepSeek論文火遍全網,內容聚焦大模型記憶

      無獨有偶,谷歌近期也發布了一篇被譽為“Attention is all you need”V2(Nested Learning: The Illusion of Deep Learning Architectures)的重磅論文,核心同樣指向記憶瓶頸。

      就連最近這只徹底破圈的AI大龍蝦——OpenClaw(原名Clawdbot),其亮點之一依舊是記憶。



      也就是說,記憶≈今年全球AI圈集體押注的技術風口≈皇冠明珠。

      幾乎所有你能想到的大模型團隊,都在加班加點往自家模型里塞記憶功能……

      但這一次,讓我們把視線從這些科技巨頭身上稍稍挪開,就會發現有一支后起之秀同樣不容小覷。

      他們就是陳天橋和鄧亞峰帶隊的EverMind

      為什么這樣說呢?

      且看產品,最新發布世界級長期記憶系統——EverMemOS,發布即SOTA。

      一舉打破多項記憶基準測試的同時,還能遠超此前所有的基線方法。



      其次,它是真正能用的。

      不是只會跑測試的“花架子”,實際部署后效果照樣能打。而且團隊有底氣有信心,技術代碼全部開源。

      為了方便開發者使用,他們剛剛還專門上線了云服務——現在只需一個最簡單的API,就能直接將最前沿的大模型記憶能力裝進自己的應用。

      并且要知道,從EverMemOS正式立項到開源,團隊只用了短短四個月時間,這是什么實力不必多說。



      不止如此,EverMind更是聯手OpenAI等十多個技術社區豪擲英雄帖,發起首屆記憶起源大賽(Memory Genesis Competition 2026),號召全球頂尖人才前來共同書寫記憶元年。

      (突然燃起來了有木有!)

      Anyway,下面我們娓娓道來。

      大模型的記憶斷裂GAP

      在展開聊聊EverMemOS為啥強之前,我們不妨先來思考一個問題:當你使用大模型時,是不是總覺得有什么地方不得勁?

      前一秒還聊得好好的,下一秒就忘得一干二凈,要么就是拆東墻補西墻,這個記住了,另一個又忘了。

      歸根結底,不是模型能力不夠強,而是記憶功能不夠用。

      這就要回到大模型的底層架構上講,眾所周知,當前大模型普遍用的是Transformer架構,其記憶核心在于自注意力機制,也就是上下文窗口的信息緩存。



      它會通過計算當前窗口的token間關系,理解上下文含義,但實際運行中由于受限于物理內存資源,窗口長度是有限的,一旦文本長度超過窗口限制,信息就會被截斷遺忘。

      另外,隨著對話變長,KV Cache占用的顯存也會逐漸膨脹。影響推理效率的同時,為了節省資源,現有的技術往往會選擇壓縮舊記憶,從而導致記憶細節變得模糊。

      這顯然影響了用戶的實際體驗,舉個例子be like:

      當你需要AI協助寫一篇論文時, 從確定選題→檢索相關文獻→擬結構→寫初稿→修改優化到最后定稿,這當中勢必需要多輪交互,但AI壓根記不住你之前寫的內容,最后輸出的結果也只能是驢頭不對馬嘴。



      那怎么辦呢?學術界為此提出了三種技術方案:

      • 基于外部存儲的記憶(External Storage based Memory)

      這就類似于為大模型配備了一個外部數據庫,里面系統存儲著用戶相關的歷史記錄。當用戶提問時,系統就會先去數據庫里搜索相關文檔,再將其和問題一起喂給AI。

      但這并非真正的記憶,而是在考場上臨時翻閱教材。

      • 基于模型參數的記憶(Model Parameter based Memory)

      該方案本質是將記憶通過訓練內化成模型的一部分,通過微調SFT或持續預訓練,讓模型在看到某個問題時,就能迅速通過參數內部權重指向正確答案。

      DeepSeek的最新成果便是用的這個思路,但再訓練的成本極高且容易遺忘,不適合個性化和短期記憶。

      • 基于隱狀態的記憶(Latent State based Memory)

      通過保存模型的中間推理狀態(如KV Cache),達成類人的短期記憶或工作記憶。

      它非常適用于理解復雜的對話語境,但換言之,它是一次性的,只能短暫存在,無法長久記憶。

      其中業界用的比較多的方法,還是RAG(檢索增強生成),也就是基于外部存儲的記憶。

      但RAG同樣缺點明顯。首先,其工作方式是將長文本切成一個個片段,會破壞信息的連貫性,讓模型難以理解復雜的因果關系。

      其次RAG依賴向量相似度檢索,擅長找語義相近的內容,但在時序匹配上不足;另外RAG知識是相對靜態的,如果要更新信息,則需要高昂的成本支持。



      基于此,EverMemOS應運而生。

      學習大腦記憶機制,成了

      啟發于腦科學技術的研究成果,盛大一直以來非常重視長期記憶領域的研究。早在2024年10月,盛大團隊就對外發布了長期記憶領域的綱領性文章《Long Term Memory-The Foundation of AI Self-Evolution》。

      基于盛大多個團隊在該領域的持續積累,EverMind在2025年8月正式啟動EverMemOS項目,并于11月對外正式發布開源版本。

      EverMemOS是EverMind打造的首款AI記憶基礎設施,對比同賽道團隊,似乎姍姍來遲。

      Mem0、Zep等產品最早都能追溯到2024年,現在商業化最成功的開發者框架Letta(原MemGPT)也是2023年就開始起步。

      EverMemOS卻交出了亮眼的答卷:最晚入場,但效果彎道超車。

      從技術角度看,它同時繼承了基于外部存儲基于隱狀態兩種路徑。不過業內并非沒有嘗試過此類方案,但EverMind顯然在記憶提取的精準度和邏輯一致性上實現了更優的平衡。

      原因在于EverMind抓住了精髓,用鄧亞峰的話說,就是:

      • 通過EverMemOS,我們賦予智能體一個活的、不斷演化的歷史。

      這里的關鍵詞其實是“活的”。那么如何能保存最鮮活的記憶呢?人類大腦。

      這就引出了EverMind的獨特思路——生物啟發



      具體來講,EverMemOS通過模擬人類記憶的形成并轉化為計算框架,利用三階段層層遞進以實現大模型長期記憶的存儲和提取:

      Step 1:情景軌跡構建。

      對應人腦的海馬體和內嗅皮層,可以將連續的對話內容拆分成一個個獨立的記憶單元(MemCell),每個單元里不僅記錄有完整的聊天內容,還包括一些關鍵事實、時效信息等。

      Step 2:語義整合。

      類比新皮層(前額葉皮層+顳葉皮層),系統會將內容相關的記憶單元歸類在一起,形成主題化的記憶場景(MemScene),同時還會更新用戶畫像,區分用戶的長期穩定偏好和短期臨時狀態。

      Step 3:重構式回憶。

      這一步對應的是前額葉皮層和海馬體的協同機制,當用戶提問時,系統就會在記憶場景的引導下進行智能檢索,只挑選出必要且足夠的記憶內容,用于后續的推理任務。

      由此,AI學會像人類一樣記憶——這不僅是知識的數據庫存儲,更是認知系統的深度整合。如此一來,即便是在多個Agent之間,也能實現信息的高效傳遞。



      至于效果如何,咱們還是眼見為實,看看基準測試結果。

      團隊選取了4個主流記憶基準測試,以及多種大模型記憶增強方法。所有方法都基于同一基礎大模型(GPT-4o-mini或GPT-4.1-mini)進行測試。

      結果也很明顯,EverMemOS大獲全勝,全面超越現有記憶系統和全上下文模型。



      其中在LoCoMo上,準確率直接一躍來到93.05%,尤其是在多跳推理和時序任務上表現突出,分別提升19.7%和16.1%,同時token使用量和計算成本得到大幅度降低。

      在多會話對話評估LongMemEval里,EverMemOS同樣以83%的準確率位居榜首,說明在面對跨度極大、信息量極高的場景中,EverMemOS依舊能夠精準檢索和關聯到過去的信息,并且通過持續交流還會不斷進化完善自己。

      HaluMem由MemTensor和中國電信研究院聯合發布,是業界首個面向AI記憶系統的操作級幻覺評估基準。而EverMemOS在保證記憶完整性的同時,也顯著改善了幻覺現象。

      PersonaMem v2里,EverMemOS在九個復雜場景中依舊全場最佳,保證了深度個性化和行為一致性。



      足以見得,EverMemOS是相當全能的一枚選手,記性好、搜得準,關鍵還運行速度快、成本還夠低,最長可突破百兆上下文限制。

      一邊幫大模型減負,一邊幫大模型補記憶力,堪稱大模型版安神補腦液(bushi)

      不僅云,還要贏

      誠然,技術扎實是一回事,能不能讓開發者用起來則是另外一回事。

      EverMind覺得,開源還不夠,直接上云服務。

      省去中間繁雜的基礎設施搭建,從開發者到EverMemOS,只需要完成簡單的兩行API代碼調用,就能實現多項記憶操作,包括:

      • 記憶攝入:從消息和交互中提取和存儲記憶;
      • 記憶檢索:使用篩選選項(例如按元數據字段)檢索已存儲的記憶;
      • 記憶搜索:利用關鍵字驅動的混合檢索方式搜索記憶;
      • 對話元數據:設置或更新對話元數據以改進提取和檢索行為。

      有兩種使用EverMemOS的方式,EverMemOS Cloud開源版本。前者使用托管API,更方便也更快,且核心引擎會自動更新到最新版本,后者則由用戶自己運維。

      開源版本需要自行準備部署環境:



      云服務上手更快,功能簡潔,探索空間卻很大:配置記憶空間→獲取API密鑰→保存記憶→使用記憶,即可輕松體驗當前業界性能SOTA的Memory系統。


      選擇EverMemOS云服務或開源版本的理由

      目前云服務已經正式開放內測申請,填寫正確的郵箱地址后即可享受免費服務。(申請入口:https://console.evermind.ai/)

      不過正如鄧亞峰所說,要想掌握AI,多學不如多用。在部署好EverMemOS后,不妨來參加EverMind舉辦的記憶起源大賽

      EverMind把舞臺也給大家一站式搭好了~



      比賽將從1月一直持續到4月,現已面向全球開發者開放注冊通道和云平臺,需要注意要在2月底之前完成項目提交。具體將分為三大賽道:

      1、記憶+智能體:

      要求構建具備長期、進化能力的智能體,例如個人數字孿生、內容創作者工作流程、銷售/CRM協作助手、醫療保健/治療智能體、教育伙伴、多智能體協作等。將選出5名獲獎者,每人獎勵5000美元。

      2、平臺插件:

      基于VSCode、Chrome、Slack、Discord、Notion、Obsidian或LangChain等框架或SDK為EverMemOS建立擴展操作系統生態。將選出7名獲獎者,每人獎勵3000美元。

      3、操作系統基礎設施:

      幫助優化EverMemOS的核心,例如核心功能修改、性能調優、架構改進等。將選出3名獲獎者,每人獎勵3000美元。

      另外還將根據總成績結合線下活動表現,選出額外的總冠軍(額外1萬美元)、人氣開發者(額外5000美元)和2個Aha案例(額外3000美元)。

      總獎金池高達8萬美元,另外每位獲獎者還將擁有收益分成機會和社區頭銜。其中頂級貢獻者還可有機會獲得全職offer,以及受邀加入EverMind擔任技術顧問。

      所有參賽選手都將接受來自EverMind工程團隊的直接導師指導,更多比賽細節可見賽事官網。(https://evermind.ai/activities)



      連接智能的關鍵在記憶

      那么最后,我們再來看看EverMind究竟意欲何為?畢竟又是發新技術、新平臺,又是辦比賽,這一套組合拳下來,野心可不小。

      首先從供給側講,EverMind正在試圖用EverMemOS重新定義大模型記憶的技術路線。

      EverMemOS沒有沿著原來已有的技術方案延展,而是實打實地摸索出了一條以腦科學+AI的獨特路徑,而且它的技術成熟度出乎意料地扎實,說明EverMemOS還只是EverMind布局的冰山一角。

      事實上,據EverMind透露,他們已經開始構造一整套的混合解決方案,其中底層是信息處理模塊,上層則是在強化學習的驅動下,通過調用模型參數來實現對信息的使用。

      當初做EverMemOS的時候,直接挑戰最難的多對多協作場景,而非基礎的1v1人機對話場景,就是因為他們把目光放在了更長遠的標準重塑上。


      用EverMemOS,讓Agent擁有記憶

      其次從需求側講,舉辦比賽一方面是為了擴大團隊的影響力,將技術推廣出去,讓行業得以復用,另一方面也是為了通過秀肌肉吸納更多相關領域人才,然后反哺EverMind的全鏈路技術研發。

      這一點,從賽道設計中便可看出。三個賽道依次代表應用層、中間層、基礎設施,覆蓋到了用戶所有的開發環節,凸顯出EverMind對可循環應用生態的核心考量。

      其實EverMind從一開始就定位明確。它并不滿足于成為一個RAG工具或向量數據庫,而是志在于做通向下一代人工智能的基礎設施,即長期記憶系統(Long Term Memory OS),賦予AI個性化、主動性,以及通過持續學習(Continual Learning)自我演化(Self Evolving)的能力。

      EverMind希望能夠成為大模型記憶的書寫者,去親自定義記憶是如何被創建、組織、檢索和演化的。



      而往更大的視角看,EverMind的野心也折射出了一個行業共識——

      智能來到比拼長期記憶的下半場。

      人類智能主要由因果推理和長期記憶能力構成,如果說OpenAI-o1、DeepSeek-R1為AI帶來了推理能力,那么長期記憶必然是下一代AI應該擁有的核心能力。

      它將突破大模型的上下文局限,幫助Agent具備個性化特性,并持續進化出深層次的長期認知,這都是下一代AI必須有的特性。在模型能力日益同質化的背景下,哪家Agent能率先搭載高性能記憶系統,就意味著哪家能夠真正拉開差距,擁有留住用戶的護城河。

      當然要實現這一點,不可能只靠一個團隊單打獨斗,而需要一整個生態協同發展,那么誰能成為這個生態的締造者,就顯得格外重要。

      從某種程度講,這恰恰是盛大的舒適區。

      在互聯網時代,盛大就靠著平臺生態證明了自己的能力邊界,而在如今新一輪AI時代里,盛大依舊能將過去的戰略經驗遷移過來,只是這一次它選擇的是記憶

      所以毋庸置疑,由盛大孵化的EverMind將成為這個領域里不可忽視的一抹力量,它的野心與實力堪配。

      此行必然不易,但我們或許已然可以期待,在不久后的將來,有更多如同EverMind的探路者攜手共進,來真正揭開AI長期記憶迷宮的一角。

      賽事報名:https://evermind.ai/activities
      云服務入口:https://console.evermind.ai/
      論文鏈接:https://arxiv.org/abs/2601.02163
      代碼倉庫:https://github.com/EverMind-AI/EverMemOS
      官網地址:https://evermind.ai/

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      蘇顧問加波年科回憶:1979年中國56萬大軍猛攻,越軍無力抗衡

      蘇顧問加波年科回憶:1979年中國56萬大軍猛攻,越軍無力抗衡

      嘮叨說歷史
      2026-01-17 10:07:31
      曾任中山市副市長!鄭澤暉履新深圳市副市長、市公安局局長

      曾任中山市副市長!鄭澤暉履新深圳市副市長、市公安局局長

      南方都市報
      2026-02-05 20:34:07
      春節期間北京密云古北水鎮正式啟動主題文旅活動

      春節期間北京密云古北水鎮正式啟動主題文旅活動

      北京商報
      2026-02-04 22:30:27
      曝C羅提出結束罷賽條件 不答應威脅離隊 加盟3年0冠卻賺49億薪水

      曝C羅提出結束罷賽條件 不答應威脅離隊 加盟3年0冠卻賺49億薪水

      侃球熊弟
      2026-02-05 23:57:31
      回顧“91女神”琪琪:五官出眾,卻因天真讓自己“受傷”

      回顧“91女神”琪琪:五官出眾,卻因天真讓自己“受傷”

      就一點
      2025-11-22 10:36:39
      《太平年》結局:錢弘俶獻國后卻在六十歲壽宴遭毒殺

      《太平年》結局:錢弘俶獻國后卻在六十歲壽宴遭毒殺

      嘻嘻笑
      2026-02-05 16:06:23
      84人死亡!俾路支武裝亮底牌,萬人突襲瓜達爾港,中方強烈譴責

      84人死亡!俾路支武裝亮底牌,萬人突襲瓜達爾港,中方強烈譴責

      柏拉圖的訴說1
      2026-02-05 06:55:26
      烏克蘭第三次攻入別爾哥羅德!首度摧毀俄軍高價值火箭

      烏克蘭第三次攻入別爾哥羅德!首度摧毀俄軍高價值火箭

      項鵬飛
      2026-02-03 16:33:55
      中國香港“保姆車”冠軍變了:日系MPV讓位,國產車沖到了第一

      中國香港“保姆車”冠軍變了:日系MPV讓位,國產車沖到了第一

      柳先說
      2026-02-03 17:12:14
      受權發布|中華人民共和國國務院令  第829號

      受權發布|中華人民共和國國務院令  第829號

      新華社
      2026-02-05 17:02:04
      施壓失效!格雷厄姆喊話特朗普:送烏克蘭戰斧導彈,徹底扭轉戰局

      施壓失效!格雷厄姆喊話特朗普:送烏克蘭戰斧導彈,徹底扭轉戰局

      老馬拉車莫少裝
      2026-02-04 12:52:27
      脊背發涼,蘿莉島與被叫停的跨國領養

      脊背發涼,蘿莉島與被叫停的跨國領養

      楓冷慕詩
      2026-02-05 13:52:16
      “九年無愛生活”涼菜波美 ,換一次自我成全!

      “九年無愛生活”涼菜波美 ,換一次自我成全!

      碧波萬覽
      2026-02-04 02:45:03
      紐約期銀日內跌幅13.64%

      紐約期銀日內跌幅13.64%

      每日經濟新聞
      2026-02-05 23:30:07
      留學生的爸媽能有多離譜?網友:我在利物浦,我爸非說我在飛利浦

      留學生的爸媽能有多離譜?網友:我在利物浦,我爸非說我在飛利浦

      帶你感受人間冷暖
      2026-02-04 00:30:03
      烏克蘭方面稱,由于星鏈網絡中斷,俄羅斯占領者正面臨一場災難

      烏克蘭方面稱,由于星鏈網絡中斷,俄羅斯占領者正面臨一場災難

      山河路口
      2026-02-05 19:08:09
      年羹堯,一個被歷史低估的人物,他究竟有多殘暴你可知道?

      年羹堯,一個被歷史低估的人物,他究竟有多殘暴你可知道?

      小豫講故事
      2026-02-05 06:00:17
      為啥普通人家的房子“寧空不租”,房東說:空著,比租出去還省錢

      為啥普通人家的房子“寧空不租”,房東說:空著,比租出去還省錢

      裝修秀
      2026-02-04 11:25:03
      5-4!斯諾克8強誕生4席:冠軍名將逆轉絕殺!趙心童連續3輪遇強敵

      5-4!斯諾克8強誕生4席:冠軍名將逆轉絕殺!趙心童連續3輪遇強敵

      球場沒跑道
      2026-02-05 17:19:59
      A股:大家要準備好了,明天,A股或將迎來變化?

      A股:大家要準備好了,明天,A股或將迎來變化?

      財經大拿
      2026-02-05 13:44:07
      2026-02-06 00:08:49
      量子位 incentive-icons
      量子位
      追蹤人工智能動態
      12120文章數 176372關注度
      往期回顧 全部

      科技要聞

      美團買下叮咚買菜,防御還是進擊?

      頭條要聞

      上海男子剛退休就癱瘓 小23歲女友照護崩潰:無名無分

      頭條要聞

      上海男子剛退休就癱瘓 小23歲女友照護崩潰:無名無分

      體育要聞

      奇才:我學生……獨行俠:成交!

      娛樂要聞

      微博之夜卷入座位風波!楊冪超話淪陷

      財經要聞

      中美"只會有好消息" 經濟冷暖看房價

      汽車要聞

      李想為全新L9預熱 all in AI造更好的車

      態度原創

      教育
      家居
      手機
      時尚
      軍事航空

      教育要聞

      建議收藏|2027英本申請時間軸官宣!UCAS關鍵節點梳理,附G5名校雅思/規劃方案

      家居要聞

      簡雅序章 自然且閑適

      手機要聞

      OPPO K14系列暫定4月,定位中端性能機

      她隨手打賞就是6兩黃金:人美,心善,錢多!

      軍事要聞

      54歲荷蘭王后以預備役軍人身份參軍 王室解釋原因

      無障礙瀏覽 進入關懷版