鷺羽 發自 凹非寺
量子位 | 公眾號 QbitAI
開年,DeepSeek論文火遍全網,內容聚焦大模型記憶。
無獨有偶,谷歌近期也發布了一篇被譽為“Attention is all you need”V2(Nested Learning: The Illusion of Deep Learning Architectures)的重磅論文,核心同樣指向記憶瓶頸。
就連最近這只徹底破圈的AI大龍蝦——OpenClaw(原名Clawdbot),其亮點之一依舊是記憶。
![]()
也就是說,記憶≈今年全球AI圈集體押注的技術風口≈皇冠明珠。
幾乎所有你能想到的大模型團隊,都在加班加點往自家模型里塞記憶功能……
但這一次,讓我們把視線從這些科技巨頭身上稍稍挪開,就會發現有一支后起之秀同樣不容小覷。
他們就是陳天橋和鄧亞峰帶隊的EverMind。
為什么這樣說呢?
且看產品,最新發布世界級長期記憶系統——EverMemOS,發布即SOTA。
一舉打破多項記憶基準測試的同時,還能遠超此前所有的基線方法。
![]()
其次,它是真正能用的。
不是只會跑測試的“花架子”,實際部署后效果照樣能打。而且團隊有底氣有信心,技術代碼全部開源。
為了方便開發者使用,他們剛剛還專門上線了云服務——現在只需一個最簡單的API,就能直接將最前沿的大模型記憶能力裝進自己的應用。
并且要知道,從EverMemOS正式立項到開源,團隊只用了短短四個月時間,這是什么實力不必多說。
![]()
不止如此,EverMind更是聯手OpenAI等十多個技術社區豪擲英雄帖,發起首屆記憶起源大賽(Memory Genesis Competition 2026),號召全球頂尖人才前來共同書寫記憶元年。
(突然燃起來了有木有!)
Anyway,下面我們娓娓道來。
大模型的記憶斷裂GAP
在展開聊聊EverMemOS為啥強之前,我們不妨先來思考一個問題:當你使用大模型時,是不是總覺得有什么地方不得勁?
前一秒還聊得好好的,下一秒就忘得一干二凈,要么就是拆東墻補西墻,這個記住了,另一個又忘了。
歸根結底,不是模型能力不夠強,而是記憶功能不夠用。
這就要回到大模型的底層架構上講,眾所周知,當前大模型普遍用的是Transformer架構,其記憶核心在于自注意力機制,也就是上下文窗口的信息緩存。
![]()
它會通過計算當前窗口的token間關系,理解上下文含義,但實際運行中由于受限于物理內存資源,窗口長度是有限的,一旦文本長度超過窗口限制,信息就會被截斷遺忘。
另外,隨著對話變長,KV Cache占用的顯存也會逐漸膨脹。影響推理效率的同時,為了節省資源,現有的技術往往會選擇壓縮舊記憶,從而導致記憶細節變得模糊。
這顯然影響了用戶的實際體驗,舉個例子be like:
當你需要AI協助寫一篇論文時, 從確定選題→檢索相關文獻→擬結構→寫初稿→修改優化到最后定稿,這當中勢必需要多輪交互,但AI壓根記不住你之前寫的內容,最后輸出的結果也只能是驢頭不對馬嘴。
![]()
那怎么辦呢?學術界為此提出了三種技術方案:
- 基于外部存儲的記憶(External Storage based Memory)
這就類似于為大模型配備了一個外部數據庫,里面系統存儲著用戶相關的歷史記錄。當用戶提問時,系統就會先去數據庫里搜索相關文檔,再將其和問題一起喂給AI。
但這并非真正的記憶,而是在考場上臨時翻閱教材。
- 基于模型參數的記憶(Model Parameter based Memory)
該方案本質是將記憶通過訓練內化成模型的一部分,通過微調SFT或持續預訓練,讓模型在看到某個問題時,就能迅速通過參數內部權重指向正確答案。
DeepSeek的最新成果便是用的這個思路,但再訓練的成本極高且容易遺忘,不適合個性化和短期記憶。
- 基于隱狀態的記憶(Latent State based Memory)
通過保存模型的中間推理狀態(如KV Cache),達成類人的短期記憶或工作記憶。
它非常適用于理解復雜的對話語境,但換言之,它是一次性的,只能短暫存在,無法長久記憶。
其中業界用的比較多的方法,還是RAG(檢索增強生成),也就是基于外部存儲的記憶。
但RAG同樣缺點明顯。首先,其工作方式是將長文本切成一個個片段,會破壞信息的連貫性,讓模型難以理解復雜的因果關系。
其次RAG依賴向量相似度檢索,擅長找語義相近的內容,但在時序匹配上不足;另外RAG知識是相對靜態的,如果要更新信息,則需要高昂的成本支持。

基于此,EverMemOS應運而生。
學習大腦記憶機制,成了
啟發于腦科學技術的研究成果,盛大一直以來非常重視長期記憶領域的研究。早在2024年10月,盛大團隊就對外發布了長期記憶領域的綱領性文章《Long Term Memory-The Foundation of AI Self-Evolution》。
基于盛大多個團隊在該領域的持續積累,EverMind在2025年8月正式啟動EverMemOS項目,并于11月對外正式發布開源版本。
EverMemOS是EverMind打造的首款AI記憶基礎設施,對比同賽道團隊,似乎姍姍來遲。
Mem0、Zep等產品最早都能追溯到2024年,現在商業化最成功的開發者框架Letta(原MemGPT)也是2023年就開始起步。
EverMemOS卻交出了亮眼的答卷:最晚入場,但效果彎道超車。
從技術角度看,它同時繼承了基于外部存儲和基于隱狀態兩種路徑。不過業內并非沒有嘗試過此類方案,但EverMind顯然在記憶提取的精準度和邏輯一致性上實現了更優的平衡。
原因在于EverMind抓住了精髓,用鄧亞峰的話說,就是:
- 通過EverMemOS,我們賦予智能體一個活的、不斷演化的歷史。
這里的關鍵詞其實是“活的”。那么如何能保存最鮮活的記憶呢?人類大腦。
這就引出了EverMind的獨特思路——生物啟發。
![]()
具體來講,EverMemOS通過模擬人類記憶的形成并轉化為計算框架,利用三階段層層遞進以實現大模型長期記憶的存儲和提取:
Step 1:情景軌跡構建。
對應人腦的海馬體和內嗅皮層,可以將連續的對話內容拆分成一個個獨立的記憶單元(MemCell),每個單元里不僅記錄有完整的聊天內容,還包括一些關鍵事實、時效信息等。
Step 2:語義整合。
類比新皮層(前額葉皮層+顳葉皮層),系統會將內容相關的記憶單元歸類在一起,形成主題化的記憶場景(MemScene),同時還會更新用戶畫像,區分用戶的長期穩定偏好和短期臨時狀態。
Step 3:重構式回憶。
這一步對應的是前額葉皮層和海馬體的協同機制,當用戶提問時,系統就會在記憶場景的引導下進行智能檢索,只挑選出必要且足夠的記憶內容,用于后續的推理任務。
由此,AI學會像人類一樣記憶——這不僅是知識的數據庫存儲,更是認知系統的深度整合。如此一來,即便是在多個Agent之間,也能實現信息的高效傳遞。
![]()
至于效果如何,咱們還是眼見為實,看看基準測試結果。
團隊選取了4個主流記憶基準測試,以及多種大模型記憶增強方法。所有方法都基于同一基礎大模型(GPT-4o-mini或GPT-4.1-mini)進行測試。
結果也很明顯,EverMemOS大獲全勝,全面超越現有記憶系統和全上下文模型。
![]()
其中在LoCoMo上,準確率直接一躍來到93.05%,尤其是在多跳推理和時序任務上表現突出,分別提升19.7%和16.1%,同時token使用量和計算成本得到大幅度降低。
在多會話對話評估LongMemEval里,EverMemOS同樣以83%的準確率位居榜首,說明在面對跨度極大、信息量極高的場景中,EverMemOS依舊能夠精準檢索和關聯到過去的信息,并且通過持續交流還會不斷進化完善自己。
HaluMem由MemTensor和中國電信研究院聯合發布,是業界首個面向AI記憶系統的操作級幻覺評估基準。而EverMemOS在保證記憶完整性的同時,也顯著改善了幻覺現象。
在PersonaMem v2里,EverMemOS在九個復雜場景中依舊全場最佳,保證了深度個性化和行為一致性。
![]()
足以見得,EverMemOS是相當全能的一枚選手,記性好、搜得準,關鍵還運行速度快、成本還夠低,最長可突破百兆上下文限制。
一邊幫大模型減負,一邊幫大模型補記憶力,堪稱大模型版安神補腦液(bushi)
不僅云,還要贏
誠然,技術扎實是一回事,能不能讓開發者用起來則是另外一回事。
EverMind覺得,開源還不夠,直接上云服務。
省去中間繁雜的基礎設施搭建,從開發者到EverMemOS,只需要完成簡單的兩行API代碼調用,就能實現多項記憶操作,包括:
- 記憶攝入:從消息和交互中提取和存儲記憶;
- 記憶檢索:使用篩選選項(例如按元數據字段)檢索已存儲的記憶;
- 記憶搜索:利用關鍵字驅動的混合檢索方式搜索記憶;
- 對話元數據:設置或更新對話元數據以改進提取和檢索行為。
有兩種使用EverMemOS的方式,EverMemOS Cloud和開源版本。前者使用托管API,更方便也更快,且核心引擎會自動更新到最新版本,后者則由用戶自己運維。
開源版本需要自行準備部署環境:
![]()
云服務上手更快,功能簡潔,探索空間卻很大:配置記憶空間→獲取API密鑰→保存記憶→使用記憶,即可輕松體驗當前業界性能SOTA的Memory系統。
![]()
選擇EverMemOS云服務或開源版本的理由
目前云服務已經正式開放內測申請,填寫正確的郵箱地址后即可享受免費服務。(申請入口:https://console.evermind.ai/)
不過正如鄧亞峰所說,要想掌握AI,多學不如多用。在部署好EverMemOS后,不妨來參加EverMind舉辦的記憶起源大賽。
EverMind把舞臺也給大家一站式搭好了~
![]()
比賽將從1月一直持續到4月,現已面向全球開發者開放注冊通道和云平臺,需要注意要在2月底之前完成項目提交。具體將分為三大賽道:
1、記憶+智能體:
要求構建具備長期、進化能力的智能體,例如個人數字孿生、內容創作者工作流程、銷售/CRM協作助手、醫療保健/治療智能體、教育伙伴、多智能體協作等。將選出5名獲獎者,每人獎勵5000美元。
2、平臺插件:
基于VSCode、Chrome、Slack、Discord、Notion、Obsidian或LangChain等框架或SDK為EverMemOS建立擴展操作系統生態。將選出7名獲獎者,每人獎勵3000美元。
3、操作系統基礎設施:
幫助優化EverMemOS的核心,例如核心功能修改、性能調優、架構改進等。將選出3名獲獎者,每人獎勵3000美元。
另外還將根據總成績結合線下活動表現,選出額外的總冠軍(額外1萬美元)、人氣開發者(額外5000美元)和2個Aha案例(額外3000美元)。
總獎金池高達8萬美元,另外每位獲獎者還將擁有收益分成機會和社區頭銜。其中頂級貢獻者還可有機會獲得全職offer,以及受邀加入EverMind擔任技術顧問。
所有參賽選手都將接受來自EverMind工程團隊的直接導師指導,更多比賽細節可見賽事官網。(https://evermind.ai/activities)
![]()
連接智能的關鍵在記憶
那么最后,我們再來看看EverMind究竟意欲何為?畢竟又是發新技術、新平臺,又是辦比賽,這一套組合拳下來,野心可不小。
首先從供給側講,EverMind正在試圖用EverMemOS重新定義大模型記憶的技術路線。
EverMemOS沒有沿著原來已有的技術方案延展,而是實打實地摸索出了一條以腦科學+AI的獨特路徑,而且它的技術成熟度出乎意料地扎實,說明EverMemOS還只是EverMind布局的冰山一角。
事實上,據EverMind透露,他們已經開始構造一整套的混合解決方案,其中底層是信息處理模塊,上層則是在強化學習的驅動下,通過調用模型參數來實現對信息的使用。
當初做EverMemOS的時候,直接挑戰最難的多對多協作場景,而非基礎的1v1人機對話場景,就是因為他們把目光放在了更長遠的標準重塑上。
![]()
用EverMemOS,讓Agent擁有記憶
其次從需求側講,舉辦比賽一方面是為了擴大團隊的影響力,將技術推廣出去,讓行業得以復用,另一方面也是為了通過秀肌肉吸納更多相關領域人才,然后反哺EverMind的全鏈路技術研發。
這一點,從賽道設計中便可看出。三個賽道依次代表應用層、中間層、基礎設施,覆蓋到了用戶所有的開發環節,凸顯出EverMind對可循環應用生態的核心考量。
其實EverMind從一開始就定位明確。它并不滿足于成為一個RAG工具或向量數據庫,而是志在于做通向下一代人工智能的基礎設施,即長期記憶系統(Long Term Memory OS),賦予AI個性化、主動性,以及通過持續學習(Continual Learning)自我演化(Self Evolving)的能力。
EverMind希望能夠成為大模型記憶的書寫者,去親自定義記憶是如何被創建、組織、檢索和演化的。
![]()
而往更大的視角看,EverMind的野心也折射出了一個行業共識——
智能來到比拼長期記憶的下半場。
人類智能主要由因果推理和長期記憶能力構成,如果說OpenAI-o1、DeepSeek-R1為AI帶來了推理能力,那么長期記憶必然是下一代AI應該擁有的核心能力。
它將突破大模型的上下文局限,幫助Agent具備個性化特性,并持續進化出深層次的長期認知,這都是下一代AI必須有的特性。在模型能力日益同質化的背景下,哪家Agent能率先搭載高性能記憶系統,就意味著哪家能夠真正拉開差距,擁有留住用戶的護城河。
當然要實現這一點,不可能只靠一個團隊單打獨斗,而需要一整個生態協同發展,那么誰能成為這個生態的締造者,就顯得格外重要。
從某種程度講,這恰恰是盛大的舒適區。
在互聯網時代,盛大就靠著平臺生態證明了自己的能力邊界,而在如今新一輪AI時代里,盛大依舊能將過去的戰略經驗遷移過來,只是這一次它選擇的是記憶。
所以毋庸置疑,由盛大孵化的EverMind將成為這個領域里不可忽視的一抹力量,它的野心與實力堪配。
此行必然不易,但我們或許已然可以期待,在不久后的將來,有更多如同EverMind的探路者攜手共進,來真正揭開AI長期記憶迷宮的一角。
賽事報名:https://evermind.ai/activities
云服務入口:https://console.evermind.ai/
論文鏈接:https://arxiv.org/abs/2601.02163
代碼倉庫:https://github.com/EverMind-AI/EverMemOS
官網地址:https://evermind.ai/
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.