![]()
作者 | 黃小藝
郵箱 | huangxiaoyi@pingwest.com
本周的AI項目推薦,我們聚焦在AI Memory這個領(lǐng)域。這是一個還沒有被太多目光注意到,但已經(jīng)在融資動作和產(chǎn)品更新上呈現(xiàn)出“起飛”態(tài)勢的方向。
一批名為Mem“X”的算法框架及產(chǎn)品,正在加入模型上下文的戰(zhàn)爭。
隨著大模型被推向應(yīng)用場景,一個根本性問題日益凸顯:如何有效管理和記憶長上下文。無論是實現(xiàn)連貫的多輪對話,還是構(gòu)建能長期服務(wù)用戶的個性化Agent,記憶的積累與調(diào)用都是核心。于是,在當(dāng)前大模型的上下文限制下,RAG也好,Agent也好,都在某種程度上嘗試提出補償方案。
而現(xiàn)在,10000個AI記憶框架也來了:Letta(MemGPT)、Mem0、MemU、MemOS......他們直接將記憶轉(zhuǎn)化成一套可獨立設(shè)計的工程體系,支持智能篩選信息、結(jié)構(gòu)化存儲、高效檢索,為大模型裝上了可插拔、可優(yōu)化的“記憶外掛”。
對AI初創(chuàng)而言,這也是一個絕佳的切入點:記憶是大模型實現(xiàn)真正可用性的剛需所在,而目前技術(shù)路線和應(yīng)用場景差異化明顯、競爭格局遠(yuǎn)未固化,且資本投資熱度頗高。
我們整理了市面上主流的AI記憶算法框架、產(chǎn)品及其融資情況,也看看它們之間到底有什么區(qū)別。
1
Mem“X ”混戰(zhàn)
Letta:https://github.com/letta-ai/letta
Letta由加州大學(xué)伯克利分校的實驗室孵化而成,項目最早在 GitHub 以 MemGPT名義開源,后更名為 Letta,截止目前有19K星。
MemGPT的核心是一個記憶管理流水線,也是記憶領(lǐng)域的元老級框架。
其論文顯示,它將上下文劃分為 Main Context(主上下文,即提示詞) 與 External Context(外部上下文)?,允許LLM 通過MemGPT 來管理其自身的上下文,將不太相關(guān)的數(shù)據(jù)從主上下文(提示詞)中移除并存儲到外部上下文中,同理,也可以將相關(guān)的外部上下文召回到主上下文,從而實現(xiàn)信息在兩者之間的遷移,讓記憶持久化和即時可用[1]。
![]()
詳細(xì)來說,基于上圖,當(dāng)用戶的輸入進(jìn)入后,該消息首先由隊列管理器(Queue Manager)處理,放入先進(jìn)先出隊列(FIFO Queue)中,這是一個簡單的時序處理邏輯。如果此時上下文窗口接近飽和,隊列管理器會自動將隊列中最舊的消息轉(zhuǎn)移到回憶存儲(Recall Storage)中進(jìn)行備份,以確保有足夠的空間容納新信息。
隨后,LLM 會讀取其完整的有限上下文,包括固定的系統(tǒng)指令、可變的工作上下文以及更新后的消息隊列,并基于這些信息進(jìn)行“思考”,如果LLM能直接回答用戶,就會生成一段文本回復(fù)。
但如果它判斷需要利用長期記憶,比如查詢用戶的職業(yè),它就會生成一個函數(shù)調(diào)用,由Function Executor(函數(shù)執(zhí)行器)捕獲并執(zhí)行,F(xiàn)unction Executor會與Archival Storage(歸檔存儲)交互,或調(diào)取回憶存儲(Recall Storage)的記憶,檢索所需信息,將結(jié)果,寫回到 LLM 的工作上下文中。
這個更新操作相當(dāng)于為 LLM 提供了一條新的關(guān)鍵信息,觸發(fā)它進(jìn)行新一輪的思考,生成一個更具個性化和上下文感知能力的回復(fù),完成交互閉環(huán)。
2024年,Letta獲得了1000萬美元的種子資金,領(lǐng)投 Felicis Ventures,投資人包括硅谷大佬Jeff Dean,2025 年持續(xù)迭代,推出 Letta Cloud(托管版)、本地 Docker與桌面版三種部署方式。
Mem0:https://github.com/mem0ai/mem0
定位為“AI智能體的通用記憶層”,與 MemGPT 的區(qū)別在于,用戶的輸入進(jìn)入時,會和已有記憶進(jìn)行相似性查詢,融合、關(guān)聯(lián)記憶,并調(diào)用工具操作,保持?jǐn)?shù)據(jù)庫的更新,而不是簡單的先進(jìn)先出的時序整理。
Mem0在GitHub已獲得 42.6K 星,Python 包下載量達(dá) 1400 萬次。API 使用量呈指數(shù)級增長,從第一季度的 3500 萬次調(diào)用增長至 2025 年第三季度的 1.86 億次,成為了AWS新Agent SDK的記憶提供方。
論文顯示,主要架構(gòu)有 Mem0 和MemO?兩種互補的記憶架構(gòu)[2]:
其中,Mem0的架構(gòu)概覽如下,在提取階段,處理消息和歷史上下文,以創(chuàng)建新的記憶;更新階段將這些提取的記憶,與類似的現(xiàn)有記憶進(jìn)行比較,并通過Tool Call進(jìn)行相應(yīng)的操作,例如增加、更新、刪除、不操作。數(shù)據(jù)庫作為中央存儲庫,為處理和存儲更新后的記憶提供上下文,適合單跳和多跳推理任務(wù)。
![]()
而MemO?基于圖的擴展,提取階段使用 LLM 將對話消息轉(zhuǎn)換為實體和關(guān)系三元組,更新階段將新信息集成到現(xiàn)有知識圖譜,并采用沖突檢測和解決機制。論文顯示,該架構(gòu)在時間域和開放域任務(wù)中顯著提升了性能。
![]()
2025年10月底,Mem0宣布獲得了2400萬美元的融資,由Kindred Ventures 領(lǐng)投種子輪,Basis Set Ventures 領(lǐng)投 A 輪,其他參與者包括 Peak XV Partners、GitHub Fund 和 Y Combinator。
MemU:https://github.com/NevaMind-AI/memU
前豆包和貓箱 Memory 算法負(fù)責(zé)人陳宏創(chuàng)辦,定位為“為AI伴侶設(shè)計的下一代代理記憶系統(tǒng)”。MemU支持文本、圖像、音頻等多種數(shù)據(jù)類型,提供云、企業(yè)和社區(qū)自托管三種模式。項目于 2025?年 8?月發(fā)布,已在 GitHub 獲得2.8K星,側(cè)重AI角色扮演、虛擬偶像等場景。
MemU 設(shè)計理念的核心在于「基于Agent的記憶文件組織方式」 。
在記憶提取階段,MemU會將各個記憶項根據(jù)其類別,分組到專用的文檔文件中,提供自主記憶代理,能自動決定何時記錄、修改、歸檔或遺忘信息。每?條記憶也會被視作更?知識圖譜中的節(jié)點。系統(tǒng)會?動檢測不同時間、不同模態(tài)間的聯(lián)系,構(gòu)建出?個可動態(tài)演化的“經(jīng)驗?絡(luò)”,像超鏈接?檔?樣可以被檢索和遍歷[4]。
![]()
相當(dāng)于融合了Mem0的兩個架構(gòu),會按類型把信息劃分為文件,且同時會對文件中的具體信息進(jìn)行跨文件的關(guān)聯(lián),而總體上,再由一個自主的Agent,基于一定規(guī)則來整理。
Memobase:https://github.com/memodb-io/memobase
和MemU一樣是基于文件的組織方式。Memobase專注“基于用戶畫像的長期記憶”,定位是為聊天機器人、AI伴侶等應(yīng)用打造“用戶檔案庫”,支持 Profile和Event雙線記憶管理,并即將推出Schedule、Social 兩類新的記憶結(jié)構(gòu)[5],在GitHub上有2.3K星。
Memobase強調(diào)對性能、成本和延遲的平衡,通過為每個用戶建立緩沖區(qū)來批量處理對話,確保在線響應(yīng)速度低于100ms[5]。
![]()
除了應(yīng)用于AI伴侶場景,還可以應(yīng)用在教育等場景,例如通過記住個人的學(xué)習(xí)進(jìn)度、偏好和優(yōu)勢,專門針對教育環(huán)境中的記憶功能進(jìn)行配置,使其能夠更專注于學(xué)生的錯誤答案、標(biāo)準(zhǔn)化考試成績和學(xué)習(xí)習(xí)慣。
MemOS:https://github.com/MemTensor/MemOS
MemOS 認(rèn)為,「記憶」作為一個獨立系統(tǒng)層,和計算、存儲一樣,是AI 應(yīng)用的基礎(chǔ)能力。它的整體架構(gòu)可以概括為三層: API 與應(yīng)用接口層、記憶調(diào)度與管理層、記憶存儲與基礎(chǔ)設(shè)施層,更注重面向企業(yè)級的系統(tǒng)化記憶管理。
![]()
據(jù)其公開技術(shù)文檔及論文顯示[6]:
在API 與應(yīng)用接口層,MemOS 提供了標(biāo)準(zhǔn)化的 Memory API,開發(fā)者可以通過簡單的接口實現(xiàn)記憶創(chuàng)建、刪除、更新等操作,支持多輪對話、長期任務(wù)和跨會話個性化等復(fù)雜應(yīng)用場景。
在記憶調(diào)度與管理區(qū)層,別于其他記憶結(jié)構(gòu),其核心差異在于從記憶建模的視角出發(fā),提出了記憶調(diào)度范式——通過設(shè)計異步調(diào)度框架,提前預(yù)測模型可能需要的記憶信息,例如用戶正值旅游階段,有關(guān)旅游的記憶和安排會提前被激活,從而降低實時生成中的效率損耗。
在記憶存儲與基礎(chǔ)設(shè)施層,MemOS通過標(biāo)準(zhǔn)化的 MemCube 封裝,將明文記憶、激活記憶和參數(shù)記憶(又分為內(nèi)、外兩種參數(shù)記憶,內(nèi)參數(shù)記憶即微調(diào)進(jìn)大模型)三種形態(tài)有機整合[7]。
如圖所示,在這個環(huán)節(jié),它還提供了記憶的過期策略、不同用戶的訪問控制、隱私保護(hù)、水印服務(wù)等合規(guī)設(shè)定,并支持多種持久化存儲方式,包括 Graph 數(shù)據(jù)庫、向量數(shù)據(jù)庫,甚至構(gòu)想了記憶的商業(yè)生態(tài)(MemStore),讓記憶本身成為可以流通的商品。
總體而言,其核心思想是將AI的記憶像企業(yè)級數(shù)據(jù)一樣進(jìn)行專業(yè)化管理,通過分層解耦,區(qū)分了不同狀態(tài)的記憶(內(nèi)在/外在,激活/持久化),將記憶的應(yīng)用、調(diào)度、治理、存儲分開。
MemOS背后的企業(yè)是記憶張量,2025年6月記憶張量宣布完成了由孚騰資本、算豐信息、中金資本等知名機構(gòu)共同投資的近億元天使輪融資。
Memories.ai:
專注視覺記憶。成立于 2024?年,由前 Meta Reality?Labs 的華人研究科學(xué)家Shawn?Shen與Ben ?Zhou聯(lián)合創(chuàng)立,能為 AI 提供持久、可檢索的視覺記憶層。
Memories.ai已經(jīng)推出了LVMM 1.0(Large Visual Memory Model)和LVMM 2.0 兩種架構(gòu)。
其中,LVMM 1.0將視頻流解構(gòu)為視頻畫面、語音、文本、元數(shù)據(jù)四個維度。在畫面解析上,又拆分成框架結(jié)構(gòu)、物體識別、動作理解、事件序列等結(jié)構(gòu)化數(shù)據(jù)層,把視頻解讀并存儲成更詳細(xì)的數(shù)據(jù),具體到每個片段幀的圖文描述,把拆分好的結(jié)果存進(jìn)數(shù)據(jù)庫,并進(jìn)行向量化和知識圖譜,方便用戶query來了進(jìn)行索引[8]。
![]()
在近日,Memories.ai又推出了LVMM 2.0,并宣布了與高通合作,從 2026 年開始在高通處理器上本地運行,使消費者和企業(yè)能夠在其設(shè)備上安全、快速地搜索和分析視覺時刻。
Memories.ai 的 LVMM 2.0 通過將原始視頻轉(zhuǎn)換為設(shè)備上的結(jié)構(gòu)化記憶,對幀進(jìn)行編碼、壓縮,并構(gòu)建支持亞秒級搜索的索引。用戶可以用通俗易懂的語言提出復(fù)雜的問題或使用圖像提示,然后跳轉(zhuǎn)到確切的時刻。在高通處理器上本地運行可降低延遲、降低云成本并將數(shù)據(jù)保持在本地以增強安全性,即使在網(wǎng)絡(luò)邊緣也能可靠地執(zhí)行。
2025?年7?月,Memories.ai完成 800?萬美元種子輪融資,領(lǐng)投方為 Susa?Ventures,跟投包括 Samsung?Next、Crane?Venture?Partners、Fusion?Fund、Seedcamp、Creator?Ventures等。
Zep AI:https://github.com/getzep
Zep AI,一種面向Agent的新型記憶層服務(wù),由其開發(fā)的Graphiti開源框架提供支持。Graphiti 是一個時間知識圖譜框架,用于處理不斷變化的關(guān)系并維護(hù)歷史背景,其獨特之處在于它能夠自主構(gòu)建知識圖譜,同時還能推理狀態(tài)隨時間的變化。每個事實都包含 valid_at 和 invalid_at ,這使得智能體能夠追蹤用戶偏好、特征或環(huán)境的變化[9]。截止目前,在GitHub上,Zep有3.7K星,Graphiti有19.7K星。
![]()
Zep?AI 在 2024?年?4?月 完成了約?50?萬美元的種子輪融資,領(lǐng)投方為 Y?Combinator。
Second-Me (by Mindverse):https://github.com/Mindverse/Second-Me。
Second?Me 是 Mindverse 打造的 AI?身份模型,核心在于本地隱私訓(xùn)練、持續(xù)記憶對齊、開放生態(tài),主張“訓(xùn)練你的AI自我”,通過分層記憶模型(HMM)和自我對齊算法,使記憶能夠隨用戶行為持續(xù)更新、保持一致性旨在捕獲你的身份、理解你的情境,強調(diào)100%的隱私和控制權(quán)。
![]()
圖中,記憶的L0~L2分別指的是:
L0:原始數(shù)據(jù)層。該層類似于將RAG等直接應(yīng)用于原始數(shù)據(jù),將記憶定義為所有非結(jié)構(gòu)化數(shù)據(jù)。
L1:自然語言記憶層。該層包含可以用自然語言形式概括的記憶,例如用戶的簡短個人簡介、重要句子或短語列表以及偏好標(biāo)簽。
L2:AI 原生記憶層。該層代表那些無需自然語言描述的記憶。相反,這些記憶通過模型參數(shù)進(jìn)行學(xué)習(xí)和組織。
區(qū)別于其他“記憶文件外掛”,Second?Me提出了首個基于個人文檔記錄的全自動后訓(xùn)練流程,構(gòu)建了一個多層混合系統(tǒng)。
Supermemory:https://github.com/supermemoryai/supermemory
Supermemory 是一套面向AI應(yīng)用的通用記憶 API,通過自研向量數(shù)據(jù)庫、內(nèi)容解析器、知識圖譜以及豐富的 SDK/Connector[10],幫助個人和企業(yè)實現(xiàn)跨會話、跨模態(tài)、可持久的記憶,GitHub上獲得13.2K星。
![]()
其特點是:
支持導(dǎo)入文本、文件和聊天記錄(支持多模態(tài),包括文本、圖像、文件、鏈接、視頻幀);
模擬人腦實際運作方式,包括智能遺忘、衰退、近因效應(yīng)、語境重寫等,進(jìn)行重新排序結(jié)果。
構(gòu)建一個能夠捕捉“記憶”(模式、見解、背景)的知識圖譜 。
舉個例子,在以下場景中:
![]()
RAG會檢索語義上最相似的文本,但會忽略了時間進(jìn)程和因果關(guān)系。
![]()
而通過時序知識圖譜,Supermemory會跟蹤事實何時失效,并理解因果鏈。
![]()
創(chuàng)始人Dhravya Shah年僅 19 歲。2025?年10月,Supermemory完成了約260萬美元種子輪融資,由 Susa Ventures、Browder Capital、SF1.vc 領(lǐng)投。
1
不存在絕對“正確”的路線,記憶框架的進(jìn)化剛開始
從根本上看,當(dāng)下的AI記憶框架(Mem“X”)是RAG方案的進(jìn)化產(chǎn)物。它們的核心身份仍然是一個外部記憶API,但其職責(zé)不再是簡單地提供事實知識庫,而是像人腦一樣,對原始信息進(jìn)行處理、切割與重組,然后將消化過的“記憶”作為上下文,供大語言模型(LLM)或智能體(Agent)調(diào)取。
這種“記憶與處理分離”的架構(gòu),模擬了人腦中記憶存儲區(qū)與邏輯處理區(qū)的分工,優(yōu)雅地解決了LLM上下文窗口有限的難題。
然而,這也是一把雙刃劍。由于記憶以API形式提供,且目前的記憶的處理更像是簡單的切割和索引,主流平臺又普遍支持記憶的遷移與備份,客戶的切換成本相對較低,這使得市場難以形成絕對的“護(hù)城河”。
另一方面,這也意味著這是一門高度工程化的B端服務(wù)業(yè)務(wù)。 客戶對記憶方案的評估維度極為細(xì)分——價格、延遲、準(zhǔn)確性、關(guān)聯(lián)度、安全性,且效果反饋周期長。不存在一個“最好”的方案,只有“最適合”的方案。正是這種多樣化的需求,催生了當(dāng)前記憶框架在技術(shù)路線上的分野。
打個比方,如果LLM有限的上下文是計算機的“物理內(nèi)存(RAM)”,外部存儲是“硬盤(Hard Drive)”,那么不同的Mem“X”框架,就是針對不同場景設(shè)計出的“內(nèi)存調(diào)度系統(tǒng)”。它們都在回答同一個核心問題:記憶應(yīng)該如何被組織和調(diào)度,才能最準(zhǔn)確高效地在“硬盤”和“內(nèi)存”之間換入換出?
目前,主流的記憶框架可以歸結(jié)為三大類:
一類是將記憶管理設(shè)定為一種操作系統(tǒng)行為。
此路線將記憶管理視為一種宏觀的、動態(tài)的系統(tǒng)行為。以 MemOS 為例,它會主動“整理”全部記憶,將其區(qū)分為不同狀態(tài)(如明文記憶、激活記憶),并引入一個預(yù)測性調(diào)度框架。根據(jù)當(dāng)前對話和用戶畫像,它能提前將可能需要的記憶“預(yù)加載”到準(zhǔn)備區(qū)。這種方案的優(yōu)勢在于處理大規(guī)模、高并發(fā)的企業(yè)級記憶場景,追求整體的調(diào)度效率。
第二類是將記憶轉(zhuǎn)化為知識圖譜的“關(guān)聯(lián)網(wǎng)絡(luò)”,Zep AI、Supermemory、MemO?、Memories.ai都或多或少地提供了這一服務(wù)。
此路線的擁護(hù)者認(rèn)為,記憶的力量在于關(guān)聯(lián)。它們致力于將離散的記憶片段(“用戶喜歡咖啡”)結(jié)構(gòu)化為實體、屬性和關(guān)系的“關(guān)聯(lián)網(wǎng)絡(luò)”。這使得AI能夠進(jìn)行更復(fù)雜的邏輯推理。
例如,Zep AI 強調(diào)時間維度,能更新“用戶上周喜歡咖啡,但這周失眠不能喝了”這類動態(tài)關(guān)系;而 Supermemory 則利用LLM自動從對話中提取關(guān)系,構(gòu)建自增長的記憶網(wǎng)絡(luò)。這條路線的記憶更新處理成本相對較高,更適合需要深度邏輯和狀態(tài)追蹤的場景。
第三類則是通過文件系統(tǒng)(File System),將記憶視為“歸檔資料”。例如,MemU、Memobase,更側(cè)重于記憶的組織、分類和應(yīng)用。
此路線將記憶視為需要精確組織和分類的“歸檔資料”。例如,Memobase 將用戶的靜態(tài)偏好和動態(tài)經(jīng)歷分開,以清晰的數(shù)據(jù)架構(gòu)換取更低的檢索延遲。而 MemU 的獨特之處在于引入了一個自主記憶代理(Agent)來扮演“檔案管理員”,讓Agent來管理記憶,而非簡單地讓記憶服務(wù)于Agent。
此外,還存在如 Second-Me 這樣的混合路線,它通過“全自動后訓(xùn)練”,將部分記憶特征直接“刻進(jìn)”模型參數(shù)中,實現(xiàn)了“外掛”與“內(nèi)化”的結(jié)合。
這些路線并非完全互斥,許多項目正在融合多路線的優(yōu)點。但更關(guān)鍵的趨勢在于,記憶框架的“管理者”正在變得越來越聰明,從而避免被替代,形成數(shù)據(jù)的飛輪。
此前,以MemGPT為代表的初代框架,更像一個按固定規(guī)則整理書籍的“機械圖書管理員”,其管理邏輯是工程化的、靜態(tài)的。而2025年涌現(xiàn)的新框架,如MemU和MemOS,則越來越多地在記憶管理中引入AI或Agent,使其成為一個能根據(jù)用戶動態(tài)畫像和上下文,自主學(xué)習(xí)和優(yōu)化整理策略的“智慧圖書管理員”。
這種從“索引API”到“自主管理”的進(jìn)化,是AI記憶框架的競爭焦點,即從基礎(chǔ)的工程實現(xiàn),轉(zhuǎn)向如何構(gòu)建一個更智能、更高效的記憶Agent體系。
2026年,關(guān)于記憶的框架進(jìn)化和競賽,才剛剛開始。
參考資料:
[1]MemGPT: Towards LLMs as Operating Systems
[2]Mem0: Building Production-Ready AI Agents with Scalable Long-Term Memory
[3]Overview - Mem0 https://docs.mem0.ai/cookbooks/overview
[4]MemU Documentation - Complete Guide for AI Memory Integration
[5]What is Memobase? - Memobase
[6]MemOS: A Memory OS for AI System
[7]MemOS算法原理概述 https://memos-docs.openmem.net/cn/overview/algorithm
[8]Introduction | Memories.ai
[9]ZEP: A TEMPORAL KNOWLEDGE GRAPH ARCHITECTURE FOR AGENT MEMORY
[10]How Supermemory Works - supermemory | Memory API for the AI era
![]()
點個“愛心”,再走 吧
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.