MemOS(Memory Operating System)是一個(gè)面向 AI 應(yīng)用的開源記憶管理操作系統(tǒng),為參數(shù)記憶、激活記憶和明文記憶等多種類型提供統(tǒng)一管理和智能調(diào)度,為大語(yǔ)言模型提供穩(wěn)定、高效、可擴(kuò)展的記憶支持,其模塊化設(shè)計(jì)便于集成新的記憶類型、模型和存儲(chǔ)方案,適用于各類智能應(yīng)用場(chǎng)景。
對(duì)于開發(fā)者來(lái)說(shuō),MemOS 就像數(shù)據(jù)庫(kù)之于應(yīng)用:不需要重復(fù)造輪子去解決“AI 怎么記憶”的問(wèn)題,只要調(diào)用 MemOS 提供的服務(wù),就能輕松給你的 Agent 或應(yīng)用裝上“記憶能力”。
MemOS 架構(gòu)如下
![]()
MemOS 剛剛發(fā)布了更新,下面是值得關(guān)注的變化。
一、版本速覽:性能與智能雙躍升
本次更新帶來(lái)了 MemOS 全面的性能與智能升級(jí),并圍繞三個(gè)關(guān)鍵詞進(jìn)行優(yōu)化:
更快 — 接口進(jìn)入毫秒級(jí)響應(yīng),支持異步記憶添加;
更準(zhǔn) — 全面升級(jí)明文檢索、BM25、圖召回與混合檢索策略;
更懂你 — 新增偏好記憶,讓模型真正理解你的風(fēng)格與選擇。
與此同時(shí),我們還首次發(fā)布了 LoCoMo、LongMemEval、PersonaMem、PrefEval 四項(xiàng)權(quán)威評(píng)測(cè)的完整結(jié)果與代碼。
評(píng)測(cè)數(shù)據(jù):
https://huggingface.co/datasets/MemTensor/MemOS_eval_result
腳本:
https://github.com/MemTensor/MemOS/tree/main/evaluation/scripts
現(xiàn)已全面開源,歡迎各位小伙伴查看與復(fù)現(xiàn)。
本次發(fā)布亮點(diǎn)一覽
![]()
二、接口加速:記憶寫入與搜索全面提速
在本次更新中,我們引入異步機(jī)制與調(diào)度模塊,讓記憶寫入和檢索真正進(jìn)入“毫秒時(shí)代”。
MemOS 利用 MemReader 組件增強(qiáng)對(duì)記憶的理解。在之前的版本中,ADD 接口需要耗時(shí)數(shù)秒才能處理完整個(gè)記憶添加流程。
![]()
此次更新,我們先快速切片并入庫(kù)用戶添加的原始記憶,并在幾百毫秒內(nèi)返回成功,用戶即添加、即消費(fèi),然后將整個(gè) MemReader 的記憶處理過(guò)程依托于 MemSchedule 模塊異步處理,實(shí)現(xiàn)用戶的“無(wú)感精細(xì)處理”。
開源項(xiàng)目?jī)?nèi)快速配置異步添加記憶
# 開啟異步添加模式 async: 異步添加 sync: 同步添加
ASYNC_MODE=async# 打開記憶調(diào)度模塊
MOS_ENABLE_SCHEDULER=true
?? 在云平臺(tái)中使用異步添加記憶
當(dāng)前,Add Message 接口已經(jīng)新增了異步記憶添加機(jī)制,更新后用戶上輪發(fā)送的消息能夠即時(shí)被檢索為記憶,保證對(duì)話中的上下文連續(xù),解決了記憶添加延遲新記憶未能即時(shí)被檢索的問(wèn)題。
在云平臺(tái)中,你的消息將即時(shí)被檢索,無(wú)需等待同步延遲。
這意味著:剛說(shuō)完的話,AI 立刻記得。
三、偏好記憶:讓模型更懂你
在事實(shí)記憶之外,MemOS 新增了「偏好記憶(Preference Memory)」模塊。
它能自動(dòng)識(shí)別用戶顯式與隱式偏好,讓模型在回答時(shí)更貼合個(gè)體語(yǔ)境。
在 PrefEval 數(shù)據(jù)集中,偏好遵循正確率提升 20%+。
模型不止“記得你說(shuō)過(guò)什么”,還能“理解你喜歡什么”。
開源項(xiàng)目?jī)?nèi)配置偏好記憶
# 配置Milvus向量數(shù)據(jù)庫(kù)
MILVUS_URI=http://localhost:19530
MILVUS_USER_NAME=your milvus user name
MILVUS_PASSWORD=Your passward# 開啟偏好記憶
ENABLE_PREFERENCE_MEMORY=true
PREFERENCE_ADDER_MODE=fine # fast or fine
TIPS: 1. PREFERENCE_ADDER_MODE 中,fast 更快,fine 重復(fù)率更低。 2. 開啟偏好記憶不會(huì)增加 search 的耗時(shí),會(huì)有少量 token 增加,具體取決于 pref_top_k。
?? 云平臺(tái)中添加并檢索偏好記憶
添加消息示例:
import os
import json
import requests
os.environ["MEMOS_API_KEY"] = "YOUR_API_KEY"
os.environ["MEMOS_BASE_URL"] = "https://memos.memtensor.cn/api/openmem/v1"
# headers 和 base URL
headers = {
"Authorization": f"Token {os.environ['MEMOS_API_KEY']}",
"Content-Type": "application/json"
}
BASE_URL = os.environ['MEMOS_BASE_URL']
# 示例歷史對(duì)話數(shù)據(jù)
history_messages = [
{"role": "user", "content": "我暑假定好去廣州旅游,住宿的話有哪些連鎖酒店可選?"},
{"role": "assistant", "content": "您可以考慮【七天、全季、希爾頓】等等"},
{"role": "user", "content": "我選七天"},
{"role": "assistant", "content": "好的,有其他問(wèn)題再問(wèn)我。"}
]
def add_message(user_id, conversation_id, messages):
data = {
"user_id": user_id,
"conversation_id": conversation_id,
"messages": messages
}
res = requests.post(f"{BASE_URL}/add/message", headers=headers, data=json.dumps(data))
result = res.json()
if result.get('code') == 0:
print(f"? 添加成功")
else:
print(f"? 添加失敗, {result.get('message')}")
# === 使用示例 ===# 導(dǎo)入歷史對(duì)話
add_message("memos_user_pref_test_777", "memos_conversation_pref_test777", history_messages)
檢索記憶示例:
import os
import json
import requests
os.environ["MEMOS_API_KEY"] = "YOUR_API_KEY"
os.environ["MEMOS_BASE_URL"] = "https://memos.memtensor.cn/api/openmem/v1"
# headers 和 base URL
headers = {
"Authorization": f"Token {os.environ['MEMOS_API_KEY']}",
"Content-Type": "application/json"
}
BASE_URL = os.environ['MEMOS_BASE_URL']
# 用戶當(dāng)前query
query_text = "我國(guó)慶想出去玩,幫我推薦個(gè)沒(méi)去過(guò)的城市,以及沒(méi)住過(guò)的酒店品牌"
data = {
"user_id": "memos_user_pref_test_777",
"conversation_id": "memos_conversation_pref_test777",
"query": query_text,
}
# 調(diào)用 /search/memory 查詢相關(guān)記憶
res = requests.post(f"{BASE_URL}/search/memory", headers=headers, data=json.dumps(data))
print(f"result: {res.json()}")
# 示例返回(為了方便理解此處做了簡(jiǎn)化,僅供參考)
# 偏好類型的記憶
# preference_detail_list [
# {
# "preference_type": "implicit_preference",
# "preference": "用戶可能偏好性價(jià)比較高的酒店選擇。",
# "reasoning": "七天酒店通常以經(jīng)濟(jì)實(shí)惠著稱,而用戶選擇七天酒店可能表明其在住宿方面傾向于選擇性價(jià)比較高的選項(xiàng)。雖然用戶沒(méi)有明確提到預(yù)算限制或具體酒店偏好,但在提供的選項(xiàng)中選擇七天可能反映了對(duì)價(jià)格和實(shí)用性的重視。",
# "conversation_id": "0610"
# }
# ]# 事實(shí)類型的記憶
# memory_detail_list [
# {
# "memory_key": "暑假?gòu)V州旅游計(jì)劃",
# "memory_value": "用戶計(jì)劃在暑假期間前往廣州旅游,并選擇了七天連鎖酒店作為住宿選項(xiàng)。",
# "conversation_id": "0610",
# "tags": [
# "旅游",
# "廣州",
# "住宿",
# "酒店"
# ]
# }
# ]
通過(guò)示例代碼,大家可以發(fā)現(xiàn):模型自動(dòng)記錄了“七天酒店”作為顯式偏好,同時(shí)推斷出隱式偏好:“用戶傾向于性價(jià)比高的住宿選項(xiàng)”。
未來(lái),你的 AI 將能更好地優(yōu)化推薦與響應(yīng)。
四、檢索增強(qiáng):更準(zhǔn)確的上下文理解
MemOS 在本次更新中引入了多層次的檢索增強(qiáng)策略,讓模型在長(zhǎng)文本與復(fù)雜語(yǔ)境中表現(xiàn)更穩(wěn)定。
原文檢索:增加原始上下文細(xì)節(jié),避免信息壓縮導(dǎo)致的語(yǔ)義丟失;
圖檢索(Graph Search):結(jié)合 BM25 與圖召回,實(shí)現(xiàn)語(yǔ)義級(jí)的相關(guān)性匹配;
混合檢索(Mixture Mode):異步合并慢檢索結(jié)果,保證結(jié)果質(zhì)量?jī)?yōu)于快檢索、耗時(shí)低于慢檢索。
在 LoCoMo 與 LongMemEval 中:
LoCoMo 指標(biāo)提升約 +1pt;
LongMemEval 單輪任務(wù)表現(xiàn)提升顯著。
開源項(xiàng)目?jī)?nèi)配置原文檢索
MOS_RERANKER_BACKEND=http_bge
MOS_RERANKER_URL=http://xxxxx:xxxx/v1/rerankMOS_RERANKER_BACKEND=http_bge_strategy
MOS_RERANKER_STRATEGY=single_turn
MOS_RERANKER_URL=http://xxxxx:xxxx/v1/rerank
TIPS: 開啟重排策略后會(huì)顯著增加 context 長(zhǎng)度,請(qǐng)根具自己需求進(jìn)行配置開啟
開源項(xiàng)目?jī)?nèi)配置圖檢索
# 添加啟用則配置,不添加則不啟用
FAST_GRAPH=true # 圖檢索
BM25_CALL=true # 關(guān)鍵詞檢索TIPS: 啟用 graph 優(yōu)化不增加耗時(shí),啟用 BM25 則耗時(shí)長(zhǎng)。
在開源項(xiàng)目?jī)?nèi)配置混合檢索
SEARCH_MODE=mixture
API_SEARCH_WINDOW_SIZE=5
API_SEARCH_HISTORY_TURNS=5五、評(píng)測(cè)結(jié)果:領(lǐng)先四大權(quán)威數(shù)據(jù)集
MemOS 在四項(xiàng)公開基準(zhǔn)中均取得領(lǐng)先表現(xiàn),展現(xiàn)了系統(tǒng)在長(zhǎng)程記憶、上下文保持與偏好理解方面的綜合優(yōu)勢(shì)。
![]()
評(píng)測(cè)代碼與數(shù)據(jù)集已全面開源,詳細(xì)結(jié)果已發(fā)布至 Hugging Face :
https://huggingface.co/datasets/MemTensor/MemOS_eval_result
六、開源更新:調(diào)度、檢索、評(píng)測(cè)體系全面進(jìn)化
New Features:
Async Add 支持明文與偏好記憶
Scheduler 模塊化調(diào)度
Graph/BM25 混合檢索
PrefEval 字段標(biāo)準(zhǔn)化
Improvements:
Redis ORM 優(yōu)化
API 路由重構(gòu)
上下文追蹤增強(qiáng)
Fixes:
修復(fù) PolarDB 邊界問(wèn)題 (/)
統(tǒng)一 Milvus 接口與日志鏈路
? 寫在最后
從“記憶更快”,到“記憶更準(zhǔn)”,再到“更懂你”,這不再只是讓模型“記得”,而是讓模型“理解記憶”——理解你的偏好、語(yǔ)境與風(fēng)格,構(gòu)建專屬的長(zhǎng)程智能體體驗(yàn)。
一鍵體驗(yàn)云平臺(tái)
立即進(jìn)入 MemOS 云平臺(tái),體驗(yàn)毫秒級(jí)記憶與偏好召回能力。
https://memos-dashboard.openmem.net/
加入開源項(xiàng)目,共建記憶生態(tài)
歡迎訪問(wèn)我們的 GitHub:
https://github.com/MemTensor/MemOS
如果你喜歡我們的工作,請(qǐng)一鍵三連:
?? Star Fork Watch
并歡迎通過(guò) Issue 提交你的使用反饋、優(yōu)化建議或 Bug 報(bào)告。
https://github.com/MemTensor/MemOS/issues
關(guān)于 MemOS
MemOS 為 AGI 構(gòu)建統(tǒng)一的記憶管理平臺(tái),讓智能系統(tǒng)如大腦般擁有靈活、可遷移、可共享的長(zhǎng)期記憶和即時(shí)記憶。
作為記憶張量首次提出“記憶調(diào)度”架構(gòu)的 AI 記憶操作系統(tǒng),我們希望通過(guò) MemOS 全面重構(gòu)模型記憶資源的生命周期管理,為智能系統(tǒng)提供高效且靈活的記憶管理能力。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.