用Claude Code寫代碼的人,終于不用每次開新會話都從頭解釋項目背景了。
頂GitHub開源熱榜的一款持久化記憶系統Claude-Mem,直擊AI編程助手最致命的痛點:跨會話失憶。
![]()
Claude-Mem本身100%免費,還能幫你省token錢。
它通過”三層漸進式披露”的檢索架構,常規使用下能節省90% Token,測試階段的“無盡模式”更是能把Token消耗砍掉95%,工具調用次數上限直接拉高20倍。
給Claude Code裝上”長期記憶”
傳統AI編程助手有個繞不開的問題,每次新會話都是一張白紙。
昨天剛聊完的架構設計、上周敲定的編碼規范、剛剛那些踩過的坑,AI統統不記得。開發者只能一遍遍重復解釋,時間和Token都在這種“復讀”中白白流失。
Claude-Mem的解法是在本地環境搭建一套完整的記憶系統。
它采用事件驅動架構,通過五個生命周期鉤子(SessionStart、UserPromptSubmit、PostToolUse、Stop、SessionEnd)在后臺靜默運行。
每當Claude Code執行文件讀寫、代碼編輯、命令執行這類工具調用,系統都會自動把這些操作捕獲下來,存成“觀察記錄”。
![]()
存儲方案走的是混合路線:SQLite配合FTS5負責全文檢索,Chroma向量數據庫則用來做語義搜索。
所有數據都躺在用戶本地的目錄里,隱私方面不用擔心。
會話結束時系統會調用Claude Agent SDK,把整個會話期間那些冗長的原始工具使用記錄,壓縮成結構化的精煉摘要。
包含調查內容、學習成果、已完成工作、后續步驟這幾個關鍵模塊。
下次開新會話時,系統自動查庫、檢索、注入上下文,無縫銜接上回的工作。
三層檢索省下10倍Token
Claude-Mem最大的亮點是一套“漸進式披露”檢索工作流。
傳統記憶系統做法把所有歷史記錄一股腦塞進上下文窗口,簡單粗暴但極其燒錢。
Claude-Mem反其道而行,把檢索拆成三層:
第一層是索引層,用search工具拉一個只包含ID、標題和類型的緊湊列表,每條結果大約只吃50到100個Token;
第二層是時間線層,用timeline工具獲取某條感興趣記錄前后的時序上下文;
第三層才是完整細節,用get_observations根據篩選出的具體ID批量獲取詳情,單條成本在500到1000 Token之間。
![]()
這套分層策略作用下,一個原本需要20000 Token才能完整加載的上下文,經過篩選后可能只需要3000 Token就能拿到所有必要信息,而且相關度是100%。
處于測試階段的無盡模式(Endless Mode)則更激進,它把工具輸出實時壓縮成大約500 Token的觀察記錄,Token節省率直接拉到95%。
由于上下文窗口占用率大幅下降,工具調用次數上限也跟著水漲船高,提升了約20倍,處理那些又長又復雜的任務也不用擔心不夠用了。
兩條命令完成安裝
功能之外,Claude-Mem在用戶體驗上也下了功夫。
它內置了mem-search技能,支持自然語言查詢項目歷史。想知道“上周修復了哪些bug”直接問就行。
系統還提供了一個本地Web界面,可以實時查看記憶流、會話摘要,也能在穩定版和Beta版之間切換配置。
隱私控制方面,用戶可以用標簽阻止敏感信息被記錄,新版本還引入了雙標簽系統,控制粒度更細。
安裝流程走的是Claude Code插件市場,兩條命令加一次重啟就能搞定,不需要折騰復雜的環境配置。
![]()
GitHub
https://github.com/thedotmack/claude-mem
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.