最近,最火的 Agent 項目 OpenClaw 又迎來一次大更新:支持 GPT-5.4、加入 Context Engine 插件接口、記憶系統(tǒng)可以熱插拔,GitHub Star 也突破了 28 萬。
表面看,這次更新內容很多:搜索、插件、通信渠道、容器部署、安全機制……幾乎是一次全面升級。但如果只抓一個最關鍵的變化,其實是這一點:OpenClaw 開始重做 memory。
因為這段時間,OpenClaw 被吐槽最多的地方,其實就是“記性不太行”。你前面說過的東西,它后面可能就忘了;或者同一件事反復記、反復問,memory 越用越亂。很多人一開始以為這是模型不夠聰明,后來才發(fā)現(xiàn)問題不完全在模型,而在它原來的記憶機制。
過去的 OpenClaw memory 更像“有事再去翻筆記”。系統(tǒng)會把內容寫進日志文件和長期記憶文件,需要的時候再通過 memory_search 和 memory_get 這些工具去查。這其實是一種典型的 tools 邏輯:需要時再調用工具,把上下文找出來。
問題在于,這種方式看起來像“按需調用、更省資源”,但實際往往更慢、更費 token,因為每一次工具調用本身也有成本。而且它太依賴 Agent 自己先“想起來去查”,一旦沒觸發(fā)工具,這段記憶就等于不存在。同時,它在知識更新、時間推理、多會話上下文上的表現(xiàn)也不理想:寫入新內容時,往往不知道舊記憶里已經有什么,結果就是重復記錄、舊信息不更新。再加上它幾乎不會遺忘,時間一長,memory 就容易變成一個越來越大的信息堆,什么都在,但真正重要的反而找不出來。
所以這次更新真正重要的地方,是 OpenClaw 開始從 tools 邏輯轉向 hooks 邏輯。
簡單說,tools 是“需要時再查”,hooks 是“在關鍵節(jié)點自動處理”。通過 Hook,memory 的保存和上下文補充可以在后臺自動發(fā)生,而不是每次都依賴 Agent 主動調用工具。這樣系統(tǒng)既能提取結構化記憶,也能保留原始上下文,并在需要時補充信息,還可以讓長期無關的信息逐漸衰減、被清理掉。
在這個基礎上,OpenClaw 又把上下文處理抽象成可插拔的 Context Engine。這意味著開發(fā)者不需要改動 Agent 本身,就可以替換不同的上下文管理策略,比如 RAG、知識圖譜折疊或無損壓縮等。Agent 的邏輯不變,真正變化的是“上下文怎么被組織和注入”。
所以這次更新里,最容易被忽略、但可能最重要的,其實就是 memory。 新模型、新搜索當然都很熱鬧,但一個 Agent 能不能真正長期好用,關鍵還是看它能不能把“記住、更新、遺忘”這件事做好。
整理 |Tina
![]()
![]()
![]()
![]()
![]()
![]()
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.