全文3,000字 | 閱讀約8分鐘
中文互聯網上最火的 AI 新物種,叫 OpenClaw,也叫“小龍蝦”。
熱度有多真實?小紅書、知乎、B 站滿是安裝教程,從 Mac 到舊手機都能部署。有人做付費課程,有人提供上門安裝服務,甚至出現了專門的知識星球。
這說明中國用戶不只是圍觀,已經在真實使用。
但裝上容易,用好難。
3月5日,LangChain 創始人 Harrison Chase(LangChain 是目前最主流的 AI Agent 開發框架)在訪談里提到:做一個能在推特上演示的 Agent 很容易,但要讓它每天穩定干活,非常難。
其實 AI Agent (智能體)的想法不新鮮。AutoGPT 兩年前就在做:讓模型循環運行,自己調用工具,自己完成任務。但 AutoGPT 沉寂了,OpenClaw 卻火了。
為什么 AutoGPT 沉寂了,OpenClaw 卻火了?
為什么演示容易,運行難?一個真正能干活的 Agent 需要什么?
企業怎么才能看清 Agent 在做什么?
這些問題的答案,Harrison Chase 在這次訪談里講得很清楚。
第一節 |為什么突然所有公司都在裝龍蝦
OpenClaw 的爆火看起來很突然。但在 Harrison Chase 看來,這件事其實準備了很久。
時間往前倒兩年,開發者圈出現過一個類似項目叫 AutoGPT。它一度成為GitHub 增長最快的開源倉庫,很多人第一次看到:原來 AI 可以不斷循環運行,自己調用工具,自己繼續完成任務。它的做法就是:模型思考,調用工具,根據結果繼續行動。
但 AutoGPT 很快就不火了。
為什么?那時候的模型還不夠穩定。任務一長,模型做著做著就亂了,或者在同一個步驟里反復打轉。演示很驚艷,實際用起來經常出問題。
Harrison Chase 后來總結過:想法很美好,但要讓它可靠地運行,其實很難。
過去一年,這個難題開始有解了。
模型能力明顯提升。Claude、GPT 以及新一代大模型,處理長任務時更穩定,調用工具也更準確。
但更關鍵的變化是:Agent 開始有了管理自己工作環境的能力。
最明顯的是文件系統。它們可以把信息存到文件里,需要的時候再讀取。它可以像人在電腦上工作一樣,有地方放資料,有地方寫草稿,任務做到一半可以保存,然后繼續往下走。
模型變聰明,加上有了文件系統,就讓 OpenClaw 這樣的 Agent 真正能用起來了。
技術不是突然誕生的,只是慢慢跨過了某個臨界點。
所以你會看到,越來越多公司開始把龍蝦裝進自己的系統。
第二節 |演示容易,干活難在哪
裝上龍蝦之后,很多公司很快會發現:Agent 看到的信息和人類不一樣。
人在工作時,可以自己決定要看哪些資料,要跳過哪些細節。但 Agent不行。它只能看到你給它的信息。給多了處理不過來;給少了又會亂套。
Harrison Chase 提到 AutoGPT 當年的做法:如果調用一個 API,返回了40000個 token 的數據,它就直接把這40000個 token 全部塞給模型,作為下一步的輸入。
結果就是:信息量太大,模型根本處理不過來。
到了OpenClaw 這一代,思路變了:把這40000個 token 存到文件里,只告訴模型前面1000個 token 的內容。如果 Agent 判斷需要更多信息,可以自己用工具去讀完整版。
這個改變看起來很小,但本質上是把控制權交給了 Agent 本身。它可以決定自己要看什么、什么時候看。
Harrison Chase 管這個叫上下文工程:在正確的時間、以正確的格式、把正確的信息給到模型。
任務一長,Agent 需要的信息就會越來越多。你要決定哪些信息應該一直保留,哪些可以暫時放一邊,哪些應該壓縮,哪些需要詳細展開。
這就是讓 Agent 真正干活的關鍵所在。
第三節 | 能干活的 Agent 需要什么
第二節說的上下文管理問題,怎么解決?
Harrison Chase 在訪談里提到,需要一整套結構。這套結構現在已經相對清晰了。
首先是規劃
讓 Agent 在動手之前先想清楚:這件事需要哪些步驟,每一步應該做什么。具體做法是給它一個待辦事項列表工具,讓它自己記錄任務進度。這樣 Agent 就不會做著做著忘了目標。
然后是子 Agent
當任務太復雜時,可以把它拆成幾個小任務,每個小任務交給一個專門的子 Agent 去做。比如一個負責查資料,一個負責寫代碼,一個負責整理結果。
為什么要這樣做?因為每個子 Agent 有一個清晰的上下文窗口,只關注自己的小任務,不會被其他信息干擾,可以真正深入把事情做好。做完之后,把結果交回給主 Agent。
接下來是文件系統
它的作用遠不止“有地方存文件”。真正重要的是:文件系統讓 Agent 可以管理自己的上下文。
Agent 可以把暫時用不到的信息存到文件里,需要的時候再讀取。它可以把大塊的工具返回結果先存起來,只看摘要,要深入了解時再打開完整版。這就解決了第二節說的信息過載問題。
最后是提示
很多人以為模型變聰明了,提示就不重要了。事實正好相反。Claude Code 的系統提示詞,如果把工具定義也算進去,大約有2000行長。
提示仍然極其重要,因為它決定了模型會怎么推理、Agent 會怎么行動。
有了這套結構,Agent 就有了干活的基礎。
第四節 |企業的難題:你根本不知道 Agent 在做什么
規劃、子 Agent、文件系統,這些都有了。但 Agent 還是會出問題。這時候,一個新的難題又來了:
它們到底在系統內部做什么?
傳統軟件出了問題,開發者可以很快定位。因為程序是按固定流程走的,每一步都有記錄。
但 Agent 不一樣。它根據任務內容不斷生成新的行動:調用工具、修改文件、重新規劃。從外面看,任務在繼續,但如果中途出錯,很多團隊根本不知道它之前做過什么,也不知道在哪一步開始出問題。
不知道 Agent 在做什么,帶來兩個麻煩:
一個是調試困難。任務失敗了,不知道哪里出錯。
另一個是安全風險。Agent 有權限調用工具、修改文件、訪問數據。以OpenClaw 為例,它權限很高,能做很多事,但缺乏護欄。LangChain 現在直接禁止員工在工作電腦上裝,就是擔心不可控的風險。
OpenClaw 的高權限正是它威力所在,問題是現階段的版本缺乏企業級的安全控制。企業需要的是一個既強大又可控的版本。
怎么做到可控?要知道 Agent 在做什么,就得先把每一步行動都記錄下來。這叫執行軌跡。
但記錄只是開始,真正的挑戰是:當 Agent 大規模運行時,這些軌跡會變成海量數據。
Harrison Chase 在訪談里講到兩個真實案例:一家叫 Clay 的公司在用 Agent 做客戶數據自動化,每月運行數百萬甚至數十億次,他們不可能用肉眼去看這些軌跡。還有代碼開發平臺 Replit,他們的軌跡可以長達數千步,你需要在單一軌跡內部搜索,找到某個具體時間點發生了什么。
面對這種規模,只能用 LLM 去分析這些執行記錄,自動尋找問題。比如找出用戶可能困惑的地方,或者連續調用同一個工具三次但得到不同錯誤的地方。LLM 可以對軌跡進行分類、聚類,告訴你用戶在怎么使用這個系統。
Harrison Chase 的判斷是:這件事可能比模型能力更重要。執行軌跡和可觀測性,是讓 Agent 真正發揮作用的核心要素,也是 LangChain 真正的護城河所在。
因為當 Agent 開始承擔越來越多工作時,企業需要的不只是一個聰明的模型,更需要一套能看清它在做什么的工具。
有了結構,再加上可觀測性,Agent 才能從偶爾成功的演示,真正變成每天穩定干活的工具。
結語|裝上只是第一步
OpenClaw 的流行,讓很多公司開始把 Agent 接入實際工作。
但裝上只是第一步。
讓它穩定運行,需要解決上下文管理問題。
讓它從演示走向生產,需要規劃、子Agent、文件系統這套結構。
讓它真正安全可靠,還需要可觀測性。
這些,就是 Harrison Chase 說的答案。
裝龍蝦不難,難的是這些。
識自AI
本文由AI深度研究院出品,內容整理自LangChain創始人Harrison Chase在Venture Beat 2026年3月4日訪談等網上公開素材,屬評論分析性質。內容為觀點提煉與合理引述,未逐字復制原訪談材料。未經授權,不得轉載。
星標公眾號, 點這里1. 點擊右上角2. 點擊"設為星標" ← AI深度研究員 ? ← 設為星標
https://www.youtube.com/watch?v=53gPwkcIsXQ&t=16s
https://blog.langchain.com/doubling-down-on-deepagents
https://x.com/VentureBeat/status/2029302123221881076
https://www.21jingji.com/article/20260305/herald/8cef512858916f7779420a15600575a8.html
來源:官方媒體/網絡新聞,
排版:Atlas
編輯:深思
主編:圖靈
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.