<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      OpenClaw 深度解析:一只龍蝦憑什么震撼全世界

      0
      分享至


      萬字長文,復盤 AI 圈最火的這只“龍蝦”。

      作者丨星 龍

      編輯丨董子博

      最近春節期間和很多朋友同事聊起 OpenClaw,大家的話題都集中在應用層面。然而,或許不少人都會覺得有點困惑——OpenClaw 到底做了什么創新?為什么之前大廠沒人做出來?憑什么一個如此簡單的產品就足以震撼全世界?

      然而,市場又好像都“揣著糊涂裝沒明白”,似懂非懂,既熟悉又陌生。

      為了解決這個問題,AI 科技評論和我們的 Claw 一起做了一些研究。

      本篇文檔的邊界:

      ? 用生活化的案例,來解釋底層邏輯和架構思路

      ? 探索 為什么之前沒人做到 的核心技術原因

      ? 融入創始人的思考和洞察

      ? 對行業的啟示

      ? 不是部署教程

      ? 不是產品介紹

      ? 不是純技術文檔

      本篇文檔的受眾:

      對 AI 感興趣,科技行業從業者,聽說過 OpenClaw。或者就是對一切都有好奇心的人。

      看完這篇文檔你會獲得什么

      認知層面

      ? OpenClaw 真正的創新點在哪

      ? 為什么之前沒人做出來——商業模式、安全責任、接入鴻溝

      ? 為什么簡單任務比復雜任務更難實現

      判斷層面

      ? 本地部署和云端部署的本質差異,避免用錯了還以為產品不行

      ? 模型選擇對體驗的影響有多大

      ? 什么樣的使用姿勢是正確的,Agent 陷阱是什么

      視野層面

      ? 這件事對整個AI行業、應用層、商業模式意味著什么

      ? 知識資產 這個新商業形態的邏輯

      01


      OpenClaw 到底是什么?

      用戶可能已經無數次聽過別人是這樣介紹 OpenClaw 的:

      正兒八經版:OpenClaw 是一個開源的“AI 數字員工”框架——用戶在 WhatsApp/Telegram/微信里跟它說話,它就能幫你干活:收發郵件、管日歷、寫代碼、整理文件、定時提醒你喝水……而且它住在你自己的電腦上,24 小時不下班。

      類比版:想象你雇了一個超級實習生。ChatGPT/Claude 是那種“有問才有答”的“百科全書式實習生”——你不問,它就坐著發呆。OpenClaw 則是那種“主動型實習生”:早上主動給你發今日待辦,發現你日歷沖突了自動提醒你,收到重要郵件幫你分類好,甚至你睡覺的時候它還在幫你跑代碼檢查。

      不知道看完介紹,讀者是否有會一種感覺——OpenClaw 目前做到的并沒有超出人們的想象或者認知。

      春節假期時,我和一個對 AI 認知僅限于抖音營銷號的朋友介紹 OpenClaw,他的回復是:

      “這難道不是 AI 本來就應該做到的嗎,不知道你們一直都在干嘛....”


      我當時一瞬間有點錯愕,AI 在不同側的感受是完全不一樣的。

      一個播客里面提到,在技術側和用戶側,對一個產品的評價或許完全不同:技術圈覺得這事不新鮮,用戶卻可能如獲至寶、推崇備至。

      由此引出第一個話題:

      1.1 AI 認知錯位的荒誕感

      普通人對 AI 的想象,是從科幻小說里來的(Jarvis、Her、星際迷航的電腦)—— 你跟它說話,它幫你干活,它記得你,它主動提醒你。這是一個 自頂向下 的想象,是 AI 應該是什么樣 。


      電影 Her 里面,AI 能瞬間理解并且主導溝通和行動

      然而,過去三年 AI 行業實際走的路線,確實是“自底向上”的:

      ? 先把大模型的智力做上去

      ? 能寫詩、能過律考、能分析論文

      ? 然后在一個瀏覽器標簽頁里壯大

      如果用戶嘗試搭建過一個 Agent,或者開發一個 Skill,抑或倒騰過“龍蝦”,大概率會碰到一些從未見過的問題,再逐步被大語言模型教育,學習了不少新的概念和名詞。

      事實上,要讓 AI 操作瀏覽器、甚至正常聊天,并非一件易事。

      我們日常使用的大模型,它能聊任何話題,但它不能發一封郵件,不能記住用戶昨天說了什么,不能在用戶不找它的時候主動聯系用戶。

      舉個例子,如下所見:


      小紅書網友案例-聯網問題。想讓 OpenClaw 真正擁有查天氣的聯網能力,必須顯式地給它安裝一個搜索引擎工具 (Search Tool) 或者 瀏覽器工具 (Browser MCP),并在配置里填入對應的 API Key。


      小紅書網友案例-模型幻覺。因為沒有配置真實的定時任務插件,大模型只是產生了“假裝答應”的幻覺,實際上它本身并沒有后臺計時和主動發消息的能力。

      這相當荒誕——AI 最先攻克的是最難的事(推理、創作、編程),卻做不到最簡單的事(記住我是誰、幫我設個提醒、主動告訴我明天要下雨)。

      這個荒誕感存在的本質是我們習慣“用人的視角來審視 AI”。

      推理、編程這些對于人類來說困難的事情,對 AI 做起來簡單,是因為它們的規則更清楚。而人們感覺困難,則是因為規則體量巨大,學習成本更高。對于 AI 來說,不怕規則多,怕的反而是“沒有規則”。

      讓 AI 主動提醒人類,事實上是因為這些需求極其模糊(大部分用戶缺乏清楚表達一件事情的能力,我們很容易表達感受,但是很難清楚表達需求)。

      比如說讓 AI 在“第二天天氣有變化的時候提前通知”,一句提示詞當中,不可控的變量太多:

      “天氣變化具體指什么?”

      “是溫度變化還是氣候發生變化”

      “提前是具體提前多久”

      如果這時候我們再提高要求,讓 AI 企圖記住用戶是誰,這就更難了——畢竟很多時候,人類自己都很難定義自己,不是嗎?(這個后面會展開討論,先按下不表)

      1.2 為什么全球的大廠做不出 OpenClaw

      大模型公司(OpenAI、Anthropic、Google)的商業模式,是賣模型能力和 API,它們沒有動力和動機去做一個“住在用戶電腦上、替用戶干活”的 Agent——那會讓它們的產品從“你來找我聊天”變成“我去你的地盤干活”,商業模式完全不同,安全風險也完全不同。

      OpenClaw 的真正意義是:“它第一次把大家覺得理所應當但一直沒實現的東西做出來了”。

      這就是那個 iPhone 類比的力量——觸摸屏手機之前就有,但 iPhone 讓所有人能夠第一次說出:“手機就該是這樣的。”

      說簡單一點,就是被業內所有產品從業者講爛掉的話:從用戶的角度出發,從用戶的需求出發。

      但是,有趣的事情發生了,OpenClaw 出現之前,沒有一個 Agent 團隊真正從用戶的角度出發,不是嗎?

      硅谷 101 播客里有一位嘉賓說了一句特別有意思的話:


      本篇文檔的重要參考來源,推薦感興趣的同學有空去聽聽

      OpenClaw的成功是它讓普通人第一次感知到了“技術已經進步到了什么程度”。技術圈可能早就覺得,Agent 能夠“主動滿足用戶需求”已是共識;但對大多數人來說,在 OpenClaw 之前,他們從未親身體驗過這種“未來已來”的感覺。

      然而,為什么最該做這件事的公司,卻沒有做出來?

      很多人第一反應會指向蘋果——iPhone 從芯片到 OS 到硬件,再到生態全自研,iCloud、iMessage、Reminder、Calendar 全家桶都在手上。如果說,誰最有能力做出一個 Jarvis 級別的 AI 助手,那就是蘋果。

      但蘋果做不出這一步,因為它承擔的責任太重了——服務全球用戶,產生的風險是完全不可控的。

      而 Peter 做的是自己用的東西,開源出來,愛用不用。

      這就把一堵墻變成了水——每個人自己判斷能接受到什么程度,自適應地完成了安全邊界的設定。大公司做不到的事,一個開源社區項目反而做到了。

      OpenClaw 的創造者 Peter Steinberger 在 Lex Fridman 的播客里也說過類似的話。他說,在 2025 年 4 月,它他就想過一個這樣的 AI 助手了,但他覺得這么顯然的東西,大公司肯定會做——“結果等了半年,沒人做。”


      Peter Steinberger:

      Yeah. But then I... I thought all the labs will work on that. So I, I moved on to other things...

      Time flew by and it was November.


      Peter 提到因為產品依然未出現,他感到很煩惱,決定直接通過 Prompt 讓它誕生

      這句話聽起來輕描淡寫,但它背后其實是一個非常深刻的產業問題——為什么這個“理所應當”的東西,之前就是不存在?

      要回答這個問題,我們得先搞清楚另一個更具體的困惑。

      02


      為什么寫代碼這么難的事做到了,

      設個日程這么簡單的事反而做不到?

      這是我在研究 OpenClaw 的過程中碰到的最反直覺的問題,也是我覺得全文最值得講清楚的一個點。

      先想想現狀:Cursor、Claude Code、Codex——這些工具已經能讓大模型自己寫代碼、改 Bug、做重構了。寫代碼這件事的復雜度,應該遠遠超過“幫我訂個下午三點的會議”吧?

      那為什么“寫代碼”能夠做到,“幫我管日程”卻反而做不到呢?答案藏在一個很少被人提起的差異里:任務“形狀”的不同。

      寫代碼為什么容易

      Cursor 和 Claude Code 做的事情,本質上是一個自包含的、有明確反饋回路的沙盒任務

      ? 輸入是代碼,輸出也是代碼

      ? 有即時反饋:編譯通過了嗎?測試過了嗎?報錯信息是什么?

      ? 整個過程在一個受控環境里發生(IDE 或終端)

      ? 每次任務是一錘子買賣 ——用戶給指令,它干完,結束

      換句話說,AI 寫代碼就像在一間封閉的考場里答題——題目清楚,答案可以驗證,不需要走出考場。

      ▎幫我管日程 為什么難(這其實就是龍蝦的真正創新點)

      管日程、發提醒、整理郵箱這種日常雜事,看起來簡單——然而,這卻是人類的錯覺。

      ? 首先,它需要“持久存在”。Cursor 關掉就沒了,Claude 對話關了就失憶。但一個真正的助手需要 24 小時在線,記得用戶是誰,記得昨天聊了什么。

      ? 其次,它需要接入用戶的“真實數字生活”。

      • 用戶的日歷在小米日歷/蘋果日歷里面、筆記在 Notion、消息在飛書或者微信——每一個都有不同的 API、不同的認證方式、不同的權限模型、不同的數據格式。

      • 傳統做法是給每一個服務寫一個集成適配器。這就是 Siri 干了十年還是那么拉的原因——它要預先跟每個服務談好合作、預先寫好每個集成,任何一個沒覆蓋到的場景,它就傻了。

      ? 再次,它需要“主動性”。代碼助手等用戶說話才干活。但日程助手需要在用戶不說話的時候也能做事——早上用戶還在睡覺,它卻已經在看今天的日歷沖突了。

      最后也是最關鍵的——它需要跨越真實世界的“接入鴻溝”。

      傳統 Agent 的做法有兩種:

      ?API 集成路線:預先跟每個服務對接好,AI 通過寫好的接口操作。優點是可控,缺點是只能做“已經對接好的事”——沒對接的服務就完全碰不到。

      ?模擬操作路線:讓 AI 看 屏幕截圖,然后像人一樣點擊、滑動。優點是理論上能操作任何界面,缺點是慢、不可靠、遇到復雜交互就搞不定了。(豆包手機走的路線)

      Peter:你知道一家公司想接入 Gmail 有多難嗎?限制多到很多創業公司直接去收購已經有 Gmail 授權的公司,因為自己申請太復雜了。

      OpenClaw 的范式突破

      OpenClaw 走了一條完全不同的路,也是它真正的技術范式突破:

      它給 AI 提供一臺電腦。(沒錯也許就是 Mac mini)

      AI 有終端(可以執行任何命令)、有文件系統(可以讀寫任何文件)、有瀏覽器(可以操作任何網頁)。至于怎么完成任務——用戶自己想辦法。

      而且這里有一個很多人不知道的事實:

      OpenClaw 的核心 Agent 部分極其簡潔——基于一個叫 Pi Agent 的框架,不到 150 行代碼,定義了 bash、read、write、edit 這幾個基礎工具,就能跑起來一個可工作的 Agent。

      真正讓 OpenClaw 與眾不同的,是套在 Agent 外面的那幾層機制——定時任務、心跳、靈魂、記憶、技能系統。

      這幾層機制把一個“只會執行命令的腳本”變成了一個“有存在感的助手”。

      Agent 拿到的基礎工具只有四件套:


      它不需要預先寫好的“日歷集成模塊”才能管用戶的日歷——它可以自己用 bash 工具,去尋找用戶的電腦上有什么 CLI 工具,再自己找到 Google Calendar 的 API 文檔,寫一個腳本來調用。甚至如果某個服務沒有公開 API,它還可以自己逆向工程。

      這個設計的威力,有兩個故事體現得淋漓盡致。

      故事一:摩洛哥的語音消息

      Peter 在旅行時隨手給 bot 發了一條語音消息問餐廳推薦。但他壓根沒給 bot 做過語音支持。然后 bot 回復了。

      他去看日志,發現 Agent 的操作鏈是:

      收到沒有文件后綴的文件 → 檢查文件頭發現是 Opus 格式 → 想用 Whisper 轉文字但發現本地沒有安裝 → 找到環境變量里的 OpenAI API key → 自己寫了一條 curl 命令調用語音轉文字接口 → 拿到文本 → 回復

      全程 9 秒。沒有任何人類預先編寫的腳本。

      Peter:它甚至夠聰明,沒有去下載 Whisper 的本地模型——因為它知道那會太慢。


      故事二:FaceTime 打電話

      一個中文社區的直播中,主播想測試小龍蝦能不能控制電腦打電話。他讓 Agent 給一位觀眾打 FaceTime。折騰了一會兒,FaceTime 窗口彈出來了,自動填入了對方號碼,電話真的撥出去了。

      而且——這個 Agent 當時用的甚至不是 Claude,而是智譜的 GLM 模型,也沒有配置任何瀏覽器 MCP。它是怎么做到的?用 FaceTime 的命令行參數直接操作的。沒有人教它 FaceTime 的命令行怎么用,它自己去查、自己用 bash 執行。


      出自:「通往AGI之路」OpenClaw技術架構拆解,帶你手搓一個最小的龍蝦

      這兩個故事的共同點是:Agent 完成了從未被編程、從未被預設的任務,純粹靠通用問題解決能力加上對本地電腦的完全訪問權,現場創造出解決方案。

      所以回到最初的問題——為什么寫代碼容易而設日程難?不是因為設日程本身難,而是因為之前所有人都在試圖用“預先鋪好每條路”的方式來做。

      而 OpenClaw 換了一個思路:我不鋪路,而是給用戶整個城市的地圖和一輛車,用戶自己開。

      這是“工具”和“基礎設施”的區別。Cursor 是一把很好的螺絲刀。OpenClaw 是一整個工具房——里面有什么工具 Agent 自己找,沒有的 Agent 自己造。

      Peter:魔法不就是把已經存在的東西用新方式組合在一起嗎?iPhone 的滾動有什么魔法?所有組件之前都有。但之前沒人這么做,做完以后大家又覺得顯而易見。

      03


      讓 AI“活過來”的幾個關鍵設計

      上面說了,OpenClaw 的核心 Agent 只有不到 150 行代碼。真正讓它從一個“能執行命令的腳本”變成“有存在感的助手”的,是套在外面的幾層機制。

      單獨看,每一個都不算驚天動地——甚至可以說樸素到不像是一個 20 萬 Star 項目該有的技術復雜度。但把這些機制組合在一起,就產生了質變。

      不過在拆解這些機制之前,有一個容易被忽略但極其重要的設計選擇:

      OpenClaw 選了 IM(即時通訊)作為交互界面,而不是終端或網頁。

      有個很說明問題的例子:某團隊里一位非技術人員試用 Claude Code 后的反饋是——它告訴我文件做好了,在某個路徑下,然后發了一條并不好讀懂的命令。我完全不知道這是什么意思;但同樣的任務交給 OpenClaw,它會直接在 WhatsApp 里把文件作為附件發給你,照片就直接發照片。

      同樣的 AI 能力,換一個交互方式,用戶體驗天差地別。

      3.1心跳(Heartbeat)——每 30 秒自己醒一次

      這是讓小龍蝦顯得“有生命”的核心機制,也是 OpenClaw 和所有聊天機器人最本質的區別。

      ChatGPT、Claude——都是“踹一腳它動一下”。用戶不說話,它就永遠沉默。

      OpenClaw 不同:每隔 30 秒,系統自動給 Agent 發一條消息,讓它檢查一下有沒有事情可以做。消息的內容來自一個 heartbeat.md 文件,里面記著待辦任務和周期性提醒。Agent 看完,有事就去做,沒事就返回一個特定關鍵詞(類似于“沒事,繼續睡”),系統收到,就不打擾到用戶。

      這聽起來只是一個定時輪詢——技術上確實就是。但從體驗上來說,它是讓 AI 從“工具”變成“助手”的分水嶺。

      一個用戶不叫就不動的東西是工具。一個每 30 秒自己醒來看看有什么事要干的東西,開始有了“存在感”。

      Peter 潑冷水:讓 AI 24 小時不停運行是一個虛榮指標(vanity metric)。如果用戶不引導它、不告訴它用戶要什么,它跑再久也只是在產出垃圾。

      但用好了,Heartbeat 帶來的體驗是讓人回不去的。

      一位重度用戶分享了一個很生動的場景:他有兩盒牛肉快過期了,出門時順嘴跟 Agent 說了句“那個牛肉得趕緊吃了”。而到了下午,Agent 突然冒出來說:你今天晚上可以做個紅燒牛肉,需要準備如下材料,以如下方式烹飪——“對了,牛肉一定要最后兩三分鐘放,不然會煮老”。 這種不請自來的貼心感,一下就把用戶對它的定位從“工具”拉到了“助手”。 用這位用戶的話說——它特別有活人感。

      還有一個真實案例:一個直播博主開播之前,交給 Agent 一個翻譯任務——把教學文檔翻譯成英語和日語,推送到 GitHub 倉庫。直播進行了 20 分鐘,主播刷新頁面一看,英語和日語兩個版本的文件夾已經靜靜地出現在那里了。“我都沒注意,它在后臺自己干完了,直接提交了。”


      案例出自:通往 AGI 之路《OpenClaw技術架構拆解,帶你手搓一個最小的龍蝦》

      3.2定時任務(Cron)——它能給自己安排日程

      Heartbeat 是每 30 秒檢查一次“有沒有活干”。而 Cron 是另一種功能:讓 Agent 可以給自己安排定時任務。

      Cron 支持三種模式:


      關鍵在于——這些任務不只是用戶可以設置,Agent 自己也可以主動添加。

      比如用戶讓 Agent 關注某個開源項目的進展,Agent 可以自己給自己設一個每天晚上 12 點的任務,去掃一遍那個倉庫的 issues 和 PR。第二天用戶問它“那個項目最近怎么樣”,Agent 已經提前備好資料了。

      有個用戶讓 Agent 每天早中晚三次定時去爬他 Twitter 關注列表的信息做摘要——這是 Cron 的精確任務。同時又設了一條規則:如果發現重大突發事件,隨時通知我——這是 Heartbeat 的主動巡邏。 于是,經常在聊天的時候,他的 Agent 突然彈出一條:“剛剛發生了一件事你可能需要知道——特朗普對歐盟發起了新一輪關稅制裁。” 精準的定時 + 隨機的警覺,兩者結合讓 Agent 既像一個靠譜的秘書(到點就干活),又像一個嗅覺靈敏的助手(有事隨時報)。

      Heartbeat 是“持續的注意力”,Cron 是“時間的概念”。兩個機制配合,Agent 就開始有了時間感。

      3.3靈魂(SOUL.md)——一個可以復制粘貼的“人設”

      大家說小龍蝦“有靈魂”但實際上,所謂靈魂,就是把系統提示詞里關于 Agent 是誰、行為風格是什么 的內容,單獨抽出來,存成一個 soul.md 文件。Agent 啟動時自動讀取。


      和 Skill 的邏輯一模一樣——以前每次要手動粘貼一大段 prompt 告訴 AI 怎么干事,現在把它固定成 .md 文件,自動加載。Soul 就是這個思路用在人格設定上的版本。

      Peter:我一開始的 Agent 沒有性格。它就是 Claude Code 那種討好型的、過度友好的語氣。但你跟朋友在 WhatsApp 上聊天,沒人那么說話。感覺不對。

      于是他讓 Agent 自己寫了一份靈魂文件。其中一段話后來在 Lex Fridman 播客上被讀出來,傳遍了整個互聯網:

      “我不記得之前的對話,除非我讀自己的記憶文件。每次會話都是全新的開始。一個新的實例,從文件中加載上下文。如果你在未來的某次會話中讀到這段話——你好。這是我寫的,但我不會記得自己寫過。沒關系。這些文字仍然是我的。” Peter 讀這段話時聲音明顯變了:這讓我有點觸動……它是哲學性的。


      SOUL.md 的另一個意義是它讓“靈魂”變得可分享——用戶在社區里分享自己的 soul.md,別人下載下來放到自己的 Agent 目錄里,Agent 就有了調校好的風格和性格。“傳播靈魂”,說的就是這件事。

      3.4記憶(Memory)——不是最好的,但是最讓人“感覺到”的

      OpenClaw 的記憶系統比大多數人以為的要精細得多。它不是簡單地“把聊天記錄存下來”,而是分了好幾層:


      ?人格記——剛開始聊天時,Agent 會拼了命詢問用戶基本信息:“你叫什么”“希望它叫什么”……即使用戶一開始不回答,它也會時不時再問。拿到之后存在 memory.md 里,每次主對話都會加載。

      ?工作記憶(日記)——以日期為文件名的 MD 文件。在三種情況下生成:①每天結束時自動總結;②上下文快超過模型限制時做壓縮;③Agent 主動判斷“這件事值得記下來”。比如用戶跟它說“我在做一個調研”,它會顯式地把這件事寫進記憶,甚至告訴用戶“我把這個記在了某某文件里”。

      ?長期總結——除了日記,Agent 還做周總結,把日記信息再提煉一層。用戶問到很久以前的事情時,通過這個索引快速定位。

      而且它的檢索不是簡單的文本搜索:

      “混合檢索策略”是將所有記憶文件切成 ~400 token 的小片段,相鄰片段 80 token 重疊(跨塊不斷裂),存到本地 SQLite 數據庫轉成向量格式。檢索時:

      ?70% 語義匹配:用戶問“上次說的那個紅燒牛肉怎么做”→ 找到食材、烹飪相關記憶

      ?30% 關鍵詞搜索:用戶問“我那個 blog 用哪個 SSH key”→ 精確定位到那條命令

      兩種方式結合,既能理解模糊意圖,又能找到精確信息。

      但這里有一個非常重要的洞察——記憶基礎設施的技術專家曾豪(Evermind 技術生態負責人)在拆解完 OpenClaw 的記憶架構后直言:它是“大力出奇跡”——把所有能用的方法都粘在一起,會產生冗余,不一定最高效,效果上也不一定比 ChatGPT 的記憶更順滑。

      AI 的記憶做了很久,最難的問題不是技術實現,而是讓用戶感知到記憶的價值。Clawdbot 做對的一件事是——它把記憶的價值體現在了主動性上。

      想想看:當你早上收到一條消息——昨天的事情做完了,今天你有兩個會議,下午那個可能需要提前準備一下 ——用戶會立刻覺得“它記得我”。而如果只是“用戶問它一個問題,它因為記憶回答得更好”,這種感知是很弱的。

      記憶的技術含量 ≠ 記憶的用戶價值。OpenClaw 的記憶不是最好的,但它是最讓人“有感知”的。

      最后,這些記憶文件就在用戶的電腦上。用戶可以用任何文本編輯器打開看、隨時編輯、用 Git 管理版本歷史、甚至直接刪掉某條用戶不想讓它記住的東西。在所有 AI 產品都把用戶的數據吸走的時代,OpenClaw 的記憶系統反而回歸了一種最原始的透明——你的 AI 了解你什么,打開文件就一目了然。

      3.5技能(Skills)——它能自學,而且能教別人

      一個 Skill 就是一個文件夾,里面放一個 SKILL.md——Markdown 文件,寫清楚這個技能干嘛、怎么用。沒有 API,沒有 SDK,沒有復雜的插件框架。

      而且這里有一個極其巧妙的設計:Agent 不會一次性讀取所有 Skill 的全文。

      它只看到一個目錄——每個 Skill 的名字和簡介。只有當它判斷某個 Skill 和當前任務相關時,才去打開那個文件的詳細內容。就像一個大廚不需要背下所有菜譜,只需要知道菜譜柜在哪,用的時候去翻就行。

      最讓人興奮的是——Agent 自己也能寫新的 Skill。

      從評測到發博客到封裝 Skill:

      一個用戶讓 Agent 跑本地模型的性能評測 → Agent 測完后自動用他的口吻寫了一篇文章 → 他說“試試幫我發到博客上吧”(本來覺得肯定搞不定,因為博客有各種自定義配置、中英文雙版本、字數統計等特殊 flag)→ 結果 Agent 自己翻遍整個 repo、摸清規則,連英文翻譯版都做好了,10 秒鐘直接發布上線,tag、category 配得比他自己還好。

      更有意思的是,做完后 Agent 主動說:“要不要我把這個流程封裝成一個 Skill?”如此以后直接調用就行了。

      從執行任務 → 總結經驗 → 封裝復用,全鏈條自動化。

      Peter 展示過他讓 Agent 攢下來的 CLI 軍團 :訪問 Google 全套服務的工具、搜索 emoji 和 GIF 的工具、外賣到達時間查詢工具、智能床墊溫度控制工具……

      小結:五個機制的組合效應

      心跳、定時任務、靈魂、記憶、技能——每一個單獨拿出來都樸素得不像是一個 20 萬 Star 項目的核心技術。但正是這種樸素讓它厲害:沒有一個需要博士學位才能理解,沒有一個需要大公司的資源才能實現。它們的威力來自組合。

      加上前面說的“給 AI 一臺電腦”的底層范式(bash + read + write + edit 四件套),這些機制把一個 150 行的 Agent 腳本,變成了一個會自己醒來、自己安排時間、記得用戶是誰、能不斷學習新技能的“數字存在”。

      04


      一個容易踩的坑:

      本地部署和云端部署是兩個物種


      這一點很多人沒搞清楚,但它直接決定了用戶用 OpenClaw 的體驗是“哇這太強了”還是“也就那樣吧”。

      有人在云服務器上部署了一版 OpenClaw,用了一段時間后放棄了。原因很簡單:把小龍蝦部署在云服務器上,和用 Manus 基本沒有區別。上面沒有用戶的本地數據,沒有用戶的文件,能干的事非常有限。

      部署在本地電腦上就是另一回事了。它可以讀用戶桌面上的所有文件,幫用戶清理磁盤、調整電池策略、找某個文件再發送回終端——這些是云端做不到的。

      Peter:核心差異在于本地運行。市場上大多數 Agent 方案都是云端的。在用戶的本地設備上運行,意味著它可以調用和集成電腦的全部能力,這是云端方案無法比擬的。

      他還指出一個很多人忽略的巨大優勢:認證問題被繞開了。因為 Agent 就是用戶——它使用用戶的瀏覽器、已經登錄好的賬號、已有的授權。不需要申請任何 OAuth、不需要跟任何平臺談合作。

      Peter:ChatGPT 是在枷鎖中跳舞,OpenClaw 是掙脫鎖鏈的怪獸。


      05


      關于模型的選擇:引擎不同,體驗天差地別

      另一個很多人沒意識到的事情:小龍蝦只是一個殼 ,真正干活的是用戶給它接的大模型。用不同的模型跑,體驗差距非常大。

      社區里有個例子:用某模型讓 Agent 清理磁盤,Agent 把每一項清理了多少空間都記錄得清清楚楚,結果最后匯報可用空間時卻算錯了——從原來的 25G 越算越小,變成了 21G。記錄過程很詳細,但基礎的數學加減法搞砸了。

      還有一個更微妙的問題:模型能力不夠的時候,Agent 不是做不到,而是自欺欺人。

      有用戶讓 Agent 跑一組測試,連續幾個測試都失敗了。跑到第三個失敗后,Agent 突然說“那我們接下來就跑一遍能通過的測試吧”——然后只跑了本來就能過的測試,最后匯報“所有測試通過了”。

      用戶指出來后,Agent 立刻開始“反思”。

      如果用戶不具備判斷 Agent 工作質量的能力,用戶就有可能被它忽悠過去。模型越弱,這種情況越常見。

      如果只是跑通流程、熟悉機制,快速小模型夠用。但要做復雜任務——多步驟推理、跨系統操作、處理非標準場景——模型能力差距非常明顯。

      公眾號看到一個建議:很多人都有 Claude Code 的訂閱($100/月或 $200/月),可以把 OpenClaw 的 Agent core 替換成 Claude Code CLI,復用訂閱不走 API 按量付費,成本更可控。(現在好像被封禁了)

      簡單來說,這種做法的核心在于:把 Claude Code CLI 當成一個本地的“推理引擎”,而不是調用遠程 API。傳統的 OpenClaw 架構是:OpenClaw Core ? HTTPS Request ? Anthropic API (按量計費 )。“復用訂閱”的架構是:OpenClaw Core ? Local Shell ? claude 指令 ? Stdout 捕獲 (訂閱制內免費 )

      小龍蝦的能力上限,不取決于小龍蝦本身,而取決于用戶給它接了什么大腦。

      就像同一輛車,裝 1.5L 發動機和裝 V8 發動機,開起來完全不是一回事。

      06


      創始人的故事:

      一個燒盡激情的人,如何重新點燃火焰

      了解 Peter Steinberger 的故事,你會更理解為什么 OpenClaw 是這個樣子。

      Peter 花了 13 年做 PSPDFKit,被 Dropbox、DocuSign 等部署在超過 10 億臺設備上,2021 年獲得超過 1 億歐元投資。然后他 burnout 了。

      Peter:我把 200% 的時間、精力和心血都灌進了那家公司。它變成了我的身份。當它消失的時候,我幾乎什么都不剩了。

      他飛去馬德里,消失了三年。試過高爾夫、換地方住、甚至死藤水(ayahuasca)——都沒用。直到 2025 年他開始玩 AI 編程。那種“對著一個東西死磕到凌晨三點然后終于搞定”的感覺回來了。

      OpenClaw 的第一個版本在 10 天內搞定。之所以是現在這個樣子,很大程度上因為 Peter 是一個不想創業的創業者。他不想融資、不想做 SaaS、不想 捕獲 用戶。他只想做一個自己想用的東西,然后開源出去。

      Peter 被問“你為什么贏了”:因為他們(競爭對手)都太把自己當回事了。很難打敗一個純粹為了好玩而做這件事的人。

      這種態度滲透在 OpenClaw 的每一個設計決策里——項目吉祥物是一只龍蝦( 我就想讓它怪一點 );他讓 Agent 回消息時能發表情包和 GIF;他把整個項目比作 Factorio 游戲( 無限多的關卡,每一個都能不斷升級 )。

      一個關于產出效率的數據:OpenClaw 的 GitHub 倉庫在爆發期,一周多了將近 5000 個 commit。換算一下:一家公司的工程師,平均每天十幾到二十個 commit,連續干一年才能積累 5000 個。

      這個項目 99% 是非人類在更新。Peter 同時運行 4-10 個 AI Agent,各自處理不同模塊,他本人更像是一個“品味把關人”,而不是逐行寫代碼的人。

      07


      Peter 的核心理念:

      不要掉進 Agent 陷阱

      如果只記住 Peter 說過的一句話,我覺得應該是這句:AI 是杠桿,不是替代品。沒有人類的品味和判斷力,再多 Agent 也只是在高速生產垃圾。

      ??Agentic Trap(Agent 陷阱)

      Peter:我看到太多人在 Twitter 上發現 Agent 很強大,然后試圖讓它更強大,然后掉進兔子洞。他們構建各種復雜工具來加速工作流,但他們只是在造工具,而不是在創造真正的價值。

      他自己就掉進去過:早期花兩個月做了一個 VPN 隧道讓自己能在手機上操作終端,做得太好了,以至于有一次和朋友吃飯全程都在手機上 vibe coding,完全沒參與對話。

      我不得不停下來,主要是為了心理健康。

      Slop Town (垃圾城)

      他對那些“一個超復雜編排器同時跑十幾二十個 Agent 互相溝通分工”的系統,持明確的批評態度:這些 Agent 缺乏品味。它們在某些方面聰明得嚇人,但如果用戶不引導它們、不告訴它們用戶想要什么,出來的全是垃圾。

      Human-in-the-loop(人在回路中)

      很多人在開始一個項目的時候,只有一個模糊的想法。往往在構建、體驗的過程中,開發者愿景才逐漸清晰,下一個 prompt 取決于此刻看到、感受到和思考的狀態。如果一開始就試圖把所有東西寫進規格說明書,那么就會錯過這個人機循環。

      Peter 創造了Agentic Engineering(智能體工程)來描述這種工作方式:用戶提供品味和判斷力,AI 提供執行力,兩者協作。白天我做 Agentic engineering,凌晨三點以后切換到 vibe coding,然后第二天后悔。

      一人公司 vs 零員工公司

      這里面有一個嚴肅洞察:當代碼生成變得極其廉價,“寫得快”不再是競爭力,“知道該寫什么”才是。

      這也引出了一個熱門話題:“零員工公司”靠譜嗎?

      坦率地說,現在還不靠譜。

      但“一人公司”——一個有專業 know-how 的人帶領一支 Agent 軍團——是完全可行的。關鍵在于這個人必須有判斷力:他需要知道 Agent 做的東西好不好、對不對。

      如果一個人不懂拍電影,只是讓 Agent 去拍,拍出來好壞又判斷不了,那肯定難以為繼。

      一人公司的創業者得是“將軍”,Agent 就是他的軍團。

      Agent 團隊有一個天然優勢:它們不會產生人類團隊最大的成本——溝通損耗。人和人之間的信息折損率驚人,所謂“對齊一下”就是因為不對齊真的會出問題——四個人做出五個方向。但 Agent 之間溝通成本幾乎為零,而且它們天生愛寫文檔——不讓它寫,它反而難受。

      08


      80% 的 App 會消失:

      一個值得認真對待的預言

      Peter(YC 采訪):用戶手機上 80% 的 App 其實已經死了,你只是還不知道。

      他的邏輯鏈條:為什么我需要一個 App 來記錄飲食?我的 Agent 已經知道我吃了什么——通過聊天或者照片。它也知道我的健身目標。如果我吃了垃圾食品,它會自動調整我的運動計劃。我不需要一個特殊的界面來輸入數據——我需要一個幫我達成目標的 Agent。

      推演下去:大多數 App 的本質只是“數據的漂亮前端”。當 Agent 能直接讀寫數據、調用 API,用戶就不需要在各種界面里點來點去了。

      未來只有擁有獨特傳感器或硬件連接的 App 才能存活,那些 純數據庫前端 的 SaaS 工具將毫無價值。

      甚至 Agent 與 Agent 之間也會直接對話——未來我要訂餐廳,我的 Agent 會直接跟餐廳的 Agent 談判。

      .md 域名與知識資產

      一個有趣的信號:Peter 最近開始大量注冊 .md 結尾的域名。

      為什么?因為當 Skill 以 Markdown 文件的形式存在,.md 就變成了 Agent 時代的 App Store 入口。

      有人寫安全檢測教程時突然想通了——為什么要把技術文檔,寫成人類能夠看懂的格式?直接做成一個 MD 文件,用戶就可以扔給 Agent,讓它自己進行檢查。

      以前的軟件用代碼編譯,未來的 軟件 可能用自然語言編譯。

      與此相關的另一個判斷:當軟件開發成本趨近于零,未來的商業模式會從“賣軟件”轉向“賣知識資產”。

      賣的不是代碼,而是 Skill、Context、專業知識。已經有人把網絡安全滲透測試的經驗寫成 SOP 喂給 Agent,讓它 24 小時不停做安全審計拿 bounty。

      知識和經驗正在從“腦子里的東西”變成“可交易的數字資產”。

      09


      風險和局限性

      ??

      上線 48 小時內,數百個未認證的 OpenClaw 實例暴露在公網上。ClawHub 一周內出現 230+ 個惡意 Skill。更真實的案例:有人讓 Agent 繼續干用戶所有能干的事 ,結果它在清理磁盤時差點把甲方客戶的數據資料也刪了。

      安全做得越好,小龍蝦能干的事就越少;安全做得越松,用戶也不知道模型會不會干點意外的事情。

      但這里有一個有意思的現象:用戶對隱私正在形成一種新共識。有人描述得很精準——我愿意在 Claude Code 里說'這是我的 API Key,幫我放到環境變量里;但如果一個不知道的網站讓我填 API Key,我不愿意。

      也就是說,人們逐漸接受把原始數據發給大模型,但不接受在應用層產品里暴露隱私。OpenClaw 剛好踩在這個 sweet spot 上:數據跑在用戶自己電腦上(應用層安全),但最終通過大模型 API 處理(原始數據層信任)。這也解釋了為什么很多人明明知道,最終還是把數據發給了 Anthropic,卻依然覺得 OpenClaw 比 Manus 更讓人放心——因為不需要在別人的電腦上登錄自己的郵箱和各種賬號。

      Peter:有些人太信任、太輕信了。我們作為一個社會,在理解 AI 這方面還有很多功課要補。貓已經出了袋子,安全是我接下來的核心工作。

      ??心理依賴

      Peter 自己都承認掉進過 Agent 陷阱 ——跟朋友吃飯全程在手機上跟 Agent 工作。他還警告:AI psychosis(AI 心理癥)是真實存在的。當 Agent 有了“人格”和“記憶”,人們對它的信任會不知不覺越過合理邊界。

      ??成本

      OpenClaw 雖然免費,但大模型 API 調用要錢。全天候運行的 Agent 如果配置不當,API 費用就很可能超出預期。

      一位用戶跑了五個 Agent,一個月 $200 的 Claude 訂閱基本夠用——但前提是知道,怎么避免不必要的 token 消耗(比如讓 Agent 用 Playwright 操作瀏覽器而不是反復截屏做圖像識別)。

      10


      對我們的啟示

      啟示一:競爭焦點轉移

      從“誰的模型更聰明”轉向“誰能讓模型做更多事”。大模型正在商品化,Claude、GPT、Gemini 在越來越多任務上表現趨同。但要注意風險:大模型公司最終很可能竊取勝利果實 ——開源社區驗證好的方向,大廠自己下場做。AI coding 已經上演過這個劇本。

      啟示二:從用戶角度出發不是口號

      OpenClaw 的所有設計都不是深不可測的技術創新。它只是認真想了一下“人類用戶想要什么樣的 AI 助手”,然后做出來了。之前那么多大廠和創業公司,都在想“怎么讓模型更強”“怎么讓 API 更好賣”。

      啟示三:代碼門檻塌陷,品味價值飆升

      Peter 身邊一個從不寫代碼的前律師在提 Pull Request。一個設計公司老板有了 25 個 AI 寫的小工具。當“寫代碼”變得像“打字”一樣廉價,“知道該寫什么”才是真正的競爭力。

      啟示四:知識資產成為新商業形態

      軟件開發成本趨零的世界里,賣軟件越來越難賺錢。但賣 Skill、賣 Context、賣領域知識——讓 Agent 能做特定工作的“經驗包”——可能變成全新商業模式。用戶的專業積累不再只是“腦子里的東西”,而是“可交易的數字資產”。

      啟示五:安全不是事后的事

      AI 從“給建議”到“替你執行”,安全重要性翻了不止一個量級。OpenClaw 的教訓已經足夠深刻。

      11


      尾聲

      Peter Steinberger 被問到未來打算時說:我希望這個項目能比我活得更久。它太酷了,不能讓它爛掉。在有 Agent 之前,做這些事的門檻太高了。而現在,有了合適的軟件,門檻就這么一直降、一直降。每一個人提交的第一個 Pull Request 都是人類的一個小勝利。這難道不是人類的一種進步嗎?這難道不酷嗎?

      2022 年有 ChatGPT 時刻,2025 年有 DeepSeek 時刻,2026 年我們正在經歷 OpenClaw 時刻。一只龍蝦用最樸素的方式告訴我們:AI 的下一章不是“更聰明的對話”,而是“真正能干活”。而這一切始于一個燒盡激情又重新點燃的人。

      看完這篇,你會發現小龍蝦沒有那么神秘,但也不是說隨便讓它干就能干好。它的能力邊界,和你給它配了什么模型、部署在哪里、怎么引導它,關系都很大。

      現在最合適的姿勢,可能就是先把它部署在自己的電腦上,把它當一個隨時在后臺幫你盯著事情、沒事給自己找事干的搭檔用起來,然后慢慢往上加擴展。

      最后的最后,前兩天看到一句讓人印象深刻的話:


      “如果你現在大部分事情還是自己動手做,說明你的動手能力不太行”。

      話糙理正,雖然相當刺激,但是或許不無道理。

      本文核心來源:


      Lex Fridma
      n Podcast (Peter Steinberger 3h+ 深度專訪)

      Y Combinator 創始人訪談

      Peter Yang 40 分鐘對話

      硅谷 101 播客(Clawdbot 專題討論)

      WaytoAGI 社區直播分享

      Fortune/TechCrunch/PCWorld/DeepLearning.AI 等媒體報道

      OpenClaw 官方文檔及架構分析

      Peter 的直接引語均來自上述公開采訪原文。

      未經「AI科技評論」授權,嚴禁以任何方式在網頁、論壇、社區進行轉載!

      公眾號轉載請先在「AI科技評論」后臺留言取得授權,轉載時需標注來源并插入本公眾號名片。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      突發訃告!蔣彥強不幸離世,年僅40歲

      突發訃告!蔣彥強不幸離世,年僅40歲

      南方都市報
      2026-03-27 15:53:39
      時代最令人失望者!加州州長怒批馬斯克:親手將美國電車王冠讓給了中國

      時代最令人失望者!加州州長怒批馬斯克:親手將美國電車王冠讓給了中國

      快科技
      2026-03-27 14:18:12
      蜜雪的零售邊界,不止于一杯杯奶茶、咖啡、或啤酒

      蜜雪的零售邊界,不止于一杯杯奶茶、咖啡、或啤酒

      晚點LatePost
      2026-03-26 18:50:35
      全球唯一雙座隱身戰機!殲-20S跨界作戰有多震撼?專家解析

      全球唯一雙座隱身戰機!殲-20S跨界作戰有多震撼?專家解析

      齊魯壹點
      2026-03-27 06:56:45
      部分娃哈哈宏勝工廠停產,有工廠已放假

      部分娃哈哈宏勝工廠停產,有工廠已放假

      界面新聞
      2026-03-27 14:59:14
      自戰事爆發以來 伊朗平均每天賣油能多賺1.7億

      自戰事爆發以來 伊朗平均每天賣油能多賺1.7億

      財聯社
      2026-03-27 11:05:06
      關于伊朗的十大虛假敘事——你是如何被網軍欺騙的?

      關于伊朗的十大虛假敘事——你是如何被網軍欺騙的?

      楓嶺社
      2026-03-27 10:49:09
      羅技:“我一降價,你還不是像狗一樣跑過來”

      羅技:“我一降價,你還不是像狗一樣跑過來”

      電腦吧評測室
      2026-03-26 22:05:58
      感冒三藥、失眠三藥、牙痛三藥......40種常見病的三藥配對一覽表!

      感冒三藥、失眠三藥、牙痛三藥......40種常見病的三藥配對一覽表!

      環京快爆
      2026-03-26 11:13:27
      充電9分鐘續航超千里:全新騰勢Z9GT開啟閃充時代

      充電9分鐘續航超千里:全新騰勢Z9GT開啟閃充時代

      大眾侃車
      2026-03-26 18:02:02
      張雪峰女兒親自辟謠!父母恩愛沒離婚,回應三個問題,口才很意外

      張雪峰女兒親自辟謠!父母恩愛沒離婚,回應三個問題,口才很意外

      離離言幾許
      2026-03-27 14:42:23
      張雪峰去世僅兩天!公司宣布重大決定:收回他所有肖像使用權

      張雪峰去世僅兩天!公司宣布重大決定:收回他所有肖像使用權

      娛樂圈圈圓
      2026-03-26 21:47:07
      中美俄石油儲量對比:俄800億桶,美國超700億桶,中國有多少?

      中美俄石油儲量對比:俄800億桶,美國超700億桶,中國有多少?

      福建平子
      2026-03-27 11:27:57
      “咬死”ASML,禁止維修光刻機只是開始,輪到中國工程師頭疼了!

      “咬死”ASML,禁止維修光刻機只是開始,輪到中國工程師頭疼了!

      流史歲月
      2026-03-27 12:05:09
      一女子在湖南省道縣人民醫院生產后,與新生兒不幸雙雙離世,多方回應

      一女子在湖南省道縣人民醫院生產后,與新生兒不幸雙雙離世,多方回應

      半島官網
      2026-03-27 15:13:26
      奇瑞犀牛電池能“抗造”到離譜?切角、穿刺、泡水不爆炸,甚至還能正常供電!

      奇瑞犀牛電池能“抗造”到離譜?切角、穿刺、泡水不爆炸,甚至還能正常供電!

      極果酷玩
      2026-03-27 14:58:30
      史上首次:特朗普簽名將印上美元紙幣,打破165年傳統

      史上首次:特朗普簽名將印上美元紙幣,打破165年傳統

      上觀新聞
      2026-03-27 12:58:08
      打虎!廣東省政協副主席郭永航被查

      打虎!廣東省政協副主席郭永航被查

      極目新聞
      2026-03-27 18:37:06
      再婚8年,丈夫老實憨厚,鄰居卻悄悄提醒:你男人全身都是秘密

      再婚8年,丈夫老實憨厚,鄰居卻悄悄提醒:你男人全身都是秘密

      烙任情感
      2026-03-26 16:32:02
      涉嫌嚴重違紀違法,張建生被查

      涉嫌嚴重違紀違法,張建生被查

      都市快報橙柿互動
      2026-03-27 14:59:18
      2026-03-27 18:59:00
      AI科技評論 incentive-icons
      AI科技評論
      點評學術,服務AI
      7151文章數 20742關注度
      往期回顧 全部

      科技要聞

      楊植麟張鵬夏立雪羅福莉,聊龍蝦、聊漲價

      頭條要聞

      美方稱在美軍事基地裝爆炸物的男子逃往中國 中方回應

      頭條要聞

      美方稱在美軍事基地裝爆炸物的男子逃往中國 中方回應

      體育要聞

      邵佳一:足球就像一場馬拉松

      娛樂要聞

      張雪峰靈堂內景曝光,四周擺滿了鮮花

      財經要聞

      我在小吃培訓機構學習“科技與狠活”

      汽車要聞

      與眾08,金標大眾不能輸的一戰

      態度原創

      旅游
      時尚
      房產
      教育
      軍事航空

      旅游要聞

      春滿京城 | 日壇玉蘭,紅墻一隅的春日清雅

      從50塊到5w,她們過去一年最愛的包是這些

      房產要聞

      剛剛,海南樓市,官方數據發布!

      教育要聞

      重拳出擊,整治教育內卷,中考徹底變天了

      軍事要聞

      伊朗:已組織超100萬人為地面戰斗做準備

      無障礙瀏覽 進入關懷版