OpenClaw(龍蝦)帶來的「颶風」還在繼續刮,而且看起來更是一場 AI 的范式轉移。
上周五舉辦的 2026 中關村論壇人工智能主題日上,月之暗面創始人楊植、智譜 AI CEO 張鵬、無問芯穹 CEO 夏立雪、小米 MiMo 大模型負責人羅福莉、香港大學 nanobot 負責人黃超教授,共同參與了一場聚焦「OpenClaw 與 AI 開源」的圓桌對話。
這里就不介紹對話詳情,只提一點就是:Harness 和 Skill 在影響 Agent 框架的方向,Agent 框架也在影響大模型的方向。說簡單點,他們都認為接下來大模型要更加適應 Agent 的進化方向。
事實上就在前一天,一度引起 AI 圈和阿里股價「震蕩」的前阿里千問技術負責人林俊旸,在離職后首次公開發布了一篇長文,全文分成六個部分,包括對 OpenAI o1、DeepSeek R1 推理范式的溯源,還有對 Qwen 路線的反思等。
但其中最重要的一部分,還是對「Agentic Thinking」(智能體式思考)的提出與判斷。不同于 DeepSeek R1 那種推理式思考,他認為智能體式思考必須能夠:
- 決定何時停止思考并采取行動
- 選擇調用哪個工具以及以什么順序
- 整合來自環境的嘈雜或部分觀察
- 在失敗后修訂計劃
- 在許多輪次和許多工具調用中保持連貫性
![]()
林俊旸原文第四部分,圖片來源:X
這么說,聽起來可能還是有點抽象,但如果你最近用過 OpenClaw 或者 Claude Code,可能已經隱約感受到這種變化。它們不再像傳統模型那樣,在封閉環境下進行純推理式的思考:
而更像一個真正干活的人,一邊思考,一邊結合各種工具和技能動起來,出錯了再思考,再嘗試,最終輸出回答或者執行結果。
對比之下,以 OpenAI o1、DeepSeek R1 為代表的推理模型,更多還是在「顱內推演」,最后直接輸出一個回答。不是說純推理式思考沒有價值,但更適用于數學等封閉世界的問題,而現實世界往往目標不明確、反饋不穩定,需要多步決策。
所以也能看到,幾乎沒有人會推薦在 OpenClaw 或者類似產品使用 DeepSeek R1,更多今年發布的新模型,也都在適應 OpenClaw。
智能體要干活,AI 不能埋頭思考答題
上周末,雷科技受邀在亞洲重量級當代藝術博覽會 Art Central 2026 體驗了一款頗具特色的視覺 AI 應用,可參看《帶著Chance AI勇闖藝術展:拍照即解讀,視覺AI真能看懂當代藝術?》。
簡單來說,Chance AI 更本質的核心是一個 Visual Agent(視覺智能體)。而我核心想說的,是實際體驗中 Chance AI 的「思考方式」。
不同于 DeepSeek 思考模式(R1)下純推理,基本依賴獲取到的文本信息繼續搜索,并在此基礎上進行推理。Chance AI 在識別圖片內容后,則會廣泛地通過搜索引擎、社交平臺搜索圖片、文本信息,甚至是位置信息(地點)。
更重要的是,Chance AI 作為智能體不是依靠一次推理,而會基于圖片、文本、地點等信息的反饋,反復調整、多次嘗試。
就拿我在 Art Central 2026 看到的一副作品來說,Chance AI 首先會識別圖片內容,再通過 Instagram 等社交媒體以及專業的藝術品平臺進行搜索,盡可能先找到「作品」。
然后才會繼續思考。不管沒找到,還是信息太少,都會使用不同工具查找藝術品、地點、圖片,進一步鎖定作品和作家等更多信息,再繼續思考需求,比如作家的風格和更多作品。
![]()
圖片來源:雷科技
這種 Agent loop(智能體循環)的工作方式,也在一定程度上決定了同一張啤酒桶的局部照片,能被 Chance AI 認出,豆包、Gemini 等主流 AI 大模型卻認不出。這當然不是在大模型層面超越了 AI 巨頭,核心還是將 Harness Engineering 的工程架構第一次帶到視覺領域。
將 Harness 和 Skill 機制發揚光大的 OpenClaw 更是同理。
盡管它的干活能力超出了無數人的預想,但 OpenClaw 之父 Steinberger 并沒有自主訓練大模型,在大模型之上打造了一個相對可靠的 Agent 框架,或者就像黃超教授說的「腳手架」「輕量級操作系統」。
這也是今年以來被頻繁討論的技術趨勢。
Harness 中文直譯為「馬具」,Harness Engineering 簡單理解就是「駕馭大模型」的工程,包括但不限于上下文工程、長記憶管理、工具調用等。而 Skill 可能更為大眾熟知,比如支付寶今天(3 月 31 日)剛剛推出的支付寶支付集成 Skill,就能讓智能體 AI 直接集成支付寶的支付能力。
![]()
圖片來源:支付寶
但在技術變化之下,更底層的變化則是林俊旸口中的「智能體式思考」。
事實上,智能體 AI 更離不開「思考」,但它的思考被嵌進了不同的操作和流程之中。這就是智能體式思考本質的變化:不是先完全想清楚再動手,而是在動手的過程中不斷修正自己的想法。
你會發現,OpenClaw 和過去的大模型,完全不是一種「工作方式」。它們不會一上來就給你結果(非推理模型),也不會搜集一輪信息后埋頭思考后答題(純推理模型),而是更多調用工具與進行交互,多輪搜索、驗證、決策和調整。所以在大模型不變的前提下,OpenClaw 這類智能體產品反而能夠更好地解決現實問題。
![]()
圖片來源:雷科技
又比如一個看似簡單的需求:修一個項目里的 bug。你并不知道問題在哪,也不知道改哪一行代碼,更不確定一次修改能不能解決問題。在這種情況下,單純拉長「推理鏈」并沒有太大意義。因為真正關鍵的不是「想得更全面」,而是不斷測試、調整思路。
正如羅福莉說的,「(OpenClaw)保證了下限,同時也拉升了上限。」
智能體式思考,旦用難回?
把時間撥回到 2024 年,大模型行業最明確的一條主線,其實就是讓模型更會「推理」。以 OpenAI o1、DeepSeek R1 為代表,這一代大模型開始系統性地拉長推理鏈,通過更長的思考鏈換取更高的正確率。
在數學、代碼等相對封閉的問題中,這種方法幾乎是立竿見影的,模型不再只是「猜答案」,而是開始「做題」。這也是為什么,當年大模型都在卷「推理」。
但 DeepSeek R1 這類純推理模型暗含了一個前提:問題都是可以被「思考」出來的。也就是說,信息是相對完整的,目標是明確的,路徑是可以通過推導得到的。
![]()
圖片來源:DeepSeek
可現實世界并不是一張問卷。當任務從「解一道題」變成「把一件事做完」,信息不再完整,目標也不總是清晰,過程更不是一次推導就能結束的。AI 需要不斷嘗試、修正路徑,甚至在過程中重新理解問題本身。
就算是寫報告這種「案頭工作」,現實世界中也需要多輪的信息搜集、思考推理、工具調用和評估決策。這也是為什么,當 OpenClaw、Claude Code 以及更多這類產品出現后,很多人第一次意識到「會推理」,和「能干活」,其實是兩種能力。
它們的關鍵變化,并不在模型本身,而在于引入了一整套圍繞執行過程的機制。
Harness 不負責思考本身,但決定了思考如何被組織。什么時候繼續推理,什么時候該去執行,失敗之后是回退還是換路徑。它把原本一次性的推理過程,拆成了一個可以反復運行的循環。Skill 則把各種能力變成了 AI 隨時能調用的模塊,明確的操作選項。模型需要做的,也不再是直接給出答案,而是選擇在什么時刻調用哪一種能力。
看起來只是流程上的變化,但帶來的結果卻是讓模型具備處理「不確定問題」的能力。所以同樣的大模型底座,放在不同的系統中,表現會有明顯差異。像 OpenClaw 或 Claude Code,在面對復雜任務時,并不是因為「更聰明」,而是因為它們可以不斷試錯、修正路徑、利用工具,直到把問題推進到一個可行的結果。
不過真正驅動這種變化的,核心還不是技術本身,而是需求。
![]()
比如調研小紅書,圖片來源:雷科技
當用戶第一次使用大模型時,期待的是一個能回答問題的工具。當推理能力提升之后,期待變成了「回答得更準確」。但到了今天,這種期待已經進一步轉變為「真正的代理」,直接作為「AI 同事」幫我們干活。
沒人會滿足于一個只會回答問題的 AI。寫代碼也好,查信息也好,處理任務也好,真正有價值的,從來不是「告訴我該怎么做」,而是「幫我做」。
在這樣的需求之下,大模型就不再只是一個推理機器,而必須成為一個可以參與執行的系統。也正因為如此,從推理式思考走向智能體式思考,甚至都談不上一次技術路線的選擇,而會是一種幾乎不可避免的遷移。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.