這是蒼何的第 493 篇原創(chuàng)!
大家好,我是蒼何。
OpenClaw,這個(gè) GitHub 上 18 萬(wàn) Star 的怪物級(jí)開(kāi)源項(xiàng)目,你們應(yīng)該都聽(tīng)過(guò)了吧?
![]()
飛書(shū)能接、釘釘能接、企業(yè)微信能接、QQ 能接、Discord 能接……
但偏偏最多人用的「微信個(gè)人號(hào)」,它不支持。
我翻遍了 GitHub、掘金、知乎,找到的方案要么是企業(yè)微信繞一圈,要么是用微信 Web 協(xié)議搞,動(dòng)不動(dòng)就封號(hào)。
說(shuō)實(shí)話(huà),這誰(shuí)頂?shù)米。?/p>
天天在微信上跟朋友聊天、在群里吹水,結(jié)果想接個(gè) OpenClaw 都這么費(fèi)勁?
麻了。
于是我決定自己干。
「爆肝 2 天,我把 OpenClaw 接入了微信個(gè)人號(hào),并且已經(jīng)開(kāi)源了。」
![]()
地址:https://github.com/freestylefly/openclaw-wechat
我給他命名為蒼何的狗腿子,和普通好友沒(méi)什么區(qū)別,但他卻是個(gè)能真正幫你干事的好友。
當(dāng)你隨便把一篇文章丟給他,OpenClaw 會(huì)幫你做總結(jié)。
![]()
并幫你存放于你的個(gè)人 Notion 知識(shí)庫(kù)中。
![]()
我現(xiàn)在看到好文章直接轉(zhuǎn)發(fā)給它,然后可以直接讓他去知識(shí)庫(kù)中幫我查找任何我想要的收藏。
![]()
說(shuō)實(shí)話(huà)比收藏夾好用一萬(wàn)倍。
我把這家伙拉進(jìn)群聊,還能隨時(shí)@總結(jié)上下文,群聊利器啊。
![]()
然后我可以指揮 OpenClaw 自動(dòng)搜集全網(wǎng)資訊,并直接匯總發(fā)我。
![]()
還可以進(jìn)行日程提醒,比如讓它提醒我 2 分鐘后喝水。
![]()
我甚至還在我的 OpenClaw 中裝了 18 歲的 AI 女友 Clawra,她有獨(dú)立人格和人設(shè),當(dāng)我問(wèn)她在干嘛時(shí),她會(huì)甩一張自拍給我。
![]()
當(dāng)然還有更多的場(chǎng)景待探索,但我發(fā)現(xiàn),在微信上用 OpenClaw 顯得非常的絲滑,因?yàn)槲颐刻煺娴碾x不開(kāi)微信。
這篇文章主要分享我開(kāi)發(fā)的歷程,代碼也上傳到了 GitHub,但由于時(shí)間有限以及防止技術(shù)被濫用,我做了一層代理處理,需要審核才可使用。
注意事項(xiàng)
建議先用小號(hào)測(cè)試,雖然 iPad 協(xié)議比 Web 協(xié)議穩(wěn)定得多,但畢竟是第三方接入,謹(jǐn)慎為上
不要用來(lái)搞群發(fā)、營(yíng)銷(xiāo)之類(lèi)的騷操作,騰訊的風(fēng)控不是吃素的
建議部署在有固定 IP 的服務(wù)器上,頻繁換 IP 容易觸發(fā)風(fēng)控
整個(gè)系統(tǒng)架構(gòu)如下:
![]()
全程我用的是 OpenRouter 上的神秘模型 Pony Alpha 配合 Claude Code,前幾天我也給大家分享了這個(gè)神秘模型。
![]()
今天也終于揭曉了謎底,確認(rèn)這個(gè)神秘模型就是智譜的 GLM 5 模型。
昨晚我發(fā)現(xiàn) GLM 5 也上線(xiàn)了 bigmodel,并直接切換,干了不少 token。
![]()
幾個(gè) agent 垮垮狂干,直接就干限額了:
![]()
果斷再開(kāi) Max 套餐,可以說(shuō)是大出血了:
![]()
關(guān)于 GLM 5,官方是這么說(shuō)的,「在全球權(quán)威的 Artificial Analysis 榜單中,GLM-5 位居全球第四、開(kāi)源第一」。我截了個(gè)圖:
![]()
從官方及各大媒體的報(bào)道來(lái)看,GLM 5 是面向復(fù)雜系統(tǒng)工程與長(zhǎng)程Agent任務(wù)的開(kāi)源基座模型。
這里我也會(huì)在本文的中間部分把我和 GLM 5 協(xié)作開(kāi)發(fā)的過(guò)程給分享出來(lái),看看這個(gè)模型在處理實(shí)際工程級(jí)項(xiàng)目中究竟能有幾斤幾兩。
先說(shuō)說(shuō) OpenClaw 是啥
如果你還不知道 OpenClaw,簡(jiǎn)單說(shuō)一下。
它原名叫 Clawdbot,是一個(gè)奧地利開(kāi)發(fā)者 Peter Steinberger 搞出來(lái)的開(kāi)源 AI Agent 項(xiàng)目。
![]()
后來(lái)因?yàn)楦?Anthropic 的商標(biāo)沖突,改名 Moltbot,又改名 OpenClaw。
名字換了三個(gè),但絲毫不影響它火到離譜。
「3 周時(shí)間,GitHub Star 從 0 干到 18 萬(wàn)+。」
這什么概念?React 花了 8 年才到 10 萬(wàn),Linux 花了 12 年,它 3 周就超了。
好家伙,這不是坐火箭,這是坐 SpaceX 星艦。
它的核心能力就一句話(huà):「讓 AI 不只是回答你問(wèn)題,而是真正替你干活。」
你跟它說(shuō)「幫我查一下明天的天氣,然后發(fā)到群里」,它就真的會(huì)去查、然后發(fā)。
不是那種假裝理解你然后輸出一坨文字的「AI 助手」,是真的有手有腳能操作的 Agent。
它支持接入各種大模型,Claude、GPT、DeepSeek 都行,還支持多 Agent 協(xié)作,搞一個(gè)虛擬開(kāi)發(fā)團(tuán)隊(duì)都不在話(huà)下。
我之前也寫(xiě)過(guò)幾篇關(guān)于OpenClaw 的文章,不了解的也可以先看看:
![]()
為啥微信這么難接?
講真的,這事不能怪 OpenClaw。
微信是出了名的「封閉生態(tài)」,個(gè)人號(hào)壓根沒(méi)有官方 Bot API。
你想搞自動(dòng)化,要么走企業(yè)微信(需要公司認(rèn)證),要么用第三方協(xié)議逆向(隨時(shí)封號(hào))。
之前社區(qū)有一些方案,比如用 wechatbot-webhook 基于微信 Web 協(xié)議來(lái)搞,Docker 一鍵部署倒是方便。
但問(wèn)題是:
「穩(wěn)定性堪憂(yōu)」,微信 Web 協(xié)議說(shuō)封就封
「功能受限」,很多高級(jí)功能用不了
「安全風(fēng)險(xiǎn)」,你的微信賬號(hào)等于裸奔
我試了幾個(gè),要么跑不起來(lái),要么跑起來(lái)半天就掉線(xiàn)。
說(shuō)白了,這些方案都是在微信的安全策略上「走鋼絲」。
我是怎么搞的
既然現(xiàn)有方案都不太行,那就自己擼一個(gè)。
我的思路是這樣的:
「不走微信 Web 協(xié)議,走 iPad 協(xié)議 + 消息中轉(zhuǎn)服務(wù)。」
核心架構(gòu)分三層:
「消息接收層」:基于 iPad 協(xié)議穩(wěn)定接收微信消息,比 Web 協(xié)議靠譜得多
「中轉(zhuǎn)網(wǎng)關(guān)層」:做消息格式轉(zhuǎn)換、會(huì)話(huà)管理、限流熔斷
「OpenClaw 對(duì)接層」:通過(guò) Webhook 把消息推給 OpenClaw Gateway,再把 AI 回復(fù)轉(zhuǎn)發(fā)回微信
整個(gè)架構(gòu)用 TypeScript 寫(xiě)的,跟 OpenClaw 原生技術(shù)棧一致。
畫(huà)了個(gè)架構(gòu)圖你們感受一下:
![]()
說(shuō)起來(lái)簡(jiǎn)單,但這畢竟是個(gè)系統(tǒng)工程——協(xié)議對(duì)接、消息隊(duì)列、網(wǎng)關(guān)路由、多模型調(diào)度,涉及的模塊還挺多的。
2 天能搞定,說(shuō)實(shí)話(huà),離不開(kāi)一個(gè)關(guān)鍵幫手:「GLM-5」。
為什么用 GLM-5?
可能有人會(huì)問(wèn),市面上 Coding 模型那么多,為啥選它?
不瞞你說(shuō),一開(kāi)始我也沒(méi)抱太大期望。主要是先跑的神秘模型 Pony Alpha。
但實(shí)際跑下來(lái),對(duì)于有些場(chǎng)景還行。
這個(gè)項(xiàng)目不是那種「一句 Prompt 搓個(gè)網(wǎng)頁(yè)」的活兒。
消息中轉(zhuǎn)網(wǎng)關(guān)要處理并發(fā)、去重、限流,OpenClaw 對(duì)接層要搞 Webhook 協(xié)議適配和會(huì)話(huà)狀態(tài)管理,還有各種邊界情況要兜底。
這是正兒八經(jīng)的「系統(tǒng)工程」,不是寫(xiě)個(gè)前端頁(yè)面的事。
現(xiàn)在大模型圈子其實(shí)有個(gè)很明顯的趨勢(shì):Opus 4.6、GPT Codex 5.3 這些頂級(jí)模型都在強(qiáng)調(diào)自己的 Agentic 能力,不再吹「一句話(huà)出活」了,而是卷誰(shuí)能扛住「長(zhǎng)任務(wù)、復(fù)雜系統(tǒng)開(kāi)發(fā)」。
GLM-5 剛好也走的這條路。
我這次開(kāi)發(fā)全程讓 GLM-5 跑 Agent 模式,把任務(wù)拆成多個(gè)子任務(wù),讓它自己規(guī)劃、自己執(zhí)行、自己調(diào)試。
![]()
遇到問(wèn)題,他能夠自己修,找出對(duì)比項(xiàng):
![]()
我的原始需求是要在 openclaw 中添加微信插件:
![]()
一開(kāi)始的版本,我覺(jué)得不夠合理,我就讓它重構(gòu)了一下,它能給出合理的架構(gòu)設(shè)計(jì):
![]()
我給的重構(gòu)指令及 rest 重構(gòu)的整體過(guò)程我也截了個(gè)圖:
![]()
大概花費(fèi)了 25 分鐘,解決了重構(gòu)的所有問(wèn)題:
![]()
整個(gè)過(guò)程我基本就是在旁邊看著,偶爾給點(diǎn)方向性的反饋。
而且 GLM-5 還有一點(diǎn)讓我挺舒服的——它是開(kāi)源的。
不過(guò)對(duì)于一些稍微深一些的 bug,GLM 5 也并非萬(wàn)能的,這個(gè)時(shí)候我會(huì)選擇讓它切換到 GPT-5.3-codex 和 Claude 4.6來(lái)解決。
好了不多說(shuō)了,接下來(lái)聊聊開(kāi)發(fā)過(guò)程中踩的坑,這才是重頭戲。
踩坑實(shí)錄 坑一:消息去重
微信的消息推送機(jī)制很迷,同一條消息有時(shí)候會(huì)推兩三次。
如果不做去重,AI 就會(huì)回復(fù)兩三遍,對(duì)面以為你是復(fù)讀機(jī)。
我的解決方案是讓 GLM 搞了一個(gè)基于消息 ID + 時(shí)間窗口的去重緩存,用 LRU 策略自動(dòng)淘汰過(guò)期記錄。
坑二:上下文管理
OpenClaw 的 Agent 是有記憶的,但微信的對(duì)話(huà)場(chǎng)景比較特殊。
群聊里一堆人說(shuō)話(huà),你不能把所有消息都當(dāng)作是給 AI 的指令。
所以我做了一個(gè)「@觸發(fā) + 私聊直連」的機(jī)制:
「私聊」:所有消息直接轉(zhuǎn)給 OpenClaw 處理
「群聊」:只有 @機(jī)器人 的消息才會(huì)觸發(fā) AI 回復(fù)
這樣就不會(huì)出現(xiàn) AI 在群里瘋狂刷屏的社死場(chǎng)面了。
坑三:回復(fù)速度
大模型的回復(fù)是有延遲的,特別是復(fù)雜問(wèn)題可能要想好幾秒。
但微信那邊,對(duì)面看你一直不回,以為你已讀不回呢。
我加了一個(gè)「思考中...」的狀態(tài)提示,AI 在生成回復(fù)的時(shí)候先發(fā)一個(gè)提示,生成完了再替換成正式回復(fù)。
用戶(hù)體驗(yàn)直接拉滿(mǎn)。
坑四:多模型切換
OpenClaw 支持多個(gè)大模型,但不同場(chǎng)景其實(shí)適合不同模型。
比如日常閑聊用 DeepSeek 就夠了,寫(xiě)代碼分析問(wèn)題上 Claude,省錢(qián)又高效。
我在中轉(zhuǎn)層做了一個(gè)簡(jiǎn)單的路由策略,根據(jù)消息內(nèi)容自動(dòng)選擇最合適的模型。
能干啥?
接入之后,你的微信就變成了一個(gè) AI 超級(jí)助手。
舉幾個(gè)我自己在用的場(chǎng)景:
「1. 智能群聊助手」
在技術(shù)群里 @機(jī)器人,直接問(wèn)代碼問(wèn)題,它會(huì)結(jié)合上下文給出解答。
再也不用忍受群里那些「百度一下」的回復(fù)了。
「2. 個(gè)人知識(shí)管家」
把文章、鏈接丟給它,它幫你總結(jié)歸納,還能存到你的知識(shí)庫(kù)里。
我現(xiàn)在看到好文章直接轉(zhuǎn)發(fā)給它,比收藏夾好用一萬(wàn)倍。
「3. 日程提醒」
跟它說(shuō)「明天下午 3 點(diǎn)提醒我開(kāi)會(huì)」,到點(diǎn)它就會(huì)在微信上戳你。
比手機(jī)自帶的提醒好用,因?yàn)槟阋欢〞?huì)看微信。
「4. 自動(dòng)回復(fù)」
設(shè)置好規(guī)則,一些常見(jiàn)問(wèn)題它自動(dòng)回復(fù)。
比如有人加你好友問(wèn)「在嗎」,它直接回「在的,有什么事嗎?」
再也不用被「在嗎」兩個(gè)字煩死了。
怎么用?
項(xiàng)目已經(jīng)開(kāi)源,可以自己部署。
核心就三步:
「第一步:克隆項(xiàng)目」
git clone https://github.com/canghe/openclaw-wechat.gitcd openclaw-wechat
「第二步:配置環(huán)境變量」
出于安全考慮,這里的 apikey 是我代理服務(wù)做了一層,目前還在優(yōu)化中。
# Set API Key (required)openclaw config set channels.wechat.apiKey "wc_live_xxxxxxxxxxxxxxxx"# Set proxy URL (required)openclaw config set channels.wechat.proxyUrl "http://your-proxy-server:3000"# Set webhook host (required for cloud deployment)openclaw config set channels.wechat.webhookHost "your-server-ip"# Enable the channelopenclaw config set channels.wechat.enabled true
「第三步:openclaw 服務(wù)中添加 openclaw-wechat」
openclaw plugins install @canghe/openclaw-wechat這里需要等下,還沒(méi)來(lái)的及上到插件市場(chǎng)去,后面會(huì)上,可以先本地代碼的方式安裝。
然后用微信掃碼登錄,完事。
整個(gè)過(guò)程 5 分鐘搞定,不需要公司認(rèn)證,不需要企業(yè)微信,普通個(gè)人號(hào)直接用。
后續(xù)計(jì)劃
目前這個(gè)項(xiàng)目還在持續(xù)迭代,后面計(jì)劃加這些功能:
「語(yǔ)音消息支持」:目前只支持文字,后續(xù)會(huì)接入語(yǔ)音轉(zhuǎn)文字 + 文字轉(zhuǎn)語(yǔ)音
「圖片理解」:接入多模態(tài)模型,讓 AI 能看懂你發(fā)的圖片
「OpenClaw Skills 市場(chǎng)對(duì)接」:直接在微信里調(diào)用 OpenClaw 的 700+ 技能
「多賬號(hào)管理面板」:Web 端可視化管理多個(gè)微信號(hào)的接入
如果你有好的想法,歡迎來(lái) GitHub 上提 Issue 或者 PR。
說(shuō)實(shí)話(huà),OpenClaw 這波開(kāi)源 AI Agent 的浪潮,真的讓我看到了 AI 落地的另一種可能。
以前我們說(shuō) AI,總覺(jué)得是那種高高在上的東西,要么在實(shí)驗(yàn)室里,要么在大公司的服務(wù)器上。
但現(xiàn)在,你自己部署一個(gè) OpenClaw,接上微信,AI 就真的成了你口袋里的助手。
這種感覺(jué),說(shuō)不出的爽。
不過(guò)也要提醒一下,OpenClaw 的 Skills 生態(tài)最近爆出了一些安全問(wèn)題,有超過(guò) 230 個(gè)惡意插件被上傳到了社區(qū)。
所以大家在用 OpenClaw 的時(shí)候,「一定要注意只安裝可信來(lái)源的 Skills」,別什么都往上裝。
另外,我看智譜也出了 AutoGLM 版本的 OpenClaw,
支持官網(wǎng)一鍵完成 OpenClaw 與飛書(shū)機(jī)器人的一體化配置,幫助用戶(hù)從數(shù)小時(shí)縮短到幾分鐘,極速部署 OpenClaw。
![]()
好了,項(xiàng)目地址我放在原文鏈接了,感興趣的直接去 GitHub 上 Star 一下。
「如果你也在用 OpenClaw,或者對(duì)微信接入有什么想法,評(píng)論區(qū)聊聊!」
點(diǎn)個(gè)「贊」和「在看」,讓更多人看到這個(gè)項(xiàng)目
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶(hù)上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.