![]()
不知道大家有沒有發現,這個周末以來,幾乎所有人都在“養龍蝦”,都變成了“養蝦人”。這里的龍蝦不是別的,是今年爆火的AI助手——OpenClaw。早在今年一月份,OpenClaw就火爆出圈,成為歷史上增長最快的開源項目之一。如今,隨著國內大模型廠商、互聯網巨頭的不斷跟進,OpenClaw一時間成為最火的話題,熱度堪比當初的DeepSeek。那么OpenClaw究竟有什么用?普通用戶又該如何安裝、部署它呢?
01
OpenClaw是什么?
簡單來講,OpenClaw是一款在本地或自托管環境運行的開源AI助手,它是一款自主智能體,可以通過大模型執行任務,主要的用戶界面是社交聊天平臺。OpenClaw可以部署在macOS、Windows或者Linux平臺,接入大模型之后,用戶可以通過WhatsApp、Telegram、Slack、Discord、iMessage、Signal、飛書和QQ等社交工具與它交互、對話。
![]()
OpenClaw除了能夠像大模型那樣回答問題,它還可以執行Shell指令、控制你的瀏覽器、讀取或者寫入文件、管理你的日程,甚至發送電子郵件、打開特定的應用程序等,這些都由你與OpenClaw溝通時所發的文字消息觸發。
![]()
總體來講,如果你在安裝OpenClaw的設備上給它足夠的權限,那么它可以在你的指示下像人類一樣操控電腦。正因如此,OpenClaw才被稱為真正的“賈維斯”。另一方面,也正因如此,OpenClaw團隊才會在大家安裝OpenClaw的時候彈出安全風險提醒。眾多開發者也建議用戶將其安裝在備用PC上體驗,并時刻注意安全風險。
OpenClaw的火爆已經對現實世界產生了實際影響。首先,安裝和部署OpenClaw需要PC設備或者云服務器,它的火爆直接促進了PC設備、云服務器銷量的上升。另外,OpenClaw目前已經在國內成為現象級風暴,前有騰訊免費幫用戶安裝OpenClaw,后有各地政策明確支持“養龍蝦”。
![]()
現在,包括字節跳動、騰訊、華為、小米、阿里巴巴、百度、智譜、MiniMax和360在內的國內互聯網大廠和大模型廠商都在積極跟進OpenClaw,并推出對應的配套產品。因為OpenClaw本身只是一個工具,需要給它裝上大模型的“腦袋”才能用,而且它的技能又非常多,它非常聰明,所以在這樣的背景下,普遍認為OpenClaw會徹底釋放國內算力需求,將國內的AI體驗帶到新的高度。
02
如何安裝OpenClaw?
OpenClaw是一個AI助手工具,它并不是一個應用程序,所以目前來說安裝它會有點麻煩,特別是如果你不懂命令行的話。不過只要你準備好所有前置條件,安裝OpenClaw還是非常簡單,更難的或許是你準備用它來做什么。
系統要求
macOS / Linux / Windows(必須用WSL2)
Node.js v22或更高版本
一個大模型API密鑰
一個聊天平臺的賬號(QQ、飛書等)
首先來看看安裝OpenClaw的系統要求。OpenClaw是一個工具,它可以安裝在macOS、Linux和Windows系統上,它本身有點像是一個可以幫你做事情的網關,需要外接AI大模型來給他裝“大腦”,所以如果你只是安裝OpenClaw,而不是在本地部署大模型的話,那么它對硬件的要求并不高,主流的筆記本電腦都能安裝它。在它的系統要求里,最難的其實是找到合適的大模型API密鑰。
OpenClaw需要通過API密鑰來外接大模型使用,在這一步你就需要思考用哪家大模型公司的API,而且需要注意的是,大多數API密鑰都要收費,有的是按API的調用次數收費,有的則是按消耗的Token數量收費。
還有一種免費的方式,就是讓OpenClaw接入本地部署的大模型API,這樣在使用時完全不用花錢,Token自然也是無限量的。當前免費本地部署大模型主要有三種選項,而綜合考慮價格和性能的話,搭載AMD銳龍AI Max+ 300系列平臺的Mini AI工作站或者筆記本無疑是最佳選擇。我們就基于AMD銳龍AI Max+ 395處理器的系統來進行部署。
最后還得準備一個聊天平臺的賬號,這主要是為了在使用OpenClaw時方便我們與它交互,雖然我們可以在Web網頁中與之交互,但是論便捷性還是聊天平臺更方便。更重要的是,目前QQ已經正式接入OpenClaw,大家再也不用費力地接入飛書或者國外聊天平臺了。
了解了前置條件之后,接下來我們教大家在搭載銳龍AI Max+ 395處理器的Windows平臺部署本地大模型并安裝OpenClaw。
1.下載安裝Node.js
https://nodejs.org/zh-cn/download
![]()
首先需要打開瀏覽器,進入Node.js官網下載安裝最新版Node.js。安裝它比較簡單,傻瓜式地點擊下一步即可,需要注意的是,在自定義設置時,一定要確保“Add to PATH”這個選項是被勾選的(或者顯示為“Will be installed on local hard drive”)。
安裝好之后可以驗證一下,同時按住Windows鍵和R鍵,彈出“運行”對話框,輸入“Powershell”之后回車,在PowerShell窗口中輸入“node -v”,如果看到v22.x.x 或更高的版本號,那就說明Node.js已經安裝成功。
2.下載安裝Git
https://git-scm.com/install/windows
![]()
Git是一款免費開源的分布式版本控制系統,用于追蹤代碼文件的修改歷史、支持多人協作開發,且既可以通過命令行也可以通過圖形界面操作。我們需要用它來拉取OpenClaw的遠程代碼。安裝過程非常簡單,默認設置下一直點下一步就行。
3.進入OpenClaw官網復制一鍵安裝命令
https://openclaw.ai/
![]()
OpenClaw提供三種安裝方式:一鍵腳本安裝(推薦新手)、npm全局安裝(推薦普通用戶)和源碼安裝(推薦開發者)。我們以Windows一鍵腳本安裝方式為例,教大家安裝OpenClaw。
![]()
我們選擇CMD命令行的方式來安裝:在Windows搜索欄輸入CMD,選擇以管理員身份運行“命令提示符”。然后在命令提示符中輸入以下安裝命令并回車。
curl -fsSL https://openclaw.ai/install.cmd -o install.cmd && install.cmd && del install.cmd
![]()
系統會自動檢測和安裝所需的軟件,如果沒有問題,將進入OpenClaw的初始界面。
![]()
選擇快速開始
![]()
接下來選擇大模型提供商。OpenClaw支持OpenAI、谷歌、MiniMax、智譜、千問、月之暗面、小米、Anthropic和xAI等多家大模型產品,同時也支持接入本地模型。為了盡可能保護隱私數據,同時也能免費獲得海量token的AI算力,我們在這里直接教大家接入本地大模型。
![]()
![]()
在進行下一步之前,我們可以暫停安裝OpenClaw,轉而在PC上先把本地大模型部署好。在AMD銳龍AI Max+ 395迷你AI工作站上,我們通過LM Studio在本地服務中部署了一個qwen3-30b-a3b模型,同時在設置中開啟本地服務的API密鑰。我們需要記下這些API密鑰和LM Studio的地址和端口,即http://127.0.0.1:1234。同時還要記住API模型的名字:qwen3-30b-a3b。
![]()
接下來在OpenClaw初始頁面中選擇vLLM本地大模型服務,填寫LM Studio的本地服務地址(http://127.0.0.1:1234/v1)、大模型名稱以及API密鑰即可。
![]()
接下來需要設置OpenClaw交互的聊天工具,可以看到初始頁面中只有飛書,如果大家嫌麻煩,這一步可以先跳過。
![]()
接下來設置OpenClaw的搜索服務商,它只支持Kimi、Grok、Gemini、Brave和Perplexity。這一步我們也可以先跳過。
![]()
選擇是否安裝skills,暫時先跳過。
![]()
Hooks提供了一個可擴展的事件驅動系統,用于響應智能體命令和事件自動執行操作。在這里,我們可以選擇先跳過。
![]()
最后一步,選擇交互方式。因為前面沒有配置任何聊天工具,所以在這里我們選擇以Web UI的方式與OpenClaw交互。選擇之后,瀏覽器會自動跳出一個本地網頁,我們可以在本地網頁中修改OpenClaw的配置或者與之交互。
![]()
在本地網頁的聊天窗口中,如果OpenClaw可以回答你的問題,那么我們此次最基礎的安裝工作就結束了,現在你可以正常使用OpenClaw。不過新版OpenClaw在安全方面做了更多工作,初始安裝的默認設置下,它只能聊天,無法操作電腦。我們還需要進一步修改設置。
![]()
在本地網頁的配置頁面,點擊“Raw”修改OpenClaw的配置,將“tools”對應的“profile”改為“full”即可解鎖OpenClaw的能力。需要說明的是,在“full”設置下,OpenClaw將解鎖完全的權限,如果你是新手或者在主力PC上安裝OpenClaw,不建議如此操作。總之,請時刻留意數據安全。
03
將OpenClaw接入QQ
用聊天軟件與OpenClaw交互是最便捷的渠道,不過OpenClaw最開始火爆的時候,只支持幾個國外聊天平臺,連飛書都不支持。后來“民間大神”開發出了接入飛書的插件,不過需要用戶自行創建飛書機器人并進行一系列配置,稍顯麻煩。而那個時候,微信和QQ等主流工具還完全不支持接入OpenClaw。
![]()
就在最近,隨著OpenClaw在國內的火爆,騰訊及時跟進,官方推出了可以接入OpenClaw的QQ機器人。大家只需要在以下網站掃碼注冊即可使用。
https://q.qq.com/qqbot/openclaw/login.html
![]()
注冊開通QQ機器人之后,我們能看到自己的機器人接入密鑰,以及接入OpenClaw的命令行。在安裝OpenClaw的PC上打開CMD命令提示行,依次輸入安裝QQ機器人的命令行即可完成配置。
![]()
配置好之后,我們在QQ中即可與OpenClaw交互,非常便捷。
04
裝好OpenClaw之后能做什么?
OpenClaw真正厲害的地方在于它的技能系統(Skills)。Skills是預制的能力包,安裝一個Skill,OpenClaw就多學會一項新技能,它甚至能變成各種領域的專家。目前OpenClaw的技能市場ClawHub有超過10000個技能,覆蓋各種場景。通過安裝這些Skills,你可以讓它學會瀏覽網頁、定時執行任務、對接外部API或者控制智能家居等。
![]()
OpenClaw也內置了不少Skills,包括瀏覽器控制、定時任務等。比如我們在AMD銳龍AI Max+ 395迷你AI工作站上通過本地大模型接入OpenClaw,然后讓OpenClaw打開京東查詢銳龍AI Max+ 395迷你AI工作站的價格,它在一番“思考”過后真的會打開PC上的瀏覽器,自動進入京東官網去搜索關鍵字,最后呈現出我要的結果。
![]()
再比如,讓OpenClaw打開百度搜索“OpenClaw”,它也能馬上做到。
![]()
甚至,我們讓OpenClaw自行搜索有關銳龍7 H 260處理器的相關信息之后,讓它將搜集整理的信息保存在PC桌面的TXT文檔中,OpenClaw很快就完成了任務。
05
使用本地大模型的好處
本次教程我們主要聚焦于用本地大模型接入OpenClaw,因為OpenClaw非常“吃”Token,如果使用云端大模型的API——這些API大多數都是收費的——按照OpenClaw的計費標準,輸入是5美元/百萬token,輸出是25美元/百萬token。這對于長時間運行、超長上下文、頻繁調用工具及Skills的OpenClaw來說,成本會隨著任務復雜度迅速累積。超高的費用,這不是一般的初創團隊、中小企業和普通人能承受的。所以長期使用本地大模型,反而更有優勢。
此外,用本地模型替代云端模型之后,整個智能體的鏈路不再每次調用都支付雙向的API費用,只需要一次性的硬件投入就能讓高頻自動化任務不再“燒Token”和“燒錢”。畢竟在本地部署各種開源大模型之后接入OpenClaw,Token數量是無限而且免費的。
另外,使用云端大模型還有隱私和安全方面的重大隱患。我們知道OpenClaw允許智能體在本機執行Shell、讀寫文件或者調用腳本,一旦通過云端大模型做“思考”和決策,攻擊者就可以通過提示詞注入或惡意數據,遠程誘導大模型下指令,讓OpenClaw在你的電腦上執行危險操作。
![]()
此外,為了讓云端大模型“理解上下文”,OpenClaw可能還會把聊天記錄、文件片段甚至密碼提示、聊天歷史等內容打包發給外部模型服務,這些內容一旦進入云端就受制于對方的隱私策略、日志策略和潛在的數據濫用風險。
特別是對企業用戶來講,當OpenClaw搭配Ollama、LM Studio在本地通過GPU跑模型時,推理全過程(理解指令、讀取文件和生成結果)都在本機完成,提示詞、文檔和中間產物不會發往云端API,這對財務報表、法律文書和客戶數據等敏感場景非常關鍵。
06
OpenClaw的最佳硬件拍檔
AMD銳龍AI Max+ 395平臺
本地模型對于OpenClaw而言很有優勢,那么目前最適合在本地部署大模型的平臺是什么呢?答案是AMD銳龍AI Max+ 395平臺。
![]()
AMD銳龍AI Max+ 395處理器采用“CPU+IGPU+NPU”異構架構,集成16大核心Zen 5 CPU、RDNA 3.5圖形單元及高達50 TOPS算力的NPU,更是通過UMA統一內存架構支持最高128GB內存,其中96GB可專用于顯存。這徹底解決了本地大模型運行中的“顯存焦慮”,使得其能夠在本地流暢運行千億參數規模的模型。
![]()
自正式發布以來,AMD銳龍AI Max+ 395處理器憑借強大的性能表現和出色的大模型部署表現,開辟出全新的迷你AI工作站細分市場。更重要的是,目前基于AMD銳龍AI Max+ 395處理器的迷你AI工作站產品已經進入千行百業,為用戶帶來領先的AI體驗。
![]()
更重要的是,AMD銳龍AI Max+ 395迷你AI工作站非常適合用來部署本地大模型。根據我們以往的測試成績,該平臺能夠暢跑70B稠密大模型(推理速度達到5.84 tokens/s),對于120B的MoE大模型,它的推理速度更是高達48.05 tokens/s,應對80B、30B等主流的MoE模型幾乎是小菜一碟。
另外,由于AMD銳龍AI Max+ 395平臺最高支持128GB內存,最高可分配96GB空間作為顯存,因此它在部署大模型時具備相當充裕的硬件空間。我們在64GB顯存的設置下嘗試同時部署三個大模型:兩個30B MoE大模型和一個14B稠密大模型。部署這三個大模型之后,系統只占用了大約50GB顯存,剩下的硬件空間還比較充裕。
![]()
對OpenClaw用戶來講,將OpenClaw接入AMD銳龍AI Max+ 395平臺部署的本地大模型之后,在使用OpenClaw的過程中可以同時接入多個模型同步調用,或者隨時切換各種所需的大模型,若是換成其他Windows 11的獨顯平臺,非但無法部署規模超大的模型(要知道臺式機獨顯RTX 5090也僅有32GB顯存),就算勉強部署,硬件空間也非常吃緊,需要不斷加載和卸載……無法同時對比調用更談不上提升效率。
更進階的玩法是,將AMD銳龍AI Max+ 395迷你AI工作站視作本地大模型API中心,在局域網的其他設備上部署OpenClaw,然后遠程接入使用AMD銳龍AI Max+ 395迷你AI工作站提供的本地大模型,這對初創團隊、中小企業來講是更符合實際的選擇。
在費用層面,AMD銳龍AI Max+ 395平臺的優勢也很明顯。就像OpenClaw創始人所說的MiniMax模型,可以用兩臺銳龍AI Max+ 395迷你AI工作站串聯運行(有些帶跳線支持一鍵啟動組件集群),這相較于頂配的Mac Studio,兩臺銳龍AI Max+ 395設備的購買價格更低。
OpenClaw
![]()
高效賦能安全護航
07
總結
總之,OpenClaw本身很有特色,功能強大,它代表著AI向前發展的下一個范式。如果你不打算花錢使用云端模型API,又或者你所在的企業、團隊因為各種安全和合規原因希望在本地使用OpenClaw,那么完全可以嘗試通過本地大模型來接入OpenClaw。而本地大模型部署方面,我們尤其推薦你使用銳龍AI Max+ 395平臺,該平臺真的性能強大,顯存超模,可玩性高。
最后,希望本期的OpenClaw安裝教程能夠幫助大家體驗到OpenClaw的魅力。無論你有沒有技術基礎,只要你想體驗,立刻動手往往是最好的開始。當然,如果你正在使用Windows以外的平臺,也可以參考本次教程來安裝OpenClaw。
友情提示
MCer請注意,由于微信公眾號調整了推薦機制,如果你發現最近很難刷到Microcomputer(微型計算機)公眾賬號推送的文章,但是又不想錯過微機的精彩評測內容,可以動動小手指把Microcomputer設置成星標公眾賬號哦!
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.