henry 發自 凹非寺
量子位 | 公眾號 QbitAI
Clawdbot(現名為OpenClaw),現在火到什么程度呢?
不到一周,GitHub直沖12萬Star,“配件”Mac mini賣斷貨,阿里、騰訊火速接入,鏈接飛書的教程,滿天飛。
![]()
就連Anthropic都急得讓它改名,兩次
之所以這么火,不為別的。
就因為Clawdbot讓AI不再是一個普通的chatbot,而是一個7×24小時不摸魚的AI員工
你睡覺,它分析;你開會,它盯盤;你忙其它,它繼續干活。
而且只要手機上一條消息,它就能隨時響應,干好了還會主動call你。
當然了,Clawdbot也并非完美。
![]()
不少網友發現,一到真用起來的時候,錢包立馬遭不住了。
畢竟,它可能吭哧吭哧地轉了一整天,只解決了一個小問題,就已經悄悄卷走你幾百美金的Token費,主打一個不白干。
![]()
好在,這事兒也不是沒有辦法。
最近,GitHub上新開源了一個國產框架,叫玄武CLI
它可以讓你不用買Mac mini,也不用再為API花錢,直接在本地跑Clawdbot,而且還原生適配了價格更實惠的國產芯片。
這下,龍蝦(Clawdbot)
是真的“香”了。
玄武CLI:國產開源版Ollama
簡單來說,咱可以把玄武CLI理解成一個國產開源版的Ollama。
一方面,它把本地部署模型這件事,做成了“應用商店式”的體驗:
選模型、拉下來、直接用,不用糾結格式、路徑和一堆零碎配置。
另一方面,它把那些原本最容易勸退新手的活兒:
配環境、裝驅動、對架構、調參數、盯顯存、查文檔、寫服務接口,也都提前兜住了。
在使用上,玄武CLI的命令體系與Ollama高度一致:xw pull / run / list / stop,會用Ollama的基本就能無縫上手。
比如,只需要一行拉取(pull)命令:
xwpull qwen3-32b
玄武會自動完成模型下載、切分和加載。首次啟動后,模型即可快速響應,32B及以內模型基本都能在30秒內完成啟動。
接著再輸入:
xwrun qwen3-32b
就可以直接和模型對話了,不需要額外搭WebUI,也不用自己寫服務。
除此之外,像xw list / ps這些命令,也把本地模型管理順手解決了:裝了什么、跑著什么一眼就能看清,調試和運維都很省心。
![]()
有了這些,模型就不僅僅能在本地跑起來,還可以:
- 直接作為本地AI引擎,接入Clawdbot變成7×24小時在線執行器;
- 連到工作流(如Dify)、自動化腳本或內部系統,替代云端API做代碼、分析、批處理。
![]()
模型、算力和數據都在本地,不僅節省成本,也避免了Agent權限可能帶來的信息泄露風險,直接爽玩Clawdbot。
開源易上手,無縫兼容各類框架
玄武CLI自身的安裝和部署也非常簡單,并且完全開源
GitHub/GitCode一鍵安裝,解壓即用,支持Docker容器化部署,真正做到0成本入門
![]()
GitHub:https://github.com/TsingmaoAI/xw-cli
GitCode:https://gitcode.com/tsingmao/xw-cli
在安裝層面,玄武CLI不用配復雜環境:無需手動處理依賴,下載解壓就能運行。
玄武CLI僅依賴基礎驅動即可實現硬件的識別與探測,通過預編譯推理引擎極簡啟動,最快1分鐘就能啟動服務。
同時,玄武CLI原生支持多卡、多實例并行,每個模型實例互相隔離,即便某個實例出問題,也不會拖垮其他服務。這讓它具有更好的穩定性和可擴展性。
在應用接入層,玄武進一步把“替換成本”降到最低。
它原生兼容OpenAI API規范,像LangChain、LlamaIndex這類常見框架,甚至IDE插件場景,通常只需要改一行API地址,就能把原本的云端調用,切換成本地模型。
此外,在啟動和運行時,玄武會按需加載模型,并結合量化精度動態分配顯存和顯卡資源,避免長時間等待,同時充分利用本地硬件。
正因為這些特性,玄武CLI特別適合作為Clawdbot這類Agent的“本地發動機”,而且不僅限于Agent,各類開源大模型也都可以一行命令接入。
國產芯片原生適配
如果說前面講的,是讓本地跑模型簡單易上手,那真正讓玄武拉開差距的,是它對國產芯片的原生適配
像Ollama這種本地模型方案,體驗成熟,但底層基本還是圍著英偉達那套體系走,硬件成本自然高。
而玄武CLI則選擇了更親和、性價比更高的國產算力,讓本地跑模型變得可行且經濟。
過去國產芯片跑模型,常遇到配置復雜、性能波動、生態碎片化的問題,能跑但沒人敢用。
不同廠商使用不同驅動、算力接口和通信庫,文檔不完整、問題難復現,一旦遇到bug,很難通過搜索或社區快速解決。
與此同時,不同的應用也面臨異構芯片適配難題:即便模型能跑,不同項目、不同框架在不同芯片上部署,也可能完全不同,增加了開發成本和不確定性。
面對這一困局,玄武CLI并沒有選擇“寫一套更詳細的教程”,而是直接在框架層“吞掉”了復雜度。
它將所有硬件差異封裝在最底層,向上構建了一個統一的算力資源池。
無論底下插的是什么卡,玄武都能自動識別芯片類型,結合模型規模與顯存狀況,自動匹配最合適的推理引擎,并在多卡、多實例場景下實現智能調度。
這種“黑盒化”處理,徹底解決了模型啟動卡死、服務不穩定的問題。
而支撐這一能力的底座,正是玄武CLI分層設計的系統架構:
![]()
最上層,是開發者熟悉的命令行和標準API,中間層負責模型調度、資源管理和生命周期控制。
而關鍵能力集中在推理引擎這一層。
在這一層,玄武采用的是多引擎并行架構:既有側重深度優化的自研引擎MLGuider,也支持華為原生的MindIE,同時兼容遵循社區標準的vLLM,并配套了進程隔離(IPC)和自動路由策略。
這種多引擎并行架構,保證了無論用什么卡、跑什么模型,都能找到最優解。
徹底抹平了不同國產芯片之間的底層技術差異,讓開發者無需關注硬件細節,就能實現跨芯片的模型部署。
再結合離線可用、不依賴云端的特性,玄武CLI實際上是在國產算力環境中,補齊了一塊長期缺失的基礎設施,讓模型部署變得輕松可控。
清昴智能是誰?
最后,讓我們介紹一下玄武CLI背后的清昴智能
清昴智能成立于2022年,核心聚焦芯片適配,以及模型—框架—算子的聯合優化。
創始人兼CEO關超宇是清華特獎最年輕的獲得者。
成立三年以來,清昴智能已獲得華為哈勃戰略投資及多家國內一線基金的億元級支持。
在技術上,清昴走的是端到端的系統級優化路線:以自研異構推理引擎MLGuider為起點,向下協同硬件設計,向上支撐玄武智算平臺與Agentic AI平臺,實現從硬件協同到算子、框架、模型再到智能體的全棧優化。
在落地上,清昴曾推出多種國產一體機方案,達成穩定16+TPS的高性能吞吐表現。
目前MLGuider已完成15+主流芯片適配,在滿足預期推理效果下,可有多種國產方案進行最優選擇。
比如支持Qwen 80B方案,通過玄武CLI可支持華為華為300I Duo,300I A2等多種性價比方案。
![]()
這次新開源的玄武CLI,也延續了清昴對開源共建的長期判斷:讓開發者和企業不用花大價錢,也能真正用上國產算力和好用的本地AI工具。
面向未來多智能體、多模態協作的趨勢,清昴提前布局Agentic AI平臺,為“每個公司擁有N個數字員工”的時代,打好最底層、也最關鍵的地基。
而Clawdbot,只是其中一個輕量級嘗試——
你今天就能把它拉起來,讓自己的電腦變成一個“數字員工”,提前感受未來智能體時代的雛形。
體驗鏈接:
GitHub:https://github.com/TsingmaoAI/xw-cli
GitCode:https://gitcode.com/tsingmao/xw-cli
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.