![]()
新智元報道
編輯:定慧
【新智元導讀】Clawdbot火爆全球,國產算力卻不能用?AI Agent迎來高光時刻:Ollama只支持CUDA,中國團隊直接把國產版開源了!正面硬剛Ollama,5分鐘讓國產芯片跑通OpenClaw!
最近幾天,整個AI圈都被一個名叫「Clawdbot」的智能體刷屏了。
這個7×24小時永不下班的「AI賈維斯」,讓全世界集體瘋魔。
一時間,OpenClaw成為全網熱詞(原Clawdbot)的倉庫更是漲到了夸張的13萬Stars!
![]()
全世界的開發者都沉浸在這場2026開年的「智能體」革命中!
但Clawdbot要想跑得順暢,會瘋狂消耗大模型服務的tokens,尤其是部署到Moltbook中的智能體,它們正在瘋狂發帖和評論。
這些tokens可都是錢啊!
網友們紛紛曬出巨額賬單,即使輕量使用一天往往也要消耗數十美元!
![]()
![]()
![]()
左右滑動查看
所以,很多極客和開發者開始用本地大模型提供服務。
比如用Ollama拉取一個本地模型,就完全免費了。
Ollama作為本地大模型部署的事實標準,通常只支持NVIDIA CUDA生態和MacBook等。
但問題來了,如果你手里有的是國產芯片和算力卡呢?
Ollama作為本地大模型部署的事實標準,通常只支持NVIDIA CUDA生態和MacBook等。
國產芯片用戶?在這場AI智能體狂歡中,往往面臨著更多的挑戰。
但這本不該如此。
在Clawdbot們引爆全球的當下,國產算力不應該缺席。
在全球開發者借助Ollama或云服務便捷地加入智能體浪潮時,國產芯片用戶卻往往需要花費更多精力在驅動和環境配置上。
在別人已經讓AI替自己干活的時候,我們還卡在「模型跑不起來」這一步。
國產芯片的架構差異與配置流程的復雜性,有時會讓想要支持國產算力卡的開發者感到困擾。
在AIAgent爆發式增長的今天,國產算力不能缺席這場狂歡。
今天,終于有人帶來了答案——玄武CLI,專為國產芯片打造的「國產版Ollama」。
5分鐘啟動模型服務,一行命令跑通大模型,讓國產芯片也能跑起7×24小時的AI員工。
2026年2月2日,玄武CLI正式開源!
![]()
GitHub:
https://github.com/TsingmaoAI/xw-cli
Gitcode:
https://gitcode.com/tsingmao/xw-cli
歡迎Star、Fork、提Issue、提PR,一起讓國產芯片跑模型這件事變得更簡單。
國產芯片跑模型:行路難,行路難
先來讓我們聊聊國產芯片用戶到底「有多難」。
架構碎片化+配置門檻高+問題無處求援+等等,這些問題往往勸退了很多想要支持國產算力卡的開發者。
華為昇騰CANN、沐曦MACA、摩爾線程MUSA...每家芯片都是獨立生態,互不兼容。
裝驅動、配環境、編譯源碼,一個模型折騰一周是常態。有位老哥吐槽:
不是不愛國,是真的裝不動了。
開發者的訴求很簡單:我不想當運維專家,我只想一行命令跑模型。
![]()
在這個AI Agent已經爆發增長的時候,如何讓我們的國產算力不缺席這場狂歡?
玄武CLI:國產芯片的Ollama時刻
針對這些痛點,清昴智能推出了玄武CLI——一個專為國產芯片打造的大模型部署工具。
如果要簡單一句話介紹玄武CLI,它就是國產版Ollama,專為國產算力而生。
如果你用過Ollama,5分鐘就能上手玄武。
如果你沒用過,10分鐘也夠了。
零門檻上手,1分鐘部署
玄武CLI的部署有多簡單?
解壓即運行。基于Docker極簡部署,告別繁瑣的環境配置。只要裝好基礎驅動和Docker,最快1分鐘啟動服務。
而對于32B參數量及以內的模型,模型啟動可以在30s內完成。

更爽的是,玄武CLI的命令集與Ollama高度一致:
xw serve # 啟動服務
xw pull # 下載模型
xw run # 運行模型
xw list # 查看模型列表
xw ps # 查看運行狀態
會用Ollama?那你已經會用玄武了,零學習成本遷移。
只需一句命令xw pull qwen3-32b,即可快速下載對應模型。
以前在國產算力卡上跑通模型非常麻煩,環境配置和代碼調試往往要占據不少時間。
有時候大家調侃說:「需要配環境3天,改代碼500行」。
但有了玄武CLI,只需要一行命令馬上運行。
與Clawdbot聯動,國產芯片也能玩AI智能體
回到開頭的問題:Clawdbot這么火,國產芯片用戶能玩嗎?
現在可以了。
玄武CLI可以作為Clawdbot等AI智能體的模型后端服務,提供低門檻的本地推理能力。
玄武CLI,再加上Clawdbot,就相當于是國產芯片用戶的AI賈維斯。
你的華為昇騰、沐曦、燧原...終于也能跑起7×24小時的AI員工了。
在這波AI智能體風暴中,國產算力不再缺席。

應用無縫替換,多引擎可供選擇
玄武CLI完全兼容OpenAI API標準。
意味著什么?你之前基于LangChain、LlamaIndex、或者各種IDE插件開發的應用,只需要改一行API地址,就能無縫切換到玄武CLI后端。
不需要重構應用棧,不需要改業務邏輯,換個URL就完事了。
![]()
這對企業用戶來說太友好了。現有的AI應用資產,可以直接復用。
多推理引擎深度適配優化,實現超強性能與超多模型覆蓋
玄武CLI不僅僅是一個工具,更是一個打通硬件與模型的「全能引擎中樞」。
通過自研的MLGuider推理引擎,徹底解決企業級部署中性能與兼容性的矛盾。同時,玄武CLI也支持芯片原生框架和社區廣泛使用的推理引擎,如昇騰原生MindIE、社區框架vLLM等,支持開發者針對多引擎進行性能最優選擇。
玄武CLI支持完全離線運行,無需聯網、不依賴云端。
對于對數據隱私敏感的企業用戶來說,這一點至關重要。所有的推理都在本地完成,模型權重不上云,推理數據不外傳。
國產原生適配,告別配置噩夢
最后,玄武CLI還藏了一個大招:自動識別芯片,智能匹配引擎。
華為昇騰全系列、沐曦...不管你用哪張卡,玄武CLI都能自動識別,并匹配最優的推理引擎。
無需查文檔,無需改參數,無需編譯源碼。
「架構碎片化」這個國產芯片最大的痛點,玄武CLI就用一個自動檢測功能,直接干掉了。

玄武集群版
千卡級國產智算底座
如果說玄武CLI解決的是單機部署問題,但對于智算中心、大型企業來說,還需要更強大的集群管理能力。
這就是玄武智算平臺(集群版)的用武之地:國產異構算力的統一管理中樞。
![]()
玄武集群版首要解決的是多芯異構,統一納管的難題,它打破了不同廠商芯片各自為戰的局面,將華為、寒武紀、昆侖芯、摩爾線程、沐曦、燧原等十余款國產芯片納入統一調度體系。
簡單說,這是一套從芯片到智能體的全棧解決方案。
![]()
不同廠商的芯片,以往需要各自獨立管理。
玄武集群版提供了統一的異構算力納管能力,一套平臺管理所有芯片。
在構建千P級大規模異構算力底座的同時,平臺通過全棧自動化技術實現了高穩定性與易運營,為企業提供了一個久經實戰考驗、性能極致的生產級智算中樞。
這才是「國產芯片生態」應該有的樣子——不是各自為戰,而是統一調度。
玄武集群版還實現了從技術底座到「運營平臺」的跨越。除了兼容多模型與多引擎,它還內置了完善的API管理和計量計費模塊,助力企業和智算中心像公有云廠商一樣,實現算力資源的對內精細管理與對外商業化運營。
這不只是一個工具,這是一場卡位戰
讓我們把視角拉高一點。
說實話,我很少會對一個底層工具感到如此興奮。
而最近的興奮,坦誠地講,幾乎都來自AI Agent。看著Clawdbot在屏幕上自動操作電腦,像擁有了生命一樣,我確實被震撼到了。
但震撼之余,更多的是焦慮和思考。
因為我知道,這種流暢的體驗目前主要集中在CUDA生態中。
比如Ollama這樣的工具,讓大模型在常見設備上的部署變得非常簡單。
而我們手中的國產顯卡,也同樣值得擁有這樣便捷的使用體驗,而不是因為生態差異而被擱置。
這不僅是產品的競爭,更是標準的競爭。
歷史無數次證明:生態的壁壘,遠比算力的壁壘更難攻破。
當開發者面對復雜的文檔與不兼容的驅動,難免會消磨熱情。
面對海外成熟的AI生態標準,國產算力也在努力追趕,逐步解決各家標準不一、兼容性挑戰等問題。
這正是我們要解決的關鍵問題。我們不缺硬算力,我們缺的是那個能把所有珍珠串起來的「線」。
而清昴,把這個進程,硬生生拽回了國產算力的軌道上。
并且直接選擇開源,造福所有被生態墻擋在門外的開發者。
玄武CLI的出現,不僅僅是多了一個工具。
它是讓AI從云端神壇,真正落地到每一塊國產芯片、每一臺國產服務器、每一個開發者手中的關鍵一步。
以前我們總說,國產算力缺生態。
現在,生態來了。
當玄武CLI跑通的那一刻,我仿佛看到了未來的樣子:
數以萬計的AI智能體,不再受限于它人的硬件,而是在我們自己的算力上,7×24小時地思考、執行、創造。
而那時,才是我心中,國產算力真正的AI時代。
玄武CLI,就是其中的一個答案。
如果你也認同這個方向,如果你也想參與這場變革,歡迎Star、Fork、提PR。
讓我們一起,用代碼改變AI算力格局。
github:
https://github.com/TsingmaoAI/xw-cli
gitcode:
https://gitcode.com/tsingmao/xw-cli
以下為玄武CLI交流群,感興趣可以掃碼加入~
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.