Clawdbot火爆全球,国产算力却不能用?AI Agent迎来高光时刻:Ollama只支持CUDA,中国团队直接把国产版开源了!正面硬刚Ollama,5分钟让国产芯片跑通OpenClaw!

最近几天,整个AI圈都被一个名叫「Clawdbot」的智能体刷屏了。

这个7×24小时永不下班的「AI贾维斯」,让全世界集体疯魔。

一时间,OpenClaw成为全网热词(原Clawdbot)的仓库更是涨到了夸张的13万Stars!

全世界的开发者都沉浸在这场2026开年的「智能体」革命中!

但Clawdbot要想跑得顺畅,会疯狂消耗大模型服务的tokens,尤其是部署到Moltbook中的智能体,它们正在疯狂发帖和评论。

这些tokens可都是钱啊!

网友们纷纷晒出巨额账单,即使轻量使用一天往往也要消耗数十美元!

所以,很多极客和开发者开始用本地大模型提供服务。 

比如用Ollama拉取一个本地模型,就完全免费了。 

Ollama作为本地大模型部署的事实标准,通常只支持NVIDIA CUDA生态和MacBook等。 

但问题来了,如果你手里有的是国产芯片和算力卡呢?

Ollama作为本地大模型部署的事实标准,通常只支持NVIDIA CUDA生态和MacBook等。

国产芯片用户?在这场AI智能体狂欢中,往往面临着更多的挑战。

但这本不该如此。

在Clawdbot们引爆全球的当下,国产算力不应该缺席。

在全球开发者借助Ollama或云服务便捷地加入智能体浪潮时,国产芯片用户却往往需要花费更多精力在驱动和环境配置上。

在别人已经让AI替自己干活的时候,我们还卡在「模型跑不起来」这一步。

国产芯片的架构差异与配置流程的复杂性,有时会让想要支持国产算力卡的开发者感到困扰。

在AI Agent爆发式增长的今天,国产算力不能缺席这场狂欢。

今天,终于有人带来了答案——玄武CLI,专为国产芯片打造的「国产版Ollama」。

5分钟启动模型服务,一行命令跑通大模型,让国产芯片也能跑起7×24小时的AI员工。

2026年2月2日,玄武CLI正式开源!

GitHub:

https://github.com/TsingmaoAI/xw-cli

Gitcode:

https://gitcode.com/tsingmao/xw-cli

欢迎Star、Fork、提Issue、提PR,一起让国产芯片跑模型这件事变得更简单。

国产芯片跑模型:行路难,行路难

先来让我们聊聊国产芯片用户到底「有多难」。

架构碎片化+配置门槛高+问题无处求援+等等,这些问题往往劝退了很多想要支持国产算力卡的开发者。

华为昇腾CANN、沐曦MACA、摩尔线程MUSA...每家芯片都是独立生态,互不兼容。

装驱动、配环境、编译源码,一个模型折腾一周是常态。有位老哥吐槽:

不是不爱国,是真的装不动了。

开发者的诉求很简单:我不想当运维专家,我只想一行命令跑模型。

在这个AI Agent已经爆发增长的时候,如何让我们的国产算力不缺席这场狂欢?

玄武CLI:国产芯片的Ollama时刻

针对这些痛点,清昴智能推出了玄武CLI——一个专为国产芯片打造的大模型部署工具。

如果要简单一句话介绍玄武CLI,它就是国产版Ollama,专为国产算力而生

如果你用过Ollama,5分钟就能上手玄武。

如果你没用过,10分钟也够了。

零门槛上手,1分钟部署

玄武CLI的部署有多简单?

解压即运行。 基于Docker极简部署,告别繁琐的环境配置。只要装好基础驱动和Docker,最快1分钟启动服务。

而对于32B参数量及以内的模型,模型启动可以在30s内完成。

更爽的是,玄武CLI的命令集与Ollama高度一致

xw serve       # 启动服务

xw pull         # 下载模型

xw run         # 运行模型

xw list         # 查看模型列表

xw ps          # 查看运行状态

会用Ollama?那你已经会用玄武了,零学习成本迁移。

只需一句命令xw pull qwen3-32b,即可快速下载对应模型。

以前在国产算力卡上跑通模型非常麻烦,环境配置和代码调试往往要占据不少时间。

有时候大家调侃说:「需要配环境3天,改代码500行」。

但有了玄武CLI,只需要一行命令马上运行。

与Clawdbot联动,国产芯片也能玩AI智能体

回到开头的问题:Clawdbot这么火,国产芯片用户能玩吗?

现在可以了。

玄武CLI可以作为Clawdbot等AI智能体的模型后端服务,提供低门槛的本地推理能力。

玄武CLI,再加上Clawdbot,就相当于是国产芯片用户的AI贾维斯。

你的华为昇腾、沐曦、燧原...终于也能跑起7×24小时的AI员工了。

在这波AI智能体风暴中,国产算力不再缺席。

应用无缝替换,多引擎可供选择

玄武CLI完全兼容OpenAI API标准。

意味着什么?你之前基于LangChain、LlamaIndex、或者各种IDE插件开发的应用,只需要改一行API地址,就能无缝切换到玄武CLI后端。

不需要重构应用栈,不需要改业务逻辑,换个URL就完事了。

这对企业用户来说太友好了。现有的AI应用资产,可以直接复用。

多推理引擎深度适配优化,实现超强性能与超多模型覆盖

玄武CLI不仅仅是一个工具,更是一个打通硬件与模型的「全能引擎中枢」。

通过自研的MLGuider推理引擎,彻底解决企业级部署中性能与兼容性的矛盾。同时,玄武CLI也支持芯片原生框架和社区广泛使用的推理引擎,如昇腾原生MindIE、社区框架vLLM等,支持开发者针对多引擎进行性能最优选择。

玄武CLI支持完全离线运行,无需联网、不依赖云端。

对于对数据隐私敏感的企业用户来说,这一点至关重要。所有的推理都在本地完成,模型权重不上云,推理数据不外传。

国产原生适配,告别配置噩梦

最后,玄武CLI还藏了一个大招:自动识别芯片,智能匹配引擎。

华为昇腾全系列、沐曦...不管你用哪张卡,玄武CLI都能自动识别,并匹配最优的推理引擎。

无需查文档,无需改参数,无需编译源码。

「架构碎片化」这个国产芯片最大的痛点,玄武CLI就用一个自动检测功能,直接干掉了。

玄武集群版

千卡级国产智算底座

如果说玄武CLI解决的是单机部署问题,但对于智算中心、大型企业来说,还需要更强大的集群管理能力。

这就是玄武智算平台(集群版)的用武之地:国产异构算力的统一管理中枢。

玄武集群版首要解决的是多芯异构,统一纳管的难题,它打破了不同厂商芯片各自为战的局面,将华为、寒武纪、昆仑芯、摩尔线程、沐曦、燧原等十余款国产芯片纳入统一调度体系。

简单说,这是一套从芯片到智能体的全栈解决方案

不同厂商的芯片,以往需要各自独立管理。

玄武集群版提供了统一的异构算力纳管能力,一套平台管理所有芯片。

在构建千P级大规模异构算力底座的同时,平台通过全栈自动化技术实现了高稳定性与易运营,为企业提供了一个久经实战考验、性能极致的生产级智算中枢。

这才是「国产芯片生态」应该有的样子——不是各自为战,而是统一调度。

玄武集群版还实现了从技术底座到「运营平台」的跨越。除了兼容多模型与多引擎,它还内置了完善的API管理和计量计费模块,助力企业和智算中心像公有云厂商一样,实现算力资源的对内精细管理与对外商业化运营。

写在最后

这不只是一个工具,这是一场卡位战

让我们把视角拉高一点。

说实话,我很少会对一个底层工具感到如此兴奋。

而最近的兴奋,坦诚地讲,几乎都来自AI Agent。看着Clawdbot在屏幕上自动操作电脑,像拥有了生命一样,我确实被震撼到了。

但震撼之余,更多的是焦虑和思考。

因为我知道,这种流畅的体验目前主要集中在CUDA生态中。

比如Ollama这样的工具,让大模型在常见设备上的部署变得非常简单。

而我们手中的国产显卡,也同样值得拥有这样便捷的使用体验,而不是因为生态差异而被搁置。

这不仅是产品的竞争,更是标准的竞争

历史无数次证明:生态的壁垒,远比算力的壁垒更难攻破。

当开发者面对复杂的文档与不兼容的驱动,难免会消磨热情。

面对海外成熟的AI生态标准,国产算力也在努力追赶,逐步解决各家标准不一、兼容性挑战等问题。

这正是我们要解决的关键问题。我们不缺硬算力,我们缺的是那个能把所有珍珠串起来的「线」。

而清昴,把这个进程,硬生生拽回了国产算力的轨道上。

并且直接选择开源,造福所有被生态墙挡在门外的开发者。

玄武CLI的出现,不仅仅是多了一个工具。

它是让AI从云端神坛,真正落地到每一块国产芯片、每一台国产服务器、每一个开发者手中的关键一步。

以前我们总说,国产算力缺生态。

现在,生态来了。

当玄武CLI跑通的那一刻,我仿佛看到了未来的样子:

数以万计的AI智能体,不再受限于它人的硬件,而是在我们自己的算力上,7×24小时地思考、执行、创造。

而那时,才是我心中,国产算力真正的AI时代。

玄武CLI,就是其中的一个答案。

如果你也认同这个方向,如果你也想参与这场变革,欢迎Star、Fork、提PR。

让我们一起,用代码改变AI算力格局。

github:

https://github.com/TsingmaoAI/xw-cli

gitcode:

https://gitcode.com/tsingmao/xw-cli

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐