如果你最近在看 AI Agent 的落地场景,应该已经发现一个明显趋势:

大家不缺模型,缺的是“模型能不能真正调企业里的工具”。

现在这个问题有了更实际的答案。 企业微信已经支持 CLI 开源,把消息、日程、文档、智能表格、会议、待办、通讯录等核心能力,开放给主流 AI Agent 调用。

这意味着什么?

以前你的 AI 最多只能“回答问题”。 现在它可以进一步做到:

  • 帮你查通讯录成员
  • 发群消息、回单聊
  • 建待办、改待办状态
  • 拉会议、查会议详情
  • 读写文档、更新智能表格
  • 查日程、看闲忙、安排参与人

也就是说,AI 不再只是一个聊天窗口,而开始真正接进企业协作流。

但问题也随之来了:

模型接口怎么稳定接?渠道怎么切?要换 Claude / GPT / Gemini 难道每次都改代码?

这就是为什么我更推荐你把这套链路搭成:

企业微信 CLI Skill + OpenClaw + 88API

其中:

  • 企业微信 CLI Skill:负责把企业微信能力变成可调用工具
  • OpenClaw:负责本地统一网关,让你的 AI 请求都走同一个入口
  • 88API:负责提供 Claude / GPT / Gemini 等多模型能力,一个 Key 可统一切换,省掉反复改配置的麻烦

这样配完之后,你本地就有了一条很清晰的工作链路:

AI Agent / 客户端
        ↓
    OpenClaw 本地网关
        ↓
       88API
        ↓
 Claude / GPT / Gemini
        ↓
 企业微信 CLI Skills
        ↓
消息 / 日程 / 文档 / 待办 / 会议 / 通讯录

如果你想搭一个“既能思考、又能干活”的企业微信 Agent,这套组合是目前很值得上手的一条路。

企业微信现在支持哪些 skills

目前这套 CLI 能力,已经覆盖了大多数常见办公场景。为了方便理解,你可以按下面几组来看。

1. 消息与通讯录

  • wecom-msg:会话列表、消息记录、媒体下载、文本发送
  • wecom-contact-lookup:通讯录成员查询,支持按姓名或别名搜索

这组能力适合做通知发送、消息摘要、联系人检索、群聊辅助等场景。

2. 待办与日程

  • wecom-get-todo-list:待办列表查询,支持时间过滤和分页
  • wecom-get-todo-detail:待办详情批量查询
  • wecom-edit-todo:待办创建、更新、删除和状态变更
  • wecom-schedule:日程 CRUD、参与人管理、闲忙查询

如果你想做“帮我查今天待办”“帮我约个时间”“把这个任务推进到下一步”这类工作流,这组是核心。

3. 会议能力

  • wecom-meeting-create:创建预约会议
  • wecom-meeting-manage:取消会议、更新受邀成员
  • wecom-meeting-query:查询会议列表和详情

这组能力最接近真实助理场景,也是最容易做出演示效果的一类。

4. 文档与智能表格

  • wecom-doc-manager:文档创建、读取、编辑
  • wecom-smartsheet-schema:智能表格子表与字段管理
  • wecom-smartsheet-data:智能表格记录增删改查

如果你想让 AI 不只是“说”,还能够沉淀结果、写入数据、更新业务表格,这组能力非常重要。

5. 基础检查与增强能力

  • wecom-preflight:前置条件检查,确保权限与配置正确
  • wecom-send-media:发送本地文件
  • wecom-send-template-card:发送结构化模板卡片消息

这部分更像是把体验补齐,让整个 Agent 链路更稳定、更像真正的产品化能力。

为什么建议把企业微信 CLI 和 88API + OpenClaw 一起用?

因为真正落地的时候,你会遇到两个现实问题:

问题 1:模型渠道不稳定

Claude、GPT、Gemini 哪个更合适,不同任务不一样;同一个模型在不同中转站的稳定性也不一样。

问题 2:你不想每次换渠道都改代码

今天走这个 Base URL,明天换另一个 Key,再后天要切备用渠道。 如果每换一次都改配置、改环境变量、改客户端,整个体验会很碎。

所以更稳的做法不是“直连单一接口”,而是:

  • 88API 统一承接多模型
  • OpenClaw 做本地网关
  • 上层 Agent 统一只连本地地址
  • 企业微信能力通过 CLI Skill 暴露给 Agent 使用

这样你后面换渠道,通常只需要在配置层切,不用动业务层。


第一步:先用 88API 配好你的模型通道

本文用 88API 演示,原因很简单:

  • 支持 Claude / GPT / Gemini
  • 一个体系里就能切多模型
  • 适合本地网关统一转发
  • 对想快速搭 Agent 工具流的人来说,接入成本低

如果你已经有 88API Key,可以直接进入下一步。 如果还没有,先准备好下面两项:

  • API Base URLhttps://api.88api.shop
  • API Key:在 88API 控制台创建

后面 OpenClaw 会把这套能力接成本地统一入口。


第二步:安装 OpenClaw,做本地统一网关

OpenClaw 的价值,不只是“能代理请求”。

更关键的是: 它把上层 Agent / 客户端 和 下层模型渠道解耦了。

以后你只连本地地址,底下是 Claude 还是 GPT,是主渠道还是备用渠道,都可以在配置层调整。

1)检查 Node.js 环境

OpenClaw 基于 Node.js,先确认版本可用:

node -v
npm -v

通常 Node.js 18 及以上即可。

2)安装 OpenClaw

npm install -g openclaw@latest
openclaw --version

如果能正常输出版本号,说明安装成功。

3)执行初始化

openclaw onboard

按提示完成引导配置。 这里的核心目标不是“把所有选项都配复杂”,而是先把本地网关跑通。

如果你的配置流程支持填写模型服务地址和密钥,就填入:

  • Base URLhttps://api.88api.shop
  • API Key:你的 88API Key

如果你的当前流程是通过上层供应商管理工具纳管渠道,也一样把 88API 作为默认供应商加入即可。

4)启动本地 Gateway

openclaw gateway --port 18789

启动后,本地网关地址就是:

<http://127.0.0.1:18789/v1>

这一步完成后,你的模型请求就不用再直接对接外部渠道了,统一走本地入口即可。


第三步:验证 88API + OpenClaw 这条链路已经打通

你可以直接用 OpenAI 兼容 SDK 做一次快速测试。

例如 Python:

from openai import OpenAI

client = OpenAI(
    api_key="your-88api-key",
    base_url="<http://127.0.0.1:18789/v1>"
)

response = client.chat.completions.create(
    model="claude-opus-4-6",
    messages=[
        {"role": "user", "content": "你好,请介绍一下你自己。"}
    ]
)

print(response.choices[0].message.content)

如果能正常返回内容,说明这一段已经跑通:

你的客户端 → OpenClaw → 88API → 模型

这一步很重要。 先把模型链路打通,再接企业微信 Skill,排错会轻松很多。


第四步:安装企业微信 CLI 和 Skill

接下来,把“会思考”的模型,接到“会执行”的企业微信工具上。

1)准备企业微信机器人凭证

根据企业微信官方指引,你需要先创建一个支持 CLI 的机器人:

  1. 登录企业微信
  2. 进入工作台
  3. 找到「智能机器人」
  4. 选择「手动创建」
  5. 创建时选择 API 模式
  6. 连接方式选择 使用长连接
  7. 保存生成的 Bot IDSecret
  8. 配置可见成员并完成权限授权

这是后续 Skill 调用企业微信能力的前提。


2)安装企业微信 CLI

npm install -g @wecom/cli

3)安装企业微信 Skill 包

npx skills add WeComTeam/wecom-cli -y -g

这一步很关键。 CLI 装好只是基础,Skill 包才是让 Agent 真正调用企业微信能力的桥梁。

4)初始化机器人凭证

wecom-cli init --botId "YOUR_BOT_ID" --secret "YOUR_BOT_SECRET"

只需要配置一次。

5)查看支持的能力

wecom-cli --help
wecom-cli list contact

6)调用一个测试能力

例如查询通讯录:

wecom-cli call contact get_userlist '{}'

如果这里能返回正常结果,说明这一段也跑通了:

企业微信 CLI / Skills → 企业微信能力

第五步:把企业微信 Skill 接进你的 Agent 工作流

到这里,你其实已经把两部分能力分别跑通了:

A. 模型侧

Agent / 客户端 → OpenClaw → 88API → Claude / GPT / Gemini

B. 工具侧

Agent → wecom-cli skills → 企业微信消息 / 日程 / 文档 / 待办 / 会议 / 通讯录

真正组合起来之后,就能形成一个更有价值的本地 Agent 形态:

  • Claude 来理解需求、判断上下文、生成决策
  • 企业微信 Skill 去执行具体动作
  • OpenClaw + 88API 保持模型接入稳定、可切换、可扩展

比如这些场景就会很顺:

场景 1:查人并发消息

“帮我找到产品部张三,并发一条消息提醒他下午 3 点开会。”

场景 2:查闲忙并创建日程

“看一下明天下午谁有空,给项目组拉个 30 分钟同步会。”

场景 3:把会议结论写入文档

“把今天例会纪要整理成文档,并同步到对应群里。”

场景 4:自动生成待办

“根据这段需求讨论,给负责人创建 3 个待办,并拉上相关参与人。”

你会发现,这套链路真正厉害的地方,不是“多接了一个工具”。

而是它把 模型能力企业协作动作 连起来了。


为什么这套组合特别适合现在做?

因为它正好踩中了 2026 年 Agent 落地的三个关键点:

1)模型能力要能切

不同任务适合不同模型。 有的任务偏长文本理解,有的偏执行效率,有的偏成本敏感。

用 88API + OpenClaw,本地统一入口不变,底层模型可以灵活调整。

2)工具能力要够真实

真正能提升效率的,不是“AI 回答得更像人”,而是“AI 能帮你把事做了”。

企业微信 CLI 开源后,消息、待办、会议、日程、文档这些高频动作终于有了更标准的接入方式。

3)本地入口要统一

一旦你开始接多个模型、多个技能、多个业务动作,没有统一网关会越来越乱。

OpenClaw 让模型入口统一,企业微信 Skill 让工具调用标准化,这两层搭起来,后面扩展空间会很大。


一套最小可用配置,建议你这样上手

如果你不想一开始就搞得太复杂,可以按这个顺序:

第一步

先把 88API + OpenClaw 跑通,确认本地 http://127.0.0.1:18789/v1 可用。

第二步

安装 企业微信 CLI + Skill 包,确认 wecom-cli init 成功,基础命令可调用。

第三步

挑一个最简单的业务动作测试:

  • 查通讯录
  • 发一条消息
  • 新建一个待办

第四步

再让你的 Agent 去组合调用:

  • 先理解需求
  • 再调用企业微信 Skill 执行动作

这样搭,最稳,也最容易排障。


最后一句:别再让 AI 只停留在“会回答”

企业微信 CLI 开源这件事,真正重要的不是“又多了一个 SDK”。

而是它让 AI Agent 离企业实际工作流更近了一步。

如果你只接模型,AI 还是停留在聊天层。 如果你把 88API + OpenClaw + 企业微信 Skill 一起搭起来,AI 才开始真正进入执行层。

你可以先从最小闭环开始:

  1. 88API 提供模型能力
  2. OpenClaw 统一本地入口
  3. 企业微信 CLI Skill 打通消息、待办、日程、会议、文档等动作

一旦这条链路跑通,后面不管你是做内部助手、流程自动化,还是企业协作 Agent,都会轻松很多。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐