OpenClaw + Feishu(飞书)国内一键安装全攻略
本文提供从零环境准备、软件安装、配置到与飞书深度集成的完整步骤,帮助国内团队在安全合规的网络环境下快速部署 AI 助手平台 OpenClaw,并实现飞书机器人、工作流自动化。
快速上手:本文提供从零环境准备、软件安装、配置到与飞书深度集成的完整步骤,帮助国内团队在安全合规的网络环境下快速部署 AI 助手平台 OpenClaw,并实现飞书机器人、工作流自动化。
📌 引言(约 120 字)
在国内企业数字化转型的浪潮中,AI 助手已成为提升协同效率的核心工具。OpenClaw 作为一站式 AI 代理平台,支持多模型、插件化扩展,而 Feishu(飞书) 则提供企业级即时通讯与协作套件。将二者结合,可实现从聊天指令到自动化任务的完整闭环。但由于国内网络限制和合规要求,部署过程往往充满挑战。本文将一步步拆解从环境搭建到生产运行的全部细节,让您在 1–2 小时内完成全套安装。
🛠 环境准备
| 项目 | 推荐配置 | 说明 |
|---|---|---|
| 操作系统 | Ubuntu 22.04 LTS / macOS 12+ | 兼容 Docker 与 Ollama |
| CPU | 4 核以上 | 编译模型、并发任务 |
| 内存 | 16 GB(推荐 32 GB) | Ollama 大模型需 ~30 GB |
| 磁盘 | 100 GB SSD | 日志、模型缓存 |
| Docker | 20.10+ | 可选,推荐统一依赖 |
| 网络 | 能访问 registry.ollama.ai(或自建镜像) |
如受墙,可使用镜像加速 |
1️⃣ 安装依赖
macOS (Homebrew)
brew update
brew install git node python3 docker
Ubuntu
sudo apt update && sudo apt install -y git nodejs npm python3 docker.io
sudo systemctl enable --now docker
2️⃣ 安装 Ollama(模型后端)
curl -fsSL https://ollama.com/install.sh | sh
ollama serve & # 启动后台服务
国内加速:若访问
ollama.com受阻,可将OLLAMA_HOST指向内部镜像,例如export OLLAMA_HOST=https://mirror.example.com/ollama。
🚀 安装 OpenClaw
1️⃣ 通过脚本(Linux)
curl -fsSL https://raw.githubusercontent.com/openclaw/openclaw/main/install.sh | bash
2️⃣ 通过 Homebrew(macOS)
brew install openclaw
验证:
openclaw --version
# 输出类似:OpenClaw 2026.3.8
3️⃣ 初始化工作区
openclaw setup # 交互式生成 ~/.openclaw/config.yaml
openclaw onboarding # 配置渠道(微信、Telegram 等),此处可略过
在 ~/.openclaw/config.yaml 中,确保默认模型指向 Ollama:
default_model: ollama/gpt-oss:120b-cloud
✨ 配置 Feishu(飞书)集成
1️⃣ 创建飞书开放平台应用
- 登录 飞书开放平台 (https://open.feishu.cn)
- 新建 → 自建应用,命名如 OpenClaw Bot
- 权限配置(必选)
获取消息/发送消息获取日历/文档(如需)机器人事件(im.bot.message.receive)
- 回调 URL 暂填写
https://example.com/callback,稍后在 OpenClaw 中生成真实 URL 替换。
记录 App ID 与 App Secret,务必保管。
2️⃣ 在 OpenClaw 注册 Feishu 渠道
openclaw channels login feishu \
--app-id <YOUR_APP_ID> \
--app-secret <YOUR_APP_SECRET> \
--domain feishu \
--enable
系统会弹出二维码,使用 飞书客户端 扫码登录,完成授权。
重要:首次登录会在
~/.openclaw/state/feishu.json中保存 token。
3️⃣ 配置 Webhook(事件推送)
- 打开 OpenClaw Dashboard:
openclaw dashboard - 进入 Channels → Feishu,点击 “生成 Callback URL”,复制类似:
https://<your-host>/openclaw/feishu/callback?token=xxxx
- 回到 飞书开放平台 → 事件订阅,添加 回调 URL,勾选以下事件(最小集):
| 事件 | 用途 |
|------|------|
|im.message.receive_v1| 接收聊天消息 |
|im.bot.message.receive_v1| 机器人消息 |
|chat.member.add/chat.member.remove| 成员变动 |
保存后,系统日志会显示 “Webhook 验签成功”。
🧩 验证交互
在任意飞书聊天窗口 @OpenClaw Bot,发送 你好,终端应显示:
[INFO] Received message from user: 你好
如出现 Signature verification failed,请检查:
- OpenClaw
gateway端口(默认 18789)是否对外开放; - 回调 URL 中的 token 与 OpenClaw 配置一致。
🛠 常见故障排查
| 症状 | 排查步骤 |
|---|---|
| 模型加载卡死 | 检查 ollama 日志 (docker logs ollama),确认模型已下载;如 OOM,尝试 export OLLAMA_MAX_MEMORY=20GB |
| 飞书回调 403 | 确认 gateway 端口未被防火墙拦截;检查 openclaw config get gateway.port |
| Bot 未被 @ | 在飞书「应用设置」→「机器人」中开启「可被 @」权限,重新安装应用 |
| 消息延迟 > 5 s | 查看 openclaw logs,CPU/内存占用;如高负载,可开启 gateway --no-sandbox 加速 |
📈 进阶:自定义 Skill 与插件
- 创建自定义 Skill(示例:企业内部报表生成)
mkdir -p ~/.openclaw/workspace/skills/report-generator
# 编写 SKILL.md 与脚本(参考 blog-writer-cn)
- 在 OpenClaw 中注册
openclaw skills list # 查看已加载
openclaw skills run report-generator "生成本月用户活跃度报告"
- 与 Feishu 结合:可在机器人收到特定指令时自动调用该 Skill,并将结果推送到飞书群聊。
📚 结论 & 行动号召
- 一步到位:从系统依赖 → Ollama → OpenClaw → Feishu 完整闭环,只需 1–2 小时。
- 高可用:使用 Docker 镜像或系统服务方式运行,避免手动维护。
- 扩展性:通过 Skill 插件,可轻松实现 自动化报表、CI/CD、知识库同步 等业务需求。
立即尝试:按照本文步骤在测试机器上部署,随后将机器人邀请进正式生产群组,开启 AI 助手的全新协作体验!
更多推荐


所有评论(0)