快速上手:本文提供从零环境准备、软件安装、配置到与飞书深度集成的完整步骤,帮助国内团队在安全合规的网络环境下快速部署 AI 助手平台 OpenClaw,并实现飞书机器人、工作流自动化。

📌 引言(约 120 字)

在国内企业数字化转型的浪潮中,AI 助手已成为提升协同效率的核心工具。OpenClaw 作为一站式 AI 代理平台,支持多模型、插件化扩展,而 Feishu(飞书) 则提供企业级即时通讯与协作套件。将二者结合,可实现从聊天指令到自动化任务的完整闭环。但由于国内网络限制和合规要求,部署过程往往充满挑战。本文将一步步拆解从环境搭建到生产运行的全部细节,让您在 1–2 小时内完成全套安装。

🛠 环境准备

项目 推荐配置 说明
操作系统 Ubuntu 22.04 LTS / macOS 12+ 兼容 Docker 与 Ollama
CPU 4 核以上 编译模型、并发任务
内存 16 GB(推荐 32 GB) Ollama 大模型需 ~30 GB
磁盘 100 GB SSD 日志、模型缓存
Docker 20.10+ 可选,推荐统一依赖
网络 能访问 registry.ollama.ai(或自建镜像) 如受墙,可使用镜像加速

1️⃣ 安装依赖

macOS (Homebrew)
brew update
brew install git node python3 docker
Ubuntu
sudo apt update && sudo apt install -y git nodejs npm python3 docker.io
sudo systemctl enable --now docker

2️⃣ 安装 Ollama(模型后端)

curl -fsSL https://ollama.com/install.sh | sh
ollama serve &   # 启动后台服务

国内加速:若访问 ollama.com 受阻,可将 OLLAMA_HOST 指向内部镜像,例如 export OLLAMA_HOST=https://mirror.example.com/ollama

🚀 安装 OpenClaw

1️⃣ 通过脚本(Linux)

curl -fsSL https://raw.githubusercontent.com/openclaw/openclaw/main/install.sh | bash

2️⃣ 通过 Homebrew(macOS)

brew install openclaw

验证:

openclaw --version
# 输出类似:OpenClaw 2026.3.8

3️⃣ 初始化工作区

openclaw setup          # 交互式生成 ~/.openclaw/config.yaml
openclaw onboarding     # 配置渠道(微信、Telegram 等),此处可略过

~/.openclaw/config.yaml 中,确保默认模型指向 Ollama:

default_model: ollama/gpt-oss:120b-cloud

✨ 配置 Feishu(飞书)集成

1️⃣ 创建飞书开放平台应用

  1. 登录 飞书开放平台 (https://open.feishu.cn)
  2. 新建 → 自建应用,命名如 OpenClaw Bot
  3. 权限配置(必选)
    • 获取消息/发送消息
    • 获取日历/文档(如需)
    • 机器人事件im.bot.message.receive
  4. 回调 URL 暂填写 https://example.com/callback,稍后在 OpenClaw 中生成真实 URL 替换。
    记录 App IDApp Secret,务必保管。

2️⃣ 在 OpenClaw 注册 Feishu 渠道

openclaw channels login feishu \
  --app-id <YOUR_APP_ID> \
  --app-secret <YOUR_APP_SECRET> \
  --domain feishu \
  --enable

系统会弹出二维码,使用 飞书客户端 扫码登录,完成授权。

重要:首次登录会在 ~/.openclaw/state/feishu.json 中保存 token。

3️⃣ 配置 Webhook(事件推送)

  1. 打开 OpenClaw Dashboard:openclaw dashboard
  2. 进入 Channels → Feishu,点击 “生成 Callback URL”,复制类似:
https://<your-host>/openclaw/feishu/callback?token=xxxx
  1. 回到 飞书开放平台 → 事件订阅,添加 回调 URL,勾选以下事件(最小集):
    | 事件 | 用途 |
    |------|------|
    | im.message.receive_v1 | 接收聊天消息 |
    | im.bot.message.receive_v1 | 机器人消息 |
    | chat.member.add / chat.member.remove | 成员变动 |
    保存后,系统日志会显示 “Webhook 验签成功”

🧩 验证交互

在任意飞书聊天窗口 @OpenClaw Bot,发送 你好,终端应显示:

[INFO] Received message from user: 你好

如出现 Signature verification failed,请检查:

  • OpenClaw gateway 端口(默认 18789)是否对外开放;
  • 回调 URL 中的 token 与 OpenClaw 配置一致。

🛠 常见故障排查

症状 排查步骤
模型加载卡死 检查 ollama 日志 (docker logs ollama),确认模型已下载;如 OOM,尝试 export OLLAMA_MAX_MEMORY=20GB
飞书回调 403 确认 gateway 端口未被防火墙拦截;检查 openclaw config get gateway.port
Bot 未被 @ 在飞书「应用设置」→「机器人」中开启「可被 @」权限,重新安装应用
消息延迟 > 5 s 查看 openclaw logs,CPU/内存占用;如高负载,可开启 gateway --no-sandbox 加速

📈 进阶:自定义 Skill 与插件

  1. 创建自定义 Skill(示例:企业内部报表生成)
mkdir -p ~/.openclaw/workspace/skills/report-generator
# 编写 SKILL.md 与脚本(参考 blog-writer-cn)
  1. 在 OpenClaw 中注册
openclaw skills list   # 查看已加载
openclaw skills run report-generator "生成本月用户活跃度报告"
  1. 与 Feishu 结合:可在机器人收到特定指令时自动调用该 Skill,并将结果推送到飞书群聊。

📚 结论 & 行动号召

  • 一步到位:从系统依赖 → Ollama → OpenClaw → Feishu 完整闭环,只需 1–2 小时。
  • 高可用:使用 Docker 镜像或系统服务方式运行,避免手动维护。
  • 扩展性:通过 Skill 插件,可轻松实现 自动化报表、CI/CD、知识库同步 等业务需求。

立即尝试:按照本文步骤在测试机器上部署,随后将机器人邀请进正式生产群组,开启 AI 助手的全新协作体验!


Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐