Ubuntu 本地部署 OpenClaw:接入 Ollama 推理 + 飞书通道(可直接复现)

摘要

本文记录一次从零开始在空白 Ubuntu 服务器部署 OpenClaw 的完整过程:本地使用 Ollama 作为推理引擎,飞书作为消息通道。包含环境准备、安装命令、配置步骤、连通性验证、常见报错排查和运维建议,适合个人开发者快速落地私有化 AI Agent。


目录

  1. 部署目标与架构
  2. 环境准备
  3. 安装 Ollama(本地推理)
  4. 安装 OpenClaw
  5. 配置 OpenClaw 使用 Ollama
  6. 配置飞书通道
  7. 启动与验证
  8. 常见问题 FAQ
  9. 结语

1. 部署目标与架构

本次部署采用单机本地方案:

  • LLM 推理层:Ollama(本机)
  • Agent 网关层:OpenClaw(本机)
  • 消息入口:飞书(Feishu/Lark 应用)

数据路径:飞书消息 -> OpenClaw -> Ollama -> OpenClaw -> 飞书回复。


2. 环境准备

先确认系统和资源:

uname -m
lsb_release -a
free -h
df -h /

推荐:

  • Ubuntu 22.04+
  • x86_64
  • 内存 16GB+(32GB 更稳)

3. 安装 Ollama(本地推理)

安装并校验:

curl -fsSL https://ollama.com/install.sh | sh
ollama --version

拉取一个模型做烟雾测试:

ollama pull qwen2.5:7b
ollama run qwen2.5:7b "只回复 OK"

查看当前模型是否用到 GPU:

ollama ps

重点看 PROCESSOR 列:出现 GPU 说明已启用显卡推理。


4. 安装 OpenClaw

如果系统还没有 Node/npm,先安装 Node 20 LTS:

curl -fsSL https://deb.nodesource.com/setup_20.x | sudo -E bash -
sudo apt-get install -y nodejs
node -v
npm -v

安装 OpenClaw:

sudo npm i -g openclaw
openclaw --version

5. 配置 OpenClaw 使用 Ollama

将 OpenClaw 的模型提供方指向本机 Ollama API:

openclaw config set models.providers.ollama.baseUrl "http://127.0.0.1:11434/v1"
openclaw config set models.providers.ollama.apiKey "ollama-local"
openclaw models set ollama/qwen2.5:7b

说明:

  • 本地 Ollama 常用 apiKey 占位值就是 ollama-local
  • models set 用于设置默认模型

6. 配置飞书通道

执行引导配置:

openclaw onboard

向导里选择:

  • 通道:Feishu/Lark
  • 域名:国内选 feishu.cn,国际选 larksuite.com
  • 填写:appIdappSecret
  • 群聊策略:按需选择 allowlist / open

如需通过配对码放行会话:

openclaw pairing list
openclaw pairing approve feishu <配对码>

7. 启动与验证

启动网关:

openclaw gateway

看到以下日志即基本正常:

  • agent model: ollama/...
  • listening on ws://127.0.0.1:18789

另开终端跟日志:

openclaw logs --follow

8. 常见问题 FAQ

Q1:飞书发消息后报 No API key found for provider "ollama"

原因:agent 侧缺少 Ollama auth/profile。
处理

openclaw config set models.providers.ollama.apiKey "ollama-local"
openclaw gateway restart

Q2:日志出现 failed to obtain token,并且请求 bot/v3/info 返回 400

原因:飞书凭据或应用状态异常。
检查项

  • appId/appSecret 是否正确
  • 飞书应用是否发布到当前企业
  • 权限是否开通
  • 必要时重置 appSecret 后更新配置

Q3:网页控制台反复 token_missing / unauthorized

原因:Control UI 没带 gateway token。
处理

  • 在 Dashboard 的 Control UI settings 填写 gateway.auth.token

Q4:出现 duplicate plugin id detected

原因:同一插件被重复加载(常见于 feishu 插件有两份)。
处理

  • 清理重复插件,只保留一份

Q5:openclaw agent 提示 Pass --to / --session-id / --agent

原因:命令需要指定目标会话或 agent。
处理示例

openclaw agent --agent main --message "只回复OK" --json --timeout 60

9. 结语

这套方案适合“本地可控、快速上线”的 AI Agent 场景:

  • 推理本地化(Ollama)
  • 编排本地化(OpenClaw)
  • 使用飞书作为团队入口

建议上线后做两件事:

  1. tmux 持久化运行会话,避免 SSH 断开中断任务
  2. 定期执行 openclaw security audit --deep 做安全巡检

如果你希望,我可以下一篇继续整理:
《OpenClaw + 飞书:权限最小化与生产安全配置清单(含可复制命令)》

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐