OpenClaw 全平台部署与使用指南:从零打造你的本地 AI 智能体
OpenClaw 是一个开源 AI Agent 框架,将大模型的推理能力转化为实际操作能力
引言
2026 年,AI 助手早已从单纯对话升级为能真实执行任务的智能体。OpenClaw(圈内昵称“龙虾 AI”)凭借开源免费、本地优先、可跨平台执行、支持多模型自由切换的优势,成为个人与小型团队打造专属数字员工的首选方案。它不再局限于问答交互,而是能真正处理文件、编写代码、检索信息、自动化办公,所有数据优先本地处理,隐私完全可控。
本文将基于 2026 年最新稳定版本,提供 Windows/macOS/Linux/云服务器 全平台部署流程,涵盖模型配置、技能系统、常见场景实战及问题排查,所有命令可直接复制执行。
注意:OpenClaw 曾用名 Clawdbot、Moltbot,本文以最新统一命名 OpenClaw 为准。
一、什么是 OpenClaw?
OpenClaw 是一款开源、高可扩展的 AI Agent 框架,基于 TypeScript 开发,核心用途是构建可自定义的私人 AI 助手,支持多场景任务自动化、多平台集成和多模型协作。
用一句话概括:OpenClaw 充当“物理网关”,将大语言模型的推理能力转化为对本地操作系统、文件系统及应用接口的真实执行动作。
核心特性
| 特性 | 说明 |
|---|---|
| 真执行 | 可读写文件、运行命令、处理文档、联网检索、对接第三方平台 |
| 强隐私 | 数据本地存储,不上传第三方,敏感场景更安全 |
| 多模型 | 一键切换阿里云百炼、Kimi、DeepSeek、OpenAI 等主流模型,哪个好用用哪个 |
| 全平台 | 支持 Windows/Mac/Linux 本地部署及云端 7×24 小时运行 |
| 易扩展 | 5700+ 预构建插件,技能化架构按需安装 |
| 零成本 | 完全开源,搭配免费 API 即可完整使用 |
与传统聊天 AI 的区别
传统的云端大模型像是一位“无所不知的远程顾问”,只提供文本方案;而 OpenClaw 完全运行于本地或私有云,拥有与用户等同的操作系统权限,能直接操作电脑终端、编写代码、管理文件,甚至根据自然语言指令自主学习并安装新的技能。
二、环境要求与部署前准备
硬件配置建议
| 组件 | 最低配置 | 推荐配置 |
|---|---|---|
| CPU | 4 核 8 线程 | 8 核 16 线程 |
| 内存 | 2GB(基础运行) | 16GB+(加载本地模型) |
| 存储 | 10GB 空闲 | 50GB+ SSD |
| GPU(可选) | - | NVIDIA 8GB+ 显存(本地模型加速) |
软件依赖
-
操作系统:Windows 10+/macOS 12+/Ubuntu 22.04+
-
Node.js:≥ v22(官方脚本会自动安装,无需手动配置)
-
包管理器:npm 或 pnpm
-
网络:需联网下载安装包和依赖(安装后可离线使用)
三、安装 OpenClaw(全平台)
3.1 官方一键脚本安装(推荐新手)
这是最简单、最不易出错的安装方式,脚本会自动检测并安装缺失依赖。
Windows 系统:
powershell
# 右键开始菜单 → 终端(管理员) → 执行以下命令 iwr -useb https://openclaw.ai/install.ps1 | iex # 国内用户若下载缓慢,可使用国内镜像加速: iwr -useb https://open-claw.org.cn/install-cn.ps1 | iex
macOS / Linux / WSL2 系统:
bash
# 打开终端执行 curl -fsSL https://openclaw.ai/install.sh | bash # 国内加速镜像: curl -fsSL https://open-claw.org.cn/install-cn.sh | bash
等待安装完成,全程无需手动操作,脚本会自动完成 Node.js 检测、核心程序安装、环境变量配置。
3.2 npm 安装(适合开发者)
适合已安装 Node.js 环境,想要精准控制版本的用户。
bash
# 确保 Node.js ≥ v22 node -v # 全局安装 npm install -g openclaw@latest # 验证安装 openclaw --version
3.3 阿里云一键部署(零基础首选)
对于纯新手最友好的方案:阿里云轻量应用服务器已内置 OpenClaw 镜像,2-3 分钟即可完成搭建,无需手动配置环境。
-
前往 阿里云 OpenClaw 一键部署专题页面 点击“一键购买并部署”
-
选择镜像为 OpenClaw (Moltbot) 镜像
-
最低配置:2vCPU + 4GiB 内存 + 40GiB ESSD
-
完成支付后等待 3-5 分钟自动部署
-
获取公网 IP 后,SSH 登录即可使用
注意:阿里云部署支持 7×24 小时远程运行,适合需要后台持续执行任务的用户。
3.4 各安装方式对比
| 安装方式 | 核心优势 | 适合人群 |
|---|---|---|
| 官方脚本 | 最快 3 分钟,自动配置环境 | 全平台新手 |
| npm 安装 | 版本可控,适合开发者 | 前端/Node.js 开发者 |
| 阿里云部署 | 无需本地开机,7×24 小时在线 | 需要后台运行的上班族 |
| Win11 一键包 | 全程可视化,零命令行 | Windows 小白用户 |
四、初始化配置(核心步骤)
安装完成后,必须完成初始化配置,否则 OpenClaw 无法正常运行。执行以下命令启动配置向导:
bash
openclaw onboard --install-daemon
配置向导会依次引导以下步骤:
4.1 引导配置流程
-
安装确认:进入欢迎界面,选择
Yes继续 -
配置模式:选择
QuickStart(快速开始模式) -
原有配置处理:选择
Use existing values(首次安装无影响)
4.2 模型选择与 API 配置
这是最关键的一步。OpenClaw 本身不具备智力,需要“注入大脑”——也就是对接大语言模型(LLM)。配置向导会列出支持的模型提供商供选择。
支持的模型一览:
| 模型提供商 | 推荐场景 | 特点 |
|---|---|---|
| 阿里云百炼 (Qwen) | 国内用户首选 | 赠送免费额度,中文能力强 |
| Kimi (月之暗面) | 长文本处理 | 上下文理解能力强,工具调用精度高 |
| DeepSeek V4 | 高性价比 | 2026 年 4 月起成为 OpenClaw 默认模型,开源免费 |
| OpenAI (GPT-4o等) | 海外用户 | 原生支持,综合能力强 |
| Claude (Anthropic) | 复杂推理 | 代码、长文档能力突出 |
| Ollama 本地模型 | 完全离线 | 隐私最高,零 API 费用 |
配置示例(以阿里云百炼为例):
-
在配置向导中选择
OpenAI-Compatible作为模型提供商 -
输入 Base URL:
https://dashscope.aliyuncs.com/compatible-mode/v1 -
输入从阿里云百炼控制台获取的 API Key
-
输入模型名称,如
qwen-plus或qwen-max
4.3 消息通道配置
OpenClaw 支持通过日常聊天软件与 AI 助手交互,已集成 50+ 主流通讯平台,包括:
-
国内平台:企业微信、飞书、钉钉、QQ(通过 QClaw 封装)
-
国际平台:WhatsApp、Telegram、Discord、Slack、Signal
配置示例(以飞书为例):
-
在消息通道选择界面选择
Feishu -
前往 飞书开放平台 创建应用
-
获取 App ID、App Secret、Verification Token
-
在配置向导中填入上述信息
-
在飞书应用中配置事件订阅地址为 OpenClaw 网关地址
4.4 完成配置
配置向导最后会提示:
-
选择
pnpm作为包管理工具 -
按需勾选需要安装的 Skills(后续可随时添加)
-
确认开启 Hooks(建议保持默认)
-
重启网关服务使配置生效
-
选择 Web UI 启动方式,访问 Web 控制面板
配置完成后,在终端执行以下命令建立 SSH 隧道(远程服务器时),在本地浏览器访问:
bash
ssh -N -L 18789:127.0.0.1:18789 root@<服务器公网IP>
然后在浏览器打开 http://127.0.0.1:18789 即可访问 OpenClaw Web 控制面板。
五、Web 控制面板功能探索
OpenClaw 提供了功能完善的 Web UI(默认端口 18789),包含以下功能区域:
| 功能模块 | 说明 |
|---|---|
| 对话界面 | 类似 ChatGPT 的聊天窗口,可直接与 AI 助手对话 |
| Agent 管理 | 创建和管理多个 AI Agent,分配不同角色和技能 |
| 技能商店 (ClawHub) | 浏览、安装社区提交的 5700+ 个技能插件 |
| 任务中心 | 查看正在执行和已完成的后台自动化任务 |
| 模型配置 | 随时切换或新增接入的大语言模型 |
| 通道管理 | 管理已集成的消息平台和通讯渠道 |
六、技能系统(Skills)——让 AI 真正“干活”
6.1 什么是 Skills?
从本质上说,Skills 就是一本“操作手册”。它并不是直接帮 AI 完成任务,而是告诉 AI 在什么情况下应该做什么,以及如何去做。
技能系统是 OpenClaw 区别于普通聊天 AI 的核心——通过安装不同的 Skill,你的 AI 助手可以扩展出文件管理、浏览器自动化、代码编写、数据分析等数百种实际操作能力。
6.2 安装技能
方式一:通过 ClawHub 界面安装(推荐)
在 Web 控制面板中点击 Skills Marketplace,浏览并一键安装所需技能。
方式二:命令行安装
bash
# 列出所有可用技能 openclaw skill list # 安装指定技能 openclaw skill add <技能名> # 安装多个技能(空格分隔) openclaw skill add browser file-manager notion
6.3 热门技能推荐
| 技能名称 | 功能 | 适用场景 |
|---|---|---|
browser |
浏览器自动化控制 | 网页数据抓取、表单自动填写、定时截图 |
file-manager |
文件系统管理 | 批量重命名、文件归类整理、磁盘清理 |
notion |
Notion 文档集成 | 自动创建笔记、同步表格数据、生成周报 |
github |
GitHub 仓库操作 | 自动创建 Issue、代码 Review、提交 PR |
email |
邮件收发处理 | 自动回复邮件、邮件摘要、定时发送日报 |
terminal |
Shell 命令执行 | 服务器运维、脚本执行、日志分析 |
6.4 自定义技能开发(进阶)
如果社区技能无法满足需求,可以自己写 Python/Node.js 脚本来扩展。
技能目录结构:
OpenClaw 会自动扫描 ~/.openclaw/skills/ 或 skills/ 目录下的 SKILL.md 和对应脚本文件。
text
skills/ ├── my_skill/ │ ├── SKILL.md # 技能描述文件(告诉 AI 如何使用) │ └── script.py # 实际执行脚本
SKILL.md 文件示例:
markdown
# 汇率查询技能 当用户询问实时汇率时,执行以下操作: 1. 从用户输入中提取源货币和目标货币 2. 调用 fixer.io API 获取汇率 3. 返回格式化的汇率结果
Python 脚本示例(查询实时汇率):
python
import requests
import sys
import json
def get_exchange_rate(from_currency, to_currency):
"""查询实时汇率"""
api_key = "your_api_key_here"
url = f"https://api.exchangerate-api.com/v4/latest/{from_currency}"
response = requests.get(url)
data = response.json()
rate = data['rates'].get(to_currency, 'N/A')
return {
"from": from_currency,
"to": to_currency,
"rate": rate
}
if __name__ == "__main__":
from_cur = sys.argv[1] if len(sys.argv) > 1 else "USD"
to_cur = sys.argv[2] if len(sys.argv) > 2 else "CNY"
result = get_exchange_rate(from_cur, to_cur)
print(json.dumps(result, ensure_ascii=False))
将 SKILL.md 和 script.py 放在 skills/ 目录下的同一文件夹中,OpenClaw 会自动加载。重启网关后,AI 助手就能识别并调用这个技能。
七、实战场景:从发指令到出结果
7.1 办公自动化
安装 file-manager 和 browser 技能后,可以直接用自然语言下达任务:
你:“帮我整理 D 盘下载文件夹,将图片移到 P ictures,文档移到 Documents,安装包单独放一个文件夹。”
OpenClaw 会自动扫描文件夹内容,识别文件类型,执行移动操作,完成后通知你结果。
你:“打开浏览器搜索今日 AI 行业新闻,提取前 10 条标题,保存为 Excel。”
OpenClaw 会启动浏览器 → 搜索 → 抓取结果 → 提取信息 → 生成 Excel 文件。
7.2 AI 辅助编码
安装 github、terminal 技能后,可以实现“口述修 Bug”:
你:“帮我拉取项目仓库,找到登录模块的空指针异常,修复它,并提交 PR。”
OpenClaw 会自动完成:git clone → 分析代码 → 定位 Bug → 编写修复代码 → 运行测试 → git commit → git push → 创建 Pull Request。传统需要半小时的工作,压缩到几分钟。
7.3 数据分析
安装 pandas 相关技能后:
你:“读取 sales.csv,按月份汇总销售额,制作趋势图,发送到团队飞书群。”
OpenClaw 自动完成数据读取 → 分组聚合 → 图表生成 → 通过飞书通道推送结果。
7.4 云端部署模型(高级)
如果你有带 NVIDIA GPU 的服务器,配合 Ollama 可在本地部署免费的大模型,完全零 API 费用、隐私数据不出设备。
步骤:
bash
# 1. 安装 Ollama(服务器端) curl -fsSL https://ollama.com/install.sh | sh # 2. 拉取模型(以 DeepSeek-V3 为例) ollama pull deepseek-v3 # 3. 允许远程访问 sudo vi /etc/systemd/system/ollama.service # 在 [Service] 区域添加: Environment="OLLAMA_HOST=0.0.0.0" # 4. 重启服务 sudo systemctl daemon-reload sudo systemctl restart ollama # 5. 在 OpenClaw 配置中添加本地模型 # 编辑 ~/.openclaw/config.yaml: # llm: # provider: "ollama" # base_url: "http://localhost:11434/v1" # model: "deepseek-v3"
八、常见问题与排查
Q1:Windows 提示“无法运行脚本”
powershell
Set-ExecutionPolicy -ExecutionPolicy RemoteSigned -Scope Process
然后重新执行安装命令。
Q2:Gateway 一直显示离线
-
检查防火墙/杀毒软件是否拦截(关闭 Windows Defender 实时防护)
-
确认安装路径为纯英文(禁止中文、空格、特殊符号)
-
以管理员身份重新运行
Q3:安装依赖下载缓慢
国内用户可通过 npm 镜像加速:
bash
npm config set registry https://registry.npmmirror.com
或使用国内镜像安装脚本:
bash
# macOS/Linux curl -fsSL https://open-claw.org.cn/install-cn.sh | bash # Windows iwr -useb https://open-claw.org.cn/install-cn.ps1 | iex
Q4:配置后发送消息无响应
-
检查 API Key 是否有效,余额是否充足
-
确认模型名称拼写正确(注意大小写)
-
国内用户检查 Base URL 是否可正常访问
-
执行
openclaw logs查看网关日志定位问题
Q5:飞书机器人收不到消息
-
确认飞书应用的事件订阅地址配置正确
-
检查 Verification Token 是否匹配
-
确保已为应用开通所需权限(消息与群聊、接收消息等)
九、总结与学习路线
核心要点回顾
-
OpenClaw 是一个开源 AI Agent 框架,将大模型的推理能力转化为实际操作能力
-
支持全平台部署(Windows/macOS/Linux/云服务器),一键脚本最快 3 分钟完成
-
模型选择灵活:可接入云端 API(Kimi、Qwen、DeepSeek),也可本地部署完全离线
-
技能系统(Skills)是核心竞争力,5700+ 预构建插件 + 自定义开发,能力无限扩展
-
搭配多平台消息通道,通过日常聊天软件即可指挥 AI 助手
推荐学习路线
| 阶段 | 内容 | 预计时间 |
|---|---|---|
| 入门 | 安装部署 + 接入免费模型 + 体验基础对话 | 30 分钟 |
| 进阶 | 配置消息通道 + 安装社区技能 + 搭建第一个自动化工作流 | 2 小时 |
| 高级 | 自定义技能开发 + 本地模型部署 + 多 Agent 协同 | 1-2 天 |
OpenClaw 将 AI 的能力从“对话”延伸到了“行动”,让每个人都能拥有一个真正能干的数字员工。无论是整理文件、处理数据、编写代码,还是 7×24 小时执行定时任务,它都能胜任。
推荐资源:
官方网站:https://openclaw.ai
GitHub 仓库:搜索
openclaw腾讯云 QClaw(封装版):https://claw.guanjia.qq.com
更多推荐



所有评论(0)