【手把手教你在 OpenClaw 本地部署集成 DeepSeek 模型(DeepSeek-V3 / R1 / Coder 全覆盖)】
追求极致性价比:DeepSeek 官方 API + deepseek-reasoner(R1),几乎无敌追求完全本地隐私:Ollama + DeepSeek-R1 8B 或 Coder 量化版OpenClaw + DeepSeek 的组合目前是自建 AI 助手里最香的方案之一。接入 Telegram 全家桶配置 RAG 知识库自定义 Skills / Tools欢迎在评论区分享你的配置心得、报错截
手把手教你在 OpenClaw 本地部署集成 DeepSeek 模型(DeepSeek-V3 / R1 / Coder 全覆盖)
2026 年初,OpenClaw(前身 Clawdbot / Moltbot)凭借 180k+ GitHub star,成为自建 AI 助手阵营中最火的开源项目之一。它支持 Telegram、Web 聊天、自定义 Agent、技能节点,还能轻松接入各种大模型。
今天这篇教程带你把 国内最强性价比模型之一 —— DeepSeek 完整集成到 OpenClaw 里,包括:
- 云端 API 方式(最推荐新手,速度快、成本低)
- 本地 Ollama / LM Studio 方式(完全私有化、零成本)
我们会覆盖目前主流的 DeepSeek 系列模型:
- deepseek-chat / deepseek-reasoner(R1 系列,推理极强)
- deepseek-coder(编程领域天花板级)
- DeepSeek-V3 / V3.1(开源满血版,需要较高显存)
两种方式任选其一,跟着做基本都能跑通。
前置条件
在开始之前,请确保你已经:
-
安装最新版 OpenClaw gateway(推荐 beta 通道)
# 如果还没安装 npm install -g openclaw openclaw --version # 建议 >= 最新稳定版或 beta -
gateway 正常运行,dashboard 能打开(默认 http://localhost:端口)
-
Node.js 版本 ≥ 20(推荐 20 LTS 或 22.x)
-
有稳定的网络(如果用官方 API,国内建议全程代理)
方式一:使用 DeepSeek 官方 API(最简单、速度最快、强烈推荐)
DeepSeek 官方 API 完全兼容 OpenAI 格式,调用成本极低(尤其是 R1 推理模型,千 token 几分钱)。
步骤 1:注册并获取 API Key
- 打开官网:https://platform.deepseek.com/
- 注册 / 登录
- 左侧菜单 → API Keys → 创建新密钥
- 复制 sk- 开头的 Key(注意不要泄露)
步骤 2:配置到 OpenClaw
推荐方式:在用户目录下创建或编辑配置文件:
# Windows: C:\Users\你的用户名\.openclaw\openclaw.json
# macOS/Linux: ~/.openclaw/openclaw.json
写入以下内容(替换你的 Key):
{
"env": {
"DEEPSEEK_API_KEY": "sk-你的DeepSeek-API-Key"
},
"models": {
"providers": {
"deepseek": {
"baseUrl": "https://api.deepseek.com/v1",
"api": "openai-completions"
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "deepseek/deepseek-reasoner",
"fallbacks": [
"deepseek/deepseek-chat",
"deepseek/deepseek-coder"
]
}
}
}
}
或者使用环境变量方式(适合临时测试):
# Windows CMD
set DEEPSEEK_API_KEY=sk-你的Key
# PowerShell
$env:DEEPSEEK_API_KEY = "sk-你的Key"
# Linux/macOS
export DEEPSEEK_API_KEY=sk-你的Key
步骤 3:重启 gateway 并验证
openclaw gateway
-
打开 dashboard → Chat → 新建会话
-
直接输入:“用中文介绍一下你自己”
-
想切换模型?在聊天框输入:
/model deepseek/deepseek-coder然后问一个编程问题,比如:“用 Python 写一个快速排序”
成功标志:模型正常回复,日志中没有 fetch failed、401 unauthorized 等错误。
方式二:本地完全私有化(Ollama 部署 DeepSeek 量化版)
适合有独立显卡(16GB+ VRAM 跑 7B/8B,24GB+ 跑更大)的用户。
步骤 1:安装 Ollama
官网下载安装:https://ollama.com/
Windows / macOS / Linux 均支持一键安装。
步骤 2:拉取 DeepSeek 模型
打开终端,执行以下命令(推荐从小的开始测试):
# 推荐入门级:1.5B ~ 8B 蒸馏版 R1,推理能力不错
ollama pull deepseek-r1:1.5b
ollama pull deepseek-r1:8b
# 编程专用
ollama pull deepseek-coder:6.7b-instruct-q5_K_M
# 如果你有大显存,可以尝试更大版本(社区 tag 经常更新)
ollama pull deepseek-v3:最新tag # 在 ollama.com/library 搜索最新
验证模型是否拉取成功:
ollama run deepseek-r1:8b
>>> 你好,介绍一下自己
步骤 3:让 OpenClaw 连接本地 Ollama
同样编辑 ~/.openclaw/openclaw.json:
{
"models": {
"providers": {
"ollama": {
"baseUrl": "http://127.0.0.1:11434/v1",
"api": "openai-completions"
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "ollama/deepseek-r1:8b",
"fallbacks": ["ollama/deepseek-coder:latest"]
}
}
}
}
- 如果 Ollama 跑在另一台电脑,改成
http://192.168.x.x:11434/v1 - 重启 gateway,聊天测试即可。
常见问题快速排错
- fetch failed / connection refused → 检查网络、代理、Ollama 是否在运行、baseUrl 是否正确
- model not found → 模型名必须是
provider/模型名格式,例如deepseek/deepseek-reasoner - API 限额 / 余额不足 → DeepSeek 免费额度较少,建议先充值 10 元或切换本地版
- 响应很慢 → 本地版看显卡利用率;云端版换更近的节点或加代理
- 想动态切换模型 → 聊天中直接输入
/model 模型名
总结与进阶建议
- 追求极致性价比:DeepSeek 官方 API + deepseek-reasoner(R1),几乎无敌
- 追求完全本地隐私:Ollama + DeepSeek-R1 8B 或 Coder 量化版
OpenClaw + DeepSeek 的组合目前是自建 AI 助手里最香的方案之一。后续可以继续扩展:
- 接入 Telegram 全家桶
- 配置 RAG 知识库
- 自定义 Skills / Tools
欢迎在评论区分享你的配置心得、报错截图或性能对比~
如果这篇对你有帮助,欢迎点赞 + 收藏 + 关注,下篇见!
(完)
参考资料
- OpenClaw 官方仓库
- DeepSeek 平台文档
- Ollama 模型库
- 社区 GitHub Issues & CSDN 相关讨论
更多推荐


所有评论(0)