手把手教你在 OpenClaw 本地部署集成 DeepSeek 模型(DeepSeek-V3 / R1 / Coder 全覆盖)

2026 年初,OpenClaw(前身 Clawdbot / Moltbot)凭借 180k+ GitHub star,成为自建 AI 助手阵营中最火的开源项目之一。它支持 Telegram、Web 聊天、自定义 Agent、技能节点,还能轻松接入各种大模型。

今天这篇教程带你把 国内最强性价比模型之一 —— DeepSeek 完整集成到 OpenClaw 里,包括:

  • 云端 API 方式(最推荐新手,速度快、成本低)
  • 本地 Ollama / LM Studio 方式(完全私有化、零成本)

我们会覆盖目前主流的 DeepSeek 系列模型:

  • deepseek-chat / deepseek-reasoner(R1 系列,推理极强)
  • deepseek-coder(编程领域天花板级)
  • DeepSeek-V3 / V3.1(开源满血版,需要较高显存)

两种方式任选其一,跟着做基本都能跑通。

前置条件

在开始之前,请确保你已经:

  1. 安装最新版 OpenClaw gateway(推荐 beta 通道)

    # 如果还没安装
    npm install -g openclaw
    openclaw --version          # 建议 >= 最新稳定版或 beta
    
  2. gateway 正常运行,dashboard 能打开(默认 http://localhost:端口)

  3. Node.js 版本 ≥ 20(推荐 20 LTS 或 22.x)

  4. 有稳定的网络(如果用官方 API,国内建议全程代理)

方式一:使用 DeepSeek 官方 API(最简单、速度最快、强烈推荐)

DeepSeek 官方 API 完全兼容 OpenAI 格式,调用成本极低(尤其是 R1 推理模型,千 token 几分钱)。

步骤 1:注册并获取 API Key

  1. 打开官网:https://platform.deepseek.com/
  2. 注册 / 登录
  3. 左侧菜单 → API Keys → 创建新密钥
  4. 复制 sk- 开头的 Key(注意不要泄露)

步骤 2:配置到 OpenClaw

推荐方式:在用户目录下创建或编辑配置文件:

# Windows: C:\Users\你的用户名\.openclaw\openclaw.json
# macOS/Linux: ~/.openclaw/openclaw.json

写入以下内容(替换你的 Key):

{
  "env": {
    "DEEPSEEK_API_KEY": "sk-你的DeepSeek-API-Key"
  },
  "models": {
    "providers": {
      "deepseek": {
        "baseUrl": "https://api.deepseek.com/v1",
        "api": "openai-completions"
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "deepseek/deepseek-reasoner",
        "fallbacks": [
          "deepseek/deepseek-chat",
          "deepseek/deepseek-coder"
        ]
      }
    }
  }
}

或者使用环境变量方式(适合临时测试):

# Windows CMD
set DEEPSEEK_API_KEY=sk-你的Key

# PowerShell
$env:DEEPSEEK_API_KEY = "sk-你的Key"

# Linux/macOS
export DEEPSEEK_API_KEY=sk-你的Key

步骤 3:重启 gateway 并验证

openclaw gateway
  • 打开 dashboard → Chat → 新建会话

  • 直接输入:“用中文介绍一下你自己”

  • 想切换模型?在聊天框输入:

    /model deepseek/deepseek-coder
    

    然后问一个编程问题,比如:“用 Python 写一个快速排序”

成功标志:模型正常回复,日志中没有 fetch failed、401 unauthorized 等错误。

方式二:本地完全私有化(Ollama 部署 DeepSeek 量化版)

适合有独立显卡(16GB+ VRAM 跑 7B/8B,24GB+ 跑更大)的用户。

步骤 1:安装 Ollama

官网下载安装:https://ollama.com/

Windows / macOS / Linux 均支持一键安装。

步骤 2:拉取 DeepSeek 模型

打开终端,执行以下命令(推荐从小的开始测试):

# 推荐入门级:1.5B ~ 8B 蒸馏版 R1,推理能力不错
ollama pull deepseek-r1:1.5b
ollama pull deepseek-r1:8b

# 编程专用
ollama pull deepseek-coder:6.7b-instruct-q5_K_M

# 如果你有大显存,可以尝试更大版本(社区 tag 经常更新)
ollama pull deepseek-v3:最新tag   # 在 ollama.com/library 搜索最新

验证模型是否拉取成功:

ollama run deepseek-r1:8b
>>> 你好,介绍一下自己

步骤 3:让 OpenClaw 连接本地 Ollama

同样编辑 ~/.openclaw/openclaw.json

{
  "models": {
    "providers": {
      "ollama": {
        "baseUrl": "http://127.0.0.1:11434/v1",
        "api": "openai-completions"
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/deepseek-r1:8b",
        "fallbacks": ["ollama/deepseek-coder:latest"]
      }
    }
  }
}
  • 如果 Ollama 跑在另一台电脑,改成 http://192.168.x.x:11434/v1
  • 重启 gateway,聊天测试即可。

常见问题快速排错

  • fetch failed / connection refused → 检查网络、代理、Ollama 是否在运行、baseUrl 是否正确
  • model not found → 模型名必须是 provider/模型名 格式,例如 deepseek/deepseek-reasoner
  • API 限额 / 余额不足 → DeepSeek 免费额度较少,建议先充值 10 元或切换本地版
  • 响应很慢 → 本地版看显卡利用率;云端版换更近的节点或加代理
  • 想动态切换模型 → 聊天中直接输入 /model 模型名

总结与进阶建议

  • 追求极致性价比:DeepSeek 官方 API + deepseek-reasoner(R1),几乎无敌
  • 追求完全本地隐私:Ollama + DeepSeek-R1 8B 或 Coder 量化版

OpenClaw + DeepSeek 的组合目前是自建 AI 助手里最香的方案之一。后续可以继续扩展:

  • 接入 Telegram 全家桶
  • 配置 RAG 知识库
  • 自定义 Skills / Tools

欢迎在评论区分享你的配置心得、报错截图或性能对比~

如果这篇对你有帮助,欢迎点赞 + 收藏 + 关注,下篇见!

(完)

参考资料

  • OpenClaw 官方仓库
  • DeepSeek 平台文档
  • Ollama 模型库
  • 社区 GitHub Issues & CSDN 相关讨论
Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐