在用 OpenClaw 搭建自己的 AI 助手时,很多人都会遇到一个现实问题:官方模型很好用,但价格不便宜
与此同时,市面上出现了大量「OpenAI 协议兼容」的中转服务、代理服务和低价模型平台,价格往往只有官方的一半甚至更低。

那么,能不能让 OpenClaw 直接走这些中转 API,享受低价模型的同时保持原有体验?
答案是:可以,而且配置起来并不复杂。

这篇文章会手把手带你在 OpenClaw 中接入一个「OpenAI 协议兼容」的中转 API,让它变成一个新的模型提供方,后续在任何 Agent / 会话中都能像用官方模型一样调用它。

说明:文中以通用的「OpenAI 协议兼容中转」为例,比如常见的第三方代理、自建中转、国内云厂商的兼容接口等。
只要对方支持 /v1/chat/completions 这一套协议,基本都可以照这个思路接入。


一、什么是「中转 API」?为什么要接入?

中转 API 本质上就是一个代理层,它对外暴露与 OpenAI 类似的接口,比如:

POST https://your-proxy.example.com/v1/chat/completions
Authorization: Bearer sk-xxxxxx
Content-Type: application/json

请求格式也是标准的 Chat Completions:

{
  "model": "gpt-4o-mini",
  "messages": [
    { "role": "user", "content": "你好,帮我写一段文案" }
  ]
}

而中转服务内部可以是:

  • 转发到官方 OpenAI,但价格更低(团购 / 批发 / 共享额度)
  • 转发到其它云厂商的模型(DeepSeek、各种国产大模型等)
  • 转发到自建模型(本地部署 / 私有化部署)

为什么要接入中转?

  • 降本:同样的模型能力,价格更低
  • 灵活:可以把不同厂商的模型统一接到一个中转,OpenClaw 只需适配一次
  • 可控:中转层可以做审计、过滤、限流、日志分析等

二、OpenClaw 对接中转的核心思路

OpenClaw 的模型配置大致可以理解为三层:

  1. Provider(提供方):比如 openaianthropicgeminilocal
  2. 具体模型:例如 gpt-4.1gpt-4o-mini
  3. 模型别名(alias):给复杂的 provider+model 起一个好记的名字,比如 cheap-gpt

要把中转接进来,核心思路是:

  1. 在配置中新增一个「OpenAI 协议兼容」的 Provider,例如:my_proxy
  2. 给它设置:
    • baseUrl:你的中转服务地址
    • apiKey:中转服务的 API 密钥(建议放环境变量)
    • models:声明可用模型列表
  3. aliases 里给这些模型起别名(例如 cheap-gpt
  4. 后续在对话 / Agent / Skill 里,只需要写 model: "cheap-gpt" 即可

三、准备工作:从中转服务拿到这三样东西

在配置 OpenClaw 之前,你需要从中转平台确认以下信息:

  1. Base URL(接口地址)

    常见形式:

    • https://your-proxy.example.com/v1
    • https://api.xxx.com/v1
    • 有的可能是 https://your-proxy.example.com/proxy/openai/v1

    注意中转文档里路径是否已经包含 /v1

  2. API Key

    一般形如:

    • sk-xxxxxxxxxxx
    • 或一个自定义 token

    大多数情况使用 Authorization: Bearer <API_KEY> 这个标准写法。

  3. 模型名称

    比如:

    • gpt-4o-mini
    • gpt-4.1-mini
    • deepseek-chat
    • 或者平台自定义的模型名

    这个名字要和中转文档中写的一致,后面会用到。


四、在 OpenClaw 中增加中转 Provider

提示:不同版本的 OpenClaw 配置文件路径可能略有区别,请以你本地的实际情况为准。
一般可以通过 openclaw gateway config.get 查看当前配置结构。

1. 先把中转 API Key 放到环境变量(推荐)

不建议把密钥直接写死在配置文件里,更安全的做法是使用环境变量。
例如在运行 OpenClaw 的 shell / systemd / Docker 环境中:

export MY_PROXY_API_KEY="你的中转服务 API Key"

如果你是用 systemd,可以在 service 文件里加一行:

Environment=MY_PROXY_API_KEY=你的中转服务 API Key

Docker 则可以在 docker-compose.yml 里配置 environment


2. 使用 config.patch 增量更新配置(推荐做法)

推荐用 OpenClaw 自带的 config.patch 方式,而不是直接整文件覆盖,这样风险更小。

假设你创建一个 proxy-models.json 文件,内容如下(示例):

{
  "models": {
    "providers": {
      "my_proxy": {
        "kind": "openai-compatible",
        "baseUrl": "https://your-proxy.example.com/v1",
        "apiKey": "env:MY_PROXY_API_KEY",
        "models": {
          "cheap-gpt": {
            "name": "gpt-4o-mini",
            "maxTokens": 16000
          }
        }
      }
    },
    "aliases": {
      "cheap-gpt": "my_proxy/cheap-gpt"
    }
  }
}

配置说明:

  • my_proxy:这是你给中转服务起的 provider 名称,可以自定义
  • kind: "openai-compatible":告诉 OpenClaw 这是一个 OpenAI 协议兼容的服务
  • baseUrl:中转的接口地址(注意是否带 /v1
  • apiKey: "env:MY_PROXY_API_KEY":从环境变量中读取密钥
  • models.cheap-gpt.name:实际发给中转的模型名,比如 gpt-4o-mini
  • aliases.cheap-gpt:定义一个别名;之后你只用 cheap-gpt 这个名字即可

保存后,在终端执行:

openclaw gateway config.patch --file proxy-models.json

成功后,Gateway 会自动重启,新的模型配置就生效了。


五、在 OpenClaw 中实际使用中转模型

配置完成后,你就可以像使用其它模型一样,使用 cheap-gpt 这个别名:

1. 在聊天 / 命令里切换模型

如果你用的是命令式切换(视你实际使用的 UI 而定),可能类似:

/model cheap-gpt

然后再输入你的问题,OpenClaw 就会通过中转服务调用对应模型。

2. 在 Agent 或 Skill 配置中指定

在某个 Agent 配置或 Skill 中,把 model 字段改成:

{
  "model": "cheap-gpt"
}

这样这个 Agent 默认就走中转模型了。


六、常见问题与排错思路

1. 报错:401 / 403 未授权

排查步骤:

  1. 确认中转后台的 API Key 是否复制正确,有没有多空格、少字符。
  2. 确认中转服务的文档是否要求通过 Authorization: Bearer xxx 传递:
    • 有些服务会要求用自定义 Header,比如 X-API-Key: xxx,这种情况需要在 OpenClaw 的 provider 配置中增加自定义 header(参考官方文档)。
  3. 确认环境变量是否正确注入到运行 OpenClaw 的进程中:
    • 你在 shell 里设置的 export,如果是通过 systemd 启动的 OpenClaw,可能不会生效,需要改 service 文件。

2. 报错:404 / 405 / 500

  • 404 / 405:通常是 URL 路径错了
    • 检查中转文档要求的具体路径是不是 /v1/chat/completions
    • 有的中转需要写成 https://xxx.com/proxy/openai/v1,而不是 https://xxx.com/v1
  • 500:通常是中转服务内部错误,查看中转服务日志,或者尝试用 curl / Postman 直接调中转接口进行对比测试。

3. 报错:模型不存在 / 模型名不识别

  • 确认 models.my_proxy.models.cheap-gpt.name 填写的模型名,和中转平台文档一致。
  • 有的平台模型名可能是 deepseek-chatgpt-4.1-mini-2025-01-01 这种,需要原样填入。

七、进阶玩法:多个中转 + 按场景切换

如果你不止有一个中转服务,还可以在 OpenClaw 里给不同中转配置不同别名,然后按场景选择模型。

例如:

{
  "models": {
    "providers": {
      "my_proxy_fast": {
        "kind": "openai-compatible",
        "baseUrl": "https://fast-proxy.example.com/v1",
        "apiKey": "env:FAST_PROXY_KEY",
        "models": {
          "fast-gpt": { "name": "gpt-4o-mini", "maxTokens": 16000 }
        }
      },
      "my_proxy_cheap": {
        "kind": "openai-compatible",
        "baseUrl": "https://cheap-proxy.example.com/v1",
        "apiKey": "env:CHEAP_PROXY_KEY",
        "models": {
          "ultra-cheap": { "name": "gpt-4o-mini", "maxTokens": 16000 }
        }
      }
    },
    "aliases": {
      "fast-gpt": "my_proxy_fast/fast-gpt",
      "ultra-cheap": "my_proxy_cheap/ultra-cheap"
    }
  }
}

使用策略可以是:

  • 重要任务、需要更稳定响应的,用 fast-gpt
  • 日常闲聊、生成初稿、批量任务,用 ultra-cheap

这样既能保证关键场景的稳定,又最大程度压低整体成本。


八、安全与成本小建议

  1. 密钥一定要用环境变量或秘密管理,不要写死在 Git 仓库里。
  2. 可以在中转服务层做:
    • 请求限速(防止脚本错误导致暴涨费用)
    • 日志记录(方便排错)
    • 内容过滤(敏感内容处理)
  3. 定期查看中转平台账单,确认费用是否符合预期,并适当调整模型选择和调用频率。

九、总结

这篇文章我们做了几件事:

  1. 说明了什么是中转 API,以及为什么要在 OpenClaw 里接入它们
  2. 基于「OpenAI 协议兼容」的思路,在 OpenClaw 中增加了一个新的 provider
  3. 通过 config.patch 的方式安全地把中转配置合并到现有配置里
  4. 用模型别名(alias)让你在日常使用中只需记一个简单名字,比如 cheap-gpt
  5. 给出了常见错误排查方法和多中转进阶用法

只要你的中转服务遵循 OpenAI 的 Chat Completions 协议,那么按照文中的思路,基本都可以顺利接入到 OpenClaw 中,实现「同样的体验,更低的成本」。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐