OpenClaw 接入中转 API 实战教程:用更便宜的第三方 AI 模型降本提效
中转 API{ "role": "user", "content": "你好,帮我写一段文案" }转发到官方 OpenAI,但价格更低(团购 / 批发 / 共享额度)转发到其它云厂商的模型(DeepSeek、各种国产大模型等)转发到自建模型(本地部署 / 私有化部署)为什么要接入中转?降本:同样的模型能力,价格更低灵活:可以把不同厂商的模型统一接到一个中转,OpenClaw 只需适配一次可控:中转
在用 OpenClaw 搭建自己的 AI 助手时,很多人都会遇到一个现实问题:官方模型很好用,但价格不便宜。
与此同时,市面上出现了大量「OpenAI 协议兼容」的中转服务、代理服务和低价模型平台,价格往往只有官方的一半甚至更低。
那么,能不能让 OpenClaw 直接走这些中转 API,享受低价模型的同时保持原有体验?
答案是:可以,而且配置起来并不复杂。
这篇文章会手把手带你在 OpenClaw 中接入一个「OpenAI 协议兼容」的中转 API,让它变成一个新的模型提供方,后续在任何 Agent / 会话中都能像用官方模型一样调用它。
说明:文中以通用的「OpenAI 协议兼容中转」为例,比如常见的第三方代理、自建中转、国内云厂商的兼容接口等。
只要对方支持/v1/chat/completions这一套协议,基本都可以照这个思路接入。
一、什么是「中转 API」?为什么要接入?
中转 API 本质上就是一个代理层,它对外暴露与 OpenAI 类似的接口,比如:
POST https://your-proxy.example.com/v1/chat/completions
Authorization: Bearer sk-xxxxxx
Content-Type: application/json
请求格式也是标准的 Chat Completions:
{
"model": "gpt-4o-mini",
"messages": [
{ "role": "user", "content": "你好,帮我写一段文案" }
]
}
而中转服务内部可以是:
- 转发到官方 OpenAI,但价格更低(团购 / 批发 / 共享额度)
- 转发到其它云厂商的模型(DeepSeek、各种国产大模型等)
- 转发到自建模型(本地部署 / 私有化部署)
为什么要接入中转?
- 降本:同样的模型能力,价格更低
- 灵活:可以把不同厂商的模型统一接到一个中转,OpenClaw 只需适配一次
- 可控:中转层可以做审计、过滤、限流、日志分析等
二、OpenClaw 对接中转的核心思路
OpenClaw 的模型配置大致可以理解为三层:
- Provider(提供方):比如
openai、anthropic、gemini、local等 - 具体模型:例如
gpt-4.1、gpt-4o-mini等 - 模型别名(alias):给复杂的 provider+model 起一个好记的名字,比如
cheap-gpt
要把中转接进来,核心思路是:
- 在配置中新增一个「OpenAI 协议兼容」的 Provider,例如:
my_proxy - 给它设置:
baseUrl:你的中转服务地址apiKey:中转服务的 API 密钥(建议放环境变量)models:声明可用模型列表
- 在
aliases里给这些模型起别名(例如cheap-gpt) - 后续在对话 / Agent / Skill 里,只需要写
model: "cheap-gpt"即可
三、准备工作:从中转服务拿到这三样东西
在配置 OpenClaw 之前,你需要从中转平台确认以下信息:
-
Base URL(接口地址)
常见形式:
https://your-proxy.example.com/v1https://api.xxx.com/v1- 有的可能是
https://your-proxy.example.com/proxy/openai/v1
注意中转文档里路径是否已经包含
/v1。 -
API Key
一般形如:
sk-xxxxxxxxxxx- 或一个自定义 token
大多数情况使用
Authorization: Bearer <API_KEY>这个标准写法。 -
模型名称
比如:
gpt-4o-minigpt-4.1-minideepseek-chat- 或者平台自定义的模型名
这个名字要和中转文档中写的一致,后面会用到。
四、在 OpenClaw 中增加中转 Provider
提示:不同版本的 OpenClaw 配置文件路径可能略有区别,请以你本地的实际情况为准。
一般可以通过openclaw gateway config.get查看当前配置结构。
1. 先把中转 API Key 放到环境变量(推荐)
不建议把密钥直接写死在配置文件里,更安全的做法是使用环境变量。
例如在运行 OpenClaw 的 shell / systemd / Docker 环境中:
export MY_PROXY_API_KEY="你的中转服务 API Key"
如果你是用 systemd,可以在 service 文件里加一行:
Environment=MY_PROXY_API_KEY=你的中转服务 API Key
Docker 则可以在 docker-compose.yml 里配置 environment。
2. 使用 config.patch 增量更新配置(推荐做法)
推荐用 OpenClaw 自带的 config.patch 方式,而不是直接整文件覆盖,这样风险更小。
假设你创建一个 proxy-models.json 文件,内容如下(示例):
{
"models": {
"providers": {
"my_proxy": {
"kind": "openai-compatible",
"baseUrl": "https://your-proxy.example.com/v1",
"apiKey": "env:MY_PROXY_API_KEY",
"models": {
"cheap-gpt": {
"name": "gpt-4o-mini",
"maxTokens": 16000
}
}
}
},
"aliases": {
"cheap-gpt": "my_proxy/cheap-gpt"
}
}
}
配置说明:
my_proxy:这是你给中转服务起的 provider 名称,可以自定义kind: "openai-compatible":告诉 OpenClaw 这是一个 OpenAI 协议兼容的服务baseUrl:中转的接口地址(注意是否带/v1)apiKey: "env:MY_PROXY_API_KEY":从环境变量中读取密钥models.cheap-gpt.name:实际发给中转的模型名,比如gpt-4o-minialiases.cheap-gpt:定义一个别名;之后你只用cheap-gpt这个名字即可
保存后,在终端执行:
openclaw gateway config.patch --file proxy-models.json
成功后,Gateway 会自动重启,新的模型配置就生效了。
五、在 OpenClaw 中实际使用中转模型
配置完成后,你就可以像使用其它模型一样,使用 cheap-gpt 这个别名:
1. 在聊天 / 命令里切换模型
如果你用的是命令式切换(视你实际使用的 UI 而定),可能类似:
/model cheap-gpt
然后再输入你的问题,OpenClaw 就会通过中转服务调用对应模型。
2. 在 Agent 或 Skill 配置中指定
在某个 Agent 配置或 Skill 中,把 model 字段改成:
{
"model": "cheap-gpt"
}
这样这个 Agent 默认就走中转模型了。
六、常见问题与排错思路
1. 报错:401 / 403 未授权
排查步骤:
- 确认中转后台的 API Key 是否复制正确,有没有多空格、少字符。
- 确认中转服务的文档是否要求通过
Authorization: Bearer xxx传递:- 有些服务会要求用自定义 Header,比如
X-API-Key: xxx,这种情况需要在 OpenClaw 的 provider 配置中增加自定义 header(参考官方文档)。
- 有些服务会要求用自定义 Header,比如
- 确认环境变量是否正确注入到运行 OpenClaw 的进程中:
- 你在 shell 里设置的
export,如果是通过 systemd 启动的 OpenClaw,可能不会生效,需要改 service 文件。
- 你在 shell 里设置的
2. 报错:404 / 405 / 500
- 404 / 405:通常是 URL 路径错了
- 检查中转文档要求的具体路径是不是
/v1/chat/completions - 有的中转需要写成
https://xxx.com/proxy/openai/v1,而不是https://xxx.com/v1
- 检查中转文档要求的具体路径是不是
- 500:通常是中转服务内部错误,查看中转服务日志,或者尝试用 curl / Postman 直接调中转接口进行对比测试。
3. 报错:模型不存在 / 模型名不识别
- 确认
models.my_proxy.models.cheap-gpt.name填写的模型名,和中转平台文档一致。 - 有的平台模型名可能是
deepseek-chat、gpt-4.1-mini-2025-01-01这种,需要原样填入。
七、进阶玩法:多个中转 + 按场景切换
如果你不止有一个中转服务,还可以在 OpenClaw 里给不同中转配置不同别名,然后按场景选择模型。
例如:
{
"models": {
"providers": {
"my_proxy_fast": {
"kind": "openai-compatible",
"baseUrl": "https://fast-proxy.example.com/v1",
"apiKey": "env:FAST_PROXY_KEY",
"models": {
"fast-gpt": { "name": "gpt-4o-mini", "maxTokens": 16000 }
}
},
"my_proxy_cheap": {
"kind": "openai-compatible",
"baseUrl": "https://cheap-proxy.example.com/v1",
"apiKey": "env:CHEAP_PROXY_KEY",
"models": {
"ultra-cheap": { "name": "gpt-4o-mini", "maxTokens": 16000 }
}
}
},
"aliases": {
"fast-gpt": "my_proxy_fast/fast-gpt",
"ultra-cheap": "my_proxy_cheap/ultra-cheap"
}
}
}
使用策略可以是:
- 重要任务、需要更稳定响应的,用
fast-gpt - 日常闲聊、生成初稿、批量任务,用
ultra-cheap
这样既能保证关键场景的稳定,又最大程度压低整体成本。
八、安全与成本小建议
- 密钥一定要用环境变量或秘密管理,不要写死在 Git 仓库里。
- 可以在中转服务层做:
- 请求限速(防止脚本错误导致暴涨费用)
- 日志记录(方便排错)
- 内容过滤(敏感内容处理)
- 定期查看中转平台账单,确认费用是否符合预期,并适当调整模型选择和调用频率。
九、总结
这篇文章我们做了几件事:
- 说明了什么是中转 API,以及为什么要在 OpenClaw 里接入它们
- 基于「OpenAI 协议兼容」的思路,在 OpenClaw 中增加了一个新的 provider
- 通过
config.patch的方式安全地把中转配置合并到现有配置里 - 用模型别名(alias)让你在日常使用中只需记一个简单名字,比如
cheap-gpt - 给出了常见错误排查方法和多中转进阶用法
只要你的中转服务遵循 OpenAI 的 Chat Completions 协议,那么按照文中的思路,基本都可以顺利接入到 OpenClaw 中,实现「同样的体验,更低的成本」。
更多推荐



所有评论(0)