Claude Code 入门实战 2:多模型配置适配国内主流 AI 厂商
突破官方模型限制,灵活接入 DeepSeek、通义千问、智谱 GLM,让智能编码工具真正本地化
突破官方模型限制,灵活接入 DeepSeek、通义千问、智谱 GLM,让智能编码工具真正本地化
前言
Claude Code 作为一款强大的智能编码助手,其核心能力依赖于底层大语言模型的推理能力。然而,Anthropic 官方 Claude 模型在国内的 API 访问体验并不理想,存在延迟高、稳定性差等问题。为了解决这一痛点,Claude Code 提供了灵活的模型配置体系,支持开发者无缝切换底层模型。
本文将系统梳理 Claude Code 的模型配置逻辑,从内置模型的基础用法到如何适配 DeepSeek、阿里百炼(通义千问)、智谱 GLM 等国内主流 AI 模型,帮助你解锁 Claude Code 的全场景使用能力,让智能编码真正落地国内开发环境。
1. Claude Code 模型体系概览
Claude Code 对模型的支持采用分层设计,既提供了便捷的「模型别名」满足日常快速切换,也支持精准的「模型名称」用于固定版本或适配第三方服务商。
1.1 模型标识:别名与精准名称
Claude Code 中 model 字段的配置支持两类核心标识:
-
模型别名:Anthropic 官方预设的快捷标识,无需记忆复杂的版本号,始终指向对应系列的最新版本,适合日常开发快速切换。
| 模型别名 | 核心行为与适用场景 |
|---|---|
default |
基于账户类型自动匹配推荐模型,平衡性能与成本 |
sonnet |
最新 Sonnet 系列(当前 Sonnet 4.5),兼顾推理精度与响应速度,适合日常业务代码编写 |
opus |
最新 Opus 系列(当前 Opus 4.6),顶尖复杂推理能力,适合架构设计、疑难 Bug 定位 |
haiku |
Haiku 系列,响应极快、资源消耗低,适合简单代码补全、注释生成 |
sonnet[1m] |
Sonnet 模型 + 100 万 token 上下文窗口,适配长代码库分析 |
opusplan |
混合模式:计划阶段用 Opus,执行阶段用 Sonnet,适合复杂项目分步开发 |
-
精准模型名称/标识:针对不同服务商的专属命名规则,例如 Anthropic API 需填写官方完整模型名称(如
claude-opus-4-5-20251101),AWS Bedrock 需填写推理配置文件 ARN,Google Vertex 需填写版本名称等。适用于固定版本或适配第三方服务商。
1.2 模型配置优先级
Claude Code 支持多维度配置模型,优先级从高到低依次为:
-
会话内临时切换:输入
/model <别名|精准名称>实时切换,无需重启工具,适合单次任务调整。 -
启动时指定:通过
claude --model <别名|精准名称>启动工具,本次会话默认使用该模型。 -
环境变量配置:设置
ANTHROPIC_MODEL=<别名|精准名称>,全局生效(需重启终端)。 -
配置文件永久生效:在
~/.claude/settings.json(macOS/Linux)中添加model字段:
{
"permissions": {},
"model": "opus"
}
1.3 模型状态校验与环境变量控制
-
查看当前模型:
-
终端状态行(若配置)直接显示;
-
输入
/status命令,可查看模型信息、账户权限、API 连接状态等。
-
-
自定义别名映射:通过环境变量固定别名对应的精准模型,避免别名自动更新带来的不确定性。
| 环境变量 | 作用 |
|---|---|
ANTHROPIC_DEFAULT_OPUS_MODEL |
自定义 opus 别名对应的模型,或 opusplan 计划阶段所用模型 |
ANTHROPIC_DEFAULT_SONNET_MODEL |
自定义 sonnet 别名对应的模型,或 opusplan 执行阶段所用模型 |
ANTHROPIC_DEFAULT_HAIKU_MODEL |
自定义 haiku 别名对应的模型 |
CLAUDE_CODE_SUBAGENT_MODEL |
自定义子代理功能使用的模型 |
注意:旧版环境变量 ANTHROPIC_SMALL_FAST_MODEL 已弃用,统一替换为 ANTHROPIC_DEFAULT_HAIKU_MODEL。
1.4 Prompt Caching 配置:性能与成本优化
Claude Code 默认启用 Prompt Caching,通过缓存重复提示词降低 API 调用成本、提升响应速度。可通过环境变量精细控制:
| 环境变量 | 功能 |
|---|---|
DISABLE_PROMPT_CACHING=1 |
全局禁用所有模型的 Prompt Caching |
DISABLE_PROMPT_CACHING_HAIKU=1 |
仅禁用 Haiku 模型的 Prompt Caching |
DISABLE_PROMPT_CACHING_SONNET=1 |
仅禁用 Sonnet 模型的 Prompt Caching |
DISABLE_PROMPT_CACHING_OPUS=1 |
仅禁用 Opus 模型的 Prompt Caching |
全局禁用优先级高于模型专属禁用。
2. 国内主流 AI 模型接入实战
针对国内开发者的需求,以下梳理 DeepSeek、阿里百炼(通义千问)、智谱 GLM 等主流模型的接入流程,核心思路均为 「替换 API 地址 + 配置专属密钥 + 适配模型名称」。
2.1 主流模型基础信息
| 厂商/品牌 | 核心优势 | 官方模型名称示例 | API 密钥申请入口 |
|---|---|---|---|
| DeepSeek(深度求索) | 国产高性价比,编码适配性优 | deepseek-chat、deepseek-reasoner |
DeepSeek 平台 |
| 阿里百炼(通义千问) | 阿里云生态,多模型兼容 | qwen-max、qwen-turbo、qwen3-coder-plus |
阿里百炼控制台 |
| 智谱 GLM(智谱清言) | 清华系技术,编码场景优化 | GLM-4、GLM-3-Turbo |
智谱开放平台 |
| MiniMax | 多模态能力,音图文混合 | abab5.5-chat、abab6.0-chat |
MiniMax 平台 |
接入前置步骤:所有模型均需完成「注册账号 → 实名认证 → 创建 API Key」,具体流程参考各平台官方指引。
2.2 DeepSeek 模型接入实战
DeepSeek 提供了 Anthropic API 兼容接口,可直接通过环境变量配置接入。
临时配置(当前终端):
# 替换为你的 DeepSeek API Key
export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic
export ANTHROPIC_AUTH_TOKEN=${DEEPSEEK_API_KEY}
# 设置超时时间(建议 10 分钟以上)
export API_TIMEOUT_MS=600000
# 指定使用的 DeepSeek 模型
export ANTHROPIC_MODEL=deepseek-chat
export ANTHROPIC_SMALL_FAST_MODEL=deepseek-chat
# 禁用非必要流量,提升国内访问稳定性
export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1
永久配置:将上述变量写入 ~/.bashrc 或 ~/.zshrc,然后执行 source ~/.bashrc 生效。
验证接入:进入项目目录执行 claude,输入 /status 查看模型状态,或通过 /model deepseek-chat 手动切换模型。
2.3 阿里百炼(通义千问)模型接入实战
通义千问系列同样支持 Anthropic API 兼容接口,推荐通过配置文件永久生效。
macOS/Linux 配置:
mkdir -p ~/.claude
vim ~/.claude/settings.json
写入以下内容(替换 YOUR_API_KEY):
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "YOUR_API_KEY",
"ANTHROPIC_BASE_URL": "https://coding.dashscope.aliyuncs.com/apps/anthropic",
"ANTHROPIC_MODEL": "qwen3-coder-plus"
}
}
重启终端,执行 claude,输入 /model qwen3-coder-plus 确认切换。
Windows 配置(CMD 永久生效):
setx ANTHROPIC_AUTH_TOKEN "YOUR_API_KEY"
setx ANTHROPIC_BASE_URL "https://coding.dashscope.aliyuncs.com/apps/anthropic"
setx ANTHROPIC_MODEL "qwen3-coder-plus"
PowerShell 配置
[Environment]::SetEnvironmentVariable("ANTHROPIC_AUTH_TOKEN", "YOUR_API_KEY", [EnvironmentVariableTarget]::User)
[Environment]::SetEnvironmentVariable("ANTHROPIC_BASE_URL", "https://coding.dashscope.aliyuncs.com/apps/anthropic", [EnvironmentVariableTarget]::User)
[Environment]::SetEnvironmentVariable("ANTHROPIC_MODEL", "qwen3-coder-plus", [EnvironmentVariableTarget]::User)
验证环境变量:
# CMD
echo %ANTHROPIC_AUTH_TOKEN%
echo %ANTHROPIC_BASE_URL%
echo %ANTHROPIC_MODEL%
# PowerShell
echo $env:ANTHROPIC_AUTH_TOKEN
echo $env:ANTHROPIC_BASE_URL
echo $env:ANTHROPIC_MODEL
2.4 智谱 GLM 模型接入实战
智谱 GLM 同样提供了 Anthropic API 兼容端点。
获取 API Key:登录 智谱 GLM Coding Plan 页面 完成实名认证,创建 API Key。
编辑配置文件:
vim ~/.claude/settings.json
写入配置(替换 your_zhipu_api_key):
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "your_zhipu_api_key",
"ANTHROPIC_BASE_URL": "https://open.bigmodel.cn/api/anthropic",
"API_TIMEOUT_MS": "3000000",
"CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": 1
}
}
验证接入:启动 Claude Code,输入 /status 查看模型状态;若未自动生效,可手动输入 /model GLM-4 切换。
3. 注意事项与最佳实践
-
超时配置优化:国内网络环境下建议将
API_TIMEOUT_MS设置为300000(5 分钟)及以上,避免因网络波动触发超时中断。 -
密钥安全管理:切勿将 API Key 直接硬编码在代码或配置文件中并提交至版本库。推荐通过环境变量或加密的配置文件管理敏感信息。
-
模型适配性验证:不同模型对编码场景的适配性存在差异。例如 DeepSeek 适合轻量化编码,通义千问
qwen3-coder-plus更适合工程化开发,建议根据实际任务选择。 -
缓存策略调整:若遇到「提示词更新但模型返回旧结果」的问题,可临时禁用 Prompt Caching(设置
DISABLE_PROMPT_CACHING=1)进行调试,完成后恢复默认配置以降低成本。 -
多模型切换技巧:通过
claude --model <别名>启动或会话内/model命令可以快速切换不同模型,方便对比不同厂商的生成效果。
结语
通过 Claude Code 灵活的模型配置体系,开发者可以轻松将底层模型替换为国内主流 AI 厂商的模型,既解决了官方模型访问不畅的问题,又能根据具体任务选择最合适的模型。掌握这些配置技巧,你将能够最大化发挥 Claude Code 的智能编码价值,让 AI 真正成为开发流程中可靠的伙伴。
更多推荐

所有评论(0)