本文将手把手教你如何将ClaudeCode的默认模型切换为国产大模型——智谱GLM、DeepSeek等,实现“中国芯”替代,提升访问速度与稳定性。

为什么要给ClaudeCode换“芯”?

ClaudeCode默认调用的是Anthropic的Claude系列模型,由于网络与政策原因,国内用户在使用时常常会遇到:连接超时、响应慢、API调用不稳定等问题。

实际上ClaudeCode不仅仅可以调用Anthropic的Claude系列模型,我们还可以将ClaudeCode的底层模型替换为智谱GLM系列模型或者DeepSeek模型来完成一些简单的任务。

安装ClaudeCode

ClaudeCode的安装方式与基础配置已在如何在服务器使用ClaudeCode中详细介绍,这里不再赘述。若尚未完成安装,请先参考教程完成环境准备后再继续本篇操作。

接入智谱GLM

智谱(Z.AI)成立于2019年,由清华大学计算机系知识工程实验室(KEG)技术成果转化而来,其推出的GLM系列模型(General Language Model)在多项中文评测中成绩与GPT-4比肩,且全栈自主可控,已经发展成为中国最大的独立大模型厂商。

  • 官方接入手册:https://docs.bigmodel.cn/cn/guide/develop/claude

创建API-KEY

  1. 访问智谱平台,完成注册:https://open.bigmodel.cn/
  2. 登录后,进入控制台→API Key→点击【添加新的API Key】

配置环境变量

  • ClaudeCode通过读取 ~/.claude/settings.json中的env字段注入模型调用所需的所有参数。以下步骤先备份旧配置,再一次性写入四个关键变量;保存后立即生效,无需重启系统。
# 如果之前有ClaudeCode的配置文件,建议复制备份一下
mkdir ccbk

cp ~/.claude/settings.json ccbk/

# 编辑配置文件,配置API KEY
vim ~/.claude/settings.json

# 填入如下内容
{
    "env": {
        "ANTHROPIC_AUTH_TOKEN": "上一步创建的API KEY",
        "ANTHROPIC_BASE_URL": "https://open.bigmodel.cn/api/anthropic",
        "API_TIMEOUT_MS": "3000000",
        "CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": 1
    }
}

验证测试

  • 进入claude后,输入/status查看状态

接入DeepSeek

DeepSeek由幻方量化旗下深度求索团队开源,提供与OpenAI/Anthropic对齐的Chat&Completion API。其完全兼容Claude协议,仅需替换base_url与token。

  • 官方接入手册:https://api-docs.deepseek.com/zh-cn/guides/anthropic_api

创建API-KEY

  1. 注册并登录 https://platform.deepseek.com
  2. 创建API key,创建后会生成一串以 sk- 开头的密钥,妥善保存,后续配置环境变量会用到

配置环境变量

  • 和上述智谱GLM篇配置环境变量章节类似,依旧是备份后新建~/.claude/settings.json,添加如下内容:
{
    "env": {
        "ANTHROPIC_AUTH_TOKEN": "上一步创建的API KEY",
        "ANTHROPIC_BASE_URL": "https://api.deepseek.com/anthropic",
        "API_TIMEOUT_MS": "3000000",
        "CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": 1
    }
}

验证测试

  • 使用测试

  • 选择Yes后即可保存生成的脚本并运行测试

结语

完成上述配置后,ClaudeCode将通过智谱GLM或DeepSeek提供持续、低延迟的模型服务。如遇接口变更,请同步更新配置文件,后续只需保持配置文件和token有效即可持续使用模型服务。这样我们就能使用实惠的国产大模型啦,也希望国产大模型越来越好!

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐