Claude Code虽好,可钱包遭不住啊!

Claude Code 确实香——代码生成、重构、项目理解、自动补全、多文件分析,简直是在终端里养了个AI程序员。
但一看价格,我默默收回了伸向钱包的手。

不过别慌,免费午餐来了!今天教大家一套骚操作:

👉 Claude Code + Claude Code Router + 魔搭社区免费Qwen3-Coder API

完美实现“白嫖”Claude Code,每天2000次免费调用,真香警告!

一、Claude Code安装(已有可跳过)

Claude Code 是 Anthropic 官方推出的 AI 编程助手 CLI 工具,可以直接在终端中和你唠嗑写代码。

官方传送门::

怎么安装参考上面的文档安装即可,这里就不多说了!

安装命令(别怕,就一行),前提是先安装好Node.js 18+

npm install -g @anthropic-ai/claude-code

二、Claude Code Router :Claude Code 的“万能转接头”

Claude Code Router 是什么?

Claude Code Router 是一个开源神器,可以把任意大模型的 API “伪装”成 Claude Code 能懂的请求

简单说,它就是个 翻译官+代理,让Claude Code能调用其他模型(比如免费的Qwen3-Coder)。

这样我们就可以把一些免费的API接入进来,达成不错的效果!

官方仓库地址: 👉 Claude Code Router的Github地址

Claude Code Router 的功能

  • 模型路由: 根据您的需求将请求路由到不同的模型(例如,后台任务、思考、长上下文)。
  • 多提供商支持: 支持 OpenRouter、DeepSeek、Ollama、Gemini、Volcengine 和 SiliconFlow 等各种模型提供商,当然还有我们今天的主角——魔搭社区 Modelscope
  • 请求/响应转换: 使用转换器为不同的提供商自定义请求和响应,自动适配不同提供商的接口格式,不用你操心。
  • 动态模型切换: 在 Claude Code 中使用 /model 命令动态切换模型。
  • GitHub Actions 集成: 在您的 GitHub 工作流程中触发 Claude Code 任务。
  • 插件系统: 使用自定义转换器扩展功能。

Claude Code Router 快速入门

1. 安装

首先,请确保您已安装 Claude Code

npm install -g @anthropic-ai/claude-code

然后,安装 Claude Code Router:

npm install -g @musistudio/claude-code-router

装完就有 ccr 命令啦。

2. 配置

安装完成以后,创建并配置您的 ~/.claude-code-router/config.json 文件。

config.json 文件有几个关键部分:

  • PROXY_URL (可选): 您可以为 API 请求设置代理,例如:"PROXY_URL": "http://127.0.0.1:7890"
  • LOG (可选): 您可以通过将其设置为 true 来启用日志记录。当设置为 false 时,将不会创建日志文件。默认值为 true
  • LOG_LEVEL (可选): 设置日志级别。可用选项包括:"fatal""error""warn""info""debug""trace"。默认值为 "debug"
  • 日志系统: Claude Code Router 使用两个独立的日志系统:
    • 服务器级别日志: HTTP 请求、API 调用和服务器事件使用 pino 记录在 ~/.claude-code-router/logs/ 目录中,文件名类似于 ccr-*.log
    • 应用程序级别日志: 路由决策和业务逻辑事件记录在 ~/.claude-code-router/claude-code-router.log 文件中
  • APIKEY (可选): 您可以设置一个密钥来进行身份验证。设置后,客户端请求必须在 Authorization 请求头 (例如, Bearer your-secret-key) 或 x-api-key 请求头中提供此密钥。例如:"APIKEY": "your-secret-key"
  • HOST (可选): 您可以设置服务的主机地址。如果未设置 APIKEY,出于安全考虑,主机地址将强制设置为 127.0.0.1,以防止未经授权的访问。例如:"HOST": "0.0.0.0"
  • NON_INTERACTIVE_MODE (可选): 当设置为 true 时,启用与非交互式环境(如 GitHub Actions、Docker 容器或其他 CI/CD 系统)的兼容性。这会设置适当的环境变量(CI=trueFORCE_COLOR=0 等)并配置 stdin 处理,以防止进程在自动化环境中挂起。例如:"NON_INTERACTIVE_MODE": true
  • Providers: 用于配置不同的模型提供商。
  • Router: 用于设置路由规则。default 指定默认模型,如果未配置其他路由,则该模型将用于所有请求。
  • API_TIMEOUT_MS: API 请求超时时间,单位为毫秒。

有关更多详细信息,您可以参考 config.example.json
这是一个综合示例:

{
  "APIKEY": "your-secret-key",
  "PROXY_URL": "http://127.0.0.1:7890",
  "LOG": true,
  "API_TIMEOUT_MS": 600000,
  "NON_INTERACTIVE_MODE": false,
  "Providers": [
    {
      "name": "openrouter",
      "api_base_url": "https://openrouter.ai/api/v1/chat/completions",
      "api_key": "sk-xxx",
      "models": [
        "google/gemini-2.5-pro-preview",
        "anthropic/claude-sonnet-4",
        "anthropic/claude-3.5-sonnet",
        "anthropic/claude-3.7-sonnet:thinking"
      ],
      "transformer": {
        "use": ["openrouter"]
      }
    },
    {
      "name": "deepseek",
      "api_base_url": "https://api.deepseek.com/chat/completions",
      "api_key": "sk-xxx",
      "models": ["deepseek-chat", "deepseek-reasoner"],
      "transformer": {
        "use": ["deepseek"],
        "deepseek-chat": {
          "use": ["tooluse"]
        }
      }
    },
    {
      "name": "ollama",
      "api_base_url": "http://localhost:11434/v1/chat/completions",
      "api_key": "ollama",
      "models": ["qwen2.5-coder:latest"]
    },
    {
      "name": "gemini",
      "api_base_url": "https://generativelanguage.googleapis.com/v1beta/models/",
      "api_key": "sk-xxx",
      "models": ["gemini-2.5-flash", "gemini-2.5-pro"],
      "transformer": {
        "use": ["gemini"]
      }
    },
    {
      "name": "volcengine",
      "api_base_url": "https://ark.cn-beijing.volces.com/api/v3/chat/completions",
      "api_key": "sk-xxx",
      "models": ["deepseek-v3-250324", "deepseek-r1-250528"],
      "transformer": {
        "use": ["deepseek"]
      }
    },
    {
      "name": "modelscope",
      "api_base_url": "https://api-inference.modelscope.cn/v1/chat/completions",
      "api_key": "",
      "models": ["Qwen/Qwen3-Coder-480B-A35B-Instruct", "Qwen/Qwen3-235B-A22B-Thinking-2507"],
      "transformer": {
        "use": [
          [
            "maxtoken",
            {
              "max_tokens": 65536
            }
          ],
          "enhancetool"
        ],
        "Qwen/Qwen3-235B-A22B-Thinking-2507": {
          "use": ["reasoning"]
        }
      }
    },
    {
      "name": "dashscope",
      "api_base_url": "https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions",
      "api_key": "",
      "models": ["qwen3-coder-plus"],
      "transformer": {
        "use": [
          [
            "maxtoken",
            {
              "max_tokens": 65536
            }
          ],
          "enhancetool"
        ]
      }
    },
    {
      "name": "aihubmix",
      "api_base_url": "https://aihubmix.com/v1/chat/completions",
      "api_key": "sk-",
      "models": [
        "Z/glm-4.5",
        "claude-opus-4-20250514",
        "gemini-2.5-pro"
      ]
    }
  ],
  "Router": {
    "default": "deepseek,deepseek-chat",
    "background": "ollama,qwen2.5-coder:latest",
    "think": "deepseek,deepseek-reasoner",
    "longContext": "openrouter,google/gemini-2.5-pro-preview",
    "longContextThreshold": 60000,
    "webSearch": "gemini,gemini-2.5-flash"
  }
}

3. 使用 Router 运行 Claude Code

使用 router 启动 Claude Code:

ccr code

注意: 修改配置文件后,需要重启服务使配置生效:

ccr restart

4. UI 模式

为了获得更直观的体验,您可以使用 UI 模式来管理您的配置:

ccr ui

这将打开一个基于 Web 的界面,您可以在其中轻松查看和编辑您的 config.json 文件。

在这里插入图片描述

5. CLI 模型管理

对于偏好终端工作流的用户,可以使用交互式 CLI 模型选择器:

ccr model

该命令提供交互式界面来:

  • 查看当前配置
  • 查看所有配置的模型(default、background、think、longContext、webSearch、image)
  • 切换模型:快速更改每个路由器类型使用的模型
  • 添加新模型:向现有提供商添加模型
  • 创建新提供商:设置完整的提供商配置,包括:
    • 提供商名称和 API 端点
    • API 密钥
    • 可用模型
    • Transformer 配置,支持:
      • 多个转换器(openrouter、deepseek、gemini 等)
      • Transformer 选项(例如,带自定义限制的 maxtoken)
      • 特定于提供商的路由(例如,OpenRouter 提供商偏好)

CLI 工具验证所有输入并提供有用的提示来引导您完成配置过程,使管理复杂的设置变得容易,无需手动编辑 JSON 文件。

三、实战

1. 创建文件夹 ~/.claude-code-router

比如我的windows电脑,用户名是Administrator,所以我的用户名目录是:C:\Users\Administrator
在该目录下,手动创建一个名为.claude-code-router的目录,如下所示
在这里插入图片描述

2. 创建 ~/.claude-code-router/config.json

C:\Users\Administrator\.claude-code-router目录下,手动新建一个config.json文件
在这里插入图片描述
然后我们打开它,将刚刚上面的示例配置文件样板复制进来。

这里面有很多Provider提供商的地址,这里我们只需要填上自己想要的模型跟对应的提供商即可。

3. 免费午餐核心:配置Qwen3 Coder

Qwen3 Coder是阿里最近开源的一个编程的AI大模型。

在这里插入图片描述

每位魔搭注册用户,当前每天允许进行总数(所有模型加和)为2000次的API-Inference调用。
在这里插入图片描述

3.1 关于魔塔社区modelscope

官网地址:

在这里插入图片描述

3.2 配置Qwen的config.json

修改上面的 ~/.claude-code-router/config.json 文件,将其他的都可以删掉,复制下面的进去,最后替换下api_key为你的即可。

{
  "Providers": [
    {
      "name": "modelscope",
      "api_base_url": "https://api-inference.modelscope.cn/v1/chat/completions",
      "api_key": "你的魔塔社区api_key",  // 这里换成你的!
      "models": ["Qwen/Qwen3-Coder-480B-A35B-Instruct", "Qwen/Qwen3-235B-A22B-Thinking-2507"],
      "transformer": {
        "use": [
          [
            "maxtoken",
            {
              "max_tokens": 65536
            }
          ],
          "enhancetool"
        ],
        "Qwen/Qwen3-235B-A22B-Thinking-2507": {
          "use": ["reasoning"]
        }
      }
    }
  ],
  "Router": {
    "default": "modelscope,Qwen/Qwen3-Coder-480B-A35B-Instruct"
  }
}

在这里插入图片描述

配置说明:
  • name:提供商名字,随便取,但最好有意义。

  • api_base_url:魔搭社区的API地址,固定不变。

  • api_key:你的魔搭社区访问令牌,下面教你获取。

  • models:要用哪些模型,这里填了Qwen3-Coder的两个型号,第一个是主力编程模型,第二个带推理能力。

  • transformer:一些高级转换,不用管,抄作业就行。

  • Router.default:默认使用哪个模型,这里指定了魔搭社区的主力编程模型

3.3 在魔塔社区获取免费的API Key

进入魔塔社区首页:https://modelscope.cn/my/overview

  1. 没有账号的话可以先注册一个,

  2. 在右上角找到【账号设置】,点击【立即绑定阿里云账号】(已绑跳过)
    在这里插入图片描述
    我已经绑定好阿里云账号,绑定完成后的样子如下:
    在这里插入图片描述

  3. 接着我们来到左侧,找到【访问控制】,点击【新建访问令牌】
    在这里插入图片描述
    在这里插入图片描述

  4. 随便取个名子即可,我之前取了一个名字为ai的令牌
    在这里插入图片描述

  5. 然后我们把这个api key复制下来即可(一串数字)
    在这里插入图片描述

  6. 把复制的令牌贴到上面 config.jsonapi_key 字段。
    这样我们就全部配置完成了!

3.4 启动!启动!

保存一下,我们就可以开始使用Claude Code了!

在cmd终端输入 ccr code 命令就可以直接使用Claude Code了!

第一次运行会问你接受条款,输入 Accept 回车。

然后你就会看到熟悉的 Claude Code 界面,但它背后用的已经是免费的 Qwen3-Coder 啦!
在这里插入图片描述
试试跟它打个招呼
在这里插入图片描述
在这里插入图片描述

3.5 魔塔查看当日已用额度

在主页右上角的【用量额度】,就能看到今天用了多少次。

每天提供2000次免费调用额度还是挺香的!
在这里插入图片描述

4. 其他小技巧

  • 修改配置后记得重启ccr restart

  • 想换模型? 在Claude Code里输入 /model 就可以动态切换配置好的其他模型。

  • UI配置界面:输入 ccr ui 会打开一个网页版配置管理器,图形化操作更直观。

写在最后

有了这套组合拳,Claude Code 不再是有钱人的玩具,咱们也能天天白嫖!
如果魔搭社区的免费额度不够用,你还可以配置其他免费/低价API,比如Ollama本地跑、硅基流动的免费模型等等,灵活得很。

快去试试吧,让你的终端也拥有一个免费的AI程序员!

参考链接

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐