最近Claude Code可太火了,但是Claude成本又太高,那么我提供的这个方案可以尝试一下。
直接上核心原理:就是这个方案可以支持任何渠道类型的大模型,不仅仅是Claude。然后再搞一批Key,组成Key池,使用轮询接入Claude Code。 至于Key池哪儿来,比如去xx收一点gemini的key,因为gemini每个项目key每天都有免费额度,那么整几十个就无忧使用gemini-2.5-pro了。还比如硅基搞活动的时候很多人搞了大量活动Key,组个硅基Key池,畅用deepseek,Qwen3-Coder和k2模型。 还有其他各种渠道资源,就只能靠大家自己发掘了。
下面就教你把GPT-Load接入CCR,使用自己的Key池爽用Claude Code。 (顺便推荐一下我的GPT-Load项目😁,有用就点个Star吧。)
相关的项目:
- 我的GPT-Load项目(求Star): github.com/tbphp/gpt-l...
- Claude Code Router: github.com/musistudio/...
- Claude Code: github.com/anthropics/...
前提条件
如果想知道GPT-Load如何部署,请查看上一篇文章:juejin.cn/post/753350... , 或者项目README,一键式部署。
- 确保您已经成功部署并启动了 GPT-Load 服务。此贴以默认的地址
http://localhost:3001
和代理密钥sk-123456
为例。(后面需要改成自己实际配置的代理密钥) - 已安装 Node.js 和 npm。
安装
执行命令,安装Claude Code和CCR。
bash
npm install -g @anthropic-ai/claude-code
npm install -g @musistudio/claude-code-router
配置
配置文件: ~/.claude-code-router/config.json
(如果没有就创建)
配置内容示例:
json
{
"Providers": [
{
"name": "gpt-load-openai",
"api_base_url": "http://localhost:3001/proxy/openai/v1/chat/completions",
"api_key": "sk-123456",
"models": [
"gpt-4.1-mini",
"gpt-4.1-nano"
]
},
{
"name": "gpt-load-gemini",
"api_base_url": "http://localhost:3001/proxy/gemini/v1beta/models/",
"api_key": "sk-123456",
"models": [
"gemini-2.5-pro",
"gemini-2.5-flash"
],
"transformer": {
"use": [
"gemini"
]
}
},
{
"name": "gpt-load-gemini-openai",
"api_base_url": "http://localhost:3001/proxy/gemini/v1beta/openai/chat/completions",
"api_key": "sk-123456",
"models": [
"gemini-2.5-pro",
"gemini-2.5-flash"
]
},
{
"name": "gpt-load-anthropic",
"api_base_url": "http://localhost:3001/proxy/anthropic/v1/messages",
"api_key": "sk-123456",
"models": [
"claude-sonnet-4-20250514",
"claude-3-haiku-20240307"
],
"transformer": {
"use": [
"Anthropic"
]
}
}
],
"Router": {
"default": "gpt-load-gemini,gemini-2.5-pro",
"background": "gpt-load-gemini,gemini-2.5-flash",
"think": "gpt-load-gemini,gemini-2.5-pro",
"longContext": "gpt-load-gemini,gemini-2.5-pro",
"longContextThreshold": 60000,
"webSearch": "gpt-load-gemini,gemini-2.5-flash"
}
}
说明:
- 上面的
gpt-load-gemini-openai
渠道是Gemini的OpenAI兼容格式。 - 记得把
http://localhost:3001
,还有路径里面的分组名称(openai
,gemini
)换成自己的。 Providers
里面的渠道配置,根据自己GPT-Load
的分组渠道自行调整。没有就删除。sk-123456
密钥也要改成自己的代理密钥。- 还有个细节,anthropic渠道里面的transformer.use值是:
Anthropic
,首字母一定要大写。 - 模型也要根据自己的渠道配置,我只是写了几个官方默认的。
- 最后重点,
Router
里面我默认配置了gemini的模型,你根据自己需求调整配置。
总结:就是配置是参考,你可以参考这个格式,但是里面的内容要根据自己 GPT-Load
服务的具体情况调整。别直接复制进去用啊。
使用
CCR! 启动!!!
css
ccr code
GPT-Load 的官方文档也有更多的其他客户端的接入方式和一些细节,有需要直接查看 GPT-Load 官方文档 - 接入指南。