Claude Code使用技巧-为Claude Code接入国产大模型

在AI时代的程序员,越来越离不开AI开发代码工具,目前比较热门的有Claude code、codex、opencode以及智能AI的IDE比如,cursor、trae、antigravity等其他工具。

使用AI开发工具离不开大模型的接入,AI工具就比如是一辆车的外壳,只有加上大模型发动机才能发挥出巨大的能量。

本文介绍下比较的Claude Code【简称CC】的使用,并且可以接入国产大模型,免费使用大模型。

安装Claude

第一步是获取 Claude Code 的命令行客户端(CLI)

环境准备

在安装之前,请确保你的系统中已经安装了 Node.js 18.0 或更高版本。Claude Code 是基于 Node.js 生态构建的,npm 是其首选的安装工具。你可以在终端中运行以下命令来检查你的 Node.js 版本:

bash 复制代码
node -v

如果版本低于 18.0,请先前往Node.js 官网进行升级

或者使用nvm进行升级

bash 复制代码
# Download and install nvm:
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.3/install.sh | bash

# in lieu of restarting the shell
\. "$HOME/.nvm/nvm.sh"

# Download and install Node.js:
nvm install 22

# Verify the Node.js version:
node -v # Should print "v22.20.0".

# Verify npm version:
npm -v # Should print "10.9.3".

全局安装 Claude Code

打卡终端,运行以下命令来全局安装 Claude Code

bash 复制代码
npm install -g @anthropic-ai/claude-code

等一会,安装完成后,可以通过运行以下命令来验证 Claude Code 安装和运行是否成功

bash 复制代码
# 查看 claude 的安装位置
# which claude
/usr/local/bin/claude

# claude --version
2.1.12 (Claude Code)

看到版本号说明已经安装成功。

首次运行 Claude Code

如果你直接运行 claude 命令,你将看到 Claude Code 的"欢迎"页面,如下图所示:

可以看到 Claude Code 让你选择终端主题(Terminal Theme),默认是第一个 Dark mode。这里我们可以直接敲击回车进入下一个页面(后续如果要重新配置主题时,可以通过 /config 斜杠命令进行):

第二个页面会引导你选择登录方式,

  • Claude Code 支持通过浏览器登录官方 Anthropic 账户,
  • 也可以通过 API 方式与 Claude 大模型进行交互 (通过方向键选择下面的选项"Anthropic Console account")。

不过,这里请先不要进行这一步,因为我们的目标是绕过官方 API,连接到我们自己的"引擎"。

接入国产大模型

连接国产 AI 大模型- 智谱大模型

首先需要注册智谱 AI 的账户 并创建 API Key

打开 智谱 官网,注册并登录你的账户。打卡API keys页面

然后就可以通过环境变量配置 Claude Code 访问智谱大模型 API 的连接地址和身份令牌了。你可以在你的 Shell 配置文件中添加下面两行

bash 复制代码
export ANTHROPIC_BASE_URL="https://open.bigmodel.cn/api/anthropic"
export ANTHROPIC_AUTH_TOKEN="<your_zhipu_api_key>"

以上是MAC系统配置;windows系统需要在环境变量中进行配置。

  • ANTHROPIC_BASE_URL:这是最关键的一行。它告诉 Claude Code 客户端,不要去访问默认的 Anthropic API 地址,而是将所有的网络请求都发送到智谱 AI 的 API 兼容端点。我们在这里实现了"请求重定向"。
  • ANTHROPIC_AUTH_TOKEN:尽管变量名看起来是"Anthropic"的,但由于我们已经重定向了 BASE_URL,这个 Token 实际上会被发送给智谱 AI 的服务器进行验证。我们在这里实现了"身份凭证替换"。

环境变量生效后,我们在本地新建一个项目test重新执行 claude:

可以看到下图

这次 Claude Code 没有让我们选择 login method,而是直接 login 成功了!敲击回车后,我们看到下一个页面:

询问我是否信任该本地文件夹,敲击回车选择信任后,我们便正式进入 Claude Code 的工作页面:

在输入提示符后面输入 /status 后回车,就可以看到当前 Claude Code 使用的模型的各种最新信息:

使用的是 claude-sonnet-4-5-20250929,不过显然这不是真的,背后智谱大模型到底使用什么模型呢?我们可以自行设置;

设置默认模型

接下来就设置一下要使用的智谱 AI 的模型。找到并修改 Claude Code 的(分级)配置文件 settings.json。这个文件是 Claude Code 的"大脑中枢",控制着它的核心行为,包括环境变量、权限、工具行为等;

在我们动手修改 settings.json 之前,你必须先建立一个清晰的认知:Claude Code 的配置并非只有一个文件,而是一个设计精巧的分层配置体系。有点类似npm包的层级,项目中的级别最高,也可全局中安装依赖包。

核心思想是,高层级的配置会覆盖低层级配置中的同名设置

这五个层级各自的用途非常明确:

  • 企业级策略(managed-settings.json):由 IT/DevOps 团队统一分发,用于强制执行公司级安全策略,拥有最高优先级,不可被覆盖。
  • 命令行参数(例如--model ...):为单次会话提供的临时覆盖,非常适合快速测试。
  • 项目级个人设置(.claude/settings.local.json):你个人在此项目的特定偏好(如测试用模型),默认被 Git 忽略,不会与团队共享。
  • 项目级共享设置(.claude/settings.json):需要团队所有成员共享的项目级规范(如权限规则),应该提交到代码库。
  • 用户级全局设置(~/.claude/settings.json):存放你个人的、希望在所有项目中都生效的全局配置。这正是我们本次"引擎移植"手术的核心操作区。

我们以用户级全局配置 ~/.claude/settings.json 为例,来看看如何设置默认使用的智谱大模型。

这个文件通常位于你用户主目录下的 .claude 文件夹中

bash 复制代码
mkdir -p ~/.claude
# 使用你熟悉的编辑器打开,比如VS Code或Vim
# 如果文件不存在,这个命令会创建它
touch ~/.claude/settings.json
# 或者
# vim ~/.claude/settings.json

打开这个(可能是空的)settings.json 文件,将以下内容完整地复制进去:

bash 复制代码
{
  "env": {
    "ANTHROPIC_DEFAULT_HAIKU_MODEL": "glm-4.5-air",
    "ANTHROPIC_DEFAULT_SONNET_MODEL": "glm-4.6",
    "ANTHROPIC_DEFAULT_OPUS_MODEL": "glm-4.6"
  }
}

保存并关闭 settings.json 文件。我们重新运行 Claude Code 并通过 /status 命令查看当前模型信息:

可以看到修改了模型的调用。

智谱提供了一些免费模型的使用

https://docs.bigmodel.cn/cn/guide/models/free/glm-4.7-flash

可以修改成这些模型进行使用。

免费模型开发能力有限,开发一些简单功能可以使用,如果使用热门流行的模型,还是需要付费使用。

通过代理转发链接

如果不想使用国产模型,也可以使用国内的一些代理商,通过他们提供的转发API可以使用原生的claude的大模型。

作为曾注册和测试了10来个系统账户,测试使用下来 CC club 使用最方便,售后服务也比较好,免费的额度给的比较多,而且每周都可以重置免费额度。这里的付费额度也是非常优惠和划算的。

当然你也可以注册其它代理使用:

主要介绍下CC club的使用

可以按照官方提供的使用文档进行配置;前提是已经安装好了CC;

然后就主要在 配置 这一步

配置完成后,就可以使用原汁原味的claude工具。

使用Claude-code-router调用魔搭社区的模型

使用claude-code-router,可以调用魔搭社区的模型,魔搭社区提供每天2000次的调用额度,当然每个模型还有日调用限制额度。可以测试使用不同的模型。

首先全局安装 claude-code-router 插件

https://github.com/musistudio/claude-code-router

bash 复制代码
npm install -g @musistudio/claude-code-router

然后按照说明问题创建并配置 ~/.claude-code-router/config.json

bash 复制代码
{
  "OPENAI_API_KEY": "$OPENAI_API_KEY",
  "GEMINI_API_KEY": "${GEMINI_API_KEY}",
  "Providers": [
    {
      "name": "openai",
      "api_base_url": "https://api.openai.com/v1/chat/completions",
      "api_key": "$OPENAI_API_KEY",
      "models": ["gpt-5", "gpt-5-mini"]
    }
  ]
}

openai是chatGPT的模型,使用时会有一些网络问题。

我们可以使用魔搭社区的免费模型,每天有2000的免费调用额度。

魔搭社区的使用,要先完成阿里云的认证。

在首页-访问控制下,创建key,也可以使用默认的key。后边调用模型时,都需要填写key;

在模型页面选择支持推理的模型

选择一个点击进去

在模型的详情页面中,可以在查看代码示例中找到配置使用方法

比如:GLM-4.7模型

不同模型的json配置

下面是使用GLM-4.7模型的完整的config.json配置;

json 复制代码
{
  "Providers": [
    {
      "name": "modelscope",
      "api_base_url": "https://api-inference.modelscope.cn/v1/chat/completions",
      "api_key": "你自己的APIKEY",
      "models": ["ZhipuAI/GLM-4.7"],
      "transformer": {
        "use": [
          [
            "maxtoken",
            {
              "max_tokens": 65536
            }
          ],
          "enhancetool"
        ],
        "Qwen/Qwen3-235B-A22B-Thinking-2507": {
          "use": ["reasoning"]
        }
      }
    }
  ],
  "Router": {
    "default": "modelscope,ZhipuAI/GLM-4.7",
    "think": "modelscope,ZhipuAI/GLM-4.7",
    "background": "modelscope,ZhipuAI/GLM-4.7",
    "longContext": "modelscope,ZhipuAI/GLM-4.7"
  }
}

添加deepseek的模型配置

json 复制代码
{
  "Providers": [
    {
      "name": "modelscope",
      "api_base_url": "https://api-inference.modelscope.cn/v1/chat/completions",
      "api_key": "ms-fd370b1c-3aed-4c0c-9980-2c545dbc4782",
      "models": ["deepseek-ai/DeepSeek-V3.2"],
      "transformer": {
        "use": [
          [
            "maxtoken",
            {
              "max_tokens": 65536
            }
          ],
          "enhancetool"
        ],
        "Qwen/Qwen3-235B-A22B-Thinking-2507": {
          "use": ["reasoning"]
        }
      }
    }
  ],
  "Router": {
	  "default": "modelscope,deepseek-ai/DeepSeek-V3.2",
	  "think": "modelscope,deepseek-ai/DeepSeek-V3.2",
	  "background": "modelscope,deepseek-ai/DeepSeek-V3.2",
	  "longContext": "modelscope,deepseek-ai/DeepSeek-V3.2"
  }
}

其他的模型都是类似的配置方法。使用下来,越是热门模型每日的调用限制额度越低,可以进行多测试。

相关推荐
心易行者6 小时前
AI编程小白入门:5分钟打造可变现应用(附工具+提示词+部署指南)
ai编程
你知道“铁甲小宝”吗丶7 小时前
VSCode使用Claude Code
vscode·ai·ai编程
JavaGuide7 小时前
屠榜 GitHub,被迫改名!2026 年最火的 AI 助手 Moltbot
ai·github
哥布林学者7 小时前
吴恩达深度学习课程五:自然语言处理 第三周:序列模型与注意力机制(一)seq2seq 模型
深度学习·ai
数字游民95277 小时前
小程序上新,猜对了么更新110组素材
人工智能·ai·小程序·ai绘画·自媒体·数字游民9527
蝈蝈tju8 小时前
Vibe Coding 正确姿势: 先会指挥, 再让AI干
人工智能·经验分享·ai
CoderJia程序员甲8 小时前
GitHub 热榜项目 - 日榜(2026-01-28)
人工智能·ai·大模型·github·ai教程
Ftsom8 小时前
【6】kilo 上下文管理与压缩机制
人工智能·agent·ai编程·kilo
己亥孟陬8 小时前
【安全+高效+低成本】尝鲜Moltbot(原Clawdbot)
ai·agent·clawdbot·moltbot