大家好,我是程序员鱼皮。这段时间国外的大模型真是火到不行,像新出的 Gemini 3.0 和 Claude Opus 4.5,天天最强、天天炸裂,搞的我已经有些麻了。。。
的确目前国外的大模型在编程能力上是领先的,但 不一定是最适合咱们的 。
大多数同学用 AI 文本模型无非就 2 个目的嘛:
-
自己用来写代码
-
对外提供 AI 应用
先说说第一个场景,像我们团队虽然也在用 Cursor 去处理复杂任务,但是前段时间刚刚分享过账单,价格真是太贵了,才一个多月就花了 1 万多 !我整个人都麻了。。。
除了费用贵之外,国外的大模型在很多任务的处理速度上是不如国内大模型的,很容易把简单的任务搞复杂,费时又费钱。之前国内的 GLM-4.6 发布的时候,我也专门 写文章做过对比,让它和 Claude 一决高下,一起做个包含完整前后端代码的工具网站。
结果 GLM-4.6 不仅速度最快,而且功能实现最完整,理解了我的需求。
再说说第二个场景 ------ 对外提供 AI 应用,也就是让自己的程序通过 API 接入 AI 大模型。
我们团队也做过很多 AI 应用,但是用的一直是国内大模型的 API!
原因很简单,不仅能够满足需求,而且 更快、更稳定、更便宜 。所以国外大模型吹得再天花乱坠,我依然建议大家使用国内大模型的 API。
比如最近很火的 GLM-4.6 模型,在真实编程、长上下文处理、推理能力、信息搜索、写作能力与智能体应用等多个方面实现全面提升。他们新推出的 Coding Plan 套餐,更是能够以 Claude Code 1/7 的价格,享受 Claude Pro 套餐的 3 倍用量,同时能够在代码能力上对齐 Claude Sonnet 4。
之前我已经给大家分享过很多个人使用 AI 的技巧,今天这篇文章就主要分享大模型 API 的使用教程,我将以国内智谱最新旗舰的 GLM-4.6 模型为例,手把手带你学会 3 大使用 API 的场景。
一、API 接入开发工具
下面以流行的 Cursor 和 Claude Code 为例,来演示如何将国内大模型 GLM-4.6 的 API 接入开发工具。
Cursor 接入 GLM
首先打开 Cursor 的设置界面,进入模型设置,然后添加自定义模型,注意名称一定要是大写的 GLM-4.6!
添加模型后,需要覆盖 OpenAI 的 API Key 为你自己的、同时覆盖 OpenAI 的请求地址为 https://open.bigmodel.cn/api/coding/paas/v4。
可以在智谱 AI 开放平台获取到 API Key,注意不要泄露!
然后,就可以在对话界面选择 GLM-4.6 大模型,愉快使用了~
国内模型的输出速度很快,实测下来结果也比较靠谱。
Claude Code 接入 GLM
给 Claude Code 接入 GLM 也很简单,1 分钟搞定。
首先一行命令安装 Claude Code:
npm install -g @anthropic-ai/claude-code
然后执行 claude 命令打开程序,默认是需要登录 Claude 账号的,否则无法使用:
不过没关系,让我们把它背后的 AI 大模型换成国内的。首先进入 {用户目录}/.claude 目录,创建一个 settings.json 配置文件:
然后修改配置文件中的内容如下,记得替换成你自己的 API Key:
接下来就可以愉快地使用了~
二、API 接入新项目
接下来让我们学习如何利用大模型 API 开发一个全新的 AI 应用。以 Java 项目为例,我们可以使用主流的 Spring AI 框架来开发 AI 应用。
首先利用 IDEA 创建一个 Spring Boot 项目,注意 JDK 版本最好选择 21:
然后选择 Spring Boot 3.x 的版本(暂时不要使用 4)以及需要的依赖。
Spring AI 已经兼容了智谱系列的大模型(包括 GLM-4.6),只需要勾选 ZhipuAI 依赖就好:
创建新项目完成后,我们可以参考 Spring AI 官方文档来修改 application.yml 配置文件,填写对接智谱 AI 所需的配置。
官方文档:https://docs.spring.io/spring-ai/reference/api/chat/zhipuai-chat.html
比如:
spring:
application:
name: yupi-ai-project
ai:
zhipuai:
api-key: <Your API Key>
chat:
base-url: https://open.bigmodel.cn/api/coding/paas
options:
model: glm-4.6
注意,上述代码中的 base-url 如果不填写,默认为 https://open.bigmodel.cn/api/paas;如果你要使用 Coding Plan 的优惠套餐包,需要替换为 https://open.bigmodel.cn/api/coding/paas(中间多加了个 coding)。
填写好配置后,让我们写一个单元测试文件,直接使用自动注入的 ChatModel 类型的 Bean,然后调用 ChatModel 提供的 call 方法和 AI 对话:
@SpringBootTest
class YupiAiProjectApplicationTests {
@Resource
private ChatModel zhiPuAiChatModel;
@Test
void contextLoads() {
String content = zhiPuAiChatModel.call("你好,我是程序员鱼皮");
System.out.println(content);
}
}
直接运行单元测试,一次 AI 对话就完成了:
将 AI 接入项目就是这么简单~ 而且因为我们用的是 Spring AI 框架,你可以享受框架提供的各种高级能力,比如对话记忆、RAG、工具调用、可观测性等等。
三、API 接入已有项目
如果你的项目已经使用了 AI 开发框架、或者 Open AI 大模型,只需 1 分钟就能替换为国内的大模型 API。
以我当时带大家从 0 开始做的、对标大厂的 AI 零代码生成项目 为例,这个项目使用 Java 主流的 AI 应用开发框架 LangChain4j。
项目代码是 完全开源 的,大家可以直接下载学习,也欢迎到编程导航学习整个项目的完整教程。
之前这个项目接入的是 DeepSeek,现在如果要接入编程能力更快更强的 GLM-4.6,只需要更改一下配置文件:
langchain4j:
open-ai:
reasoning-streaming-chat-model:
base-url: https://open.bigmodel.cn/api/coding/paas/v4
api-key: <Your API Key>
model-name: glm-4.6
max-tokens: 32768
temperature: 0.1
其中,如果你要生成更复杂的项目,max-tokens 可以调大点,GLM-4.6 有 200K 超长上下文窗口,写几十个页面都不成问题。
然后依次启动后端和前端项目,输入提示词,比如让 AI 制作一个精美的作品展示网站:
大概 3 ~ 4 分钟左右,GLM-4.6 完成了任务,生成的网站效果还是相当不错的:
之前这个项目我使用的是 DeepSeek-V3.2-Exp 模型,用同样的提示词,需要花费 6 ~ 8 分钟左右,做出来的效果如图:
显然无论是速度上,还是效果上,GLM-4.6 都更胜一筹。
为消除偶然性,我这边挑选了几个案例,进行了更多对比。
1)先是经典的个人博客网站,二者做出的效果差不多,GLM-4.6 更现代、DeepSeek 更简约传统:
2)然后是一个宇宙大爆炸 3D 动画演示,这里显然 GLM-4.6 更专注于 "做动画效果",而 DeepSeek 做的更像是一个知识科普网站。
咱就是说,DeepSeek 做的这个 "宇宙膨胀" 方格动画真的给我看笑了。
3)然后是做一个微信 UI 原型图,这次我要把 Gemini 3 拉进来一起对比。
Gemini 3 的还原度是最高的,其次是 GLM-4.6,而 DeepSeek 根本就没有做聊天页面。不过这里我用的是 Gemini 3 的 Canvas 模式,有些图标会自己绘制,而国内的大模型直接用 Emoji 来代替图标了,所以逼真度差了一截。
4)最后是我最喜欢让 AI 做的案例 ------ 仿做一个知名的海外视频网站,来验证 AI 的理解能力。
这把我觉得 GLM-4.6 的效果更好一些,增强了 "看视频" 的体验,有很多视频的分类;而 DeepSeek 考虑到了上传视频。到底哪个更符合现代视频网站的特点,我相信大家心里有答案。
尾声
OK,以上就是几种国内大模型 API 的使用方法,学到的朋友们点个赞吧~