测完 GLM-5 我沉默了:国产开源模型什么时候这么能打了?

大家好,我是孟健。智谱刚发布了新一代旗舰模型 GLM-5,我第一时间上手测了测,跟大家聊聊真实感受。

先说结论:工程能力已经站到了 Opus 同一梯队,某些场景甚至更舒服。这是我第一次对国产编程模型说出能打两个字。

看看评测截图,综合能力已经非常接近 Claude Opus 4.5,部分维度甚至持平。


01 这个模型是什么

GLM-5 是智谱刚发布的新一代旗舰模型。参数规模 744B(激活 40B),预训练数据 28.5T。发布前在海外开发者社区已经引发了不少讨论,不少人评价它的代码能力接近 Claude Opus 4.5。

用 Claude Code 接入 GLM-5,直接在熟悉的工作流里测试。

这次的定位很明确------不卷前端炫技,卷后端工程能力。744B 参数(激活 40B),28.5T 预训练数据,代号 Pony Alpha,发布前就在海外开发者圈子里炸了。

我比较好奇的是,它到底能不能在真实开发场景里站住脚。

所以设计了四个测试,从前端到后端到运维,逐个过。


02 测试一: 测试前端 UI 展示

提示词:

复制代码
帮我设计一个 QQ 经典农场攻略网站,响应式交互。风格也要偏 QQ 经典农场那一款。相关的攻略信息可以去网上调研一下。(我说的是最近新出的 QQ 经典农场,它是小程序的,不是以前的那个网页上面的 QQ 农场。请你去网上搜索新上线的小程序版的 QQ 经典农场的所有攻略和资料)

访问 chat.z.ai/

虽然等待时间比 Opus 长一些(推理模型嘛,思考深度换时间),但输出质量让我挺惊喜。

经过 15 分钟,其中还自动修了 2 次 bug,最终效果如上。说实话,比我预期好不少。

0 3 测试 二 :从零搭后端系统

任务:用 Node.js + SQLite 搭一个 API Key 管理系统,包含创建/撤销/验证 Key、鉴权中间件、频率限制、错误处理、Docker 配置。

这类任务是区分"写代码"和"做工程"的分水岭。

GLM-5 的表现让我真的沉默了------它没有上来就糊代码,而是先输出了一个完整的架构规划。分层目录、技术选型理由、文件职责划分都交代清楚了。

分别让我确认每一步设置,而不是上来就干。这个工程习惯,比很多真人开发者都强。

项目位置:

限流策略

最后提交

代码结构

制定计划

数据库表设计

核心功能实现

有几个细节让我印象深刻:

  • API Key 用哈希存储而不是明文,安全意识到位

  • 频率限制、错误处理都写了,不是那种"能跑就行"的 demo

唯一可以优化的地方:一次性输出的代码量很大,如果能加入分步验证会更完美。不过就完成度来说,一次生成 10+ 个文件、项目结构完整、直接能跑------我用 Opus 做类似任务,也就这个水平了。


0 4 测试 三 :Debug 真实报错

第一个例子启动报错,直接问 GLM-5:

这是我自己当时踩过的坑,搜了不少资料才搞定的。

GLM-5 的分析路径非常清晰:第一个方案定位到占用 3000 端口的进程并给出关闭命令;第二个方案直接改用其他端口。

两个方案都是对的。没有瞎猜,没有给一堆你可以试试的废话。直接定位,直接给方案。

这个能力对不熟悉运维的小伙伴来说太实用了------看见黑窗口报错不用慌,直接问就行。


0 5 测试 四 :自动化部署方案

让它设计一个全栈应用(Next.js + Express + PostgreSQL)到 Ubuntu 服务器的自动化部署方案,从环境准备到 SSL 配置全覆盖。

输出的是一个完整的 Shell 脚本,带颜色日志、每步成功/失败判断、错误回退。这不是教程级别的伪代码,是真能往服务器上跑的生产脚本。

还能输出部署架构图,对全栈部署的理解很到位!

值得注意的是:智谱在宣传里说 GLM-5 可以在数百次工具调用后保持连贯。我这次测试只是冰山一角,更复杂的长程 Agent 场景值得期待。


0 6: 几个真实的不足

客观说说还可以优化的地方:

速度可以更快。作为推理模型,一个中等复杂度的请求要等 30-60 秒。不过思考深度和输出质量摆在这里,这个取舍是值得的。而且智谱在持续优化推理速度,这个问题相信很快会改善。

工具链生态在快速完善。智谱已经提供了 Anthropic API 兼容层,可以接入 Claude Code 等主流工具。API 直接调用已经非常稳定,开源生态意味着更大的可能性------社区适配只是时间问题。

开源带来的想象空间。和闭源模型不同,GLM-5 的开源意味着可以私有化部署、可以微调、可以嵌入自己的工具链。这对企业用户来说是巨大的吸引力。

中等难度已经很稳了,期待后续测一些更硬核的场景------重构万行遗留系统、从零写编译器这种级别的挑战。


0 7: 怎么看这件事

抛开模型本身,我觉得更值得关注的趋势是:编程大模型正在从能写代码跨到能做工程。

Opus 4.6 在做这个,GPT-5.3-Codex 在做这个,现在 GLM-5 也在做这个。区别是 GLM-5 开源,跑在国产芯片上,成本低一个量级。

其实回头看,国产大模型在好几个方向上已经不是追赶了。Seedance 2.0 在 AI 视频生成上已经是全球第一梯队,海外用户的口碑非常好。现在 GLM-5 在 AI Coding 方向上也站到了同一梯队。视频生成和代码生成,AI 落地最重要的两个航道,国产模型都已经站到了牌桌上。

现在我的日常编程任务已经开始切到 GLM-5 了。中等复杂度的工程任务、Debug、部署脚本------GLM-5 接得稳稳的,省下来的 API 费用相当可观。

如果你还没试过国产编程模型,GLM-5 绝对值得放进你的工具箱。它可能会让你重新认识国产大模型这五个字。


0 8: 怎么用

  1. 智谱官网对话 :访问 chat.z.ai/,选择 GLM-5 模型直接体验

  2. API 调用:在智谱开放平台 open.bigmodel.cn 注册获取 API Key

  3. Claude Code 接入:智谱提供了 Anthropic 兼容 API,改一下 Claude Code 的配置文件就能用 GLM-5 驱动编程


开源、国产芯片、Opus 级能力------这三个词放在一起,就是 2026 年 AI 编程最大的变量。GLM-5 不是在追赶,是在开辟另一条路。


如果这篇对你有帮助,欢迎点赞、收藏、关注,你的支持是我持续输出的动力 ✨


我的其他平台账号和开源项目在个人主页中,欢迎交流 🤝

相关推荐
恋猫de小郭6 小时前
AI 在提高你工作效率的同时,也一直在增加你的疲惫和焦虑
前端·人工智能·ai编程
程序员鱼皮11 小时前
我用 GLM-5 做了个 AI 女友,能发自拍、发语音、还能帮我干活!
程序员·aigc·ai编程
Invincible_12 小时前
🌟 Pi:藏在 OpenClaw 里的“最小”AI 编程助手
ai编程
小碗细面12 小时前
AI 编程三剑客:Spec-Kit、OpenSpec、Superpowers 深度对比与实战指南
aigc·ai编程
Vibe_Bloom12 小时前
最新!Claude Code 之父的 12 个配置分享
ai编程·claude
送梦想一个微笑25113 小时前
spring ai框架引入spring cloud alibaba2025.0.0后的修改
ai编程·mcp
小林攻城狮13 小时前
效率翻倍!TRAE 快速搞定项目规则与技能初始化
ai编程·vibecoding
Invincible_13 小时前
Codex Cli 在Windows 系统中 `AGENTS.md` 文件完整读取流程总结
ai编程
子昕13 小时前
老外吹爆的Pony就是它!让国产GLM-5写分布式系统,我验证了下,真行
ai编程
HashTang13 小时前
【AI 编程实战】第 11 篇:让小程序飞起来 - 性能优化实战指南
前端·uni-app·ai编程