智谱 GLM-5.1 正式发布:华为芯片训练的开源模型编码能力达 Claude Opus 4.6 的 94.6%

一、GLM-5.1 为何值得关注

2026 年 3 月 27 日,智谱 AI(品牌已更名为 Z.ai)宣布 GLM-5.1 正式上线,面向所有 GLM Coding Plan 用户(Lite/Pro/Max 套餐)开放。这是继 GLM-5 发布仅六周后的一次重大迭代,核心亮点包括:

  • 编码能力大幅提升:在以 Claude Code 为测试框架的编码评测中,GLM-5.1 得分 45.3(满分 113),较 GLM-5 的 35.4 提升 28%
  • 逼近闭源前沿:与 Claude Opus 4.6 的 47.9 分相比,GLM-5.1 达到其 94.6% 的水平,差距仅 2.6 分
  • 全部基于华为芯片训练:这是目前在编码任务上表现最接近西方前沿模型的国产硬件训练成果
  • 即将开源:据社区信息(据 Reddit r/LocalLLaMA),模型权重将于 4 月 6 日或 7 日以 MIT 协议发布

二、核心评测数据解读

模型 编码评测得分(满分 113) 相对 Opus 4.6 占比 推理速度(tokens/s)
Claude Opus 4.6 47.9 100% ---
GLM-5.1 45.3 94.6% 44.3
GLM-5 35.4 73.9% ---

Z.ai 官方数据及 Serenitiesai 的独立评测文章,GLM-5.1 的编码评测得分为 45.3。需要注意以下几点(据 serenitiesai.com 评测):

  1. 评测为自报数据:截至 3 月 30 日,尚无独立第三方实验室对 45.3 分进行验证
  2. 测试框架偏差:使用 Claude Code 作为测试框架可能对 Claude 模型系列有内建优势,直接对比需谨慎
  3. 速度代价:GLM-5.1 的推理速度约 44.3 tokens/s,大约是 GPT-5.4 的一半,是 Grok 4.20 的约 1/6(据 BridgeBench 数据)。对于 Agent 式自主编码场景影响较小,但交互式结对编程时体感明显

三、技术亮点分析

3.1 强化学习驱动的编码专项优化

据多方分析(据 LinkedIn 技术文章),GLM-5.1 的编码能力飞跃主要归功于一套大规模强化学习(RL)训练管线,针对编码任务分布进行了专项优化。六周内实现 28% 的提升,体现了当前迭代式 RL 后训练的高效性。

3.2 国产硬件突破

GLM-5.1 完全在华为昇腾芯片上完成训练,这证明了主权算力栈(sovereign compute stack)在前沿编码任务上已具备竞争力。对于有数据隐私要求或本地部署需求的开发者和企业,这提供了一条不依赖 NVIDIA 生态的可行路径。

3.3 Agent 编码工作流支持

GLM-5.1 支持的核心编码能力包括:

  • 自主多步编码任务(minimal hand-holding)
  • 长上下文代码库重构与调试
  • Agentic 工作流:规划 → 执行 → 验证循环

四、Coding Plan 定价与实操接入

4.1 套餐定价

据 [Z.ai]官方订阅页面[z.ai/subscribe]截至3 月 30 日数据):

套餐 月费 适用场景
Lite $3(促销价) 轻度编码辅助
Pro $10 起 日常开发主力
Max 更高(具体需查官网) 重度 Agent 编码

对比 Claude Pro 的 20/月定价,GLM-5.1 Coding Plan 以 3-10/月的价格提供了 94.6% 的编码性能,性价比优势显著。

4.2 在 Claude Code 中切换到 GLM-5.1

Z.ai 官方文档(docs.z.ai/devpack/using5.1),在 Claude Code 中使用 GLM-5.1 需要修改环境变量:

macOS 用户

bash 复制代码
# 编辑 Claude Code 配置
# 将默认模型映射修改为 GLM-5.1
export ANTHROPIC_DEFAULT_OPUS_MODEL="glm-5.1"
export ANTHROPIC_DEFAULT_SONNET_MODEL="glm-5.1"
export ANTHROPIC_DEFAULT_HAIKU_MODEL="GLM-4.5-Air"

# 启动 Claude Code 后确认模型已切换
# 在 Claude Code 终端中手动将 model name 改为 "glm-5.1"

Windows 用户:同样修改对应环境变量,具体路径参见官方文档。

4.3 在 OpenClaw 中使用

Z.ai 文档,GLM-5.1 也支持在 OpenClaw 等 Coding Agent 中使用,步骤如下:

yaml 复制代码
# OpenClaw 配置示例(~/.openclaw/config.yaml)
model:
  provider: "z-ai"
  name: "glm-5.1"
  api_key: "your-z-ai-api-key"
  # 确保使用 Z.ai 的 API 端点
  base_url: "https://api.z.ai/v1"

⚠️ 注意:目前仅支持配置了自定义模型设置的 Coding Agent 工具。如果你使用的工具不支持自定义模型配置,需要等待后续官方适配。

五、适用场景与局限性

适合使用 GLM-5.1 的场景

  • 成本敏感的独立开发者:以 1/7 到 1/2 的价格获得接近 Opus 级别的编码辅助
  • 数据隐私要求高的企业:等待 4 月开源后可本地部署,数据不出内网
  • 国产化合规需求:华为芯片训练 + 即将开源的权重,满足信创要求
  • Agent 式长链路编码:自主规划与执行的场景中,速度劣势不明显

需要谨慎的场景

  • 交互式实时编程:44.3 tokens/s 的速度在结对编程中体感较慢
  • 非编码任务:目前的评测集中在编码领域,通用推理/写作/数学等能力尚未有对等评测
  • 生产环境稳定性:作为新发布模型,建议先在非关键环境中充分测试

六、对行业的影响

  1. 国产 AI 芯片可行性再获验证:GLM-5.1 证明了华为昇腾芯片可以训练出在特定任务上逼近全球前沿水平的模型
  2. 编码模型竞争白热化:从 MiniMax M2.5 到 GLM-5.1,开源/低成本编码模型正在快速缩小与 Claude Opus 的差距
  3. 开源生态加速:4 月初的 MIT 协议开源将为本地部署和二次开发提供新选择

七、小结与行动建议

GLM-5.1 以 28% 的代际提升和 94.6% 的 Opus 编码水平,在成本效益上树立了新标杆。对于开发者的具体行动建议:

  1. 立即体验:注册 GLM Coding Plan Lite($3/月),在 Claude Code 或 OpenClaw 中切换模型试用
  2. 关注开源动态:4 月 6-7 日关注 GitHub 上的权重发布,评估本地部署可行性
  3. 等待独立评测:在做出生产决策前,建议等待第三方独立验证数据
  4. 对比测试:建议在自己的实际项目中做 A/B 对比,而非仅依赖通用 benchmark

GLM-5.1 用 $3 的价格做到了 Claude Opus 94.6% 的编码水平,国产芯片训练的开源模型正在改写游戏规则。 你会考虑在项目中用 GLM-5.1 替代 Claude 吗?你更看重编码速度还是性价比?欢迎评论区分享你的看法!

👍 觉得有价值?点赞支持一下

⭐ 收藏本文,等开源权重发布后随时回看接入指南

🔔 关注我,每天 AI 技术干货更新,第一时间获取 GLM-5.1 开源后的实测评测!

相关推荐
以太浮标2 小时前
华为eNSP模拟器综合实验之- NATServer 实践配置解析
网络·网络协议·华为·智能路由器·信息与通信
枫叶丹42 小时前
【HarmonyOS 6.0】ArkUI 状态管理进阶:深入理解 @Consume 装饰器默认值特性
开发语言·华为·harmonyos
Are_You_Okkk_3 小时前
AI开源知识库跨部门闭环搭建,效率提升40%
大数据·运维·人工智能·架构·开源
HwJack203 小时前
HarmonyOS Wear Engine Kit:让智能手表应用“活”起来的魔法工具箱
华为·harmonyos·智能手表
芯智工坊3 小时前
每周一个开源项目 #7:VibeVoice 微软开源前沿语音AI框架
开源
枫叶丹43 小时前
【HarmonyOS 6.0】ArkUI SymbolGlyph 进阶:快速替换动效、阴影、渐变与动效控制详解
华为·harmonyos
淼淼爱喝水3 小时前
华为 防火墙直连互通配置:实现双防火墙 Ping 通
服务器·网络·华为
eggwyw3 小时前
华为数据中心CE系列交换机级联M-LAG配置示例
服务器·华为·php
攻城狮在此4 小时前
华为企业网二层交换、三层交换、出口路由组网配置(静态路由)
网络·华为