文心快码已接入GLM-4.6模型

即日起,可在文心快码插件和Comate AI IDE中使用智谱最新的GLM-4.6模型完成开发任务。

9月30日,智谱发布最新的旗舰模型GLM-4.6。作为GLM系列最强的代码Coding模型(较GLM-4.5提升27% ),其在编程能力、上下文长度、推理能力、搜索能力等多个方面实现对GLM-4.5 的超越:

  • 高级编码能力: 在公开基准与真实编程任务中,官方称对齐Claude Sonnet 4,是国内已知的最好的Coding模型。
  • 上下文长度 :上下文窗口由128K→200K,适应更长的代码和智能体任务。
  • 推理能力:推理能力提升,并支持在推理过程中调用工具。
  • 搜索能力:增强模型的工具调用和搜索智能体,在智能体框架中表现更好。
  • 写作能力:在文风、可读性与角色扮演场景中更符合人类偏好。
相关推荐
牛奶28 分钟前
2026年大模型怎么选?前端人实用对比
前端·人工智能·ai编程
牛奶30 分钟前
前端人为什么要学AI?
前端·人工智能·ai编程
冰_河2 小时前
QPS从300到3100:我靠一行代码让接口性能暴涨10倍,系统性能原地起飞!!
java·后端·性能优化
Kagol3 小时前
🎉OpenTiny NEXT-SDK 重磅发布:四步把你的前端应用变成智能应用!
前端·开源·agent
GIS之路4 小时前
ArcGIS Pro 中的 notebook 初识
前端
JavaGuide4 小时前
7 道 RAG 基础概念知识点/面试题总结
前端·后端
桦说编程4 小时前
从 ForkJoinPool 的 Compensate 看并发框架的线程补偿思想
java·后端·源码阅读
ssshooter5 小时前
看完就懂 useSyncExternalStore
前端·javascript·react.js
格砸5 小时前
从入门到辞职|从ChatGPT到OpenClaw,跟上智能时代的进化
前端·人工智能·后端