ChatGLM:A Family of Large Language Models from GLM-130B to GLM-4 All Tools

ChatGLM: A Family of Large Language Models from GLM-130B to GLM-4 All Tools

相关链接:arxiv

关键字:Large Language ModelsGLMTransformerPost-training AlignmentMulti-language

摘要

本文介绍了ChatGLM,这是一个不断发展的大型语言模型系列,我们一直在开发中。本报告主要关注GLM-4语言系列,包括GLM-4、GLM-4-Air和GLM-4-9B。这些代表了我们训练的最先进的模型,它们结合了之前三代ChatGLM的所有见解和经验教训。迄今为止,GLM-4模型主要在中文和英文上进行了预训练,使用了大约一万亿个token,以及来自24种语言的一小部分语料库,并主要针对中文和英文使用进行了优化。通过多阶段后训练过程,包括有监督的微调和从人类反馈中学习,实现了高质量的对齐。评估表明,GLM-4在诸如MMLU、GSM8K、MATH、BBH、GPQA和HumanEval等通用指标方面与GPT-4不相上下或表现更佳,在按照IFEval测量的指令跟随方面接近GPT-4-Turbo,在长上下文任务方面与GPT-4 Turbo (128K)和Claude 3相当,并且在使用AlignBench测量的中文对齐方面优于GPT-4。GLM4 All Tools模型进一步对齐,以理解用户意图,并自主决定何时以及使用哪个工具来有效完成复杂任务。在实际应用中,它在通过Web浏览访问在线信息和使用Python解释器解决数学问题等任务中与GPT-4 All Tools相匹配甚至超越。在此过程中,我们开源了一系列模型,包括ChatGLM-6B(三代)、GLM-4-9B(128K、1M)、GLM-4V-9B、WebGLM和CodeGeeX,仅在2023年就在Hugging face上吸引了超过1000万次下载。开放模型可以通过https://github.com/THUDM和https://huggingface.co/THUDM访问。

核心方法

  • 模型架构:GLM系列基于Transformer架构,采用了无偏置的Query、Key、Value(QKV)注意力机制,RMSNorm和SwiGLU替代了传统的LayerNorm和ReLU。
  • 数据预处理:预训练语料包括多语言文档,经过去重、过滤和分词处理,使用了字节级BPE算法优化词汇表大小。
  • 上下文长度扩展:通过位置编码扩展和持续训练,模型的上下文长度从2K扩展到32K,再到128K和1M。
  • 后训练对齐:通过有监督的微调(SFT)和基于人类反馈的强化学习(RLHF),进一步优化模型以符合人类偏好。
  • 多工具使用:GLM-4 All Tools模型能够理解用户意图,并自主选择最合适的工具来完成任务,如Web浏览器、Python解释器、文本到图像模型等。

实验说明

实验结果数据使用如下表格展示,并对实验进行详细说明:

模型 MMLU GSM8K MATH BBH GPQA HumanEval 说明
GLM-4-9B 74.7 84.0 30.4 76.3 - 70.1 多语言预训练,上下文长度8K,后训练使用与GLM-4相同的流程和数据。
GLM-4-Air - - - - - 75.7 性能与GLM-4 (0116)相当,具有更低的延迟和推理成本。
GLM-4 (0520) 83.3 93.3 61.3 84.7 39.9 78.5 最新模型,具有更好的性能。

实验数据来源于论文中的评估部分,展示了不同模型在多个基准测试上的性能。数据要求能够准确反映模

相关推荐
深眸财经几秒前
从商汤科技年报,看一家AI企业的确定性叙事
人工智能·科技·百度
I'mFAN18 分钟前
QT_xcb 问题
人工智能·python·opencv·计算机视觉
赋创小助手30 分钟前
Gartner预计2025年AI支出达6440亿美元:数据中心与服务器市场的关键驱动与挑战
运维·服务器·人工智能·科技·架构
晨航1 小时前
AI Agent拐点已至,2B+2C星辰大海——行业深度报告
人工智能·ai·aigc
果冻人工智能1 小时前
只让 AI 写点坏代码,它却学坏了整颗心
人工智能
zy_destiny1 小时前
【工业场景】用YOLOv12实现饮料类别识别
人工智能·python·深度学习·yolo·机器学习·计算机视觉·目标跟踪
姚瑞南1 小时前
从模糊感知到量化评估:构建一个Prompt打分工具
人工智能·自然语言处理·chatgpt·prompt·aigc
机器之心1 小时前
ICLR 2025 Spotlight | 参数高效微调新范式!上海交大联合上海AI Lab推出参数冗余微调算法
人工智能
机器之心2 小时前
OpenAI的AI复现论文新基准,Claude拿了第一名
人工智能