针对大规模语言模型的离群值安全预训练创新,可防止离群值并保护量化准确性

总结

LLM 4 位量化是在设备上部署的一项重要技术,因为它可以大大减少推理过程中的内存使用量。然而,众所周知,训练过程中出现的 "异常值"(极端激活值)会大大降低量化的性能。传统的方法是在训练后处理这个问题,例如通过训练后量化(PTQ),但这些方法并没有从根本上解决这个问题,而是将异常值视为不可避免的。

在本研究中,我们提出了解决这一问题的新视角:离群值安全预训练(OSP)训练框架,它由 Muong 优化方法、单尺度 RMS 归一化(SSNORM)和可学习的嵌入式投影(EMBPROJ)组成。与传统模型相比,OSP 通过在万亿令牌规模上训练 1.4B 参数模型,显著提高了量化容忍度,减少了性能下降。

建议的方法

所提出的离群值安全预训练(OSP)是一种预训练方法,旨在从根本上防止离群值。该框架由三个部分组成。

首先,Muon 优化方法与 Adam 和 AdaFactor 等传统的对角预条件优化方法不同,它使用了一种正交梯度矩阵的算法。这可以防止激活集中于特定通道(特权基础),并实现所有通道的平等学习。

其次,Single-Scale RMSNorm(SSNORM)消除了传统的按通道缩放,对所有维度使用单一缩放因子,防止了归一化带来的偏差。这使他们能够减少训练过程中的不稳定性,同时也避免了对激活的过度抑制。

第三,嵌入投影(EMBPROJ)使用可学习的投影矩阵均匀化激活分布,以防止嵌入层产生局部异常值;只有嵌入层使用 Adam 进行训练,其他参数使用 Muon。此外,为了实现实用性和计算效率,我们还采用了一种分离式优化策略,即只使用 Adam 对嵌入层进行训练,而对其他参数则使用 Muon。

实验

实验是在一个 14 亿参数的 LLM 上进行的,使用 1,000 亿和 1 万亿代币进行可扩展训练。首先,利用峰度过大量化异常值,并观察其演变情况。使用传统 Adam 训练的模型显示出峰度超过 1000 的离群值,而使用 OSP 的模型则继续保持 0.04 的极低值。

为了验证 4 位量化的性能,比较了 10 个基准(如 ARC、MMLU、GSM8k 等)的平均得分;Adam 训练的模型得分 26.5,而 OSP 模型得分 35.7。此外,当与训练后量化(PTQ)方法结合使用时,OSP 模型始终保持较低的复杂度,并显示出强大的量化性能。

此外,我们还分析了注意力机制中的 "注意力下沉 "现象,这种现象在异常值消失后依然存在,表明两者是由不同的机制造成的。这证明了 OSP 作为一种优化的量化训练方法的有效性。

相关推荐
Faker66363aaa3 分钟前
青香蕉尺寸分类与检测:从小尺寸香蕉手识别到模型优化_cascade-rcnn_hrnetv2p-w40-20e_coco
人工智能·分类·数据挖掘
shangjian0077 分钟前
AI-大语言模型LLM-模型微调8-进阶操作
人工智能·深度学习·语言模型
xindoo8 分钟前
我用AI写了部小说,这里是整个过程
人工智能
传说故事8 分钟前
【论文自动阅读】快速视频生成的过渡匹配蒸馏
人工智能·视频生成
OpenMiniServer14 分钟前
石化能源文明 vs 电气化能源文明
大数据·人工智能·能源
程序员泠零澪回家种桔子14 分钟前
OpenManus开源自主规划智能体解析
人工智能·后端·算法
愚公搬代码15 分钟前
【愚公系列】《AI短视频创作一本通》006-短视频成败之根本(确定短视频选题的方法和技巧)
人工智能
工具人呵呵15 分钟前
[嵌入式AI从0开始到入土]21_基于昇腾310P RC模式的Pi0模型部署实践
人工智能
_张一凡16 分钟前
【AIGC面试面经第七期】旋转位置编码RoPE:从 2D 到 nD 的完美扩展之旅
人工智能·面试·aigc
Coding_Doggy17 分钟前
服务器迁移 | psql大批量数据以及navicat重新连接、conda 环境迁移
linux·数据库·人工智能