北航&悉尼大学联合研发突破性高效AI技术:双重二值化方法重塑大型语言模型效率

论文题目: DB-LLM: Accurate Dual-Binarization for Efficient LLMs

论文链接: https://arxiv.org/abs/2402.11960

大型语言模型(LLMs)的双重二值化方法:新纪元的高效自然语言处理。随着大型语言模型(LLMs)在自然语言处理领域取得显著进展,它们在实际应用中却受到高昂的内存和计算消耗的限制。而量化作为提高LLMs计算效率的最有效手段之一,却在现有的超低位宽量化中遇到了严重的准确性下降问题。

为此,我们在本论文中提出了一种针对LLMs的新颖双重二值化方法------DB-LLM ,在微观层面,我们综合考虑了两比特位宽的准确性优势和二值化的效率优势,引入了灵活的双重二值化(FDB)技术。通过将2位量化权重分割为两套独立的二进制集合 ,FDB在保证表示准确性的同时,引入了灵活性,利用二值化的高效位操作,并保持了超低位量化的高稀疏性。在宏观层面,我们发现了LLMs在量化后预测中存在的失真问题,即与样本模糊性相关的偏差

我们提出了偏差感知蒸馏(DAD)方法,使模型能够根据不同样本进行不同的关注。**全面的实验表明,我们的DB-LLM不仅在超低位量化方面大幅超越当前最先进技术(例如,复杂度从9.64降至7.23),而且在相同位宽下,与最先进方法相比,计算消耗额外减少了20%**。

首次在2比特量化中相比全精度模型达成了帕累托改进(Pareto Improvement)

两个独立01矩阵形式的权重,避免了矩阵乘时的乘法运算

01. 引言

超低位量化(≤ 4位)作为一种极其高效的量化形式,能实现超过8倍的内存压缩比。尽管这些专门的仅权重量化方案在存储消耗上实现了节省,但它们仍无法避免昂贵的浮点运算。我们注意到,这些量化方案会导致严重的准确性下降。例如,尽管应用了先进的2位量化技术,65B模型的性能仍然略低于7B模型。

本文的动机包含微观层面和宏观层面两个方面:

  • 微观层面,近期研究表明,LLMs的权重呈对称高斯分布,且少部分显著权重对量化性能至关重要。在多低位量化的角度进行深入探究时发现,二值化受限于表征能力较弱,且剩余两级权重趋向于零,导致忽视了关键的显著权重,从而产生较高的损失值。而2位量化自然克服了表征瓶颈,虽然最小损失点显著降低,但损失曲面仍然陡峭,带来优化难度。因此,为结合二值化的高效率和2位量化的灵活表征能力,提出灵活的双重二值化(FDB)方法。
  • 宏观层面,量化的大型语言模型在预测偏好上的长尾分布存在偏差。当前主流大型语言模型的构建基于利用长尾语料库的字节对编码(BPE),而全精度LLMs的预测偏好遵循长尾分布。然而,极低位模型的预测偏离了此分布,显示出增加的失真,特别是在倾向于预测词汇表中高频头部类别。对比同样输入下,低位模型预测常见头部类别的概率约是预测不常见尾部类别的1.6倍,表明了对更普遍类别的偏见。通过信息熵度量失败预测的不确定性,发现量化模型在处理含糊样本时的挑战,倾向于更保守的预测。因此,提出了偏差感知蒸馏(DAD)方法,通过利用一对熵(即教师-学生熵)作为难度指标来优先处理不确定样本。

为解决这些问题,我们提出了一种新型的双重二值化方法,称为DB-LLM,以实现精确的2位LLMs。具体来说,我们首先引入灵活的双重二值化(FDB),通过灵活的双二值化器增强表示能力,同时充分利用二值化参数的效率优势。其次,我们提出了偏差感知蒸馏(DAD)来减轻扭曲偏好,这种方法通过重加权蒸馏损失来放大样本间的模糊性,使低位LLMs能够感知每个样本的不确定性,实现平衡的知识传递。

02. 本文方法

2.1 灵活的双重二值化(Flexible Dual Binarization)

FDB方法结合了二值化的高效性和2位量化的准确性。它将2位量化的权重分割为两组独立的1位二进制数,并映射到0和1,旨在同时增强表示能力和利用二值化的位运算效率。

通过这种方式,FDB不仅保持了超低位量化的高稀疏性特点,还提高了对权重的灵活表示,使损失曲面更加平坦,并降低了损失。

具体来说,FDB首先从相对较高位宽的LLM中继承性能,然后通过微调尺度参数进一步增强表示能力。FDB将2位量化权重分为两个1位权重,并分别为它们分配缩放因子α1和α2,这些参数将在微调阶段进行优化​。

2.2 偏差感知蒸馏(Deviation-Aware Distillation)

DAD方法是为了解决超低位量化后LLM的预测偏差问题而提出的。研究发现,经过量化的模型更倾向于预测高频的头部类别,而不是低频的尾部类别,从而表现出对常见类别的偏见。

DAD通过利用教师模型和学生模型的熵作为样本难度的指标,优先处理不确定性高的样本。它通过在蒸馏损失函数中引入教师-学生联合熵,重新加权损失函数,使低位模型更加关注模棱两可的样本,从而实现从全精度教师模型到量化模型的更平衡的知识转移​​​​。

03. 实验效果

生成任务上的困惑度指标: 在生成任务中,DB-LLM模型展示了出色的性能。尤其在使用2位量化时,该模型在不同规模的LLaMA家族模型(如LLaMA-1-30B和LLaMA-1-65B)上表现优异。例如,在LLaMA-1-30B模型上,DB-LLM实现了5.52的困惑度(Perplexity),而在LLaMA-1-65B模型上达到了4.84。这些结果不仅接近全精度LLaMA-1-7B模型的困惑度(5.68),甚至优于其他3位量化方法,如AWQ。这一成果突显了DB-LLM在保持高性能的同时,有效降低量化位宽的能力​​​​。

零样本(zero-shot)任务效果: 在零样本任务中,DB-LLM同样表现出色。在多个零样本任务(如PIQA、ARC-e、ARC-c、HellaSwag和Winogrande)中,DB-LLM在2位量化情况下均实现了令人满意的准确度,全面超越其他方法。具体来说,在LLaMA-1-7B模型上,DB-LLM在这些任务中的平均准确度明显高于其他量化方法,显示了其在处理零样本任务时的高效性和通用性​​​​。

节省存储和计算效率: 在存储和计算效率方面,DB-LLM取得了显著的成果。在LLaMA-1-7B模型上,DB-LLM将模型的存储空间从12.6G降低至2.3G。同时,在计算效率方面,除了受益于位运算,由于权重稀疏性(超过60%)得以提升,相比全精度模型(FP16),DB-LLM将单次推理所需的浮点运算数(FLOPs)从423.4G大幅减少至29.8G,降低了约14.2倍。这种显著的降低不仅在计算资源受限的设备上具有重要价值,同时也减轻了存储和计算的负担​​​​​​。

04. 总结

文中介绍的DB-LLM模型通过结合柔性双重二值化(FDB)方法和偏差感知蒸馏(DAD)方法,有效提升了大型语言模型(LLM)在超低位量化情况下的性能和效率。FDB方法有效地结合了二值化的运算效率和2位量化的准确性,通过将2位量化的权重分割成两组1位二进制数,不仅保持了超低位量化的高稀疏性,还提高了权重的灵活表示能力。而DAD方法则针对超低位量化后模型的预测偏差问题,通过利用教师-学生模型的熵作为样本难度的指标,优先处理不确定性高的样本,实现了从全精度教师模型到量化模型的更平衡的知识转移。这两种方法的结合使DB-LLM在保持低计算需求的同时,也在精度上达到了超越当前最先进技术的水平。


关于TechBeat人工智能社区

TechBeat(www.techbeat.net)隶属于将门创投,是一个荟聚全球华人AI精英的成长社区。

我们希望为AI人才打造更专业的服务和体验,加速并陪伴其学习成长。

期待这里可以成为你学习AI前沿知识的高地,分享自己最新工作的沃土,在AI进阶之路上的升级打怪的根据地!

更多详细介绍>>TechBeat,一个荟聚全球华人AI精英的学习成长社区

相关推荐
985小水博一枚呀6 小时前
【深度学习|可视化】如何以图形化的方式展示神经网络的结构、训练过程、模型的中间状态或模型决策的结果??
人工智能·python·深度学习·神经网络·机器学习·计算机视觉·cnn
明明真系叻9 小时前
第十二周:机器学习笔记
人工智能·机器学习
跟着大数据和AI去旅行10 小时前
使用肘部法则确定K-Means中的k值
python·机器学习·kmeans
QuantumYou10 小时前
【对比学习串烧】 SWav和 BYOL
学习·机器学习
学不会lostfound11 小时前
一、机器学习算法与实践_03概率论与贝叶斯算法笔记
算法·机器学习·概率论·高斯贝叶斯
kinlon.liu12 小时前
AI与自然语言处理(NLP):中秋诗词生成
人工智能·自然语言处理
正义的彬彬侠12 小时前
举例说明计算一个矩阵的秩的完整步骤
人工智能·机器学习·矩阵·回归
鸽芷咕12 小时前
【Python报错已解决】xlrd.biffh.XLRDError: Excel xlsx file; not supported
开发语言·python·机器学习·bug·excel
zhangbin_23713 小时前
【Python机器学习】NLP信息提取——提取人物/事物关系
开发语言·人工智能·python·机器学习·自然语言处理
王豫翔13 小时前
OpenAl o1论文:Let’s Verify Step by Step 快速解读
人工智能·深度学习·机器学习·chatgpt