LLM微调 | LoRA: Low-Rank Adaptation of Large Language Models

🔥 发表于论文:(2021) LoRA: Low-Rank Adaptation of Large Language Models

😄 目的:大模型预训练+微调范式,微调成本高。LoRA只微调新增的小部分参数。

文章目录

1、背景

  • adapter增加了模型层数,引入了额外的推理延迟;
  • prefix-tuning比较难训练,效果不如直接finetune。
  • LoRA不会引入额外的延迟,甚至原文中的实验结果表明它和全量微调效果相当,并且速度更快,计算量更少。

2、动机

论文作者得益于前人的一些关于内在维度(intrinsic dimension)的发现:模型是过参数化的,它们有更小的内在维度,模型主要依赖于这个低的内在维度(low intrinsic dimension)去做任务适配(微调)。假设模型在任务适配过程中权重的改变量是低秩(low rank)的,由此提出低秩自适应(LoRA)方法,LoRA允许我们通过优化适应过程中密集层变化的秩分解矩阵来间接训练神经网络中的一些密集层,同时保持预先训练的权重不变。

3、LoRA原理

LoRA原理很简单,冻结预训练模型的参数,并选择用A和B矩阵来替代,在下游任务时只更新A和B。

具体地:

  • 如图,增加一个旁路,先做一个降维再升维的操作,来模拟所谓的内在秩。
  • 只训练降维矩阵A与升维矩阵B。
  • 模型的输入输出维度不变,输出时将BA与PLM的参数叠加。
  • 矩阵A用随机高斯分布初始化。矩阵B全零初始化,使得在训练最开始的一段时间,右路的结果会接近于0,这样模块的输出就仅仅有左路的计算结果,也就是大模型原有参数的计算结果,这使得模型优化的初始点就和原本的大模型保存一致。

公式如下:

w0是是预训练模型初始化的参数,ΔW就是需要更新的参数。LoRA的思想简单来说就是增加小参数矩阵去学习改变量ΔW。

  • 训练过程中,W0是固定不变的,只有A和B包含训练参数,是变化的。
  • 推理的过程中,只需要把改变量加回原模型,就不会有任何延迟。
  • 如果想切换任务,只需要切换任务的过程中,减去BA,然后换上用其它任务训练好的BʹAʹ就可以了。

4、总结

  • 总的来说,基于大模型的内在低秩特性,增加旁路矩阵来模拟全参数微调,LoRA是一个轻量级、简单有效的方案。
  • 目前该技术已经广泛应用于大模型的微调,如chatglm+LoRA,stable diffusion+LoRA等,而且能和其它参数高效微调方法有效结合,例如 State-of-the-art Parameter-Efficient Fine-Tuning (PEFT)

Reference

1\] Hu E J, Shen Y, Wallis P, et al. Lora: Low-rank adaptation of large language models\[J\]. arXiv preprint arXiv:2106.09685, 2021.

相关推荐
玖日大大几秒前
IoTDB AINode:SQL驱动时序AI全流程落地
人工智能·sql·iotdb
AAD555888991 分钟前
木材缺陷检测与分类:基于FreeAnchor-X101的智能识别系统_1
人工智能·目标跟踪·分类
移幻漂流1 分钟前
人工智能的上限:跨越奇点的边界与不可逾越的壁垒
人工智能
spssau1 分钟前
实证分析 | 影响关系研究如何选择回归模型?64种回归模型分类汇总
人工智能·数据挖掘·回归
说私域1 分钟前
社交驱动下的商业模式进化:AI智能名片链动2+1模式S2B2C商城小程序的融合创新
人工智能·微信·小程序·开源
工藤学编程3 分钟前
零基础学AI大模型之LLM大模型存储记忆功能
人工智能
Katecat996633 分钟前
钻斗设备部件识别与分类_yolo12-A2C2f-DFFN模型详解与应用
人工智能·分类·数据挖掘
草莓熊Lotso4 分钟前
Linux 命令行参数与环境变量实战:从基础用法到底层原理
linux·运维·服务器·开发语言·数据库·c++·人工智能
阳艳讲ai4 分钟前
九尾狐AI:让AI落地更简单,让商业增长更直接
人工智能
2501_941337065 分钟前
耳部疾病图像识别与分类:基于FreeAnchor与X101模型的实现
人工智能·分类·数据挖掘