大模型学习基础(九)LoRA微调原理

LoRA的目的在于用更便捷的方式让经过预训练的大模型学会新的技能。

让预训练大模型学习新技能有两种方式:1.重新训练整个模型2.微调训练。重新训练大模型的成本是极其高昂的,因此LoRA是更常见的选择,它只改动大模型中的部分参数,且最终表现结果与重新训练近似。

举例,例如大模型具有参数矩阵,

矩阵共有20个参数

假设进行全量微调(每个参数都变更)后,参数矩阵变为

矩阵变化过程可以表述为:为增量矩阵,

,对矩阵可以进行低秩分解,将其表示为两个低秩矩阵的乘积:

有20个参数,而总共有18个参数。通过对增量矩阵进行低秩分解,使得需要更新的参数量减少了,这就是LoRA微调的原理。而在实际的LoRA的原理中,可以将待训练参数的数量降至0.01%~3%,大大减少了微调的时间复杂度,而性能却接近全微调。

LoRA微调有三方面的优势:

1.减少了待训练参数的数量,大幅度减小训练时间,而性能却接近全量微调。

2.速度快,显存占用低、训练快、部署快

3.模块化,LoRA模块像插件一样,不会影响原模型的使用

模块化设计有四大优势

1.避免灾难性遗忘。直接修改参数矩阵W可能导致模型忘记原始能力,LoRA通过修改增量矩阵,避免了对原参数矩阵的直接修改,避免了对原模型能力的破坏

2.存储高效,一个基础模型+多个LoRA模块,要比存储多个模型更节省内存

3.快速切换任务,可以通过加载不同的LoRA模块,几秒内切换任务

4.兼容性强,多个团队可以共享同一基础模型,各自开发专属的LoRA模块

LoRA微调的灵感来自于奇异值分解(SVD)。

任意一个矩阵M,可以通过SVD分解为三个矩阵的乘积,,其中为正交矩阵,为对角矩阵。

如对于矩阵进行SVD分解,则

对角阵中的值称之为奇异值,非零奇异值的个数等于矩阵的秩。前三个奇异值最大。保留U中的前三列、中的前三列三行、

V中的前三行,然后将其相乘得到新的

对比S和S',

我们发现二者是非常近似的。

这意味着对于大模型中的增量矩阵,我们同样可以将其表述为更低维度的矩阵的乘积从而减少参数量,而基本保留原有信息。

通过对参数矩阵W进行低秩分解可以大大减少更新参数的时间复杂度。

例如对于512*512的矩阵,如果这个矩阵的秩为8,那么对其进行奇异值分解,

中主对角线上将有8个非零元素,那么保留的前8列,的8行8列,的前8行,则维度为512*8,维度为8*8,维度为8*512。

最终可以将其近似为

维度为512*8,维度为8*512,总参数量为512*8*2=8288,而原参数矩阵M参数量为512*512=262144,经过SVD分解、低秩近似后参数量减少为3%,而根据SVD性质我们可以知道M和AB是非常近似的。

回到增量矩阵。对于增量,其维度为m*m,我们假设其是低秩的,其秩为n,而n<<m,那么可以将写为维度为m*n,维度为n*m。

LoRA微调并不需要进行SVD操作,而是通过借鉴SVD的思想,将增量参数矩阵表述为AB的形式,这样在反向传播时可以减少更新参数矩阵的时间复杂度。

在训练模型时,可以直接将写为的初始值人为设定,然后通过反向传播更新。在反向传播更新时,需要更新的参数量大大减少,即LoRA微调的效果。

相关推荐
是店小二呀7 小时前
CANN 异构计算的极限扩展:从算子融合到多卡通信的统一优化策略
人工智能·深度学习·transformer
冻感糕人~7 小时前
收藏备用|小白&程序员必看!AI Agent入门详解(附工业落地实操关联)
大数据·人工智能·架构·大模型·agent·ai大模型·大模型学习
予枫的编程笔记7 小时前
【Linux入门篇】Ubuntu和CentOS包管理不一样?apt与yum对比实操,看完再也不混淆
linux·人工智能·ubuntu·centos·linux包管理·linux新手教程·rpm离线安装
陈西子在网上冲浪7 小时前
当全国人民用 AI 点奶茶时,你的企业官网还在“人工建站”吗?
人工智能
victory04317 小时前
hello_agent第九章总结
人工智能·agent
小徐xxx7 小时前
ResNet介绍
深度学习·resnet·残差连接
骇城迷影7 小时前
Makemore 核心面试题大汇总
人工智能·pytorch·python·深度学习·线性回归
Leoobai7 小时前
当我花30分钟让AI占领了我的树莓派
人工智能
AI资源库7 小时前
Remotion 一个用 React 程序化制作视频的框架
人工智能·语言模型·音视频
Web3VentureView7 小时前
SYNBO Protocol AMA回顾:下一个起点——什么将真正推动比特币重返10万美元?
大数据·人工智能·金融·web3·区块链