大模型学习基础(九)LoRA微调原理

LoRA的目的在于用更便捷的方式让经过预训练的大模型学会新的技能。

让预训练大模型学习新技能有两种方式:1.重新训练整个模型2.微调训练。重新训练大模型的成本是极其高昂的,因此LoRA是更常见的选择,它只改动大模型中的部分参数,且最终表现结果与重新训练近似。

举例,例如大模型具有参数矩阵,

矩阵共有20个参数

假设进行全量微调(每个参数都变更)后,参数矩阵变为

矩阵变化过程可以表述为:为增量矩阵,

,对矩阵可以进行低秩分解,将其表示为两个低秩矩阵的乘积:

有20个参数,而总共有18个参数。通过对增量矩阵进行低秩分解,使得需要更新的参数量减少了,这就是LoRA微调的原理。而在实际的LoRA的原理中,可以将待训练参数的数量降至0.01%~3%,大大减少了微调的时间复杂度,而性能却接近全微调。

LoRA微调有三方面的优势:

1.减少了待训练参数的数量,大幅度减小训练时间,而性能却接近全量微调。

2.速度快,显存占用低、训练快、部署快

3.模块化,LoRA模块像插件一样,不会影响原模型的使用

模块化设计有四大优势

1.避免灾难性遗忘。直接修改参数矩阵W可能导致模型忘记原始能力,LoRA通过修改增量矩阵,避免了对原参数矩阵的直接修改,避免了对原模型能力的破坏

2.存储高效,一个基础模型+多个LoRA模块,要比存储多个模型更节省内存

3.快速切换任务,可以通过加载不同的LoRA模块,几秒内切换任务

4.兼容性强,多个团队可以共享同一基础模型,各自开发专属的LoRA模块

LoRA微调的灵感来自于奇异值分解(SVD)。

任意一个矩阵M,可以通过SVD分解为三个矩阵的乘积,,其中为正交矩阵,为对角矩阵。

如对于矩阵进行SVD分解,则

对角阵中的值称之为奇异值,非零奇异值的个数等于矩阵的秩。前三个奇异值最大。保留U中的前三列、中的前三列三行、

V中的前三行,然后将其相乘得到新的

对比S和S',

我们发现二者是非常近似的。

这意味着对于大模型中的增量矩阵,我们同样可以将其表述为更低维度的矩阵的乘积从而减少参数量,而基本保留原有信息。

通过对参数矩阵W进行低秩分解可以大大减少更新参数的时间复杂度。

例如对于512*512的矩阵,如果这个矩阵的秩为8,那么对其进行奇异值分解,

中主对角线上将有8个非零元素,那么保留的前8列,的8行8列,的前8行,则维度为512*8,维度为8*8,维度为8*512。

最终可以将其近似为

维度为512*8,维度为8*512,总参数量为512*8*2=8288,而原参数矩阵M参数量为512*512=262144,经过SVD分解、低秩近似后参数量减少为3%,而根据SVD性质我们可以知道M和AB是非常近似的。

回到增量矩阵。对于增量,其维度为m*m,我们假设其是低秩的,其秩为n,而n<<m,那么可以将写为维度为m*n,维度为n*m。

LoRA微调并不需要进行SVD操作,而是通过借鉴SVD的思想,将增量参数矩阵表述为AB的形式,这样在反向传播时可以减少更新参数矩阵的时间复杂度。

在训练模型时,可以直接将写为的初始值人为设定,然后通过反向传播更新。在反向传播更新时,需要更新的参数量大大减少,即LoRA微调的效果。

相关推荐
GISer_Jing2 小时前
2026年前端开发目标(From豆包)
前端·学习·aigc
鄭郑2 小时前
【Playwright学习笔记 02】CSS-selector定位
笔记·学习
CCPC不拿奖不改名2 小时前
python基础面试编程题汇总+个人练习(入门+结构+函数+面向对象编程)--需要自取
开发语言·人工智能·python·学习·自然语言处理·面试·职场和发展
菜鸟‍2 小时前
【论文学习】一种用于医学图像分割单源域泛化的混合双增强约束框架 || 视觉 Transformer 在通用图像分割中的 “缺失环节”
人工智能·深度学习·计算机视觉
五度易链-区域产业数字化管理平台2 小时前
数观丨2026年半导体集成电路产业融资分析
大数据·人工智能
应用市场2 小时前
机器学习中的正向反馈循环:从原理到实战应用
人工智能·深度学习·机器学习
Nan_Shu_6142 小时前
学习: Threejs (17)
学习·three.js
Engineer邓祥浩2 小时前
设计模式学习(18) 23-16 迭代器模式
学习·设计模式·迭代器模式
深度学习实战训练营2 小时前
基于Transformer的无人机对地突防轨迹预测方法研究【k学长深度学习宝库】
深度学习·transformer·无人机