大模型学习基础(九)LoRA微调原理

LoRA的目的在于用更便捷的方式让经过预训练的大模型学会新的技能。

让预训练大模型学习新技能有两种方式:1.重新训练整个模型2.微调训练。重新训练大模型的成本是极其高昂的,因此LoRA是更常见的选择,它只改动大模型中的部分参数,且最终表现结果与重新训练近似。

举例,例如大模型具有参数矩阵,

矩阵共有20个参数

假设进行全量微调(每个参数都变更)后,参数矩阵变为

矩阵变化过程可以表述为:为增量矩阵,

,对矩阵可以进行低秩分解,将其表示为两个低秩矩阵的乘积:

有20个参数,而总共有18个参数。通过对增量矩阵进行低秩分解,使得需要更新的参数量减少了,这就是LoRA微调的原理。而在实际的LoRA的原理中,可以将待训练参数的数量降至0.01%~3%,大大减少了微调的时间复杂度,而性能却接近全微调。

LoRA微调有三方面的优势:

1.减少了待训练参数的数量,大幅度减小训练时间,而性能却接近全量微调。

2.速度快,显存占用低、训练快、部署快

3.模块化,LoRA模块像插件一样,不会影响原模型的使用

模块化设计有四大优势

1.避免灾难性遗忘。直接修改参数矩阵W可能导致模型忘记原始能力,LoRA通过修改增量矩阵,避免了对原参数矩阵的直接修改,避免了对原模型能力的破坏

2.存储高效,一个基础模型+多个LoRA模块,要比存储多个模型更节省内存

3.快速切换任务,可以通过加载不同的LoRA模块,几秒内切换任务

4.兼容性强,多个团队可以共享同一基础模型,各自开发专属的LoRA模块

LoRA微调的灵感来自于奇异值分解(SVD)。

任意一个矩阵M,可以通过SVD分解为三个矩阵的乘积,,其中为正交矩阵,为对角矩阵。

如对于矩阵进行SVD分解,则

对角阵中的值称之为奇异值,非零奇异值的个数等于矩阵的秩。前三个奇异值最大。保留U中的前三列、中的前三列三行、

V中的前三行,然后将其相乘得到新的

对比S和S',

我们发现二者是非常近似的。

这意味着对于大模型中的增量矩阵,我们同样可以将其表述为更低维度的矩阵的乘积从而减少参数量,而基本保留原有信息。

通过对参数矩阵W进行低秩分解可以大大减少更新参数的时间复杂度。

例如对于512*512的矩阵,如果这个矩阵的秩为8,那么对其进行奇异值分解,

中主对角线上将有8个非零元素,那么保留的前8列,的8行8列,的前8行,则维度为512*8,维度为8*8,维度为8*512。

最终可以将其近似为

维度为512*8,维度为8*512,总参数量为512*8*2=8288,而原参数矩阵M参数量为512*512=262144,经过SVD分解、低秩近似后参数量减少为3%,而根据SVD性质我们可以知道M和AB是非常近似的。

回到增量矩阵。对于增量,其维度为m*m,我们假设其是低秩的,其秩为n,而n<<m,那么可以将写为维度为m*n,维度为n*m。

LoRA微调并不需要进行SVD操作,而是通过借鉴SVD的思想,将增量参数矩阵表述为AB的形式,这样在反向传播时可以减少更新参数矩阵的时间复杂度。

在训练模型时,可以直接将写为的初始值人为设定,然后通过反向传播更新。在反向传播更新时,需要更新的参数量大大减少,即LoRA微调的效果。

相关推荐
X journey4 分钟前
机器学习进阶(16):如何防止过拟合
人工智能·机器学习
AI_Claude_code4 分钟前
ZLibrary访问困境方案四:利用Cloudflare Workers等边缘计算实现访问
javascript·人工智能·爬虫·python·网络爬虫·边缘计算·爬山算法
学海星球10 分钟前
Claude Code 开发实战:从入门到精通的完整指南
人工智能
一次旅行20 分钟前
Hermes Agent接入飞书
人工智能·飞书
月诸清酒22 分钟前
26-260410 AI 科技日报 (阿里开源视频模型HappyHorse登顶,马斯克疑似泄露Claude参数)
人工智能·开源·音视频
jedi-knight26 分钟前
AGI时代下的青年教师与学术民主化
人工智能·python·agi
ManageEngineITSM36 分钟前
IT服务台为什么越忙越低效?
人工智能·自动化·excel·itsm·工单系统
程砚成38 分钟前
小微美业的数字化突围:一款轻量工具,如何让小店告别经营焦虑?
人工智能
IT_陈寒39 分钟前
为什么我的Vite热更新老是重新加载整个页面?
前端·人工智能·后端
zhaoshuzhaoshu1 小时前
人工智能(AI)发展史:详细里程碑
人工智能·职场和发展