LLM微调 | LoRA: Low-Rank Adaptation of Large Language Models

🔥 发表于论文:(2021) LoRA: Low-Rank Adaptation of Large Language Models

😄 目的:大模型预训练+微调范式,微调成本高。LoRA只微调新增的小部分参数。

文章目录

1、背景

  • adapter增加了模型层数,引入了额外的推理延迟;
  • prefix-tuning比较难训练,效果不如直接finetune。
  • LoRA不会引入额外的延迟,甚至原文中的实验结果表明它和全量微调效果相当,并且速度更快,计算量更少。

2、动机

论文作者得益于前人的一些关于内在维度(intrinsic dimension)的发现:模型是过参数化的,它们有更小的内在维度,模型主要依赖于这个低的内在维度(low intrinsic dimension)去做任务适配(微调)。假设模型在任务适配过程中权重的改变量是低秩(low rank)的,由此提出低秩自适应(LoRA)方法,LoRA允许我们通过优化适应过程中密集层变化的秩分解矩阵来间接训练神经网络中的一些密集层,同时保持预先训练的权重不变。

3、LoRA原理

LoRA原理很简单,冻结预训练模型的参数,并选择用A和B矩阵来替代,在下游任务时只更新A和B。

具体地:

  • 如图,增加一个旁路,先做一个降维再升维的操作,来模拟所谓的内在秩。
  • 只训练降维矩阵A与升维矩阵B。
  • 模型的输入输出维度不变,输出时将BA与PLM的参数叠加。
  • 矩阵A用随机高斯分布初始化。矩阵B全零初始化,使得在训练最开始的一段时间,右路的结果会接近于0,这样模块的输出就仅仅有左路的计算结果,也就是大模型原有参数的计算结果,这使得模型优化的初始点就和原本的大模型保存一致。

公式如下:

w0是是预训练模型初始化的参数,ΔW就是需要更新的参数。LoRA的思想简单来说就是增加小参数矩阵去学习改变量ΔW。

  • 训练过程中,W0是固定不变的,只有A和B包含训练参数,是变化的。
  • 推理的过程中,只需要把改变量加回原模型,就不会有任何延迟。
  • 如果想切换任务,只需要切换任务的过程中,减去BA,然后换上用其它任务训练好的BʹAʹ就可以了。

4、总结

  • 总的来说,基于大模型的内在低秩特性,增加旁路矩阵来模拟全参数微调,LoRA是一个轻量级、简单有效的方案。
  • 目前该技术已经广泛应用于大模型的微调,如chatglm+LoRA,stable diffusion+LoRA等,而且能和其它参数高效微调方法有效结合,例如 State-of-the-art Parameter-Efficient Fine-Tuning (PEFT)

Reference

1\] Hu E J, Shen Y, Wallis P, et al. Lora: Low-rank adaptation of large language models\[J\]. arXiv preprint arXiv:2106.09685, 2021.

相关推荐
高峰君主10 分钟前
生成式AI全栈入侵:当GPT-4开始自动编写你的Next.js路由时,人类开发者该如何重新定义存在价值?
人工智能
不学习怎么给老板打工?20 分钟前
yolov8使用
深度学习
J先生x23 分钟前
【开源项目】基于sherpa-onnx的实时语音识别系统 - LiveASR
人工智能·语音识别
火星资讯39 分钟前
“兴火·燎原”总冠军诞生,云宏信息《金融高算力轻量云平台》登顶
人工智能·科技
AI产品备案44 分钟前
算法备案类型解析:如何判断你的算法属于哪种类型?
深度学习·安全
whaosoft-1431 小时前
51c自动驾驶~合集37
人工智能
小技工丨1 小时前
详解大语言模型生态系统概念:lama,llama.cpp,HuggingFace 模型 ,GGUF,MLX,lm-studio,ollama这都是什么?
人工智能·语言模型·llama
陈奕昆1 小时前
大模型微调之LLaMA-Factory 系列教程大纲
人工智能·llama·大模型微调·llama-factory
上海云盾商务经理杨杨1 小时前
AI如何重塑DDoS防护行业?六大变革与未来展望
人工智能·安全·web安全·ddos
q_q王2 小时前
本地知识库工具FASTGPT的安装与搭建
python·大模型·llm·知识库·fastgpt