LLM微调 | LoRA: Low-Rank Adaptation of Large Language Models

🔥 发表于论文:(2021) LoRA: Low-Rank Adaptation of Large Language Models

😄 目的:大模型预训练+微调范式,微调成本高。LoRA只微调新增的小部分参数。

文章目录

1、背景

  • adapter增加了模型层数,引入了额外的推理延迟;
  • prefix-tuning比较难训练,效果不如直接finetune。
  • LoRA不会引入额外的延迟,甚至原文中的实验结果表明它和全量微调效果相当,并且速度更快,计算量更少。

2、动机

论文作者得益于前人的一些关于内在维度(intrinsic dimension)的发现:模型是过参数化的,它们有更小的内在维度,模型主要依赖于这个低的内在维度(low intrinsic dimension)去做任务适配(微调)。假设模型在任务适配过程中权重的改变量是低秩(low rank)的,由此提出低秩自适应(LoRA)方法,LoRA允许我们通过优化适应过程中密集层变化的秩分解矩阵来间接训练神经网络中的一些密集层,同时保持预先训练的权重不变。

3、LoRA原理

LoRA原理很简单,冻结预训练模型的参数,并选择用A和B矩阵来替代,在下游任务时只更新A和B。

具体地:

  • 如图,增加一个旁路,先做一个降维再升维的操作,来模拟所谓的内在秩。
  • 只训练降维矩阵A与升维矩阵B。
  • 模型的输入输出维度不变,输出时将BA与PLM的参数叠加。
  • 矩阵A用随机高斯分布初始化。矩阵B全零初始化,使得在训练最开始的一段时间,右路的结果会接近于0,这样模块的输出就仅仅有左路的计算结果,也就是大模型原有参数的计算结果,这使得模型优化的初始点就和原本的大模型保存一致。

公式如下:

w0是是预训练模型初始化的参数,ΔW就是需要更新的参数。LoRA的思想简单来说就是增加小参数矩阵去学习改变量ΔW。

  • 训练过程中,W0是固定不变的,只有A和B包含训练参数,是变化的。
  • 推理的过程中,只需要把改变量加回原模型,就不会有任何延迟。
  • 如果想切换任务,只需要切换任务的过程中,减去BA,然后换上用其它任务训练好的BʹAʹ就可以了。

4、总结

  • 总的来说,基于大模型的内在低秩特性,增加旁路矩阵来模拟全参数微调,LoRA是一个轻量级、简单有效的方案。
  • 目前该技术已经广泛应用于大模型的微调,如chatglm+LoRA,stable diffusion+LoRA等,而且能和其它参数高效微调方法有效结合,例如 State-of-the-art Parameter-Efficient Fine-Tuning (PEFT)

Reference

1\] Hu E J, Shen Y, Wallis P, et al. Lora: Low-rank adaptation of large language models\[J\]. arXiv preprint arXiv:2106.09685, 2021.

相关推荐
大、男人1 小时前
FastMCP之Prompts
人工智能·fastmcp
路边草随风1 小时前
langchain agent动态变更系统prompt
人工智能·python·langchain·prompt
TracyCoder1232 小时前
BERT:让模型 “读懂上下文” 的双向语言学习法
人工智能·深度学习·bert
前网易架构师-高司机2 小时前
标注好的胃病识别数据集,可识别食管炎,胃炎,胃出血,健康,息肉,胃溃疡等常见疾病,支持yolo, coco json,pascal voc xml格式的标注
深度学习·yolo·数据集·疾病·胃病·胃炎·胃部
哥本哈士奇(aspnetx)8 小时前
Streamlit + LangChain 1.0 简单实现智能问答前后端
python·大模型
亚马逊云开发者8 小时前
Q CLI 助力合合信息实现 Aurora 的升级运营
人工智能
全栈胖叔叔-瓜州9 小时前
关于llamasharp 大模型多轮对话,模型对话无法终止,或者输出角色标识User:,或者System等角色标识问题。
前端·人工智能
坚果派·白晓明10 小时前
AI驱动的命令行工具集x-cmd鸿蒙化适配后通过DevBox安装使用
人工智能·华为·harmonyos
GISer_Jing10 小时前
前端营销技术实战:数据+AI实战指南
前端·javascript·人工智能
Dekesas969510 小时前
【深度学习】基于Faster R-CNN的黄瓜幼苗智能识别与定位系统,农业AI新突破
人工智能·深度学习·r语言