论文略读:LoRA Learns Less and Forgets Less

202405 arxiv

1 主要思想

LORA相比于全参数训练,学的少,但忘的也少

2 实验分析

2.1 训练的表现

  • 在编程和数学任务中,LoRA相比全参数微调表现出明显的劣势

2.2 遗忘的表现

  • 这边的遗忘,是指在数据集A上预训练,然后在数据集B上继续finetune,看在数据集A上的表现
  • 相比全参数微调,LoRA学会的东西较少,但遗忘也相对更少

3 论文的分析:Lora的正则化特性

  • LoRA提供了比经典正则化技术,如权重衰减和dropout,更强的正则化效果。
  • 在下游任务上LoRA的表现低于大多数正则化方法(左图);在遗忘上LoRA优于所有正则化方法(右图)
相关推荐
Swaggy T32 分钟前
自动驾驶轨迹规划算法——Apollo EM Planner
人工智能·算法·自动驾驶
gptplusplus36 分钟前
超越“调参”:从系统架构师视角,重构 AI 智能体的设计范式
人工智能·重构·系统架构
jndingxin44 分钟前
OpenCV图像注册模块
人工智能·opencv·计算机视觉
数据智研1 小时前
【数据分享】上市公司创新韧性数据(2007-2023)
大数据·人工智能
赵英英俊1 小时前
Python day46
python·深度学习·机器学习
荼蘼1 小时前
OpenCv(三)——图像平滑处理
人工智能·opencv·计算机视觉
martian6651 小时前
AI大模型实践项目:医学影像分类器(肺结节检测)
人工智能·ai大模型·医学影像·影像大模型·肺结节
Monkey PilotX1 小时前
机器人“ChatGPT 时刻”倒计时
人工智能·机器学习·计算机视觉·自动驾驶
luoganttcc1 小时前
L4 级别自动驾驶 硬件架构设计
人工智能·自动驾驶·硬件架构
ejinxian1 小时前
AI Agents 2025年十大战略科技趋势
人工智能·ai·ai agents