lora矩阵的初始化为啥B矩阵为0呢,为啥不是A呢

在 LoRA 论文及其标准实现中,LoRA 矩阵 B 确实被初始化为零矩阵,而矩阵 A 则使用标准的初始化方法(例如 Kaiming 或 Xavier 均匀分布)进行初始化。

LoRA 引入的权重更新 \\Delta W 定义为两个低秩矩阵 AB 的乘积:

\\Delta W = B A

1. 为什么 B 矩阵初始化为零?

B 矩阵初始化为零是为了确保在训练开始时,新的 LoRA 模块不会对基座模型(Pre-trained Model)的输出产生任何干扰或改变。

  • 如果 B = 0\\Delta W = B A,那么在训练开始的第一个前向传播中:

    \\Delta W = 0 \\cdot A = 0

  • 这意味着原始的权重矩阵 W 上的更新项 \\Delta W 也是零。模型的输出完全由原始的预训练权重 W 决定,即 W' = W + \\Delta W = W + 0 = W

  • 好处: 这样可以确保训练从一个稳定且收敛良好的预训练状态开始,避免由于随机初始化带来的剧烈、不稳定的梯度波动,从而保护了预训练模型已经学到的知识。

2. 为什么不是 A 初始化为零?

如果 A 矩阵初始化为零,也会得到 \\Delta W = B \\cdot 0 = 0,效果看起来一样。

然而,将 A 初始化为零会带来一个训练过程中的优化问题

  • 梯度消失或不均匀: LoRA 结构是串联的:输入 \\rightarrow A \\rightarrow B \\rightarrow 输出。

    • 如果 A 初始为零,则 A 矩阵的输出会是零向量。

    • 当进行反向传播计算 B 的梯度时,由于 A 的输出是零,导致 B 的输入梯度也会是零(或非常小),这使得 B 矩阵的参数在训练初期难以被有效更新。

    • 虽然 A 矩阵会得到非零的梯度,但整体来看,如果 A 是零,会造成数据流和梯度流在 LoRA 路径上产生瓶颈,使得训练效率低下。

总结:

矩阵 初始化方法 目的
A 矩阵 随机初始化 (例如 Kaiming/Xavier) 确保 LoRA 路径开始时有有效的、非零的数据流,以便 BA 都能接收到正常的梯度信号,加速训练。
B 矩阵 零矩阵 确保 \\Delta W = B A = 0,保证训练从预训练模型的原始状态平稳开始,维护模型的稳定性。
相关推荐
汗流浃背了吧,老弟!19 分钟前
BPE 词表构建与编解码(英雄联盟-托儿索语料)
人工智能·深度学习
小瑞瑞acd1 小时前
【小瑞瑞精讲】卷积神经网络(CNN):从入门到精通,计算机如何“看”懂世界?
人工智能·python·深度学习·神经网络·机器学习
民乐团扒谱机2 小时前
【微实验】机器学习之集成学习 GBDT和XGBoost 附 matlab仿真代码 复制即可运行
人工智能·机器学习·matlab·集成学习·xgboost·gbdt·梯度提升树
芷栀夏2 小时前
CANN ops-math:揭秘异构计算架构下数学算子的低延迟高吞吐优化逻辑
人工智能·深度学习·神经网络·cann
孤狼warrior2 小时前
YOLO目标检测 一千字解析yolo最初的摸样 模型下载,数据集构建及模型训练代码
人工智能·python·深度学习·算法·yolo·目标检测·目标跟踪
机器学习之心2 小时前
TCN-Transformer-BiGRU组合模型回归+SHAP分析+新数据预测+多输出!深度学习可解释分析
深度学习·回归·transformer·shap分析
LLWZAI2 小时前
让朱雀AI检测无法判断的AI公众号文章,当创作者开始与算法「躲猫猫」
大数据·人工智能·深度学习
Σίσυφος19002 小时前
PCL法向量估计 之 RANSAC 平面估计法向量
算法·机器学习·平面
rcc86282 小时前
AI应用核心技能:从入门到精通的实战指南
人工智能·机器学习
霖大侠3 小时前
【无标题】
人工智能·深度学习·机器学习