从模型评估、梯度难题到科学初始化:一步步解析深度学习的训练问题

引言

训练一个神经网络过程中,我们会关注两个问题:

  1. 模型能否毫不费力处理应用环境中没见过的数据?
  2. 模型能否被有效训练?

第一个问题涉及偏差与方差的权衡 ,第二个问题涉及梯度传播的稳定性 。本文首先探讨偏差与方差,然后分析梯度问题,最后引出解决梯度问题的关键之一------科学的初始化方法

偏差 & 方差

要理解模型的泛化能力,我们首先要量化它的"泛化误差",即模型在未知数据上的表现。然而,泛化误差并非一个单一的问题,它源于三种不同性质的错误:模型固有的近似能力不足、对训练数据的过度敏感、模型数据本身的不可约噪声。

偏差 - 方差分解公式

规定:

  • \(P_{\text{data}}(x,y)\):数据生成分布
  • \(\mathcal{D}\):从\(P_{\text{data}}\)中独立同分布采样得到的训练数据集
  • \(f(x;\mathcal{D})\):由训练集 \(\mathcal{D}\) 学得的模型 \(f\) 对 \(x\) 的预测输出。
  • \(\overline f(x)\):\(\mathbb{E}{\mathcal{D} \sim P{\text{data}}^{\otimes n}}[f(x; \mathcal{D})]\),对所有可能训练集的期望
  • \(\mathbb{E}{\mathcal{D} \sim P{\text{data}}^{\otimes n}}[\cdot]\):对训练集采样的期望

有:

\[\mathbb{E}{y|x} \mathbb{E}{\mathcal{D}}[(f(x; \mathcal{D}) - y)^2] = \text{Bias}^2(f(x)) + \text{Var}(f(x)) + \sigma_\epsilon^2 \]

其中,

  • \(\text{Bias}^2(f(x))\):偏差,反映模型拟合能力。设真实函数为 \(h(x) = \mathbb{E}[y|x]\)(条件期望),则偏差应定义为 \((\overline f(x) - h(x))^2\)
  • \(\text{Var}(f(x))\):方差,反映不同数据集表现波动情况即泛化能力,\(:=\mathbb{E}_\mathcal{D}[(f(x;\mathcal{D})-\overline f(x))^2]\)
  • \(\sigma_\epsilon ^2\):噪声,反映学习难度,\(:=\mathbb{E}[(y - h(x))^2]\)

这里正好对应两种模型:线性拟合 vs. 神经网络

  • 若线性拟合,模型容量低,并且假设空间简单,即大偏差小方差,泛化误差大,欠拟合。
  • 若复杂度过高的神经网络(如未正则化),会学到训练数据中的噪声,导致在训练数据上表现很好(小偏差),但在未见过的数据上表现波动很大(大方差),泛化误差大,过拟合。
  • 若复杂度适中的神经网络,中等偏差中等方差,泛化误差小,最佳了。

得出结论:偏差大(欠拟合)意味着模型能力不足,未能捕捉数据中的真实模式;方差大(过拟合)意味着模型过于复杂,对训练数据中的噪声和随机波动过度敏感。

影响偏差与方差的三大因素

1. 学习算法能力(模型复杂度)

如果模型欠拟合(偏差大),就换更复杂的模型;如果过拟合(方差大),就换更简单的模型(或对复杂模型做正则化)。

2. 训练数据量

可间接降低偏差,对方差影响大

如果模型过拟合(方差大),优先增加训练数据。

3. 学习任务本身的难度(任务复杂度)

如果任务简单但方差大,就控制模型复杂度或增加数据;如果任务复杂导致偏差大,就提升模型复杂度

处理模型高偏差、高方差的一些方法

欠拟合(高偏差):应该换更复杂的模型、增加特征维数、仔细判断训练误差是否收敛到最低。

过拟合(高方差):应该增加训练数据、正则化(如使用L1正则化、L2正则化(即权重衰减)、Dropout等)、批量归一化、剪枝降复杂度、降低特征维度。

偏差-方差权衡

偏差与方差通常是对立的,提高模型复杂度可以减少偏差,但可能增加方差;反之,降低模型复杂度可以减少方差,但偏差可能会升高。这种权衡关系被称为 偏差-方差权衡(Bias-Variance Tradeoff)

在此我们应该拓展一下 ,经典理论认为模型复杂度(如参数数量)增加,泛化误差会先因偏差降低而下降,后因方差增大而上升,形成单一的U型曲线。双重下降 则揭示了在插值阈值(模型刚好能完美拟合训练数据)后,随着复杂度进一步增加,误差会再次下降,形成"下降-上升-下降"的波浪形曲线。在过参数化区域,模型并非必然过拟合到更差的程度,优化过程会引导其找到一个泛化良好的解。在过参数化体制下,模型好像是先"记忆"(拟合噪声),后通过漫长的优化过程"逐渐获得"泛化规则。(其实真正的原因是隐式正则化使得优化算法(如SGD)倾向于找到最小范数解或平坦极小值)

这告诉我们,如果观察到增加模型参数后性能先变差,不要立即止步。这可能只是处于插值阈值附近的危险区。继续增加规模,并配合足够的训练,性能可能会突破并变得更好。

理解了模型的误差问题由偏差、方差间的权衡决定,我们大体了解如何选择模型的复杂度。但是,当我们着手训练一个复杂深层模型,尤其是现代网络层数不断加深时,我们应该考虑,训练本身是否能够正常进行?否则结果上的"偏差、方差"都成空谈。这就引出了深度学习中的 梯度问题

梯度问题

我们可以认为,

\(\mathbf{h}^{(l)} = f_l (\mathbf{h}^{(l-1)})\)

因此

\(\mathbf{o} = f_L \circ f_{L-1}\circ \ldots\circ f_2\circ f_1(\mathbf{x})\)

那么不难得到:

\[\partial_{\mathbf{W}^{(l)}} \mathbf{o} = \underbrace{\partial_{\mathbf{h}^{(L-1)}} \mathbf{h}^{(L)}}{ \mathbf{M}^{(L)} \stackrel{\mathrm{def}}{=}} \cdot \ldots \cdot \underbrace{\partial{\mathbf{h}^{(l)}} \mathbf{h}^{(l+1)}}{ \mathbf{M}^{(l+1)} \stackrel{\mathrm{def}}{=}} \underbrace{\partial{\mathbf{W}^{(l)}} \mathbf{h}^{(l)}}_{ \mathbf{v}^{(l)} \stackrel{\mathrm{def}}{=}}. \]

也因此,梯度 \(\partial_{\mathbf{W}^{(l)}} \mathbf{o}\) 是 \((L-l)\) 个雅可比矩阵 \(\mathbf{M}^{(L)}, \dots, \mathbf{M}^{(l+1)}\) 与一个二维张量 \(\mathbf{v}^{(l)}\) 的乘积。在深层网络中,连续矩阵乘法可能导致结果数值过大(爆炸 )或过小(消失)。

梯度消失

如果使用Sigmoid函数,就要考虑 Sigmoid 函数在其饱和区梯度逼近于零的情况。因此当输入很大或很小时,梯度消失。为此我们最好用ReLU函数替代之。

如果每一次的 梯度都减小一点,那么多层传播后梯度值会非常小。

如果权重的初始值太小,向前传播过程中每层线性变换的输出方差大幅衰减,进而使激活函数的输入落入该函数的危险区(如 Sigmoid 的饱和区、ReLU的斩杀区)。

梯度爆炸

特指反向传播过程中,梯度值随着层级增加而不断变大,乃至指数型增加。

很可能因为 \(weight\) 的初始值太大,层数过多等等

参数化的对称性

若同一层内的的所有权重均初始化为相同值,那么该层所有的神经元在反向传播中都会获得完全一样的梯度,永远学习相同的特征,极大降低模型容量。

那么,如何为我们模型的训练提供一个良好、稳健的起点呢?这就是神经网络 参数初始化 的showtime了。良好的初始化方式,能够前向传播中保持传递强度,在反向传播中保证梯度流动,从而打破上文的 参数化的对称性 等等问题。

三种常见的初始化

Xavier初始化

目标:保持各层激活值方差稳定,确保前向传播的信号强度和反向传播的梯度强度在初始化时不衰减也不爆炸。

Xavier 初始化因为提出的时间较早,它主要针对像 \(tanh\) 这样在原点附近近似线性且对称的饱和激活函数。因此对于后来广泛使用的 ReLU 及其变种,它的效果并非最优。

这里的3个函数都有饱和区,也就是梯度消失的那段区域,太大或太小时函数导数趋于 \(0\) 。

这个理论的基本原则就是:在前向传播中,保持各层激活值的方差一致;在反向传播中,保持各层梯度的方差一致 。 也就是说初始化阶段的激活值和梯度的期望均为 \(0\)。Xavier初始化是为 \(tanh\) 这类在零点附近近似线性且对称的激活函数设计的,对于 \(Sigmoid\),虽然 Xavier初始化可以用于 \(Sigmoid\) ,但不是最优的。实际应用中,对 \(Sigmoid\) 可以使用 Xavier初始化,但可能需要调整缩放因子。

用数学语言表述,就是要激活函数在原点泰勒展开的一阶近似(当然 \(x\) 也在 \(0\) 附近) \(f(x)\) 满足:

\[\begin{split} &f(x) = -f(-x),即f(0)=0\\ &f'(0)=1\end{split} \]

再换句话,由观察,我们希望任意层的输入信号方差应等于其输出信号方差:

\[Var(a^{(l-1)}) \approx Var(a^{(l)}) \]

观察第 \(l\) 层的线性变换:

\[\mathcal{z_i^{l}}=\sum_{j=1}^{n_{in}}w_{ij}^{(l)}\cdot a_j^{(l-1)} \]

这里先基本假设一下:

  1. 权重 \(w_{ij}^{(l)}\) 独立同分布,均值为 \(0\),方差 \(\sigma _w^2\)
  2. 激活值 \(a_{j}^{(l-1)}\) 独立同分布,均值为 \(0\),方差 \(\sigma _a^2\)
  3. 权重和激活值相互独立
先看看期望:

\[\begin{split} \mathbb{E}[z^{(l)}i]&=\mathbb{E}\bigg[ \sum^{n{in}}{j=1}w{ij}^{(l)}a_j^{(l-1)} \bigg]\\ \mathbb{E}[z_i^{(l)}]&=\sum_{j=1}^{n_{in}}\mathbb{E}[w_{ij}^{(l)}]\cdot \mathbb{E}[a_j^{(l - 1)}]\\ \mathbb{E}[z_i^{(l)}]&=0 \end{split} \]

再看看方差,先着眼于前向传播的过程:

\[\begin{split} Var(\mathcal{z_i^{(l)}})&=\mathbb E[(\mathcal{z_i^{(l)}})^2]-(\mathbb E[\mathcal z_i^{(l)}])^2\\ &=\mathbb E[(\mathcal{z_i^{(l)}})^2] \\ &= \mathbb{E} \left[ \left( \sum_{j=1}^{n_{\text{in}}} w_{ij}^{(l)} a_j^{(l-1)} \right)^2 \right] \\ &= \mathbb{E} \left[ \sum_{j=1}^{n_{\text{in}}} \sum_{k=1}^{n_{\text{in}}} w_{ij}^{(l)} w_{ik}^{(l)} a_j^{(l-1)} a_k^{(l-1)} \right]\\ &= \ldots\\ &= \sum_{j=1}^{n_{in}}\mathbb E[(\mathcal{w}{ij}^{(l)})^2]\cdot\mathbb E [(a_j^{(l - 1)})^2] \space(j=k)\\ &=n{in}\cdot\sigma_w^2\cdot\sigma_a^2\\ \end{split}\]

上文公式推导省略号中的内容:

  • 当 \(j\neq k\),式子为 \(0\)
  • 当 \(j=k\),式子为 \(\sum_{j=1}^{n_{in}}\mathbb E[(\mathcal{w}_{ij}^{(l)})^2]\cdot\mathbb E [(a_j^{(l = 1)})^2]\)
  • 因此,求和中仅 \(j=k\) 的项有贡献。

为了保证激活方差不变,即

\[\begin{split} Var(z_i^{(l)})&=Var(a_j^{(l - 1)})\\ n_{in}\cdot\sigma^2\cdot\sigma_a^2&=\sigma_a^2\\ n_{in}\cdot\sigma_w^2&=1\\ \end{split} \]

接着推导一下反向传播:

反向传播的梯度传播公式如下

\[\frac{\partial L}{\partial a_j^{(l-1)}}=\sum_{i=1}^{n_{out}}w_{ij}^{(l)}\cdot\frac{\partial L}{\partial z_i^{(l)}} \]

那么假设 \(\frac{\partial L}{\partial z_i^{(l)}}\) 独立同分布,方差为 \(\sigma_g^2\) ,可以得到梯度方差的表示:

\[\begin{split} Var\left( \frac{\partial L}{\partial a_j^{(l-1)}} \right)&=\sum_{i=1}^{n_{out}}\mathbb{E}[(w_{ij}^{(l)})^2]\cdot\mathbb{E}\left[ \left( \frac{\partial L}{\partial z_i^{(l)}} \right)^2 \right] \\ &=n_{out}\cdot\sigma_w^2\cdot\sigma_g^2\\ \end{split} \]

我们希望反向传播前后梯度方差不变。即希望:

\[Var\left( \frac{\partial L}{\partial a_j^{(l-1)}} \right)=Var\left( \frac{\partial L}{\partial z_i^{(l)}} \right) \]

那么就可以得到反向传播保持方差不变时应满足的条件:

\[\begin{split} n_{out}\cdot\sigma_w^2\cdot\sigma_g^2&=\sigma_g^2\\ n_{out}\cdot\sigma_w^2&=1 \end{split} \]

因此,这种一下这两个条件,取调和平均:

\[\begin{split} n_{in}\cdot\sigma_w^2&=1\\ n_{out}\cdot\sigma_w^2&=1\\ \sigma_w^2&=\frac{2}{n_{in}+n_{out}}\\ \end{split} \]

即:

\[Var(\mathcal w) = \frac{2}{n_{in}+n_{out}} \]

这样,标准差就出来了:

\[\sigma = \sqrt \frac{2}{n_{in}+n_{out}} \]

因此初始权值应符合的正态分布:

\[W\sim \mathcal N(0,\sigma^2) \]

或者转化为均匀分布形式,即

\[w\sim U\left[ -\sqrt{\frac{6}{n_{in}+n_{out}}},\sqrt{\frac{6}{n_{in}+n_{out}}} \right] \]

然而,Xavier初始化提出的时间有点早,ReLU激活函数还没有得到广泛应用。

对于ReLU函数,Xavier初始化力不从心:

  1. ReLU的函数输出非对称:\(y \in [0,+∞)\)
  2. 负的输入反向输出时梯度为 \(0\)
  3. 会将 \(50\%\) 的神经元输出清零,从而
  • 前向传播:\(Var(a) \approx \frac{1}{2}Var(y)\)
  • 反向传播:梯度方差同样减半

而且对于深层神经网络而言,线性激活函数价值不大,因为它需要非线性激活函数来构建复杂的非线性神经网络。

面对这些问题,He初始化(Kaiming初始化)被提了出来。

Kaiming 初始化

与 Xavier 初始化类似,Kaiming 初始化的目的也是尽量让每一层输出层的方差与输入层的方差一致,以缓解深层网络中的梯度消失、梯度爆炸问题,最后使极深整流网络(如30层)能从零开始直接训练并收敛。

对于向前传播:

\[\begin{split} \text{Var}(y_i) &= \text{Var} \left( \sum_{j=1}^{n_{\text{in}}} w_{ij} \cdot x_j \right) \\&= n_{\text{input}}\cdot\text{Var}(w_{ij}) \cdot \text{Var}(x_j) \end{split} \]

对\(y_i\)加入ReLU函数得到\(a_i\),那么我们就希望:

\[\text{Var}(a_i) \approx \text{Var}(x_j),\quad \forall i,j \]

这里的初始化假设与 Xavier 相同。

因为 \(w_{ij}\) 与 \(x_j\) 独立且均值为 \(0\),有

\[\text{Var}(w_{ij}x_j)=\text{Var}(w_{ij})\text{Var}(x_j)=\sigma_w^2\sigma_x^2 \]

则 \(y_i\) 的方差为:

\[\begin{split} \text{Var}(y_i) &= \text{Var}\left( \sum_{j=1}^{n_{in}}w_{ij}x_j \right)\\ &=\sum_{j=1}^{n_{in}}\text{Var}(w_{ij}x_j)\\ &=\sum_{j=1}^{n_{in}}\sigma_w^2\sigma_x^2\\ &=n_{in}\sigma_w^2\sigma_x^2\\ &=n_{in}\cdot\text{Var}(w)\cdot\text{Var}(x) \end{split} \]

我们假设 \(y_i\) 的分布是关于 0 对称的,那么 \(y_i\) 取正数和取负数的概率各占一半。

再看 \(y_i^2\)。因为平方把正负都变成了正数,所以 \(y_i^2\) 的期望值 \(E[y_i^2]\) 可以拆成两半:一半来自 \(y_i>0\),一半来自 \(y_i<0\)。由于对称,这两半的贡献是一模一样的。

而 ReLU 函数 \(a_i = \max(0, y_i)\) 只取 \(y_i\) 的正值部分,负数部分直接归零。所以 \(a_i^2\) 其实就是 \(y_i^2\) 在 \(y_i>0\) 时的值,其他情况为 0。

因此,\(a_i^2\) 的期望 \(E[a_i^2]\) 正好就等于 \(y_i^2\) 期望的一半,即

\[E[a_i^2]=\frac{1}{2}E[y_i^2] \]

而 \(E[y_i]=0\),有 \(E[y_i^2]=\text{Var}(y_i)\),故

\[E[a_i^2]=\frac{1}{2}\text{Var}(y_i) \]

当 \((E[a_i])^2\) 相较于 \(E[a_i^2]\) 可以忽略时,可近似为:

\[\text{Var}(a_i)\approx\frac{1}{2}\text{Var}(y_i) \]

我们希望 \(\text{Var}(a_i) = \text{Var}(x)\)(当然至少得是近似的),结合可得:

\[\begin{split} \frac{1}{2}\cdot n_{in}\cdot Var(w)\cdot Var(x) &=Var{(x)}\\ Var(w)&=\frac{2}{n_{in}} \end{split}\]

以此类推,可以得到反向传播时,

\[Var(w)=\frac{2}{n_{out}} \]

不过一般情况,我们使用前向传播优先,即

\[W\sim \mathcal{N}(0,\sqrt \frac{2}{n_{in}}) \]

我们为什么不常见类比Xavier做调和平均呢?(其实是可以的,见 PyTorch 中的 mode='fan_avg' )因为ReLU的单向激活特性使得前向传播和反向传播的方差传播规律不同:

  • 对前向传播,ReLU 杀死一半的神经元,方差减半;对反向传播,相当于简单的伯努利掩码,方差依旧减半。
  • 问题在于正向反向的网格结构可能是不同的,且正向反向的衰减机制有席位差别。

pytorch实现:

python 复制代码
layer = nn.Linear(64, 128)
init.kaiming_normal_(layer.weight, a=0, mode='fan_in', nonlinearity='relu')
# a:负斜率(Leaky ReLU 的情况,默认为0)
# Leaky ReLU : 负x轴设置为 ax ,而不是 0 ,通常 a = 0.01

正交初始化

上面两种方法都是对每个权重分别进行随机独立采样,但是由于采样的随机性,仍不可避免出现各种梯度问题。

对于一个 L 层的等宽线性网络,可以很容易得到这个等式:

\[y=W^{(L)}W^{(L-1)}W^{(L-2)}\cdots W^{(2)}W^{(1)}x \]

那么,我们可以直接将 \(W^{(i)}\) 初始化为正交矩阵。

根据线代知识,我们对这个初始权重矩阵的构建分为两步:

  1. 用均值 \(0\) , 方差 \(1\) 的高斯分布构建一个矩阵
  2. 奇异值分解这个矩阵,得到两个正交矩阵,选择其中一个作为权重矩阵

根据正交矩阵的性质,这个线性网络就会在前向、反向传播中都有一定的范数保持性。如果这个网络是非线性的,只需在矩阵前面乘上一个系数 \(\rho\),这个系数与激活函数有关,如对于 \(ReLU\) 应该 \(\rho=\sqrt 2\) ,对于 \(tanh\) 应该 \(\rho\approx 1.0\),这是为了补偿激活函数对信号幅度的压缩(扩张)效应。

更加现代的初始化方法

Fixup

可使在不使用批量归一化的情况下完成深度残差网络训练。

通过缩放残差网络分支的权重来控制梯度规模,避免深层网络的梯度爆炸

方法:

  • 将分类层、残差分支的最后一层初始化为 \(0\)
  • 对其他层使用标准方法的初始化,然后将残差分支中的权重层乘以缩放系数 \(L^{-\frac{1}{2m-2}}\)
  • 在每个分支中添加一个标量乘数(就是前面的缩放系数),在每个卷积、线性和元素级激活层前面添加一个可学习标量偏差(初始为 \(0\) )。

其中

  • \(m\):每个残差块中的权重层数
  • \(L\):网络总残差块数

T-Fixup

在完全移除层归一化的情况下,稳定并高效地训练 Transformer 模型

通过精心设计的参数初始化和简单的标量偏差,在数学上使前向传播的信号幅度和反向传播的梯度范数在初始化时保持稳定,从而完全移除所有 LN 层。

参考文献

Glorot & Bengio. Understanding the difficulty of training deep feedforward neural networks. Jan 2010

He et al. Deep Residual Learning for Image Recognition. arXiv:1512.03385 [cs.CV] 10 Dec 2015

Saxe et al. Sparser, Better, Deeper, Stronger: Improving Static Sparse Training with Exact Orthogonal Initialization. arXiv:2406.01755v1 [cs.LG] 03 Jun 2024

Yilmaz & Heckel. Regularization-wise Double Descent: Why It Occurs and How to Eliminate It. arXiv:2206.09012, 2022.

Zhang et al. Fixup Initialization: Residual Learning Without Normalization. arXiv:1901.09321 [cs.LG] 27 Jan 2019

相关推荐
Coder_Boy_3 小时前
技术让开发更轻松的底层矛盾
java·大数据·数据库·人工智能·深度学习
2401_836235863 小时前
中安未来SDK15:以AI之眼,解锁企业档案的数字化基因
人工智能·科技·深度学习·ocr·生活
njsgcs3 小时前
llm使用 AgentScope-Tuner 通过 RL 训练 FrozenLake 智能体
人工智能·深度学习
2的n次方_4 小时前
CANN ascend-transformer-boost 架构解析:融合注意力算子管线、长序列分块策略与图引擎协同机制
深度学习·架构·transformer
人工智能培训4 小时前
具身智能视觉、触觉、力觉、听觉等信息如何实时对齐与融合?
人工智能·深度学习·大模型·transformer·企业数字化转型·具身智能
pp起床6 小时前
Gen_AI 补充内容 Logit Lens 和 Patchscopes
人工智能·深度学习·机器学习
阿杰学AI7 小时前
AI核心知识91——大语言模型之 Transformer 架构(简洁且通俗易懂版)
人工智能·深度学习·ai·语言模型·自然语言处理·aigc·transformer
芷栀夏7 小时前
CANN ops-math:筑牢 AI 神经网络底层的高性能数学运算算子库核心实现
人工智能·深度学习·神经网络
Yeats_Liao10 小时前
评估体系构建:基于自动化指标与人工打分的双重验证
运维·人工智能·深度学习·算法·机器学习·自动化