概念:
残差网络(Residual Network,简称ResNet)是一种深度卷积神经网络架构,它在2015年由微软研究院的Kaiming He等人提出。ResNet解决了深度学习领域中的一个关键问题:随着网络深度的增加,网络的性能反而可能下降。这一现象被称为梯度消失和梯度爆炸,它们会导致在训练过程中难以有效地更新网络权重。
如何解决问题?
为了解决梯度消失或梯度爆炸问题,论文提出通过数据的预处理以及在网络中使用 BN(Batch Normalization)层来解决。 为了解决深层网络中的退化问题,可以人为地让神经网络某些层跳过下一层神经元的连接,隔层相连,弱化每层之间的强联系。这种神经网络被称为 残差网络 (ResNets)。
residual结构使用了一种shortcut的连接方式,也可理解为捷径。让特征矩阵隔层相加,注意F(X)和X形状要相同,所谓相加是特征矩阵相同位置上的数字进行相加。
ResNet的组成:
-
残差块(Residual Block):
- 每个残差块包含输入和输出之间的一条捷径(shortcut connection)或恒等连接(identity shortcut)。
- 捷径连接可以跳过一个或多个卷积层,将输入直接添加到输出。
-
恒等映射(Identity Mapping):
- 在残差块中,如果输入和输出的维度相同,输入可以直接通过捷径连接添加到输出上,即 F(x)+xF(x)+x。
- 这种结构允许梯度在网络中直接传播,从而缓解梯度消失问题。
-
维度匹配(Dimension Matching):
- 当输入和输出的维度不匹配时,通过1x1的卷积进行降维或升维,以确保输入和输出可以通过捷径连接相加。
-
深层网络训练:
- ResNet允许构建非常深的网络,因为残差块可以很容易地堆叠,而不会显著增加训练难度。
-
退化问题(Degradation Problem):
- 随着网络深度的增加,理论上网络的性能应该提高,但实际上可能会出现性能饱和甚至下降的现象,这被称为退化问题。
- ResNet通过残差学习解决了这个问题,即使网络很深,也能保证性能不会下降。
-
Batch Normalization:
- ResNet在每个卷积层之后使用批量归一化(Batch Normalization),这有助于加速训练并提高性能。
-
ReLU激活函数:
- 在每个卷积层和批量归一化之后使用ReLU激活函数,增加非线性。
-
全局平均池化(Global Average Pooling):
- 在网络的最后,使用全局平均池化层代替全连接层,以减少参数数量。
-
训练技巧:
- 使用适当的初始化方法,如He初始化。
- 使用适当的学习率和正则化技术。
残差网络的优缺点
优点:
- 解决梯度消失问题:通过残差块的恒等映射,ResNet允许梯度直接流向前面的层,有效缓解了梯度消失问题 。
- 提高训练效率:ResNet允许使用更大的学习率和更深层次的网络,从而加快了收敛速度 。
- 强大的特征提取能力:ResNet通过深层网络学习到更复杂的特征表示,提升了图像分类、目标检测等任务的性能 。
- 良好的泛化能力:即使网络非常深,ResNet也能保持良好的泛化能力,不会发生过拟合 。
- 网络结构的灵活性:ResNet的网络结构可以灵活调整,通过增减残差块的数量来适应不同的任务和数据集 。
缺点:
- 计算资源消耗大:ResNet模型较深,需要更多的计算资源和训练时间,特别是在网络较深时 。
- 参数数量较多:与一些轻量级模型相比,ResNet的参数数量较多,可能会导致在资源受限的环境中部署困难 。
- 可能存在冗余:ResNet中可能存在大量冗余层,这些层并不总是必要的,有时可以通过随机深度网络进行训练来解决这个问题 。
- 特征失真:由于残差块中输入与输出的直接相加,可能会造成特征失真,特别是当输入和输出尺寸不匹配时 。
- 对小规模数据集泛化能力有限:在小规模数据集上,ResNet可能不会表现得比浅层网络更好,因为它的复杂性可能导致过拟合 。