目录
[1. 构建 shortcut 分支(残差连接的旁路)](#1. 构建 shortcut 分支(残差连接的旁路))
[2. 主路径的第一层卷积(1×1)](#2. 主路径的第一层卷积(1×1))
[4. 主路径的第三层卷积(1×1)](#4. 主路径的第三层卷积(1×1))
[5. 残差连接 + 激活函数](#5. 残差连接 + 激活函数)
[自动调整 shortcut 的通道数](#自动调整 shortcut 的通道数)
- 🍨 本文为🔗365天深度学习训练营 中的学习记录博客
- 🍖 原作者:K同学啊
📌你需要解决的疑问:这个代码是否有错?对错与否都请给出你的思考
📌打卡要求:请查找相关资料、逐步推理模型、详细写下你的思考过程
python
# 定义残差单元
def block(x, filters, strides=1, groups=32, conv_shortcut=True):
if conv_shortcut:
shortcut = Conv2D(filters * 2, kernel_size=(1, 1), strides=strides, padding='same', use_bias=False)(x)
# epsilon为BN公式中防止分母为零的值
shortcut = BatchNormalization(epsilon=1.001e-5)(shortcut)
else:
# identity_shortcut
shortcut = x
# 三层卷积层
x = Conv2D(filters=filters, kernel_size=(1, 1), strides=1, padding='same', use_bias=False)(x)
x = BatchNormalization(epsilon=1.001e-5)(x)
x = ReLU()(x)
# 计算每组的通道数
g_channels = int(filters / groups)
# 进行分组卷积
x = grouped_convolution_block(x, strides, groups, g_channels)
x = Conv2D(filters=filters * 2, kernel_size=(1, 1), strides=1, padding='same', use_bias=False)(x)
x = BatchNormalization(epsilon=1.001e-5)(x)
x = Add()([x, shortcut])
x = ReLU()(x)
return x
思考
一、代码功能分析
1. 构建 shortcut 分支(残差连接的旁路)
-
目的:shortcut 分支处理路径
-
如果 conv_shortcut = True,表示输入的维度(通道或空间)与主路径输出不一致,因此需要用 1x1 卷积调整它。
-
若为 False,说明维度匹配,直接将输入作为 shortcut。
-
-
1×1卷积:调整维度、实现下采样(若 strides=2);
-
BatchNorm:标准化,有助于加速训练与收敛。
作用:为残差连接做准备。
2. 主路径的第一层卷积(1×1)
-
目的:降维,减少通道数,从输入通道数 C_in → filters
-
保持空间尺寸不变,设置 stride=1
作用:减少参数数量,提高计算效率,为分组卷积做准备。
3. 分组卷积(3×3)
-
groups:将输入通道划分为多个小组,每组独立卷积。
-
g_channels:每组处理的通道数。
-
grouped_convolution_block 负责执行分组卷积。
作用:提升网络的表达力,降低计算量,是 ResNeXt 的关键创新。
4. 主路径的第三层卷积(1×1)
-
将通道数从 filters → filters * 2,以与 shortcut 的输出通道对齐。
-
保持空间尺寸不变。
作用:恢复原通道数,为后续残差连接准备。
5. 残差连接 + 激活函数
-
Add():将主路径输出与 shortcut 相加,实现残差学习。
-
ReLU():激活输出,非线性映射。
作用:引入残差连接,缓解深层网络退化,提高训练效率与性能。
二、问题分析总结:残差结构中通道数不一致的风险
在所提供的残差单元 block 函数中,存在一个潜在的问题点,即当 conv_shortcut=False 时,shortcut 分支直接使用输入张量 x,而没有经过任何通道数调整操作。与此同时,主路径经过卷积操作之后,其输出通道数被显式设定为 filters * 2。这样,在执行 Add() 操作时,如果输入张量 x 的通道数并不等于 filters * 2,就会出现形状不匹配的错误。
1.深度学习框架中的张量加法规则
以 TensorFlow/Keras 框架为例,在执行张量加法时,要求输入张量的 shape 必须完全一致,包括 batch、height、width 和 channels 四个维度。尽管在某些操作中支持 broadcasting(广播机制),但通道维度是不能自动广播的。因此,如果主路径输出和 shortcut 的通道维度不一致,Add() 操作会直接报错,通常为 InvalidArgumentError。
2.为何代码可能未报错的原因分析
尽管代码存在上述逻辑风险,但在某些特定条件下,运行时并不会出错,可能原因包括:
-
测试阶段未触发问题分支
代码运行过程中,conv_shortcut 参数始终为 True,因此始终使用了 1×1 卷积来调整 shortcut 的通道数,没有触发错误分支。
-
输入张量的通道数刚好等于目标通道数
如果传入的张量 x 的通道数恰好等于 filters * 2,即使没有卷积调整,两个分支的通道数也能对齐,因此不会出错。
-
grouped_convolution_block 可能改变了主路径输出通道数
主路径中的分组卷积函数 grouped_convolution_block 未给出定义。如果它在内部改变了特征图的通道数,可能导致主路径输出与 shortcut 在某些情况下恰好匹配,也可能在某些输入下失配。
3.代码中的潜在风险与不足
当前的 block 函数存在以下几点风险:
-
对通道数匹配的依赖是隐式的,未做任何断言或自动调整;
-
conv_shortcut=False 的分支缺乏鲁棒性,容易在模型设计中因输入不符而触发错误;
-
没有对 filters 与 groups 之间的关系进行合法性检查(如 filters 不可被 groups 整除时分组卷积将出错)。
python
if not conv_shortcut:
shortcut = Conv2D(filters * 2, kernel_size=1, strides=strides, padding='same', use_bias=False)(x)
shortcut = BatchNormalization(epsilon=1.001e-5)(shortcut)
改进建议
显式检查通道维度
在 conv_shortcut=False 的分支中添加通道数一致性断言:
python
if not conv_shortcut:
assert x.shape[-1] == filters * 2, "Shortcut and main path channel mismatch."
自动调整 shortcut 的通道数
即使 conv_shortcut=False,也建议通过 1×1 卷积层使 shortcut 与主路径对齐:
python
if not conv_shortcut:
shortcut = Conv2D(filters * 2, kernel_size=1, strides=strides, padding='same', use_bias=False)(x)
shortcut = BatchNormalization(epsilon=1.001e-5)(shortcut)
统一残差结构接口,增强模块的通用性和健壮性
建议将 shortcut 的处理逻辑统一封装,避免依赖外部输入的特殊情况。