第J7周:对于ResNeXt-50算法的思考

>- **🍨 本文为[🔗365天深度学习训练营]中的学习记录博客**

>- **🍖 原作者:[K同学啊]**

一、代码复现

参考上节课程 第J6周:ResNeXt-50实战解析(pytorch版) 第J6周:ResNeXt-50实战解析(TensorFlow版)的内容,复现ResNeXt-50模型的代码如下:

1、引入命名空间

import numpy as np
from tensorflow.keras.preprocessing.image import ImageDataGenerator
from tensorflow.keras.utils import to_categorical
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Input,Dense,Dropout,Conv2D,MaxPooling2D,Flatten,GlobalAvgPool2D
from tensorflow.keras.layers import concatenate,BatchNormalization,Activation,Add,ZeroPadding2D,Lambda
from tensorflow.keras.layers import ReLU
from tensorflow.keras.optimizers import Adam
import matplotlib.pyplot as plt
from tensorflow.keras.callbacks import LearningRateScheduler
from tensorflow.keras.models import Model

2、建立分组卷积模块

#定义分组卷积
# ----------------------- #
#   groups代表多少组
#   g_channels代表每组的特征图数量
# ----------------------- #
def grouped_convolution_block(init_x,strides,groups,g_channels):
    group_list=[]
    #分组进行卷积
    for c in range(groups):
        #分组取出数据
        x=Lambda(lambda x: x[:,:,:,c*g_channels:(c+1)*g_channels])(init_x)
        #分组进行卷积
        x=Conv2D(filters=g_channels,kernel_size=(3,3),strides=strides,padding='same',use_bias=False)(x)
        #存入list
        group_list.append(x)
    #合并list中的数据
    group_merage=concatenate(group_list,axis=3)
    x=BatchNormalization(epsilon=1.001e-5)(group_merage)
    x=ReLU()(x)
    return x

3、建立残差单元模块

#定义残差单元
def block(x,filters,strides=1,groups=32,conv_shortcut=True):
    
    if conv_shortcut:
        shortcut=Conv2D(filters*2,kernel_size=(1,1),strides=strides,padding='same',use_bias=False)(x)
        # eosilon为BN公式中防止分母为零的值
        shortcut=BatchNormalization(epsilon=1.001e-5)(shortcut)
    else:
        # identity_shortcut
        shortcut=x
    
    # 三层卷积层
    x=Conv2D(filters=filters,kernel_size=(1,1),strides=1,padding='same',use_bias=False)(x)
    x=BatchNormalization(epsilon=1.001e-5)(x)
    x=ReLU()(x)
    # 计算每组的通道数
    g_channels=int(filters/groups)
    # 进行分组卷积
    x=grouped_convolution_block(x,strides,groups,g_channels)
    
    x=Conv2D(filters=filters*2,kernel_size=(1,1),strides=1,padding='same',use_bias=False)(x)
    x=BatchNormalization(epsilon=1.001e-5)(x)
    x=Add()([x,shortcut])
    x=ReLU()(x)
    return x

4、堆叠残差单元

每个stack的第一个block的输入和输出的shape是不一致的,所以残差连接都需要使用1*1卷积升维后才能进行Add操作。

而其他block的输入和输出的shape是一致的,所以可以直接执行Add操作。

# 堆叠残差单元
def stack(x,filters,blocks,strides,groups=32):
    # 每个stack的第一个block的残差连接都需要使用1*1卷积升堆
    x=block(x,filters,strides=strides,groups=groups)
    for i in range(blocks):
        x=block(x,filters,groups=groups,conv_shortcut=False)
    return x

5、搭建ResNeXt-50 网络模型

# 定义ResNext50(32*4d)网络
def ResNext50(input_shape,num_classes):
    inputs=Input(shape=input_shape)
    # 填充3圈0,[224,224,3]->[230,230,3]
    x=ZeroPadding2D((3,3))(inputs)
    x=Conv2D(filters=64,kernel_size=(7,7),strides=2,padding='valid')(x)
    x=BatchNormalization(epsilon=1.001e-5)(x)
    x=ReLU()(x)
    # 填充1圈0
    x=ZeroPadding2D((1,1))(x)
    x=MaxPooling2D(pool_size=(3,3),strides=2,padding='valid')(x)
    # 堆叠残差结构
    x=stack(x,filters=128,blocks=2,strides=1)
    x=stack(x,filters=256,blocks=3,strides=2)
    x=stack(x,filters=512,blocks=5,strides=2)
    x=stack(x,filters=1024,blocks=2,strides=2)
    # 根据特征图大小进行全局平均池化
    x=GlobalAvgPool2D()(x)
    x=Dense(num_classes,activation='softmax')(x)
    # 定义模型
    model=Model(inputs=inputs,outputs=x)
    return model

上面不使用ZeroPadding2D也是可以的,令第一个卷积和池化的padding='same'即可。

6、查看模型摘要

二、问题引入

1、问题

如果conv_shortcut=False,那么执行"x=Add()..."语句时,通道数不一致的,为什么不会报错?

2、思考

首先,联想到Python中numpy数组的广播机制,即允许矩阵在不同维度下进行加减。这点在《deep learning》这本书上有明确显示。如下图所示:

或参考相关文章:

Python 中矩阵或者数组相减的法则

numpy之矩阵相减


其次,查阅TensorFlow和pytorch的教程文档,发现两者都存在广播机制。所以,在ResNet网络中,如果定义的残差单元块中 conv_shortcut=False,那么在执行 x = Add()([x, shortcut]) 语句时,即使通道数不一致也不会报错的原因如下:

在这种情况下,虽然shortcut的维度不同于x的维度,但是,由于Add()方法具有广播机制,TensorFlow会隐式地把一个张量的维度调整到与另一个张量相匹配的维度以实现维度兼容(这种操作指的是较小张量的形状会被扩展以匹配较大张量的形状)。

所以,在上述的操作中,即使由于通道数不同也不会发生报错的现象。

相关推荐
飞升不如收破烂~29 分钟前
redis的map底层数据结构 分别什么时候使用哈希表(Hash Table)和压缩列表(ZipList)
算法·哈希算法
九圣残炎33 分钟前
【从零开始的LeetCode-算法】3354. 使数组元素等于零
java·算法·leetcode
程序猿小柒1 小时前
leetcode hot100【LeetCode 4.寻找两个正序数组的中位数】java实现
java·算法·leetcode
雨中rain2 小时前
贪心算法(1)
算法·贪心算法
不爱学习的YY酱2 小时前
【操作系统不挂科】<CPU调度(13)>选择题(带答案与解析)
java·linux·前端·算法·操作系统
平头哥在等你2 小时前
求一个3*3矩阵对角线元素之和
c语言·算法·矩阵
飞滕人生TYF2 小时前
动态规划 详解
算法·动态规划
_OLi_2 小时前
力扣 LeetCode 106. 从中序与后序遍历序列构造二叉树(Day9:二叉树)
数据结构·算法·leetcode
ahadee3 小时前
蓝桥杯每日真题 - 第18天
c语言·vscode·算法·蓝桥杯
地平线开发者3 小时前
CPU& 内存加压工具 stress-ng 介绍
算法·自动驾驶