第J7周:对于ResNeXt-50算法的思考

>- **🍨 本文为[🔗365天深度学习训练营]中的学习记录博客**

>- **🍖 原作者:[K同学啊]**

一、代码复现

参考上节课程 第J6周:ResNeXt-50实战解析(pytorch版) 第J6周:ResNeXt-50实战解析(TensorFlow版)的内容,复现ResNeXt-50模型的代码如下:

1、引入命名空间

复制代码
import numpy as np
from tensorflow.keras.preprocessing.image import ImageDataGenerator
from tensorflow.keras.utils import to_categorical
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Input,Dense,Dropout,Conv2D,MaxPooling2D,Flatten,GlobalAvgPool2D
from tensorflow.keras.layers import concatenate,BatchNormalization,Activation,Add,ZeroPadding2D,Lambda
from tensorflow.keras.layers import ReLU
from tensorflow.keras.optimizers import Adam
import matplotlib.pyplot as plt
from tensorflow.keras.callbacks import LearningRateScheduler
from tensorflow.keras.models import Model

2、建立分组卷积模块

复制代码
#定义分组卷积
# ----------------------- #
#   groups代表多少组
#   g_channels代表每组的特征图数量
# ----------------------- #
def grouped_convolution_block(init_x,strides,groups,g_channels):
    group_list=[]
    #分组进行卷积
    for c in range(groups):
        #分组取出数据
        x=Lambda(lambda x: x[:,:,:,c*g_channels:(c+1)*g_channels])(init_x)
        #分组进行卷积
        x=Conv2D(filters=g_channels,kernel_size=(3,3),strides=strides,padding='same',use_bias=False)(x)
        #存入list
        group_list.append(x)
    #合并list中的数据
    group_merage=concatenate(group_list,axis=3)
    x=BatchNormalization(epsilon=1.001e-5)(group_merage)
    x=ReLU()(x)
    return x

3、建立残差单元模块

复制代码
#定义残差单元
def block(x,filters,strides=1,groups=32,conv_shortcut=True):
    
    if conv_shortcut:
        shortcut=Conv2D(filters*2,kernel_size=(1,1),strides=strides,padding='same',use_bias=False)(x)
        # eosilon为BN公式中防止分母为零的值
        shortcut=BatchNormalization(epsilon=1.001e-5)(shortcut)
    else:
        # identity_shortcut
        shortcut=x
    
    # 三层卷积层
    x=Conv2D(filters=filters,kernel_size=(1,1),strides=1,padding='same',use_bias=False)(x)
    x=BatchNormalization(epsilon=1.001e-5)(x)
    x=ReLU()(x)
    # 计算每组的通道数
    g_channels=int(filters/groups)
    # 进行分组卷积
    x=grouped_convolution_block(x,strides,groups,g_channels)
    
    x=Conv2D(filters=filters*2,kernel_size=(1,1),strides=1,padding='same',use_bias=False)(x)
    x=BatchNormalization(epsilon=1.001e-5)(x)
    x=Add()([x,shortcut])
    x=ReLU()(x)
    return x

4、堆叠残差单元

每个stack的第一个block的输入和输出的shape是不一致的,所以残差连接都需要使用1*1卷积升维后才能进行Add操作。

而其他block的输入和输出的shape是一致的,所以可以直接执行Add操作。

复制代码
# 堆叠残差单元
def stack(x,filters,blocks,strides,groups=32):
    # 每个stack的第一个block的残差连接都需要使用1*1卷积升堆
    x=block(x,filters,strides=strides,groups=groups)
    for i in range(blocks):
        x=block(x,filters,groups=groups,conv_shortcut=False)
    return x

5、搭建ResNeXt-50 网络模型

复制代码
# 定义ResNext50(32*4d)网络
def ResNext50(input_shape,num_classes):
    inputs=Input(shape=input_shape)
    # 填充3圈0,[224,224,3]->[230,230,3]
    x=ZeroPadding2D((3,3))(inputs)
    x=Conv2D(filters=64,kernel_size=(7,7),strides=2,padding='valid')(x)
    x=BatchNormalization(epsilon=1.001e-5)(x)
    x=ReLU()(x)
    # 填充1圈0
    x=ZeroPadding2D((1,1))(x)
    x=MaxPooling2D(pool_size=(3,3),strides=2,padding='valid')(x)
    # 堆叠残差结构
    x=stack(x,filters=128,blocks=2,strides=1)
    x=stack(x,filters=256,blocks=3,strides=2)
    x=stack(x,filters=512,blocks=5,strides=2)
    x=stack(x,filters=1024,blocks=2,strides=2)
    # 根据特征图大小进行全局平均池化
    x=GlobalAvgPool2D()(x)
    x=Dense(num_classes,activation='softmax')(x)
    # 定义模型
    model=Model(inputs=inputs,outputs=x)
    return model

上面不使用ZeroPadding2D也是可以的,令第一个卷积和池化的padding='same'即可。

6、查看模型摘要

二、问题引入

1、问题

如果conv_shortcut=False,那么执行"x=Add()..."语句时,通道数不一致的,为什么不会报错?

2、思考

首先,联想到Python中numpy数组的广播机制,即允许矩阵在不同维度下进行加减。这点在《deep learning》这本书上有明确显示。如下图所示:

或参考相关文章:

Python 中矩阵或者数组相减的法则

numpy之矩阵相减


其次,查阅TensorFlow和pytorch的教程文档,发现两者都存在广播机制。所以,在ResNet网络中,如果定义的残差单元块中 conv_shortcut=False,那么在执行 x = Add()([x, shortcut]) 语句时,即使通道数不一致也不会报错的原因如下:

在这种情况下,虽然shortcut的维度不同于x的维度,但是,由于Add()方法具有广播机制,TensorFlow会隐式地把一个张量的维度调整到与另一个张量相匹配的维度以实现维度兼容(这种操作指的是较小张量的形状会被扩展以匹配较大张量的形状)。

所以,在上述的操作中,即使由于通道数不同也不会发生报错的现象。

相关推荐
_x_w19 分钟前
【17】数据结构之图及图的存储篇章
数据结构·python·算法·链表·排序算法·图论
anscos26 分钟前
Actran声源识别方法连载(二):薄膜模态表面振动识别
人工智能·算法·仿真软件·actran
-优势在我1 小时前
LeetCode之两数之和
算法·leetcode
WaitWaitWait011 小时前
LeetCode每日一题4.17
算法·leetcode
小媛早点睡1 小时前
贪心算法day9(合并区间)
算法·贪心算法
DataFunTalk1 小时前
Foundation Agent:深度赋能AI4DATA
前端·后端·算法
不是AI1 小时前
【Java编程】【计算机视觉】一种简单的图片加/解密算法
java·算法·计算机视觉
明月看潮生2 小时前
青少年编程与数学 02-016 Python数据结构与算法 23课题、分布式算法
分布式·python·算法·青少年编程·编程与数学
冠位观测者2 小时前
【Leetcode 每日一题】2176. 统计数组中相等且可以被整除的数对
数据结构·算法·leetcode
幼儿园园霸柒柒2 小时前
第七章:7.2求方程a*x*x+b*x+c=0的根,用3个函数,分别求当:b*b-4*a*c大于0、等于0和小于0时的根并输出结果。从主函数输入a、b、c的值
c语言·开发语言·算法·c#