SE Block(Squeeze and Excitation Block)

S E B l o c k ( S q u e e z e a n d E x c i t a t i o n B l o c k ) SE Block(Squeeze and Excitation Block) SEBlock(SqueezeandExcitationBlock)

文章目录

  • [S E B l o c k ( S q u e e z e a n d E x c i t a t i o n B l o c k ) SE Block(Squeeze and Excitation Block) SEBlock(SqueezeandExcitationBlock)](#S E B l o c k ( S q u e e z e a n d E x c i t a t i o n B l o c k ) SE Block(Squeeze and Excitation Block) SEBlock(SqueezeandExcitationBlock))

SE Block 本名Squeeze and Excitation Block ,是JieHu 等人在2019 年提出来的一种通道注意力机制模块。

它主要的核心就是让神经网络自己关注比较重要的通道,并且抑制不重要的通道

即插即用的那一种模块

SEBlock论文地址\](\[[1709.01507\] Squeeze-and-Excitation Networks](https://arxiv.org/abs/1709.01507))

我将从他的原理,公式推导等逐步开始介绍


1. 背景原理

曾经也就是2019 年之前的CNN(卷积神经网络,convolutional neural networks)例如VGGnet,Resnet等在进行卷积操作之后均是让每一个通道都保持基本一致的重要性。

但是实际上并不如此,每个通道的重要性并不相同,我们以最基本的LeNet为例子进行阐述。

LeNet神经网络是最早的也是最原始的卷积神经网络,由YANN LECUN等人在1998年提出

输入一张图像经过两次卷积操作,两次池化操作后得到一组120 个通道的特征图片,注意这120 通道的特征图片是大小完全一致的图片,我们也可以说这120 张图片叫做 120 120 120组特征。那么对于手写字母本身而言,特征有超级多种,譬如每个字母的横竖撇捺等等。

但是其中也包括了图像本身的一些特征,譬如:图像的灰度,图像整体的明暗程度等等,这些个特征对于这个任务而言是无关紧要的,那么将这些特征也带入到后面的全连接层中,就会使得全连接层变得异常的冗杂。

因此就可以用一些算法将这些没有用的特征给他抑制 掉,从而将那些有用的特征给他增强,这种方法就是注意力机制的方法。

本文使用的注意力机制方法就是基本的通道注意力机制:主要关注什么是重要的 ;而空间注意力机制:关注哪里是重要的

在这个背景之下 S E − B l o c k SE-Block SE−Block机制孕育而生,他的主要运作方法就只有下面三个步骤


2.公式推导

这东西就做了一件事情:搞清楚谁才是真正的老大

在神经网络里,有几百个通道,每个通道都在提取不同的特征。原本它们是平起平坐的, S E B l o c k SE Block SEBlock 就是要给它们打分 ,重要的给高分,不重要的给低分。

2.1 压缩-Squeeze

压缩说的特别的帅气,实际上就是基本的全局平均池化 罢了。
z c = F s q ( u c ) = 1 H × W ∑ i = 1 H ∑ j = 1 W u c ( i , j ) . z_c=\mathbf{F}{sq}(\mathbf{u}c)=\frac{1}{H\times W}\sum{i=1}^{H}\sum{j=1}^{W}u_c(i,j). zc=Fsq(uc)=H×W1i=1∑Hj=1∑Wuc(i,j).

这里 H H H表示的是输入特征图片的高度, W W W表示的是输入特征图片的宽度, u c ( i , j ) u_c(i,j) uc(i,j)表示的是第 c c c个通道的第 ( i , j ) (i,j) (i,j)像素的大小是什么。

这么一来就可以求得某个通道 c c c的平均像素值,注意这里是一个标量也就是说 z c z_c zc的本身是一个标量,公式计算出来的仅仅是一个单纯的数字而已。

对于这个公式的理解:你可以把卷积神经网络中的每一个通道(Channel)想象成一个专门的侦探 ,负责寻找某种特定的特征。

通道 A 负责找"猫耳朵",通道 B 负责找"车轮",通道 C 负责找"复杂的纹理背景"。

当你输入一张图片后,这些通道会在图上通过卷积操作产生反应:

  • 如果图中真的有猫耳朵,通道 A 的特征图里就会有很多高数值。
  • 如果图中没有猫耳朵,通道 A 的特征图里数值就很低,或者大部分是 0。

这个公式 z c z_c zc 做的就是:给这个"侦探"打个总分。

它不关心猫耳朵具体在图的左上角还是右下角,它只关心:整张图来看,猫耳朵这个特征出现的强烈程度是多少

  • 如果 z c z_c zc 很大:说明这个通道提取到了非常丰富的信息,这个通道对当前图片很重要
  • 如果 z c z_c zc 很小:说明这个通道在这个图里没找到啥东西,基本在划水,这个通道不重要

2.2 激励-Excitation

这玩意儿其实就是用来捕获通道之间的依赖关系,生成权重的一种方法罢了。
s = σ ( W 2 δ ( W 1 Z ) ) s=\sigma(W_2\delta(W_1Z)) s=σ(W2δ(W1Z))
s s s表示的就是权重; σ \sigma σ表示的就是 s i g m o i d ( ) sigmoid() sigmoid()函数用来进行归一化的操作; δ \delta δ表示的是 R e L U ( ) ReLU() ReLU()函数;第一个矩阵 W 1 W_1 W1是一个 c r × c \frac{c}{r}\times c rc×c这么一个大小的矩阵,用来进行降维度;第一个矩阵 W 2 W_2 W2是一个c \\times \\frac{c}{r} 这么一个大小的矩阵,用来进行升高维度。

这东西其实就是一个微形的多层感知机,只是由于输入和输出的通道数过大直接放进全连接层里面太大了就给他降降维度。

也可以说是 S E B l o c k SE Block SEBlock 的大脑。它拿到了那 64 个总结数字,开始思考:"针对现在的任务,哪些特征是重要的"

2.3 加权

将学习的权重用到原始的特征图上面。把刚才算出来的 C C C 个权重,分别乘到原始输入特征图的 C C C 个通道上


3.SEBLOCK结构框图和基本代码展示

3.1 结构框图

Squeeze-and-Excitation Block
Excitation: 瓶颈结构
1×1×C
1×1×C/r
1×1×C
生成权重 s
原始特征路径
FC Layer 1

降维矩阵 W1

C → C/r
输入特征图 U

H × W × C
全局平均池化

Global Avg Pool
ReLU 激活
FC Layer 2

升维矩阵 W2

C/r → C
Sigmoid 激活

归一化到 0~1
X

Scale操作
重标定后的特征图

H × W × C

3.2

python 复制代码
import torch 
import torch.nn as nn
import matplotlib.pyplot as plt
import torch.nn.functional as F
import torch.optim as optim
from torchvision import datasets, transforms
from torch.utils.data import DataLoader
import os
import numpy as np
import gzip
import sys

device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
print(f"Using device: {device}")

class SEBlock(nn.Module):
    '''SEBlock: Squeeze-and-Excitation Block 注意力机制模块
        Args:
            out_channels:   输入特征图的通道数
            reduction:      压缩比例,默认值为4
    '''
    def __init__(self ,out_channels , reduction = 4):
        super(SEBlock, self).__init__()
        self.global_avg_pool  = nn.AdaptiveAvgPool2d(1)
        self.fc1 = nn.Linear(out_channels, out_channels // reduction , bias=False)
        self.relu = nn.ReLU()
        self.fc2 = nn.Linear(out_channels // reduction , out_channels , bias=False)
        self.sigmoid = nn.Sigmoid()
    
    def forward(self , x):
        b , c , h , w = x.size()                    # 获取输入特征的尺寸,b:batch_size,c:channels,h:height,w:width

        y  = self.global_avg_pool(x).view(b , c)    # 第一步:全局平均池化,得到每个通道的全局特征Sequence,[b, c, 1, 1] -> [b, c]

        y = self.fc1(y)
        y = self.relu(y)
        y = self.fc2(y)
        y = self.sigmoid(y).view(b , c , 1 , 1)     # 第二步:通过两个全连接层和激活函数,得到每个通道的权重,先降低维度后上升维度[b,c] -> [b,c,1,1]

        out = x * y                                 # 第三步:将权重与原始特征图相乘,进行通道的重新校准        

        return out
相关推荐
wjykp3 小时前
6.频谱分析和时谱分析
人工智能·机器学习
飞Link4 小时前
深度学习里程碑:ResNet(残差网络)从理论到实战全解析
人工智能·python·深度学习
ASS-ASH4 小时前
霸王色霸气的本质概括分析
人工智能·python·机器学习·大脑·脑电波
bst@微胖子4 小时前
LlamaIndex数据准备 + Hugging Face模型微调 + LlamaIndex RAG集成实现企业产品知识库微调
人工智能·机器学习
翱翔的苍鹰5 小时前
完整的“RNN + jieba 中文情感分析”项目之一:终极版
人工智能·rnn·深度学习
星瞳科技OpenMV6 小时前
星瞳OpenMV官方机械臂教程|从零开始:Robot Arm机械臂快速上手
arm开发·图像处理·python·计算机视觉·ai·机器人·openmv
茶栀(*´I`*)6 小时前
PyTorch实战:CNN实现CIFAR-10图像分类的思路与优化
pytorch·深度学习·cnn
庄小焱6 小时前
【机器学习】——房屋销售价格预测实战
人工智能·算法·机器学习·预测模型
爱喝可乐的老王6 小时前
深度学习初认识
人工智能·深度学习