Day 42 通道注意力

@浙大疏锦行

  • CNN 有很多卷积核,输出很多通道(特征图)
  • 有的通道很重要(比如边缘、纹理)
  • 有的通道没用
  • 通道注意力就是:自动给每个通道算一个权重,重要的通道权重变大,不重要的变小

SE 通道注意力(Squeeze-and-Excitation)

最常用、最简单、效果最好的通道注意力。

结构只有 3 步:

  1. Squeeze(压缩):对每个通道做全局平均池化 → 得到 1×1×C
  2. Excitation(激励):两层全连接 + Sigmoid → 得到每个通道的权重
  3. Scale(缩放):权重 × 原特征 → 强化重要通道
python 复制代码
import torch
import torch.nn as nn
import torch.nn.functional as F

# ===================== 通道注意力(SE Block) =====================
class SEBlock(nn.Module):
    def __init__(self, in_channels, reduction=16):
        super(SEBlock, self).__init__()
        # 1. 全局平均池化 → (B, C, 1, 1)
        self.avg_pool = nn.AdaptiveAvgPool2d(1)
        
        # 2. 两层全连接学习通道权重
        self.fc = nn.Sequential(
            nn.Linear(in_channels, in_channels // reduction),
            nn.ReLU(inplace=True),
            nn.Linear(in_channels // reduction, in_channels),
            nn.Sigmoid()
        )

    def forward(self, x):
        batch, C, H, W = x.size()
        
        # Squeeze
        out = self.avg_pool).view(batch, C)
        
        # Excitation
        weight = self.fc(out).view(batch, C, 1, 1)
        
        # 原特征 × 权重
        return x * weight

通道注意力的好处

  • 几乎不增加计算量
  • 即插即用,所有 CNN 都能加
  • 分类、检测、分割 全都能涨点
  • 配合 ResNet、MobileNet、自己的小 CNN 都极强
相关推荐
gregmankiw6 分钟前
公理引擎(Project Axiom):基于神经符号验证的可执行智能体架构设计方案
人工智能
火山引擎开发者社区10 分钟前
ArkClaw 社群挑战赛|群虾整活大赏
人工智能
云烟成雨TD31 分钟前
Spring AI Alibaba 1.x 系列【31】集成 Studio 模块实现可视化 Agent 调试
java·人工智能·spring
kimi-22243 分钟前
CLIP 与 Qwen-VL 模型架构主要区别
人工智能·语言模型
与芯同行1 小时前
单声道音频Codec在语音交互产品中的工程设计要点与常见问题分析
人工智能·语音识别·ai语音对话芯片·tp9311·天源中芯tpower
citi1 小时前
OpenViking 源代码编译指南
人工智能·context
MediaTea1 小时前
Scikit-learn:数据集
人工智能·python·机器学习·scikit-learn
sali-tec1 小时前
C# 基于OpenCv的视觉工作流-章52-交点查找
图像处理·人工智能·opencv·算法·计算机视觉
冬奇Lab1 小时前
一天一个开源项目(第81篇):YC 总裁亲自写代码,把自己的大脑开源了
人工智能·开源·资讯
冬奇Lab1 小时前
SubAgent 原理深度解析:AI 系统如何通过委托实现专业化分工
人工智能·agent·claude