DAY54 CBAM注意力

目录

[1. 通道注意力模块(Channel Attention Module)复习](#1. 通道注意力模块(Channel Attention Module)复习)

[2. 空间注意力模块(Spatial Attention Module)](#2. 空间注意力模块(Spatial Attention Module))

[3. CBAM 的定义(Convolutional Block Attention Module)](#3. CBAM 的定义(Convolutional Block Attention Module))


1. 通道注意力模块(Channel Attention Module)复习

通道注意力解决的是"看什么" (What) 的问题,即在众多的特征通道中,哪些通道包含更有用的信息。

  • 核心逻辑

    • 双重池化 :同时使用全局平均池化 (AvgPool)全局最大池化 (MaxPool)。平均池化保留全局背景,最大池化捕捉最显著的特征(如强边缘、高亮处)。

    • 共享 MLP:将池化后的向量送入一个共享的全连接层(通常包含降维和升维,以减少参数量),学习通道间的依赖关系。

    • 权重生成 :将两个池化的结果相加,通过 Sigmoid 激活函数生成 0 到 1 之间的权重,最后乘回原始特征图,实现对重要通道的加强和无效通道的抑制。

2. 空间注意力模块(Spatial Attention Module)

空间注意力解决的是"在哪里" (Where) 的问题,即在图像的特征图中,哪些位置(像素点)是关键区域。

  • 核心逻辑

    • 维度压缩:沿着通道轴进行平均池化和最大池化,把 C 个通道压缩成 2 个通道(一张均值图和一张最大值图)。

    • 特征融合 :将这两张图拼接(Concat),然后使用一个较大的卷积核(如 )进行卷积。大卷积核能提供更大的感受野,帮助模型理解物体的位置关系。

    • 权重生成 :卷积输出经过 Sigmoid 得到空间权重图,覆盖在特征图上,让模型"盯住"重点区域(如猫的头部),忽略背景区域。

3. CBAM 的定义(Convolutional Block Attention Module)

CBAM 是一种轻量级、即插即用的卷积神经网络注意力模块。

  • 定义:它将"通道注意力"和"空间注意力"组合在一起。通过串行的方式(先计算通道注意力,再在结果上计算空间注意力),对特征进行双重强化。

  • 三大特点

    1. 双重维度:比传统的 SE 模块(仅通道注意力)多了一个空间维度,提升了模型定位目标的能力。

    2. 即插即用:它可以直接插入到任何现有的卷积网络(如 ResNet, MobileNet, YOLO 等)的卷积层之间,无需改变原网络的主体结构。

    3. 高效性:它增加的参数量极少,但在图像分类、目标检测等任务中通常能带来明显的性能提升。

一句话总结:

CBAM 通过通道注意力告诉模型"什么特征重要",再通过空间注意力告诉模型"哪里重要",二者结合让特征表达更加精准。

相关推荐
NAGNIP3 小时前
一文搞懂深度学习中的通用逼近定理!
人工智能·算法·面试
冬奇Lab4 小时前
一天一个开源项目(第36篇):EverMemOS - 跨 LLM 与平台的长时记忆 OS,让 Agent 会记忆更会推理
人工智能·开源·资讯
冬奇Lab4 小时前
OpenClaw 源码深度解析(一):Gateway——为什么需要一个"中枢"
人工智能·开源·源码阅读
AngelPP7 小时前
OpenClaw 架构深度解析:如何把 AI 助手搬到你的个人设备上
人工智能
宅小年8 小时前
Claude Code 换成了Kimi K2.5后,我再也回不去了
人工智能·ai编程·claude
九狼8 小时前
Flutter URL Scheme 跨平台跳转
人工智能·flutter·github
ZFSS8 小时前
Kimi Chat Completion API 申请及使用
前端·人工智能
天翼云开发者社区9 小时前
春节复工福利就位!天翼云息壤2500万Tokens免费送,全品类大模型一键畅玩!
人工智能·算力服务·息壤
知识浅谈9 小时前
教你如何用 Gemini 将课本图片一键转为精美 PPT
人工智能
Ray Liang10 小时前
被低估的量化版模型,小身材也能干大事
人工智能·ai·ai助手·mindx