CVPR 即插即用 | 当RetNet遇见ViT:一场来自曼哈顿的注意力革命,中科院刷新SOTA性能榜!

1. 基本信息

2. 核心创新点

  1. 提出曼哈顿自注意力 (MaSA) :通过引入基于曼哈顿距离的空间衰减矩阵,为自注意力机制注入了显式的空间先验知识。

  2. 设计可分解的注意力形式:提出一种沿图像坐标轴分解MaSA的方法,在不破坏空间先验的前提下,将全局信息建模的计算复杂度降至线性级别。

  3. 构建高性能视觉骨干网络RMT:基于MaSA构建了一个通用的、强大的视觉骨干网络RMT,在图像分类、目标检测和分割等多个任务上取得了SOTA性能。

➔➔➔➔点击查看原文,获取本文及其他精选即插即用模块集合https://mp.weixin.qq.com/s/eHTpQt-xasy8xsRaxGye0w

3. 方法详解

整体结构概述

RMT是一个分层的视觉骨干网络,其整体架构如 图3 所示。输入图像首先通过一个卷积主干(Conv Stem)进行分词(Tokenization)和嵌入。随后,特征图依次通过四个阶段(Stage)的RMT模块进行处理,每个阶段之间通过步长为2的卷积层进行下采样。前三个计算量较大的阶段使用计算高效的分解式MaSA ,而最后一个阶段则使用完整的MaSA。每个RMT模块由一个MaSA层和一个前馈网络(FFN)组成,并辅以深度可分离卷积(DWConv)和层归一化(LN)。

步骤分解

RMT的核心是曼哈顿自注意力(Manhattan Self-Attention, MaSA),它源于NLP领域的Retentive Network (RetNet),并经过了针对视觉任务的改造。

  1. 从单向到双向衰减

    • RetNet最初为文本数据设计,采用单向因果模型,即一个词元(token)只关注其前面的词元。

    • 为适应不具备因果关系的图像任务,论文首先将其扩展为双向形式,使得每个词元可以关注所有其他词元。其注意力矩阵形式如下,其中 |n-m| 表示一维序列中两个词元的距离。

  2. 从一维到二维空间衰减

    • 为了处理二维图像数据,论文进一步将一维距离衰减扩展为二维。

    • 使用词元在二维平面上的坐标 (x, y),通过曼哈顿距离来定义空间衰减矩阵 D_2d。距离越远的词元,其注意力得分衰减越大,从而引入了显式的空间位置先验。

    • 与RetNet不同,RMT保留了Softmax函数来引入非线性,最终的MaSA形式如下:
  3. **分解式曼哈顿自注意力 (Decomposed MaSA)**:

    • 为解决全局注意力带来的二次方计算复杂度问题,论文提出了一种注意力分解方法。

    • 该方法将注意力计算分别沿图像的横向(W)和纵向(H)进行。首先计算横向注意力,然后将结果转置,再计算纵向注意力。衰减矩阵也相应地分解为一维形式 D_HD_W

    • 这种分解方式在保持全局感受野(如 图4 所示)和空间先验的同时,将计算复杂度降低到线性级别。

  1. **局部上下文增强 (LCE)**:
    • 为了进一步增强模型的局部特征表达能力,在MaSA模块后并行加入了一个由深度可分离卷积(DWConv)构成的局部上下文增强模块。

4. 即插即用模块作用

本报告的核心分析对象为论文提出的 曼哈顿自注意力 (MaSA) 模块。

适用场景

MaSA作为一个通用的自注意力变体,旨在替代标准自注意力或窗口自注意力,可广泛应用于各种基于Transformer的视觉骨干网络中。论文验证了其在以下任务中的有效性:

  • 图像分类: 如ImageNet-1K上的图像识别。

  • 目标检测: 如在COCO数据集上的目标框检测。

  • 实例分割: 如在COCO数据集上的像素级实例掩码分割。

  • 语义分割: 如在ADE20K数据集上的场景解析。

主要作用

MaSA模块为视觉Transformer模型带来了以下核心价值:

  • 引入显式空间先验: 通过基于曼哈顿距离的衰减机制,模拟了"距离越近,关系越紧密"的视觉先验,弥补了标准自注意力缺乏空间归纳偏置的短板。

  • 大幅降低计算复杂度 : 其分解形式将全局注意力的计算复杂度从 O(N^2) 降低到 O(N),在处理高分辨率图像或密集预测任务时,显著节省了计算资源和内存。

  • 保持全局感受野: 与Swin Transformer等基于窗口的方法不同,分解式MaSA依然能够高效地建模全局依赖关系,避免了窗口划分带来的信息交互限制。

  • 提升模型性能与效率: 实验结果表明,与现有SOTA模型相比,RMT在相似的计算量下取得了更优的性能,实现了速度与精度的平衡。

总结

曼哈顿自注意力 (MaSA) 是一种高效的自注意力机制,它通过引入与距离相关的空间衰减先验,并结合创新的轴向分解方法,在实现线性计算复杂度的同时保留了全局感受野,是提升视觉Transformer性能与效率的强大模块。

➔➔➔➔点击查看原文,获取本文及其他精选即插即用模块集合https://mp.weixin.qq.com/s/eHTpQt-xasy8xsRaxGye0w

相关推荐
m0_650108241 小时前
Gemini 2.5:重塑多模态 AI 边界的全面解读
论文阅读·人工智能·多模态大模型·gemini 2.5·跨模态融合
wuk9981 小时前
基于Matlab的彩色图像特征提取实现
人工智能·计算机视觉·matlab
GEO_NEWS2 小时前
2025下半年GEO服务商技术革命:万数科技以AI全链路优化定义行业标杆
人工智能
说私域2 小时前
智能名片链动2+1模式S2B2C商城小程序:构建私域生态“留”量时代的新引擎
大数据·人工智能·小程序
说私域2 小时前
基于开源AI大模型与AI智能名片S2B2C商城小程序的直播简介引流策略研究——以B站直播为例
人工智能·小程序
金紫火2 小时前
AiPPT 新功能体验:从“一键生成”到更智能的演示制作
人工智能·ppt
Dev7z2 小时前
基于计算机视觉与机器学习的课堂坐姿智能监测与预警系统
人工智能·机器学习·计算机视觉
水如烟2 小时前
孤能子视角:“多劳多得”原则在知识经济时代的失效危机分析
人工智能
钟屿2 小时前
Back to Basics: Let Denoising Generative Models Denoise 论文阅读学习
论文阅读·人工智能·笔记·学习·计算机视觉