CVPR 即插即用 | 当RetNet遇见ViT:一场来自曼哈顿的注意力革命,中科院刷新SOTA性能榜!

1. 基本信息

2. 核心创新点

  1. 提出曼哈顿自注意力 (MaSA) :通过引入基于曼哈顿距离的空间衰减矩阵,为自注意力机制注入了显式的空间先验知识。

  2. 设计可分解的注意力形式:提出一种沿图像坐标轴分解MaSA的方法,在不破坏空间先验的前提下,将全局信息建模的计算复杂度降至线性级别。

  3. 构建高性能视觉骨干网络RMT:基于MaSA构建了一个通用的、强大的视觉骨干网络RMT,在图像分类、目标检测和分割等多个任务上取得了SOTA性能。

➔➔➔➔点击查看原文,获取本文及其他精选即插即用模块集合https://mp.weixin.qq.com/s/eHTpQt-xasy8xsRaxGye0w

3. 方法详解

整体结构概述

RMT是一个分层的视觉骨干网络,其整体架构如 图3 所示。输入图像首先通过一个卷积主干(Conv Stem)进行分词(Tokenization)和嵌入。随后,特征图依次通过四个阶段(Stage)的RMT模块进行处理,每个阶段之间通过步长为2的卷积层进行下采样。前三个计算量较大的阶段使用计算高效的分解式MaSA ,而最后一个阶段则使用完整的MaSA。每个RMT模块由一个MaSA层和一个前馈网络(FFN)组成,并辅以深度可分离卷积(DWConv)和层归一化(LN)。

步骤分解

RMT的核心是曼哈顿自注意力(Manhattan Self-Attention, MaSA),它源于NLP领域的Retentive Network (RetNet),并经过了针对视觉任务的改造。

  1. 从单向到双向衰减

    • RetNet最初为文本数据设计,采用单向因果模型,即一个词元(token)只关注其前面的词元。

    • 为适应不具备因果关系的图像任务,论文首先将其扩展为双向形式,使得每个词元可以关注所有其他词元。其注意力矩阵形式如下,其中 |n-m| 表示一维序列中两个词元的距离。

  2. 从一维到二维空间衰减

    • 为了处理二维图像数据,论文进一步将一维距离衰减扩展为二维。

    • 使用词元在二维平面上的坐标 (x, y),通过曼哈顿距离来定义空间衰减矩阵 D_2d。距离越远的词元,其注意力得分衰减越大,从而引入了显式的空间位置先验。

    • 与RetNet不同,RMT保留了Softmax函数来引入非线性,最终的MaSA形式如下:
  3. **分解式曼哈顿自注意力 (Decomposed MaSA)**:

    • 为解决全局注意力带来的二次方计算复杂度问题,论文提出了一种注意力分解方法。

    • 该方法将注意力计算分别沿图像的横向(W)和纵向(H)进行。首先计算横向注意力,然后将结果转置,再计算纵向注意力。衰减矩阵也相应地分解为一维形式 D_HD_W

    • 这种分解方式在保持全局感受野(如 图4 所示)和空间先验的同时,将计算复杂度降低到线性级别。

  1. **局部上下文增强 (LCE)**:
    • 为了进一步增强模型的局部特征表达能力,在MaSA模块后并行加入了一个由深度可分离卷积(DWConv)构成的局部上下文增强模块。

4. 即插即用模块作用

本报告的核心分析对象为论文提出的 曼哈顿自注意力 (MaSA) 模块。

适用场景

MaSA作为一个通用的自注意力变体,旨在替代标准自注意力或窗口自注意力,可广泛应用于各种基于Transformer的视觉骨干网络中。论文验证了其在以下任务中的有效性:

  • 图像分类: 如ImageNet-1K上的图像识别。

  • 目标检测: 如在COCO数据集上的目标框检测。

  • 实例分割: 如在COCO数据集上的像素级实例掩码分割。

  • 语义分割: 如在ADE20K数据集上的场景解析。

主要作用

MaSA模块为视觉Transformer模型带来了以下核心价值:

  • 引入显式空间先验: 通过基于曼哈顿距离的衰减机制,模拟了"距离越近,关系越紧密"的视觉先验,弥补了标准自注意力缺乏空间归纳偏置的短板。

  • 大幅降低计算复杂度 : 其分解形式将全局注意力的计算复杂度从 O(N^2) 降低到 O(N),在处理高分辨率图像或密集预测任务时,显著节省了计算资源和内存。

  • 保持全局感受野: 与Swin Transformer等基于窗口的方法不同,分解式MaSA依然能够高效地建模全局依赖关系,避免了窗口划分带来的信息交互限制。

  • 提升模型性能与效率: 实验结果表明,与现有SOTA模型相比,RMT在相似的计算量下取得了更优的性能,实现了速度与精度的平衡。

总结

曼哈顿自注意力 (MaSA) 是一种高效的自注意力机制,它通过引入与距离相关的空间衰减先验,并结合创新的轴向分解方法,在实现线性计算复杂度的同时保留了全局感受野,是提升视觉Transformer性能与效率的强大模块。

➔➔➔➔点击查看原文,获取本文及其他精选即插即用模块集合https://mp.weixin.qq.com/s/eHTpQt-xasy8xsRaxGye0w

相关推荐
亚马逊云开发者4 小时前
Q CLI 助力合合信息实现 Aurora 的升级运营
人工智能
全栈胖叔叔-瓜州5 小时前
关于llamasharp 大模型多轮对话,模型对话无法终止,或者输出角色标识User:,或者System等角色标识问题。
前端·人工智能
坚果派·白晓明5 小时前
AI驱动的命令行工具集x-cmd鸿蒙化适配后通过DevBox安装使用
人工智能·华为·harmonyos
GISer_Jing5 小时前
前端营销技术实战:数据+AI实战指南
前端·javascript·人工智能
Dekesas96955 小时前
【深度学习】基于Faster R-CNN的黄瓜幼苗智能识别与定位系统,农业AI新突破
人工智能·深度学习·r语言
大佐不会说日语~6 小时前
Spring AI Alibaba 的 ChatClient 工具注册与 Function Calling 实践
人工智能·spring boot·python·spring·封装·spring ai
CeshirenTester6 小时前
Playwright元素定位详解:8种定位策略实战指南
人工智能·功能测试·程序人生·单元测试·自动化
棒棒的皮皮6 小时前
【OpenCV】Python图像处理几何变换之翻转
图像处理·python·opencv·计算机视觉
世岩清上7 小时前
AI驱动的智能运维:从自动化到自主化的技术演进与架构革新
运维·人工智能·自动化
K2_BPM7 小时前
告别“单点智能”:AI Agent如何重构企业生产力与流程?
人工智能