【IJCAI2024】LeMeViT: Efficient Vision Transformer with Learnable Meta Tokens

【IJCAI2024】LeMeViT: Efficient Vision Transformer with Learnable Meta Tokens for Remote Sensing Image Interpretation

论文:https://arxiv.org/abs/2405.09789

代码:https://github.com/ViTAE-Transformer/LeMeViT

由于相邻像素和图像块之间的高度相关性,以及遥感图像中纹理和模式的重复性质,存在大量的空间冗余。如下图所示,ViT 中的自注意力机制计算每两个图像块之间的相似性,相似的token对特征表示的贡献很小,但消耗了大量的计算负载,影响了模型性能。

为此,作者提出了下图所示的框架。本质上引入了一个可学习的 meta token(类似于原型或者记忆),不断的进行 image token 和 meta token 的信息交换。值得注意的是,网络的浅层使用的是cross-attention,深层使用的是自注意力(作者解释是自注意力的性能更高)。

作者在语义分割、目标检测等多个应用上做了大量实验,结果表明该方法具有较好的性能。有个有趣的消融实验是meta token 长度对性能的影响。长度为 64、32、16 和 8时,准确率几乎相同。这进一步证实了注意力计算的冗余,表明使用较少数量的 meta token 来表示密集图像 token 的动机。最后,考虑到效率和准确性,作者选择 16 作为 meta token 长度的默认设置。

作者还可视化了 dual cross attention最后一个块中,交叉注意映射结果。自然图像上的实验结果表明,学习到的 meta token 可以很好地关注图像中的目标,有助于提高分类精度。遥感图像上的实验结果则表明不同的 meta token 负责图像的不同语义部分。

相关推荐
鲨莎分不晴3 分钟前
从 10 到 1000:大规模多智能体的可扩展性 (Mean Field & GNN)
人工智能·学习
may_一一4 分钟前
cv(opencv-python)手动安装
人工智能·opencv·计算机视觉
安徽正LU o561-6o623o77 分钟前
露-鼠兔解剖台 鼠兔二用解剖台 无干扰恒温加热鼠台 无干扰恒温加热兔台
人工智能
工藤学编程7 分钟前
零基础学AI大模型之RunnableBranch
人工智能
全栈小59 分钟前
【AI应用】Tbox神仙用法,一句话描述创作效果还不错的应用,随机菜单生成开发,一起来看看是如何通过多智能体协同开发
人工智能·tbox·智能体协同·百宝箱
字节数据平台9 分钟前
火山引擎发布“企业认知引擎”,驱动企业从“数据驱动”迈向“认知驱动”
人工智能
Java后端的Ai之路9 分钟前
【分析式AI】-OOF预测学习指南
人工智能·机器学习·oof预测
roman_日积跬步-终至千里10 分钟前
【人工智能导论】09-学习-注意力机制与Transformer:用注意力机制动态关注,用Transformer并行计算,用GPT理解生成语言
人工智能·学习·transformer
大、男人10 分钟前
FastMCP高级特性之Message Handling
人工智能·python·mcp·fastmcp
b***251111 分钟前
汽车圆柱电池气动点焊机:串并联组合自动化焊接的核心驱动力
大数据·人工智能