【CoaT】Co-Scale Conv-Attentional Image Transformers 译读笔记

Co-Scale Conv-Attentional Image Transformers

摘要

在本文中,提出了 Co-scale conv-attentional image Transformers(CoaT),它是一种基于Transformer的图像分类器,同时具备 co-scale 和 conv-attentional 机制。首先,同尺度机制(co-scale mechanism)在保持Transformer编码器分支在各个尺度上的完整性的同时,允许在不同尺度上学习到的表示有效地相互通信;本文设计了一系列串行和并行模块来实现同尺度机制。其次,本文提出卷积注意力机制,在因子化注意力模块中以类卷积的高效实现方式引入相对位置嵌入。CoaT赋予图像Transformer更丰富的多尺度与上下文建模能力。在ImageNet数据集上,相对较小的CoaT模型相比于相似规模的CNN和 image/vision Transformers,取得了更优的分类结果。CoaT的主干网络在目标检测和实例分割任务中的有效性也得到了验证,表明其具有广泛的计算机视觉下游任务的适用性。

1 引言

人工智能领域近期的一项显著进展是注意力机制 [38_Image Caption] 和 Transformer [31] 的创造,这项技术已经在多个领域产生了深远的影响,包括自然语言处理[7_BERT, 20_GPT1]、文档分析 [39_LayoutLM]、语音识别 [8_Speech-Transformer] 和计算机视觉[9_ViT, 3_DETR]。过去,最先进的图像分类器主要建立在 CNN[15_document recognition, 14_AlexNet, 27_Inception, 26_VGG, 11_ResNet, 36_ResNeXt]之上,通过多层滤波过程完成特征提取。然而,近期的一些研究[30_DeiT, 9_ViT] 开始显示出基于Transformer的图像分类器也具备令人鼓舞的性能。

本质上,卷积 [15_document recognition] 和注意力机制 [38_Image Caption] 都通过对局部内容和上下文进行建模来解决结构化数据(例如图像和文本)的基本表示问题。在CNN中,感受野通过一系列卷积操作逐步扩大。而注意力机制 [38_Image Caption, 31_] 则与卷积不同:(1)在自注意力 31_Transformer] 中,每个位置或token的感受野立即覆盖整个输入空间,因为每个token都会与包括自身在内的所有token进行"匹配";(2)对于每一对token,自注意力通过计算"查询"(待考察的token)与"键"(被匹配的token)之间的点积,来加权"值"(被匹配token的表示)。

此外,尽管卷积和自注意力机制都执行加权求和,但它们的权重计算方式不同:在CNN中,权重在训练过程中学习,但在测试过程中固定不变;在自注意力机制中,权重是根据每对tokens之间的相似性或亲和性动态计算的。

相关推荐
lkbhua莱克瓦241 天前
Java基础——常用算法5
java·开发语言·笔记·github
摇滚侠1 天前
Spring Boot3零基础教程,响应式编程的模型,笔记109
java·spring boot·笔记
YuanDaima20481 天前
[CrewAI] 第5课|基于多智能体构建一个 AI 客服支持系统
人工智能·笔记·多智能体·智能体·crewai
许长安1 天前
c/c++ static关键字详解
c语言·c++·经验分享·笔记
蒙奇D索大1 天前
【11408学习记录】考研英语长难句精析:三步拆解真题复杂结构,轻松攻克阅读难关!
笔记·学习·考研·改行学it
蒙奇D索大1 天前
【算法】递归的艺术:从本质思想到递归树,深入剖析算法的性能权衡
经验分享·笔记·算法·改行学it
_dindong1 天前
笔试强训:Week-4
数据结构·c++·笔记·学习·算法·哈希算法·散列表
BeingACoder1 天前
【SAA】SpringAI Alibaba学习笔记(二):提示词Prompt
java·人工智能·spring boot·笔记·prompt·saa·springai
Acrelhuang1 天前
覆盖全场景需求:Acrel-1000 变电站综合自动化系统的技术亮点与应用
大数据·网络·人工智能·笔记·物联网
DKPT1 天前
如何设置JVM参数避开直接内存溢出的坑?
java·开发语言·jvm·笔记·学习