【CoaT】Co-Scale Conv-Attentional Image Transformers 译读笔记

Co-Scale Conv-Attentional Image Transformers

摘要

在本文中,提出了 Co-scale conv-attentional image Transformers(CoaT),它是一种基于Transformer的图像分类器,同时具备 co-scale 和 conv-attentional 机制。首先,同尺度机制(co-scale mechanism)在保持Transformer编码器分支在各个尺度上的完整性的同时,允许在不同尺度上学习到的表示有效地相互通信;本文设计了一系列串行和并行模块来实现同尺度机制。其次,本文提出卷积注意力机制,在因子化注意力模块中以类卷积的高效实现方式引入相对位置嵌入。CoaT赋予图像Transformer更丰富的多尺度与上下文建模能力。在ImageNet数据集上,相对较小的CoaT模型相比于相似规模的CNN和 image/vision Transformers,取得了更优的分类结果。CoaT的主干网络在目标检测和实例分割任务中的有效性也得到了验证,表明其具有广泛的计算机视觉下游任务的适用性。

1 引言

人工智能领域近期的一项显著进展是注意力机制 [38_Image Caption] 和 Transformer [31] 的创造,这项技术已经在多个领域产生了深远的影响,包括自然语言处理[7_BERT, 20_GPT1]、文档分析 [39_LayoutLM]、语音识别 [8_Speech-Transformer] 和计算机视觉[9_ViT, 3_DETR]。过去,最先进的图像分类器主要建立在 CNN[15_document recognition, 14_AlexNet, 27_Inception, 26_VGG, 11_ResNet, 36_ResNeXt]之上,通过多层滤波过程完成特征提取。然而,近期的一些研究[30_DeiT, 9_ViT] 开始显示出基于Transformer的图像分类器也具备令人鼓舞的性能。

本质上,卷积 [15_document recognition] 和注意力机制 [38_Image Caption] 都通过对局部内容和上下文进行建模来解决结构化数据(例如图像和文本)的基本表示问题。在CNN中,感受野通过一系列卷积操作逐步扩大。而注意力机制 [38_Image Caption, 31_] 则与卷积不同:(1)在自注意力 31_Transformer] 中,每个位置或token的感受野立即覆盖整个输入空间,因为每个token都会与包括自身在内的所有token进行"匹配";(2)对于每一对token,自注意力通过计算"查询"(待考察的token)与"键"(被匹配的token)之间的点积,来加权"值"(被匹配token的表示)。

此外,尽管卷积和自注意力机制都执行加权求和,但它们的权重计算方式不同:在CNN中,权重在训练过程中学习,但在测试过程中固定不变;在自注意力机制中,权重是根据每对tokens之间的相似性或亲和性动态计算的。

相关推荐
傻小胖1 小时前
22.ETH-智能合约-北大肖臻老师客堂笔记
笔记·区块链·智能合约
浅念-2 小时前
C++入门(2)
开发语言·c++·经验分享·笔记·学习
张人玉3 小时前
VisionPro 定位与卡尺测量学习笔记
笔记·学习·计算机视觉·vsionprp
songyuc3 小时前
【BiFormer】BiFormer: Vision Transformer with Bi-Level Routing Attention 译读笔记
笔记·transformer
觉醒大王3 小时前
强女思维:着急,是贪欲外显的相。
java·论文阅读·笔记·深度学习·学习·自然语言处理·学习方法
三水不滴3 小时前
计网:输入网址到网页显示
经验分享·笔记·计算机网络
JustDI-CM5 小时前
AI学习笔记-提示词工程
人工智能·笔记·学习
爱写bug的野原新之助5 小时前
加密摘要算法MD5、SHA、HMAC:学习笔记
笔记·学习
小乔的编程内容分享站6 小时前
C语言笔记之函数
c语言·笔记
四谎真好看6 小时前
JavaWeb学习笔记(Day13)
笔记·学习·学习笔记·javaweb