PyTorch计算机视觉之Vision Transformer 整体结构

【图书推荐】《PyTorch深度学习与计算机视觉实践》-CSDN博客

Vision Transformer(ViT)模型是最新提出将注意力机制应用在图像分类的模型。Vision Transformer算法会将整幅图像拆分成小图像块,然后把这些小图像块的线性映射序列作为注意力模块的输入数据送入网络,然后进行图像分类的训练。

Vision Transformer 整体结构

Vision Transformer是注意力机制在图像识别领域的一项开创性的应用,它舍弃了传统基于卷积神经网络的图像识别模式,采用了全新的Transformer架构来处理图像数据。这种架构的核心思想是自注意力机制,它允许模型在同一序列中的不同位置之间建立相互依赖的关系,从而实现对图像特征的全局捕捉和长距离依赖的处理。与传统的卷积神经网络相比,Vision Transformer具有以下几个显著优势:

  1. 长距离依赖处理:传统卷积神经网络在处理局部特征时表现出色,但在处理长距离依赖方面相对较弱。而Vision Transformer通过注意力机制,可以有效地捕捉到图像中不同位置之间的依赖关系,从而提高模型在处理长距离依赖任务时的性能。
  2. 可解释性:虽然深度学习模型通常被认为是"黑盒",但Vision Transformer在一定程度上具有可解释性。通过对模型的中间层输出进行分析,我们可以了解到模型在不同层次上关注的图像特征。这有助于我们理解模型的工作原理,并在需要时进行调试和优化。
  3. 并行计算能力:由于Transformer架构天然具有并行计算能力,因此在处理大量图像数据时,Vision Transformer可以充分利用GPU资源,实现高效的计算。
  4. 全局感知:Vision Transformer通过注意力机制,可以在不同层次的特征之间建立起关联关系,从而实现对图像全局信息的感知。这使得模型在处理复杂图像任务时,能够更好地捕捉到图像的整体结构和语义信息。
  5. 易于迁移学习:由于Vision Transformer摒弃了传统的卷积神经网络结构,因此可以很容易地将其预训练好的权重迁移到其他任务上。这使得模型具有更强的泛化能力,可以在不同的图像识别任务中取得良好的效果。

一个完整的Vision Transformer结构如图11-1所示。

图11-1 Vision Transformer的整体结构

可以看到,同上一章讲解的编码器类似,Vision Transformer也由组件构成:

  1. Patch Emebdding:将整幅图像拆分成小图像块,然后把这些小图像块的线性映射序列作为Transformer的输入送入网络。
  2. Posiotion Emebdding:由于Transformer没有循环结构,因此需要添加位置编码来保留输入序列中的位置信息。
  3. Transformer Encoder:使用多头自注意力机制对每个小图像块映射后的向量进行加权求和,得到新的向量。
  4. 分类器:最后使用一个全连接层对每个小图像块的向量进行分类。

《PyTorch深度学习与计算机视觉实践(人工智能技术丛书)》(王晓华)【摘要 书评 试读】- 京东图书 (jd.com)

相关推荐
Eric.Lee20212 小时前
Paddle OCR 中英文检测识别 - python 实现
人工智能·opencv·计算机视觉·ocr检测
audyxiao0013 小时前
AI一周重要会议和活动概览
人工智能·计算机视觉·数据挖掘·多模态
橙子小哥的代码世界5 小时前
【计算机视觉基础CV-图像分类】01- 从历史源头到深度时代:一文读懂计算机视觉的进化脉络、核心任务与产业蓝图
人工智能·计算机视觉
小陈phd6 小时前
OpenCV学习——图像融合
opencv·计算机视觉·cv
唐小旭6 小时前
python3.6搭建pytorch环境
人工智能·pytorch·python
是十一月末7 小时前
Opencv之对图片的处理和运算
人工智能·python·opencv·计算机视觉
醒了就刷牙9 小时前
transformer用作分类任务
深度学习·分类·transformer
神秘的土鸡9 小时前
LGMRec:结合局部与全局图学习的多模态推荐系统
目标检测·计算机视觉·云计算
四口鲸鱼爱吃盐9 小时前
Pytorch | 从零构建ParNet/Non-Deep Networks对CIFAR10进行分类
人工智能·pytorch·分类
湫ccc11 小时前
《Opencv》基础操作详解(1)
人工智能·opencv·计算机视觉