深度学习10种attention机制(快收藏)

1️⃣标准注意力机制:

Soft Attention:一种灵活的注意力分配方式,允许模型在序列的不同部分分配不同程度的关注。

Hard Attention:一种严格的注意力分配方式,模型只关注序列中的特定部分。

2️⃣自注意力(Self-Attention):允许序列内部的元素相互交互,广泛用于Transformer模型。

3️⃣多头注意力(Multi-Head Attention):在Transformer中使用,允许模型同时关注序列的不同方面。

4️⃣空间注意力(Spatial Attention):在计算机视觉任务中使用,关注图像的不同空间区域。

5️⃣通道注意力(Channel Attention):特别关注不同特征通道的重要性,常见于视觉处理的卷积神经网络。

6️⃣层次注意力(Hierarchical Attention):在多层次结构(如文档、段落、句子)中使用,分别对不同层级的数据应用注意力。

7️⃣时间注意力(Temporal Attention):用于处理时序数据,如视频分析或音频处理,关注时间序列的不同部分。

8️⃣图注意力网络(Graph Attention Networks, GATs):用于处理图结构数据,允许节点根据其邻居节点的特性分配注意力。

9️⃣协同注意力(Co-Attention):在多模态学习中使用,比如结合视觉和文本信息,模型在两种类型的数据上同时应用注意力。

🔟交叉注意力(Cross-Attention):允许来自两个不同序列的元素相互作用,常见于序列到序列的任务中。

相关推荐
萑澈9 小时前
Windows系统Anaconda/Miniconda的安装、配置、基础使用、清理缓存空间和Pycharm/VSCode配置指南
python
Onebound_Ed10 小时前
Python爬虫进阶:面向对象设计构建高可维护的1688商品数据采集系统
开发语言·爬虫·python
阿蔹10 小时前
JavaWeb-Selenium 配置以及Selenim classnotfound问题解决
java·软件测试·python·selenium·测试工具·自动化
万粉变现经纪人10 小时前
如何解决 pip install 代理报错 407 Proxy Authentication Required 问题
windows·python·pycharm·beautifulsoup·bug·pandas·pip
李剑一11 小时前
Python学习笔记3
python
luod11 小时前
Python包
python
Mr Lee_11 小时前
Smali 文件生成dex装箱算法整合
开发语言·python·算法
电饭叔11 小时前
《python语言程序设计》2018版--第8章14题利用字符串输入作为一个信用卡号之一(Luhn算法解释)
android·java·python
小女孩真可爱11 小时前
大模型学习记录(八)---------RAG评估
linux·人工智能·python
刘晓倩12 小时前
Python3的Sequence
开发语言·python