深度学习10种attention机制(快收藏)

1️⃣标准注意力机制:

Soft Attention:一种灵活的注意力分配方式,允许模型在序列的不同部分分配不同程度的关注。

Hard Attention:一种严格的注意力分配方式,模型只关注序列中的特定部分。

2️⃣自注意力(Self-Attention):允许序列内部的元素相互交互,广泛用于Transformer模型。

3️⃣多头注意力(Multi-Head Attention):在Transformer中使用,允许模型同时关注序列的不同方面。

4️⃣空间注意力(Spatial Attention):在计算机视觉任务中使用,关注图像的不同空间区域。

5️⃣通道注意力(Channel Attention):特别关注不同特征通道的重要性,常见于视觉处理的卷积神经网络。

6️⃣层次注意力(Hierarchical Attention):在多层次结构(如文档、段落、句子)中使用,分别对不同层级的数据应用注意力。

7️⃣时间注意力(Temporal Attention):用于处理时序数据,如视频分析或音频处理,关注时间序列的不同部分。

8️⃣图注意力网络(Graph Attention Networks, GATs):用于处理图结构数据,允许节点根据其邻居节点的特性分配注意力。

9️⃣协同注意力(Co-Attention):在多模态学习中使用,比如结合视觉和文本信息,模型在两种类型的数据上同时应用注意力。

🔟交叉注意力(Cross-Attention):允许来自两个不同序列的元素相互作用,常见于序列到序列的任务中。

相关推荐
Eric.Lee2021几秒前
moviepy将图片序列制作成视频并加载字幕 - python 实现
开发语言·python·音视频·moviepy·字幕视频合成·图像制作为视频
Dontla5 分钟前
vscode怎么设置anaconda python解释器(anaconda解释器、vscode解释器)
ide·vscode·python
qq_5290252944 分钟前
Torch.gather
python·深度学习·机器学习
数据小爬虫@44 分钟前
如何高效利用Python爬虫按关键字搜索苏宁商品
开发语言·爬虫·python
Cachel wood1 小时前
python round四舍五入和decimal库精确四舍五入
java·linux·前端·数据库·vue.js·python·前端框架
終不似少年遊*1 小时前
pyecharts
python·信息可视化·数据分析·学习笔记·pyecharts·使用技巧
Python之栈1 小时前
【无标题】
数据库·python·mysql
袁袁袁袁满2 小时前
100天精通Python(爬虫篇)——第113天:‌爬虫基础模块之urllib详细教程大全
开发语言·爬虫·python·网络爬虫·爬虫实战·urllib·urllib模块教程
老大白菜2 小时前
Python 爬虫技术指南
python
古希腊掌管学习的神3 小时前
[搜广推]王树森推荐系统——矩阵补充&最近邻查找
python·算法·机器学习·矩阵