深度学习14—注意力机制与自注意力机制

注:以下均为个人学习笔记,发布只为方便学习阅读,若觉侵权,请联系删除!!

1.李沐老师课堂学习理解笔记

1.1 随意线索和不随意线索

1.2 注意力机制

通过注意力池化层来有偏向性的选择某些输入。

1.3 注意力池化层

1.3.1 非参数化注意力机制

理解: Q(query)即为随意线索 ,可以通过对值V(value)做重要性加权得到。在这里,值V(value)和不随意线索K(key)是一个对。(对应关系)。

1.3.2 参数化的注意力机制

1.4 总结

1.5 代码

2.自注意机制(self-attention)

2.1 Q,K,V的理解

2.2 Attention(Q,K,V)

2.3 代码

2.4 位置编码

2.5 多头注意力机制

相关推荐
chenzhiyuan20181 小时前
《十五五规划》下的AI边缘计算机遇:算力下沉与工业智能化
人工智能·边缘计算
whaosoft-1431 小时前
51c深度学习~合集11
人工智能
Tiandaren1 小时前
大模型应用03 || 函数调用 Function Calling || 概念、思想、流程
人工智能·算法·microsoft·数据分析
领航猿1号2 小时前
Pytorch 内存布局优化:Contiguous Memory
人工智能·pytorch·深度学习·机器学习
综合热讯2 小时前
宠智灵宠物识别AI:从犬猫到鸟鱼的全生态智能识别
人工智能·宠物
zskj_zhyl2 小时前
智慧康养新篇章:七彩喜如何重塑老年生活的温度与尊严
大数据·人工智能·科技·物联网·生活
化作星辰2 小时前
使用房屋价格预测的场景,展示如何从多个影响因素计算权重和偏置的梯度
pytorch·深度学习
永霖光电_UVLED3 小时前
IVWorks率先将8英寸GaN纳米线片商业化
人工智能·神经网络·生成对抗网络
如何原谅奋力过但无声3 小时前
TensorFlow 2.x常用函数总结(持续更新)
人工智能·python·tensorflow
qyresearch_4 小时前
大语言模型训推一体机:AI算力革命的“新引擎”,2031年市场规模突破123亿的黄金赛道
人工智能·语言模型·自然语言处理