深度学习14—注意力机制与自注意力机制

注:以下均为个人学习笔记,发布只为方便学习阅读,若觉侵权,请联系删除!!

1.李沐老师课堂学习理解笔记

1.1 随意线索和不随意线索

1.2 注意力机制

通过注意力池化层来有偏向性的选择某些输入。

1.3 注意力池化层

1.3.1 非参数化注意力机制

理解: Q(query)即为随意线索 ,可以通过对值V(value)做重要性加权得到。在这里,值V(value)和不随意线索K(key)是一个对。(对应关系)。

1.3.2 参数化的注意力机制

1.4 总结

1.5 代码

2.自注意机制(self-attention)

2.1 Q,K,V的理解

2.2 Attention(Q,K,V)

2.3 代码

2.4 位置编码

2.5 多头注意力机制

相关推荐
大千AI助手23 分钟前
指数分布:从理论到机器学习应用
人工智能·机器学习·参数估计·概率密度函数·mle·指数分布·累积分布函数
MATLAB代码顾问25 分钟前
MATLAB绘制多种混沌系统
人工智能·算法·matlab
搬砖的小码农_Sky27 分钟前
人形机器人:Tesla Optimus的AI集成细节
人工智能·ai·机器人
做运维的阿瑞37 分钟前
2025 年度国产大模型「开源 vs. 闭源」深度评测与实战指南
人工智能·低代码·开源
渡我白衣1 小时前
深度学习入门(三)——优化算法与实战技巧
人工智能·深度学习
可触的未来,发芽的智生1 小时前
触摸未来2025.10.10:记忆的种子,当神经网络拥有了临时工作区,小名喜忆记系统
人工智能·python·神经网络·机器学习·架构
极客BIM工作室1 小时前
演化搜索与群集智能:五种经典算法探秘
人工智能·算法·机器学习
Guheyunyi1 小时前
消防管理系统如何重构现代空间防御体系
大数据·运维·人工智能·安全·信息可视化·重构
东方芷兰1 小时前
LLM 笔记 —— 04 为什么语言模型用文字接龙,图片模型不用像素接龙呢?
人工智能·笔记·深度学习·语言模型·自然语言处理
Niuguangshuo2 小时前
深度学习基本模块:MultiheadAttention 多头注意力机制
人工智能·深度学习