深度学习14—注意力机制与自注意力机制

注:以下均为个人学习笔记,发布只为方便学习阅读,若觉侵权,请联系删除!!

1.李沐老师课堂学习理解笔记

1.1 随意线索和不随意线索

1.2 注意力机制

通过注意力池化层来有偏向性的选择某些输入。

1.3 注意力池化层

1.3.1 非参数化注意力机制

理解: Q(query)即为随意线索 ,可以通过对值V(value)做重要性加权得到。在这里,值V(value)和不随意线索K(key)是一个对。(对应关系)。

1.3.2 参数化的注意力机制

1.4 总结

1.5 代码

2.自注意机制(self-attention)

2.1 Q,K,V的理解

2.2 Attention(Q,K,V)

2.3 代码

2.4 位置编码

2.5 多头注意力机制

相关推荐
杨夏同学2 分钟前
AI入门——如何计算神经网络的参数
人工智能·深度学习·神经网络
好运的阿财7 分钟前
大模型热切换功能完整实现指南
人工智能·python·程序人生·开源·ai编程
互联网江湖13 分钟前
千问闯关AI混沌期:阿里画靶,吴嘉张弓,马云射箭?
人工智能
AI品信智慧数智人20 分钟前
景区AI伴游革新!山东品信数字人智能语音交互系统,重构文旅智慧体验✨
人工智能
大喵桑丶21 分钟前
ZABBIX7二次开发AI监控数据调取杂记
大数据·人工智能·python
龙文浩_36 分钟前
AI中NLP的注意力机制的计算公式解析
人工智能·pytorch·深度学习·神经网络·自然语言处理
北京软秦科技有限公司36 分钟前
物流运输环境检测进入AI报告审核时代:IACheck如何重塑报告精准性与全流程质量把控?
大数据·人工智能
鬼先生_sir39 分钟前
Spring AI Alibaba 用户使用手册
java·人工智能·springai
跟着狗蛋学安全1 小时前
Windows本地大语言模型部署
人工智能·语言模型·自然语言处理