【王树森】RNN模型与NLP应用(9/9):Self-Attention(个人向笔记)

前言

上节课讲到的attention用到了Seq2Seq模型上,而Attention并不局限与Seq2Seq模型,而是可以用在所有RNN模型上。Self-attention在原论文中用到了LSTM上,而本节课做了简单的替换:换成了 Simple RNN。


SimpleRNN + Self-Attention

下面的 h 0 h_0 h0 为初始状态,是一个全0向量

  • 无 Self-Attention 的更新状态:
  • 有 Self-Attention 的更新状态:把 h 0 h_0 h0 换成了 c 0 c_0 c0
  • 接下来需要计算 c 1 c_1 c1 ,上节课提到 c c c 需要根据 h h h 来计算,而此时 h 0 h_0 h0 为全 0 向量,所以 c 1 c_1 c1 就等于 h 1 h_1 h1:
  • h 2 h_2 h2 同理:
  • 相关性与 c 2 c_2 c2 的计算需要同时包含 h 2 h_2 h2:后面的过程类似






Summary

  • Self-Attention能很大程度上解决RNN遗忘的问题
  • Self-Attenion和Attention的原理是一样的,但是Self-Attention不局限于Seq2Seq模型上,而是可以应用到所有RNN上
  • 除了避免遗忘,Self-Attention还能帮助关注相关的信息
相关推荐
日更嵌入式的打工仔2 小时前
嵌入式系统设计师软考个人笔记<4>
笔记
克里斯蒂亚诺更新2 小时前
vue+Cesium示例中缺少要素以至于运行不起来
笔记
2501_901147832 小时前
学习笔记:单调递增数字求解的迭代优化与工程实践
linux·服务器·笔记·学习·算法
翱翔的苍鹰3 小时前
大语言模型发展历程
人工智能·语言模型·自然语言处理
三水不滴4 小时前
计算机网络核心网络模型
经验分享·笔记·tcp/ip·计算机网络·http·https
凉、介4 小时前
静态路由探究
网络·笔记·操作系统·嵌入式
hssfscv4 小时前
Javaweb学习笔记——后端实战8 springboot原理
笔记·后端·学习
浩浩的科研笔记4 小时前
入门读物---一篇24年的负荷预测综述---逐句翻译整理版
笔记·能源
陈天伟教授5 小时前
人工智能应用- 语言理解:08.大语言模型
人工智能·语言模型·自然语言处理
爱吃羊的老虎5 小时前
【大模型开发】学习笔记一:RAG & LangChain 实战核心笔记
人工智能·笔记·语言模型·langchain