【王树森】RNN模型与NLP应用(9/9):Self-Attention(个人向笔记)

前言

上节课讲到的attention用到了Seq2Seq模型上,而Attention并不局限与Seq2Seq模型,而是可以用在所有RNN模型上。Self-attention在原论文中用到了LSTM上,而本节课做了简单的替换:换成了 Simple RNN。


SimpleRNN + Self-Attention

下面的 h 0 h_0 h0 为初始状态,是一个全0向量

  • 无 Self-Attention 的更新状态:
  • 有 Self-Attention 的更新状态:把 h 0 h_0 h0 换成了 c 0 c_0 c0
  • 接下来需要计算 c 1 c_1 c1 ,上节课提到 c c c 需要根据 h h h 来计算,而此时 h 0 h_0 h0 为全 0 向量,所以 c 1 c_1 c1 就等于 h 1 h_1 h1:
  • h 2 h_2 h2 同理:
  • 相关性与 c 2 c_2 c2 的计算需要同时包含 h 2 h_2 h2:后面的过程类似






Summary

  • Self-Attention能很大程度上解决RNN遗忘的问题
  • Self-Attenion和Attention的原理是一样的,但是Self-Attention不局限于Seq2Seq模型上,而是可以应用到所有RNN上
  • 除了避免遗忘,Self-Attention还能帮助关注相关的信息
相关推荐
山岚的运维笔记1 小时前
SQL Server笔记 -- 第53章:INSERT 第54章:主键
数据库·笔记·sql·microsoft·sqlserver
minhuan2 小时前
大模型应用:轻量化视觉语言模型(VLM):基于Qwen2-VL多模态模型实践.87
人工智能·语言模型·自然语言处理·qwen2-vl·轻量化vlm模型
MaoziShan2 小时前
CMU Subword Modeling | 08 Non-Concatenative Morphological Processes
人工智能·机器学习·语言模型·自然语言处理
weixin_448119942 小时前
Datawhale 大模型算法全栈基础篇 202602第1次笔记
笔记
柳鲲鹏2 小时前
股市赚钱学概论:自序
笔记
烟花落o2 小时前
算法的时间复杂度和空间复杂度
开发语言·数据结构·笔记·算法
大模型任我行2 小时前
百度:动态偏好选择提升LLM对齐稳定性
人工智能·语言模型·自然语言处理·论文笔记
阿杰学AI3 小时前
AI核心知识105—大语言模型之 Multi-Agent Architect(简洁且通俗易懂版)
人工智能·ai·语言模型·自然语言处理·agent·智能体·多智能体架构师
Blue16°4 小时前
Day28:英语翻译 + 单词打卡
笔记
xian_wwq5 小时前
【学习笔记】OAuth 2.0 安全攻防:从 Portswigger 六大实验看认证漏洞挖掘
笔记·学习·安全