LSTM (Long Short-Term Memory)

正如其名它是长时记忆和短时记忆相结合

RNN中将序列信息进行运用,但是也存在他的缺点就是随着时间序列的长度增加,产生梯度消失和梯度爆炸问题,因此长期记忆能力有限,所以引出LSTM。(但是对于较短的序列,RNN 可能能够较好地学习到其中的模式和关系。)

LSTM相当于给RNN模块增加了一个笔记本以达到长期记忆的效果

LSMT模块:

LSTM主要包含四个门(遗忘门输入门候选记忆输出门)来决定当前时刻的隐状态和记忆单元如何更新。对于每个时间步,LSTM会基于当前的输入和上一时刻的隐状态以及记忆单元来进行计算。

LSTM的一些核心公式:

遗忘门(Forget gate)决定上一时刻的记忆单元中有多少信息被遗忘:

输入门(Input gate)决定当前时刻输入的信息有多少被存储在记忆单元中:

候选记忆(Candidate memory)决定当前输入的候选记忆内容:

更新记忆单元(Update cell state)基于遗忘门和输入门来更新记忆单元:

输出门(Output gate)决定当前时刻的输出(隐状态):

计算隐状态(Output hidden state):

相关推荐
ppppppatrick9 分钟前
【深度学习基础篇03】激活函数详解:从生物突触到非线性注入
人工智能·深度学习
Figo_Cheung30 分钟前
Figo《量子几何学:从希尔伯特空间到全息时空的统一理论体系》(三)
人工智能·深度学习·几何学
yunhuibin1 小时前
NIN网络学习
人工智能·python·深度学习·神经网络·学习
隔壁大炮2 小时前
03.深度学习——特点
人工智能·深度学习
Hcoco_me2 小时前
车载摄像头核心知识点结构化总结
人工智能·深度学习·数码相机·算法·机器学习·自动驾驶
沪漂阿龙3 小时前
LLM底层机制深度解析:从Transformer到推理优化的完整技术地图
人工智能·深度学习·transformer
袁气满满~_~3 小时前
深度学习笔记五
人工智能·深度学习
光的方向_4 小时前
02-Transformer核心架构详解-自注意力与多头注意力
人工智能·深度学习·transformer
万里鹏程转瞬至4 小时前
论文简读 | TurboDiffusion: Accelerating Video Diffusion Models by 100–200 Times
论文阅读·深度学习·aigc
万里鹏程转瞬至5 小时前
SLA与Flash_attn对比测试
深度学习·aigc