LSTM (Long Short-Term Memory)

正如其名它是长时记忆和短时记忆相结合

RNN中将序列信息进行运用,但是也存在他的缺点就是随着时间序列的长度增加,产生梯度消失和梯度爆炸问题,因此长期记忆能力有限,所以引出LSTM。(但是对于较短的序列,RNN 可能能够较好地学习到其中的模式和关系。)

LSTM相当于给RNN模块增加了一个笔记本以达到长期记忆的效果

LSMT模块:

LSTM主要包含四个门(遗忘门输入门候选记忆输出门)来决定当前时刻的隐状态和记忆单元如何更新。对于每个时间步,LSTM会基于当前的输入和上一时刻的隐状态以及记忆单元来进行计算。

LSTM的一些核心公式:

遗忘门(Forget gate)决定上一时刻的记忆单元中有多少信息被遗忘:

输入门(Input gate)决定当前时刻输入的信息有多少被存储在记忆单元中:

候选记忆(Candidate memory)决定当前输入的候选记忆内容:

更新记忆单元(Update cell state)基于遗忘门和输入门来更新记忆单元:

输出门(Output gate)决定当前时刻的输出(隐状态):

计算隐状态(Output hidden state):

相关推荐
weixin_409383125 分钟前
假如训练数据集是一门一门或一个个专业课程资料,分不同批次训练,有避免之前训练的数据遗忘的问题
深度学习·机器学习·训练模型
算法与编程之美6 分钟前
解决tensor的shape不为1,如何转移到CPU的问题
人工智能·python·深度学习·算法·机器学习
natide7 分钟前
词汇/表达差异-8-Token Overlap(词元重叠度)
大数据·人工智能·深度学习·算法·自然语言处理·nlp·知识图谱
山梨一碗粥12 分钟前
DETR简单介绍
图像处理·深度学习·机器学习
弓.长.22 分钟前
Transformer位置编码演进:从绝对位置到RoPE的数学本质
人工智能·深度学习·transformer
诸葛务农24 分钟前
神经网络信息编码技术:与人脑信息处理的差距及超越的替在优势和可能(上)
人工智能·深度学习·神经网络
oscar99925 分钟前
神经网络前向传播:AI的“消化系统”全解析
人工智能·深度学习·神经网络
J_Xiong011734 分钟前
【VLMs篇】10:使用Transformer的端到端目标检测(DETR)
深度学习·目标检测·transformer
有Li34 分钟前
泛用型nnUNet脑血管周围间隙识别系统(PINGU)|文献速递-医疗影像分割与目标检测最新技术
论文阅读·深度学习·文献·医学生
Shiyuan739 分钟前
【IEEE冠名EI会议】2026年IEEE第三届深度学习与计算机视觉国际会议
人工智能·深度学习·计算机视觉