超简单理解LSTM和GRU模型

目录

RNN在反向传播时容易遭受梯度消失的问题,而梯度是用于更新神经网络权重的关键因子,梯度消失描述的是梯度在时间序列反向传播中逐渐减小的情况。

若梯度过小,它对于网络的学习贡献甚微。结果是,在RNN中,梯度更新很小的层级,并不能有效的学习。

RNN 容易遗忘较长序列中的信息,从而只留下短期记忆。

LSTM 和 GRU 正是为了解决短期记忆而设计的。

而LSTM的核心概念是它们的单元状态和各种门。

细胞状态如同一条信息告诉通道,持续传递至整个序列中,它可被视作网络的记忆中心。




参考资料

1\] [超简单理解LSTM和GRU模型,深度学习入门](https://www.bilibili.com/video/BV1EP411Y74W/?spm_id_from=333.337.search-card.all.click&vd_source=b5e395daf1dc59fb72b2633affa96661) 2023.8

相关推荐
芯跳加速5 分钟前
AI 视频自动化学习日记 · 第四天
人工智能·自动化·音视频
搬砖者(视觉算法工程师)6 分钟前
硅光子学:将改变人工智能计算的革命
人工智能·芯片
新缸中之脑8 分钟前
AI智能体五大设计模式
人工智能·机器学习·设计模式
小饕10 分钟前
赛博果蝇与AI研究路径不正经分析
人工智能
lisw0511 分钟前
单片机:概念、历史、内容与发展战略!
人工智能·单片机·机器学习
Shining059615 分钟前
前沿模型系列(五)《多模态智能及其应用》
人工智能·架构·大模型·mlir·infinitensor·hivm·前沿模型
岑小岑17 分钟前
DeepSeek-V3 大语言模型简单介绍
人工智能
啊巴矲19 分钟前
小白从零开始勇闯人工智能:深度学习汇总(复习大纲篇)
人工智能·深度学习
Hilaku20 分钟前
数字员工时代:企业级Claw如何让AI成为真正的生产力?
人工智能·openai·agent
zuozewei21 分钟前
11 天,1 个人 + AI,搭了一套网络监控系统
网络·人工智能