技术栈
rnn
补三补四
20 小时前
人工智能
·
rnn
·
lstm
LSTM 深度解析:从门控机制到实际应用
在深度学习领域,循环神经网络 (RNN) 是处理序列数据的强大工具,但传统 RNN 在处理长序列时面临两个主要挑战:短时记忆和梯度消失 / 爆炸问题。当序列长度增加时,RNN 很难捕捉到序列中相隔较远的信息之间的依赖关系,这种现象被称为 "记忆健忘症"。同时,在反向传播过程中,梯度会随着时间步的推移而逐渐消失或爆炸,导致模型难以学习到长期依赖关系。
孤心亦暖
1 天前
rnn
·
gru
·
lstm
RNN,GRU和LSTM的简单实现
好久没写博客了,今天一个简单的契机,记录一下如何简单的使用循环神经网络和它的扩展方法来做一个简单的序列预测。这段时间一直在用GRU做一些网络架构的设计,但是自己写的方法一直不工作,误差很大,又没有在网上找到比较现成或者直观的代码可以直接复现,比较头疼,今天刷到b站一个up做的视频Pytorch简单案例带你学会使用LSTM,GRU,讲的深入浅出,很用心很详细,跑了一遍感慨万千,记录一下过程和心得。
kunwen123
3 天前
rnn
·
langchain
·
cnn
·
transformer
·
langgraph
机器学习、深度学习
卷积神经网络(CNN)vs. 循环神经网络(RNN)vs. Transformer一文带你搞懂 AI Agent 开发利器:LangGraph 与 LangChain 区别
先做个垃圾出来………
4 天前
人工智能
·
rnn
·
cnn
传统模型RNN与CNN介绍
循环神经网络是一类专门用于处理序列数据的神经网络。在传统的前馈神经网络中,信息只能单向流动,输入层到隐藏层再到输出层,各输入之间是相互独立的。而在 RNN 中,由于序列数据前后元素之间通常存在依赖关系,RNN 通过引入循环结构,使得网络在处理当前时刻的输入时,能够记住之前时刻的信息。
程序员miki
6 天前
人工智能
·
pytorch
·
rnn
·
深度学习
RNN循环神经网络(一):基础RNN结构、双向RNN
循环神经网络(Recurrent Neural Network, RNN)是一类专门用于处理序列数据的神经网络架构。与传统的前馈神经网络不同,RNN具有"记忆"能力,能够捕捉数据中的时间依赖关系。
fantasy_arch
7 天前
人工智能
·
rnn
·
深度学习
9.3深度循环神经网络
目前为止,只讨论了具有一个单向隐藏层的循环神经网络,其中隐变量和观测值域具体的函数形式的交互方式是相当随意的。只要交互类型建模具有足够的灵活性,不是一个单问题。然而,对一个单层来说,可能具有相当的挑战性。之前的线性模型中,我们通过添加更多的层来解决这个问题,而在循环神经网络中,我们首先需要确定如何添加更多的层,以及在哪里添加额外的非线性层。
会写代码的饭桶
7 天前
人工智能
·
rnn
·
lstm
·
transformer
通俗理解 LSTM 的三门机制:从剧情记忆到科学原理
你有没有过这样的体验:追一部几十集的连续剧时,总能记住主角的核心目标,却会忘记前三集里路人甲的台词?这种 “选择性记忆” 的能力,其实和 LSTM(长短期记忆网络)的工作原理惊人地相似。
鲸鱼在dn
8 天前
rnn
·
深度学习
·
transformer
Transformer 架构的演进与未来方向(RNN → Self-Attention → Mamba)——李宏毅大模型2025第四讲笔记
一句话总结——“所有架构都为了解决上一代模型的致命缺陷而生:CNN 解决参数爆炸,ResNet 解决梯度消失,Transformer 解决 RNN 无法并行,而 Mamba 则试图一次解决 Transformer 的 O(N²) 与 RNN 的记忆瓶颈。”
addaduvyhup
8 天前
rnn
·
gru
·
lstm
【RNN-LSTM-GRU】第三篇 LSTM门控机制详解:告别梯度消失,让神经网络拥有长期记忆
深入剖析LSTM的三大门控机制:遗忘门、输入门、输出门,通过直观比喻、数学原理和代码实现,彻底理解如何解决长期依赖问题。
vvilkim
9 天前
pytorch
·
rnn
·
lstm
PyTorch 中的循环神经网络 (RNN/LSTM):时序数据处理实战指南
时序数据无处不在——从自然语言到股票价格,从传感器读数到音乐旋律。处理这类数据需要能够理解序列依赖关系的模型。本文将深入探讨如何使用 PyTorch 中的循环神经网络 (RNN) 及其变体长短期记忆网络 (LSTM) 来处理时序数据,涵盖文本生成和股价预测两大典型应用场景。
THMAIL
9 天前
人工智能
·
python
·
rnn
·
算法
·
机器学习
·
逻辑回归
·
lstm
机器学习从入门到精通 - 循环神经网络(RNN)与LSTM:时序数据预测圣经
各位朋友,今天咱们来聊聊时序数据预测的核武器级别工具——RNN和它的进化体LSTM。说真的,如果非要我推荐一个时序模型,我会毫不犹豫拍桌子告诉你:LSTM必须学透! 这玩意儿在文本生成、股票预测、语音识别这些场景里,简直是降维打击般的存在。不过我得先提个醒——搞RNN的路上全是坑,光梯度消失就能让新手崩溃三五回,所以今天咱们要把这些雷区一个个标记清楚。放心,我会手把手带你从矩阵运算推到门控机制,连反向传播的细节都掰开了揉碎了讲。
会写代码的饭桶
10 天前
rnn
·
transformer
·
词嵌入
·
mlp
·
反向传播
·
神经网络基础
Transformers 学习入门:前置知识补漏
在学习 Transformers 之前,打好神经网络和自然语言处理的基础至关重要。本文整理了需要掌握的核心前置知识,用通俗的例子帮你快速理解复杂概念,为后续学习铺平道路。
addaduvyhup
10 天前
rnn
·
gru
·
lstm
【RNN-LSTM-GRU】第一篇 序列建模基础:理解数据的“顺序”之力
【RNN-LSTM-GRU】第二篇 序列模型原理深度剖析:从RNN到LSTM与GRU-CSDN博客【RNN-LSTM-GRU】第三篇 LSTM门控机制详解:告别梯度消失,让神经网络拥有长期记忆-CSDN博客
addaduvyhup
11 天前
rnn
·
gru
·
lstm
【RNN-LSTM-GRU】第二篇 序列模型原理深度剖析:从RNN到LSTM与GRU
本文将深入探讨循环神经网络(RNN)的核心原理、其面临的长期依赖问题,以及两大革命性解决方案——LSTM和GRU的门控机制,并通过实例和代码帮助读者彻底理解其工作细节。
fantasy_arch
14 天前
人工智能
·
rnn
·
深度学习
8.5 循环神经网络的从零开始实现
本节根据8.4节中的描述,从零开始基于循环神经网络实现字符级语言模型。这样的模型将在时光机器数据集上训练。和8.3节中介绍的一样。
weixin_45690427
15 天前
人工智能
·
rnn
·
bert
从RNN到BERT
序列数据是按照特定顺序排列的数据,其中元素的顺序包含重要信息。常见的序列数据包括:传统的神经网络(如全连接网络)存在以下限制:
love you joyfully
17 天前
人工智能
·
pytorch
·
rnn
·
深度学习
·
gru
·
循环神经网络
循环神经网络——pytorch实现循环神经网络(RNN、GRU、LSTM)
本文将深入探讨循环神经网络的理论基础,并通过PyTorch深度学习框架来展示如何实现循环神经网络模型。我们将首先介绍循环神经网络的基本概念。通过PyTorch代码示例,我们将展示如何设计、训练和评估一个循环神经网络模型。
Hao想睡觉
22 天前
rnn
·
gru
·
lstm
循环神经网络(RNN)、LSTM 与 GRU (一)
LSTM 的关键在于 细胞状态(Cell State) 和 三个门(Gates):遗忘门(Forget Gate):决定丢弃多少历史信息。 f t = σ ( W f [ x t , h t − 1 ] + b f ) f_t = \sigma(W_f[x_t, h_{t-1}] + b_f) ft=σ(Wf[xt,ht−1]+bf)
失散13
24 天前
人工智能
·
rnn
·
自然语言处理
·
gru
·
lstm
自然语言处理——03 RNN及其变体
循环神经网络 RNN (Recurrent Neural Network,简称RNN)——处理序列数据的神经网络;
算法_小学生
24 天前
人工智能
·
rnn
·
lstm
长短期记忆网络(LSTM)
循环神经网络(RNN)在处理序列数据(如文本、时间序列、语音)时具有天然优势,但传统 RNN 存在 梯度消失和梯度爆炸 的问题,难以捕捉长距离依赖关系。