rnn

輕華1 天前
人工智能·rnn·lstm
LSTM实战:遗忘门、输入门与输出门解决长期依赖本文是上篇《Word2Vec与CBOW算法实战》的续篇。上篇解决了"如何用词向量表示词语"的问题,但还有一个关键问题没解决:如何让模型理解前后词语之间的关联关系? 这就是 RNN 到 LSTM 要解决的问题。
Daydream.V1 天前
人工智能·rnn·lstm
LSTM网络介绍对于序列类型数据(如:如文本、语音、股票、时间序列等数据)即当前数据内容与前面的数据有关,对于这类数据传统神经网络无法训练出具有顺序的数据,因为模型搭建时没有考虑数据上下之间的关系。
夜瞬1 天前
rnn·学习·自然语言处理
NLP学习笔记08:循环神经网络(RNN)——从基础 RNN 到 LSTM 与 GRU作者:Ye Shun 日期:2026-04-17循环神经网络(Recurrent Neural Network,RNN)是一类专门处理序列数据的神经网络。所谓序列数据,指的是数据之间存在先后顺序、上下文依赖或时间关系的数据,例如:
Bluescape1 天前
rnn
韦恩图在线绘图工具韦恩(Venn)图是常见统计图之一,也是科研文章中最常见展示形式之一。主要用于展示各样本(或分组)之间共有(或特有)元素的数量(或比例)。用来描绘多个数据集之间的关系。绘制韦恩图的工具有很多,今天简单给大家介绍4个在线绘制工具,简单易用,赶快一起学起来吧!
沪漂阿龙3 天前
人工智能·rnn·深度学习
循环神经网络(RNN)深度解析:从数学原理到智能输入法实战还在被 Transformer 的复杂度劝退?来认识一下序列建模的鼻祖 RNN——它的思想正以全新姿态回归大模型舞台中央。
Purple Coder10 天前
人工智能·rnn·深度学习
7-RNN 循环网络层文本数据具有序列性一次
白小筠10 天前
人工智能·rnn·自然语言处理
自然语言处理之RNN及其变体RNN(Recurrent Neural Network), 中文称作循环神经网络, 它一般以序列数据为输入, 通过网络内部的结构设计有效捕捉序列之间的关系特征, 一般也是以序列形式进行输出. 一般单层神经网络结构: RNN单层网络结构:
程序员Shawn12 天前
人工智能·rnn·深度学习
【深度学习 | 第四篇】- 循环神经网络循环神经网络RNN(Recurrent Neural Network)是一种专门用于处理序列数据的神经网络,与传统的前馈神经网络,如全连接网络,卷积网络不同,RNN具有循环连接,允许信息从上一个时间步,传递到下一个时间步,这种结构使得 RNN 能够“记住”过去的信息,并根据当前输入和记忆共同决定输出,可以运用于NLP,时间序列预测,语言识别和音乐生成当中
Learn Beyond Limits13 天前
人工智能·rnn·深度学习·神经网络·机器学习·自然语言处理·nlp
多层循环神经网络|Multi-layer RNNs-----------------------------------------------------------------------------------------------
小码吃趴菜14 天前
人工智能·rnn·深度学习
深度学习八股-RNN主要讲的是循环神经网络 RNN 的基本原理、工作方式以及结构性缺陷。 它的核心在于:RNN 不是一次性处理整段输入,而是按时间顺序逐步处理序列信息,并通过隐藏状态保存历史信息,因此特别适合文本、语音、轨迹这类有时序依赖的数据。
m0_4626052215 天前
人工智能·rnn·lstm
R4Pytorch实现:LSTM-火灾温度预测
Learn Beyond Limits16 天前
人工智能·rnn·深度学习·神经网络·自然语言处理·nlp·lstm
长短期记忆网络|LSTM(Long Short-Term Memory)-----------------------------------------------------------------------------------------------
Learn Beyond Limits16 天前
人工智能·rnn·深度学习·神经网络·语言模型·自然语言处理·nlp
双向循环神经网络|Bi-RNN(Bidirectional Recurrent Neural Networks)-----------------------------------------------------------------------------------------------
EQUINOX119 天前
人工智能·rnn·深度学习
现代循环神经网络GRU 是为了克服传统 RNN(循环神经网络)在处理长序列时容易出现的梯度消失和遗忘问题而提出的一种强大变体。它的核心思想是引入了“门(Gate)”的机制来控制信息的流动。
冰西瓜60020 天前
rnn·深度学习·lstm
深度学习的数学原理(二十一)—— 传统序列模型(RNN/LSTM)的缺陷在前文的序列建模与词嵌入部分,我们明确了序列数据(文本、语音、时序信号等)顺序敏感、变长、上下文依赖的核心特征,也知道传统MLP因无法捕捉序列时序关联而难以处理这类数据。为解决这一问题,学界先后提出了循环神经网络(RNN)及其改进版长短期记忆网络(LSTM),通过引入循环连接让模型具备“记忆”能力,能逐词处理序列数据并捕捉时序依赖。
路小雨~20 天前
rnn·学习·机器学习·cnn·ann
经典神经网络结构学习笔记执行摘要(≤200字):本文是一份面向“有一定机器学习基础但非专家”的学习笔记,系统梳理经典神经网络结构:CNN 与 RNN(含常见变体)及若干关键模块(归一化、残差、注意力、可分离/膨胀卷积等)。内容覆盖直观解释与必要数学表达,配合示例、伪代码与结构示意图,最后给出两套可照搬的教学级训练流程(CNN 图像分类、LSTM 序列建模)、对比表格与调试清单,帮助你把“会用”提升到“懂原理、能排错、能改结构”。
寂寞旅行21 天前
rnn·cnn·transformer
大模型基石发展历程:CNN、RNN、transformerCNN 主要用于处理具有网格结构的数据,如图像。其核心是卷积层,通过局部感受野和权值共享捕捉空间特征。池化层用于降维和增强平移不变性。CNN 在图像分类、目标检测等任务中表现优异,但难以处理序列数据的长距离依赖问题。
Rorsion22 天前
人工智能·rnn·深度学习
循环神经网络(RNN)对于自然语言处理这种前后文之间有联系的任务,一般的前馈网络只能单独处理每个词,没有记忆(即无法联系前后文进行语义理解),即前馈网络处理不了 “序列依赖” 。
Dev7z24 天前
人工智能·rnn·lstm
基于LSTM新闻文本摘要系统的设计与实现摘要:本文针对海量新闻文本场景下信息过载、人工摘要效率低以及用户难以快速获取核心内容等问题,设计并实现了一套基于 LSTM 的新闻文本摘要系统。系统以新闻标题与新闻正文为输入,围绕“文本预处理—模型训练—摘要生成—结果展示”构建完整流程,旨在 提升新闻信息的提炼效率与系统展示性,为新闻内容智能处理提供可实现的工程方案。
@大吉25 天前
人工智能·笔记·rnn
AI笔记第二节:RNN 循环神经网络向量和矩阵之间有什么关系?当矩阵的行数或列数为 1 时,它可以被视为一个向量。但是向量的定义是有大小和有方向的,一个1行(或者一列)的矩阵,哪来的方向呢?