技术栈
rnn
EQUINOX1
2 天前
人工智能
·
rnn
·
深度学习
现代循环神经网络
GRU 是为了克服传统 RNN(循环神经网络)在处理长序列时容易出现的梯度消失和遗忘问题而提出的一种强大变体。它的核心思想是引入了“门(Gate)”的机制来控制信息的流动。
冰西瓜600
3 天前
rnn
·
深度学习
·
lstm
深度学习的数学原理(二十一)—— 传统序列模型(RNN/LSTM)的缺陷
在前文的序列建模与词嵌入部分,我们明确了序列数据(文本、语音、时序信号等)顺序敏感、变长、上下文依赖的核心特征,也知道传统MLP因无法捕捉序列时序关联而难以处理这类数据。为解决这一问题,学界先后提出了循环神经网络(RNN)及其改进版长短期记忆网络(LSTM),通过引入循环连接让模型具备“记忆”能力,能逐词处理序列数据并捕捉时序依赖。
路小雨~
3 天前
rnn
·
学习
·
机器学习
·
cnn
·
ann
经典神经网络结构学习笔记
执行摘要(≤200字):本文是一份面向“有一定机器学习基础但非专家”的学习笔记,系统梳理经典神经网络结构:CNN 与 RNN(含常见变体)及若干关键模块(归一化、残差、注意力、可分离/膨胀卷积等)。内容覆盖直观解释与必要数学表达,配合示例、伪代码与结构示意图,最后给出两套可照搬的教学级训练流程(CNN 图像分类、LSTM 序列建模)、对比表格与调试清单,帮助你把“会用”提升到“懂原理、能排错、能改结构”。
寂寞旅行
4 天前
rnn
·
cnn
·
transformer
大模型基石发展历程:CNN、RNN、transformer
CNN 主要用于处理具有网格结构的数据,如图像。其核心是卷积层,通过局部感受野和权值共享捕捉空间特征。池化层用于降维和增强平移不变性。CNN 在图像分类、目标检测等任务中表现优异,但难以处理序列数据的长距离依赖问题。
Rorsion
5 天前
人工智能
·
rnn
·
深度学习
循环神经网络(RNN)
对于自然语言处理这种前后文之间有联系的任务,一般的前馈网络只能单独处理每个词,没有记忆(即无法联系前后文进行语义理解),即前馈网络处理不了 “序列依赖” 。
Dev7z
7 天前
人工智能
·
rnn
·
lstm
基于LSTM新闻文本摘要系统的设计与实现
摘要:本文针对海量新闻文本场景下信息过载、人工摘要效率低以及用户难以快速获取核心内容等问题,设计并实现了一套基于 LSTM 的新闻文本摘要系统。系统以新闻标题与新闻正文为输入,围绕“文本预处理—模型训练—摘要生成—结果展示”构建完整流程,旨在 提升新闻信息的提炼效率与系统展示性,为新闻内容智能处理提供可实现的工程方案。
@大吉
8 天前
人工智能
·
笔记
·
rnn
AI笔记第二节:RNN 循环神经网络
向量和矩阵之间有什么关系?当矩阵的行数或列数为 1 时,它可以被视为一个向量。但是向量的定义是有大小和有方向的,一个1行(或者一列)的矩阵,哪来的方向呢?
放下华子我只抽RuiKe5
8 天前
人工智能
·
rnn
·
深度学习
·
神经网络
·
线性代数
·
机器学习
·
矩阵
文本处理与RNN:硬核实战笔记
📖 导读: 这份笔记覆盖NLP实战全流程:文本预处理、文本向量化、RNN/LSTM/GRU、注意力机制。
CyanMind
9 天前
人工智能
·
rnn
·
机器人
IsaacLab 训练范式探索(一):让机器人拥有“记忆”的 RNN 策略
在 IsaacLab 基于 RSL-RL 库的强化学习(RL)Demo 中,我们最常接触到的往往是默认的 MLP(多层感知机)策略范式。然而,在探索机器人复杂步态和真实世界部署时,除了标准的 RslRlPpoActorCriticCfg 之外,RSL-RL 其实还为我们提供了更为强大的循环策略(Recurrent Policy)和蒸馏学习(Distillation)机制。
(; ̄ェ ̄)。
11 天前
人工智能
·
rnn
·
深度学习
深度学习入门(十)RNN、LSTM、GRU
从两个角度对RNN模型进行分类. 第一个角度是输入和输出的结构, 第二个角度是RNN的内部构造它是RNN最基础的结构形式, 最大的特点就是: 输入和输出序列是等长的. 由于这个限制的存在, 使其适用范围比较小, 可用于生成等长度的合辙诗句.
Learn Beyond Limits
15 天前
人工智能
·
rnn
·
深度学习
·
神经网络
·
机器学习
·
自然语言处理
·
nlp
循环神经网络的问题:梯度消失与梯度爆炸|Problems with RNNs: Vanishing and Exploding Gradients
-----------------------------------------------------------------------------------------------
Flying pigs~~
15 天前
人工智能
·
rnn
·
深度学习
·
gru
·
nlp
·
lstm
·
循环神经网络
深入浅出RNN及其变体:从传统RNN到LSTM、GRU
循环神经网络(Recurrent Neural Network, RNN) 是一类以序列数据为输入的神经网络。它通过网络内部的结构设计,能够有效捕捉序列数据之间的前后关联特征,输出通常也是序列形式。
阿拉斯攀登
17 天前
人工智能
·
rnn
·
深度学习
·
ai
·
大模型
·
llm
·
lstm
记忆的困境:RNN 与 LSTM 的底层逻辑
目录前言01 RNN 的记忆本质:一条单行道信息流动的链条02 LSTM 的救赎:三条门控机制遗忘门(Forget Gate):决定丢弃什么
L-影
17 天前
人工智能
·
rnn
·
ai
·
transformer
AI中的Transformer:从RNN的困境到横扫一切的革命(下篇)
上篇我们聊了Transformer是什么以及它为何能取代RNN。其实Transformer只是一个基础架构,就像乐高积木,研究者们用它搭建出了各种强大的模型。下面我们就来看看它的主要类型和实际作用。
Dfreedom.
18 天前
人工智能
·
rnn
·
深度学习
·
神经网络
从“阅读小说”到循环网络:一篇搞懂循环神经网络(RNN)
循环神经网络是处理序列数据(如语言、语音、时间序列)的核心模型。它的独特之处在于拥有“记忆”,能够用上文来理解下文。本文将通过一个 “阅读并续写小说” 的比喻,带你直观理解 RNN 如何工作,并揭示其处理序列的核心机制。
L-影
18 天前
人工智能
·
rnn
·
ai
·
transformer
AI中的Transformer:从RNN的困境到横扫一切的革命(上篇)
如果你关注AI领域,这两年肯定听过一个词——Transformer。它就像AI界的“变形金刚”,从最初默默无闻的论文模型,迅速成长为横扫自然语言处理、计算机视觉等领域的超级架构。那么,Transformer究竟是什么?它为什么会出现?今天我们就用最通俗的语言,把它掰开揉碎讲清楚。
Shining0596
18 天前
人工智能
·
rnn
·
深度学习
·
学习
·
其他
·
大模型
·
infinitensor
推理引擎方向(二)《大模型原理与结构》
目录人工神经网络基础1. 向量到向量(Vector to Vector)任务2. 序列到序列(Sequence to Sequence)任务
Flying pigs~~
18 天前
人工智能
·
rnn
·
深度学习
·
自然语言处理
·
循环神经网络
深度学习之循环神经网络RNN
循环神经网络(Recurrent Neural Network)是一种专门处理序列数据的神经网络计算模型。
Dev7z
19 天前
人工智能
·
rnn
·
神经网络
·
cnn
·
pe恶意文件
基于卷积神经网络和递归神经网络的PE恶意文件检测识别
摘要:随着网络安全威胁的日益严峻,恶意软件的检测与识别已成为信息安全领域的重要研究课题。传统的基于特征码匹配的检测方法难以应对快速变化的恶意软件变种,而基于深度学习的检测方法能够自动学习恶意软件的深层特征,具有更强的泛化能力。本文设计并实现了一个基于卷积神经网络(CNN)和递归神经网络(RNN)的PE(PortableExecutable)恶意文件检测识别系统。
Pyeako
19 天前
人工智能
·
python
·
rnn
·
深度学习
·
lstm
·
循环神经网络
·
遗忘门
深度学习--循环神经网络原理&局限&与LSTM解决方案
目录一、为什么需要RNN?传统神经网络的痛点二、RNN核心原理:带“记忆”的网络结构三、RNN的致命局限:长期依赖问题