rnn

Flying pigs~~33 分钟前
人工智能·rnn·深度学习·自然语言处理·循环神经网络
深度学习之循环神经网络RNN循环神经网络(Recurrent Neural Network)是一种专门处理序列数据的神经网络计算模型。
Dev7z2 小时前
人工智能·rnn·神经网络·cnn·pe恶意文件
基于卷积神经网络和递归神经网络的PE恶意文件检测识别摘要:随着网络安全威胁的日益严峻,恶意软件的检测与识别已成为信息安全领域的重要研究课题。传统的基于特征码匹配的检测方法难以应对快速变化的恶意软件变种,而基于深度学习的检测方法能够自动学习恶意软件的深层特征,具有更强的泛化能力。本文设计并实现了一个基于卷积神经网络(CNN)和递归神经网络(RNN)的PE(PortableExecutable)恶意文件检测识别系统。
Pyeako5 小时前
人工智能·python·rnn·深度学习·lstm·循环神经网络·遗忘门
深度学习--循环神经网络原理&局限&与LSTM解决方案目录一、为什么需要RNN?传统神经网络的痛点二、RNN核心原理:带“记忆”的网络结构三、RNN的致命局限:长期依赖问题
郝学胜-神的一滴10 小时前
人工智能·python·rnn·深度学习·神经网络·cnn
深度解析:深度学习核心特性与行业实践在人工智能技术飞速发展的当下,深度学习作为核心驱动力,早已渗透到计算机视觉、自然语言处理、智能推荐等多个领域。想要真正掌握深度学习技术,首先要吃透其底层核心特性。本文将从多层非线性变化、自动提取特征、大数据与计算能力支撑、可解释性差四大核心特点出发,结合技术原理、行业实践和开发技巧,为大家全方位拆解深度学习的技术本质,同时聊聊当下AI行业的就业与技术发展趋势。
咚咚王者11 小时前
人工智能·rnn·自然语言处理
人工智能之语言领域 自然语言处理 第十章 循环神经网络(RNN)第十章 循环神经网络(RNN)循环神经网络(Recurrent Neural Network, RNN)是专为处理序列数据而设计的神经网络架构,在自然语言处理(NLP)发展史上具有里程碑意义。尽管近年来 Transformer 架构逐渐成为主流,但 RNN 及其变体(LSTM、GRU)因其结构简洁、内存效率高,仍在许多实际场景中广泛应用。本章将深入浅出地讲解 RNN 的基本原理、核心问题、改进模型,并通过文本生成实战完整演示其应用。
飞Link3 天前
人工智能·rnn·深度学习·神经网络·机器学习
深度解构:递归神经网络 (RNN) 从原理到实战完全指南在人工智能的领域里,如果说传统的神经网络(如 MLP)是“瞬间的快照”,那么递归神经网络(Recurrent Neural Network, RNN)就是“连续的电影”。它第一次赋予了机器处理时间序列和链式信息的能力。
兜兜风d'2 天前
人工智能·pytorch·rnn·深度学习
PyTorch 深度学习实践——RNN循环神经网络学习笔记|B站UP主 刘二大人 《PyTorch深度学习实践》视频知识点总结 传送门 PyTorch深度学习实践——循环神经网络
郝学胜-神的一滴2 天前
人工智能·python·rnn·深度学习·神经网络·cnn
深度学习:CNN 与 RNN——解锁多模态处理能力因为想更好的为大佬服务,制作了同步视频,这是Bilibili的视频地址在人工智能的浪潮中,深度学习无疑是最耀眼的明珠,它从模拟生物神经网络的简单模型出发,历经数十年的技术迭代,如今已发展出能创造内容的生成式大模型,深刻改变着图像识别、自然语言处理、语音合成等诸多领域。本文将沿着深度学习的发展脉络,从经典模型演变到核心技术原理,再到实战应用与学习路径,全方位解锁深度学习的奥秘,带你从入门到进阶,夯实AI大模型开发的核心基础。
飞Link2 天前
开发语言·人工智能·rnn·深度学习·gru
进阶时序建模:门控递归单元 (GRU) 深度解析与实战在深度学习处理时序数据的历程中,原生的 RNN 因为“记性差”(梯度消失问题)逐渐被淘汰。虽然 LSTM 解决了这个问题,但其复杂的结构(三个门控)有时显得过于臃肿。
weixin_4481199418 天前
笔记·rnn·算法
Datawhale 大模型算法全栈基础篇 202602第3次笔记my_rnn.py输出:(base) PS E:\Datawhale 2026\base-llm202602> & D:/Users/app/miniconda3/envs/base-llm/python.exe "e:/Datawhale 2026/base-llm202602/03_my_rnn.py" 句子: ['播放', '周杰伦', '的', '《稻香》'] 输入形状 (B,T,E): (1, 4, 128) 手写 RNN 输出形状: (1, 4, 3) PyTorch RNN 输出形状: to
Dev7z21 天前
人工智能·rnn·lstm
原创论文:基于LSTM的共享单车需求预测研究摘要:随着城市化进程的不断推进和低碳出行理念的深入人心,共享单车作为绿色交通工具得到了广泛普及。然而,共享单车的需求在时间和空间上均呈现出显著的波动性,如何对其需求进行精准预测,进而优化调度和运营管理,已成为共享出行领域亟待解决的关键问题。传统机器学习方法在处理具有复杂时序依赖关系的预测任务时存在明显局限性,而深度学习中的长短时记忆网络(Long Short-Term Memory,LSTM)凭借其对长期依赖关系的出色捕捉能力,为时间序列预测提供了新的解决思路。
All The Way North-21 天前
pytorch·rnn·lstm·多层lstm·api详解·序列模型·双向lstm
【LSTM系列·终篇】PyTorch nn.LSTM 终极指南:从API原理到双向多层实战,彻底告别维度错误!由于字数限制,本篇是【LSTM系列】第五篇,也是最后一篇第一篇链接:【LSTM系列·第一篇】彻底搞懂:细胞状态、隐藏状态、候选状态、遗忘门——新手最晕的4个概念,一篇厘清 第二篇链接:【LSTM系列·第二篇】彻底搞懂输入门、输出门与LSTM全流程:维度分析+PyTorch工程实现 第三篇链接:【LSTM系列·第三篇】单样本 vs Batch:LSTM全流程计算对比,彻底搞懂为何 h_t 与 c_t 维度必须相同 第四篇链接:【LSTM系列·第四篇】彻底搞懂:单样本与 batch 的矩阵等价性、参数共享原理
Dev7z21 天前
人工智能·rnn·lstm
基于LSTM的共享单车需求预测研究摘要:共享单车作为城市绿色出行的重要方式,其需求量的准确预测对运营调度和资源配置具有重要意义。本文基于UCI共享单车数据集,研究了基于长短期记忆网络(LSTM)的骑行需求预测方法。
Clarence Liu25 天前
人工智能·rnn·深度学习
用大白话讲解人工智能(8) 循环神经网络(RNN):AI怎么“听懂“语音想象你正在翻译一句话:“I love eating apples”。如果逐词翻译:但如果遇到歧义句:“I saw the man with a telescope”,逐词翻译就会出问题:
软件算法开发1 个月前
人工智能·rnn·matlab·lstm·一维时间序列预测·火烈鸟搜索算法·fsa-lstm
基于火烈鸟搜索算法的LSTM网络模型(FSA-LSTM)的一维时间序列预测matlab仿真目录1.程序功能描述2.测试软件版本以及运行结果展示3.部分程序4.算法理论概述5.完整程序FSA-LSTM算法是将火烈鸟搜索算法与长短期记忆网络(Long Short-Term Memory, LSTM)相结合的时间序列预测模型,核心是利用FSA优化LSTM的隐藏层神经元数量,解决LSTM超参数凭经验设定导致的预测精度不足问题,适用于一维连续时间序列的回归预测。
liu****1 个月前
人工智能·python·rnn·深度学习
3.RNN及其变体【根据RNN内部结构,可以分为哪几类】RNN模型的分类【传统RNN的工作原理是什么】【激活函数tanh的作用是什么】
All The Way North-1 个月前
pytorch·rnn·深度学习·神经网络·lstm·序列模型·理论与工程
【LSTM系列·第三篇】单样本 vs Batch:LSTM全流程计算对比,彻底搞懂为何 h_t 与 c_t 维度必须相同由于字数限制,本篇是【LSTM系列】第三篇第一篇链接:【LSTM系列·第一篇】彻底搞懂:细胞状态、隐藏状态、候选状态、遗忘门——新手最晕的4个概念,一篇厘清 第二篇链接:【LSTM系列·第二篇】彻底搞懂输入门、输出门与LSTM全流程:维度分析+PyTorch工程实现
guygg881 个月前
人工智能·rnn·lstm
LSTM工具箱的详细说明及实现MATLAB中实现LSTM(长短期记忆网络)的核心工具是Deep Learning Toolbox,它提供了lstmLayer(LSTM层)、sequenceInputLayer(序列输入层)等内置层,支持构建LSTM网络以解决时间序列分类、回归(如预测)等问题。
香芋Yu1 个月前
人工智能·rnn·深度学习
【深度学习教程——04_序列模型(Sequence)】16_RNN为什么记不住长文本?循环神经网络的缺陷本章目标:理解序列数据的本质 —— 顺序就是信息。掌握 RNN 的核心机制:权重共享与时间展开 (Unrolling)。深入剖析其致命缺陷:梯度消失与长距离依赖问题,为下一章 LSTM 的出场做铺垫。
katheta1 个月前
rnn·深度学习·lstm
时间序列模型发展历程(第六讲:第三代——深度学习 RNN / LSTM)(时间 = 可学习的非线性状态演化)前文时间序列模型发展历程(第一讲:AR/MA/ARMA)-CSDN博客