rnn

vvoennvv14 小时前
python·rnn·tensorflow·lstm·tcn
【Python TensorFlow】BiTCN-BiLSTM双向时间序列卷积双向长短期记忆神经网络时序预测算法(附代码)资源下载:https://download.csdn.net/download/vvoennvv/92324145
木头左4 天前
人工智能·rnn·lstm
技术指标时空编码构建LSTM兼容的量化交易特征工程体系本方案实现将传统技术分析指标(MACD/RSI)通过时序特征提取与维度变换,转化为适合深度学习模型输入的结构化嵌入向量。该过程包含三个关键阶段:原始指标计算→多尺度窗口采样→时序差分编码,最终输出符合LSTM网络输入要求的三维张量(batch_size × sequence_length × feature_dim)。这种转换使经典量价关系得以保留的同时,为序列建模提供可学习的时空模式表征。典型应用场景包括高频交易信号生成、多品种相关性分析和动态仓位管理,其优势在于突破人工规则局限,自动捕捉非线性市场联动
NCU_wander8 天前
rnn·lstm·transformer
rnn lstm transformer mamba深度序列建模发展史的主干脉络:从最早的 RNN(循环神经网络),到 LSTM(长短期记忆网络),再到 Mamba(Selective State Space Model),每一次迭代都解决了前一代的核心缺陷。
qzhqbb9 天前
人工智能·rnn·神经网络
神经网络 - 循环神经网络时间序列数据指在不同时间点收集的数据,反映某一事物或现象随时间变化的状态或程度。 序列数据不一定随时间变化(如文本序列),但所有序列数据都有一个共同特征:后序数据与前序数据存在关联。
java1234_小锋10 天前
python·rnn·深度学习·pytorch2
PyTorch2 Python深度学习 - 循环神经网络(RNN)实例锋哥原创的PyTorch2 Python深度学习视频教程:https://www.bilibili.com/video/BV1eqxNzXEYc
提娜米苏12 天前
rnn·注意力机制
注意力机制:Jointly Learning to Align and Translate中从双向RNN编码器到软对齐的完整流程论文标题“Jointly Learning to Align and Translate”点明了其核心贡献:模型在一个统一的框架内,同时学习翻译任务和源语言与目标语言之间的词语对齐关系。这种对齐是通过注意力权重 αij 隐式学习得到的,它量化了在生成目标词 yi 时,对源词 xj 的关注程度。
IT古董12 天前
rnn·神经网络·lstm
【第七章:时间序列模型】2.时间序列统计模型与神经网络模型-(3)神经网络预测时间序列模型: 从RNN,LSTM到nbeats模型时间序列预测是机器学习与深度学习领域中的核心任务之一。与传统的统计模型(如ARIMA)相比,神经网络模型在非线性特征建模、复杂模式捕捉、长期依赖关系处理等方面表现更强大。本节将系统讲解神经网络时间序列预测模型的发展脉络——从最早的 RNN(循环神经网络),到应对梯度问题的 LSTM(长短期记忆网络),再到突破性地实现非循环结构的 N-BEATS(Neural basis expansion analysis for interpretable time series forecasting) 模型。
rengang6613 天前
人工智能·rnn·深度学习
14-循环神经网络(RNN):分析RNN在序列数据中的表现和特点循环神经网络(Recurrent Neural Network, RNN)是一种专门用于处理序列数据的深度学习模型。与传统的前馈神经网络不同,RNN通过引入循环结构,使其能够在处理当前输入时考虑之前的输入信息,从而捕捉数据中的时序依赖关系。这种特性使得RNN在处理诸如自然语言处理、语音识别、时间序列预测等序列数据问题时表现出色。
文火冰糖的硅基工坊14 天前
人工智能·rnn·lstm
[人工智能-大模型-125]:模型层 - RNN的隐藏层是什么网络,全连接?还是卷积?RNN如何实现状态记忆?RNN 的隐藏层通常是**全连接(Fully Connected)**的,而不是卷积。在每个时间步(timestep),RNN 单元会接收两个输入:
文火冰糖的硅基工坊14 天前
人工智能·rnn·深度学习
[人工智能-大模型-122]:模型层 - RNN是通过神经元还是通过张量时间记录状态信息?时间状态信息是如何被更新的?这是一个触及RNN(循环神经网络)核心机制的深刻问题。我们来用清晰、准确又通俗的方式回答:直接答案:RNN通过一个“张量”(Tensor)来存储和传递状态信息。
zhangfeng113316 天前
人工智能·rnn·lstm
移动流行区间法(MEM)的原理和与LSTM、ARIMA等时间序列方法的区别移动流行区间法(MEM)是一种基于历史流行病学数据,通过统计模型来定量界定疾病流行阈值、识别流行开始和评估流行强度的监测预警方法。下面这个流程图可以帮助你直观地把握MEM的核心步骤与逻辑:
文火冰糖的硅基工坊17 天前
人工智能·rnn·深度学习
[人工智能-大模型-117]:模型层 - 用通俗易懂的语言,阐述循环神经网络的结构想象一下你正在读一本书。当你读到第二页时,你不会忘记第一页的内容,你会把前面的情节记在脑子里,这样才能理解现在这一章在讲什么。大脑有“记忆”,能把过去的信息带到当前时刻。
文火冰糖的硅基工坊18 天前
人工智能·rnn·深度学习
[人工智能-大模型-118]:模型层 - RNN状态记忆是如何实现的?是通过带权重的神经元,还是通过张量?RNN的状态记忆是通过一个“带权重的神经网络计算”生成的张量(Tensor)来实现的。 更准确地说:“张量”是记忆的“载体”,而“带权重的神经元”(即神经网络计算)是更新这个张量的“机制”。
~kiss~20 天前
人工智能·rnn·cnn
CNN(卷积神经网络)和 RNN(循环神经网络)CNN(卷积神经网络)和 RNN(循环神经网络)是深度学习中两种针对不同数据类型设计的网络结构核心机制:通过卷积操作和池化操作处理数据,依赖局部感受野(局部感受野,Local Receptive Field)和参数共享 卷积层:用卷积核提取局部特征(如图像中的边缘、纹理),每个卷积核只关注输入的局部区域(局部感受野),且同一卷积核在输入上滑动时参数复用(参数共享),大幅减少计算量 池化层:对特征图降维,保留关键信息,增强平移不变性(如图像中物体轻微移动不影响识别) 数据假设:输入数据具有空间局部相关性(如
天地之于壹炁兮20 天前
人工智能·rnn·深度学习·transformer
神经网络进化史:从理论到变革神经网络发展的主要里程碑事件时间线图,展示了从早期理论到现代应用的完整演进过程:技术影响对比:当前神经网络已广泛应用于计算机视觉、自然语言处理等领域,但仍面临可解释性、能耗等挑战。2025年最新研究显示,神经网络开始展现出类似人类的泛化能力,标志着AI发展进入新阶段‌。
加油吧zkf24 天前
人工智能·rnn·自然语言处理
循环神经网络 RNN:从时间序列到自然语言的秘密武器RNN(Recurrent Neural Network)是一类能够“记忆序列信息”的神经网络,它是处理时间序列、语音、自然语言、传感器数据等任务的核心模型,是 NLP 走向深度学习时代的关键技术之一。
曾经的三心草24 天前
人工智能·rnn·深度学习
深度学习9-循环神经网络提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档两个领域:一个计算机视觉,图像识别,CNN,Transformer,卷积神经网络 还有一个就是自然语言处理了,循环神经网络,RNN,Transformer
岁月的眸1 个月前
人工智能·rnn·深度学习
【循环神经网络基础】为什么有了神经网络还需要有循环神经网络?在普通的神经网络中,信息的传递是单向的,这种限制虽然使得网络变得更容易学习,但在一定程度上也减弱了神经网络模型的能力。
jjjxxxhhh1231 个月前
人工智能·rnn·lstm
【AI】-RNN/LSTM ,Transformer ,CNN 通俗介绍我们可以把构建AI模型想象成建房子。第一部分:框架 - 你的建筑工具包 框架就是你的建筑工具包,它提供了钢筋、水泥、预制板、起重机等,让你能更高效、更安全地盖房子,而不用从烧制水泥、冶炼钢筋开始。