rnn

木头左1 天前
人工智能·rnn·lstm
技术指标时空编码构建LSTM兼容的量化交易特征工程体系本方案实现将传统技术分析指标(MACD/RSI)通过时序特征提取与维度变换,转化为适合深度学习模型输入的结构化嵌入向量。该过程包含三个关键阶段:原始指标计算→多尺度窗口采样→时序差分编码,最终输出符合LSTM网络输入要求的三维张量(batch_size × sequence_length × feature_dim)。这种转换使经典量价关系得以保留的同时,为序列建模提供可学习的时空模式表征。典型应用场景包括高频交易信号生成、多品种相关性分析和动态仓位管理,其优势在于突破人工规则局限,自动捕捉非线性市场联动
NCU_wander5 天前
rnn·lstm·transformer
rnn lstm transformer mamba深度序列建模发展史的主干脉络:从最早的 RNN(循环神经网络),到 LSTM(长短期记忆网络),再到 Mamba(Selective State Space Model),每一次迭代都解决了前一代的核心缺陷。
qzhqbb6 天前
人工智能·rnn·神经网络
神经网络 - 循环神经网络时间序列数据指在不同时间点收集的数据,反映某一事物或现象随时间变化的状态或程度。 序列数据不一定随时间变化(如文本序列),但所有序列数据都有一个共同特征:后序数据与前序数据存在关联。
java1234_小锋7 天前
python·rnn·深度学习·pytorch2
PyTorch2 Python深度学习 - 循环神经网络(RNN)实例锋哥原创的PyTorch2 Python深度学习视频教程:https://www.bilibili.com/video/BV1eqxNzXEYc
提娜米苏8 天前
rnn·注意力机制
注意力机制:Jointly Learning to Align and Translate中从双向RNN编码器到软对齐的完整流程论文标题“Jointly Learning to Align and Translate”点明了其核心贡献:模型在一个统一的框架内,同时学习翻译任务和源语言与目标语言之间的词语对齐关系。这种对齐是通过注意力权重 αij 隐式学习得到的,它量化了在生成目标词 yi 时,对源词 xj 的关注程度。
IT古董9 天前
rnn·神经网络·lstm
【第七章:时间序列模型】2.时间序列统计模型与神经网络模型-(3)神经网络预测时间序列模型: 从RNN,LSTM到nbeats模型时间序列预测是机器学习与深度学习领域中的核心任务之一。与传统的统计模型(如ARIMA)相比,神经网络模型在非线性特征建模、复杂模式捕捉、长期依赖关系处理等方面表现更强大。本节将系统讲解神经网络时间序列预测模型的发展脉络——从最早的 RNN(循环神经网络),到应对梯度问题的 LSTM(长短期记忆网络),再到突破性地实现非循环结构的 N-BEATS(Neural basis expansion analysis for interpretable time series forecasting) 模型。
rengang6610 天前
人工智能·rnn·深度学习
14-循环神经网络(RNN):分析RNN在序列数据中的表现和特点循环神经网络(Recurrent Neural Network, RNN)是一种专门用于处理序列数据的深度学习模型。与传统的前馈神经网络不同,RNN通过引入循环结构,使其能够在处理当前输入时考虑之前的输入信息,从而捕捉数据中的时序依赖关系。这种特性使得RNN在处理诸如自然语言处理、语音识别、时间序列预测等序列数据问题时表现出色。
文火冰糖的硅基工坊11 天前
人工智能·rnn·lstm
[人工智能-大模型-125]:模型层 - RNN的隐藏层是什么网络,全连接?还是卷积?RNN如何实现状态记忆?RNN 的隐藏层通常是**全连接(Fully Connected)**的,而不是卷积。在每个时间步(timestep),RNN 单元会接收两个输入:
文火冰糖的硅基工坊11 天前
人工智能·rnn·深度学习
[人工智能-大模型-122]:模型层 - RNN是通过神经元还是通过张量时间记录状态信息?时间状态信息是如何被更新的?这是一个触及RNN(循环神经网络)核心机制的深刻问题。我们来用清晰、准确又通俗的方式回答:直接答案:RNN通过一个“张量”(Tensor)来存储和传递状态信息。
zhangfeng113312 天前
人工智能·rnn·lstm
移动流行区间法(MEM)的原理和与LSTM、ARIMA等时间序列方法的区别移动流行区间法(MEM)是一种基于历史流行病学数据,通过统计模型来定量界定疾病流行阈值、识别流行开始和评估流行强度的监测预警方法。下面这个流程图可以帮助你直观地把握MEM的核心步骤与逻辑:
文火冰糖的硅基工坊14 天前
人工智能·rnn·深度学习
[人工智能-大模型-117]:模型层 - 用通俗易懂的语言,阐述循环神经网络的结构想象一下你正在读一本书。当你读到第二页时,你不会忘记第一页的内容,你会把前面的情节记在脑子里,这样才能理解现在这一章在讲什么。大脑有“记忆”,能把过去的信息带到当前时刻。
文火冰糖的硅基工坊14 天前
人工智能·rnn·深度学习
[人工智能-大模型-118]:模型层 - RNN状态记忆是如何实现的?是通过带权重的神经元,还是通过张量?RNN的状态记忆是通过一个“带权重的神经网络计算”生成的张量(Tensor)来实现的。 更准确地说:“张量”是记忆的“载体”,而“带权重的神经元”(即神经网络计算)是更新这个张量的“机制”。
~kiss~16 天前
人工智能·rnn·cnn
CNN(卷积神经网络)和 RNN(循环神经网络)CNN(卷积神经网络)和 RNN(循环神经网络)是深度学习中两种针对不同数据类型设计的网络结构核心机制:通过卷积操作和池化操作处理数据,依赖局部感受野(局部感受野,Local Receptive Field)和参数共享 卷积层:用卷积核提取局部特征(如图像中的边缘、纹理),每个卷积核只关注输入的局部区域(局部感受野),且同一卷积核在输入上滑动时参数复用(参数共享),大幅减少计算量 池化层:对特征图降维,保留关键信息,增强平移不变性(如图像中物体轻微移动不影响识别) 数据假设:输入数据具有空间局部相关性(如
天地之于壹炁兮17 天前
人工智能·rnn·深度学习·transformer
神经网络进化史:从理论到变革神经网络发展的主要里程碑事件时间线图,展示了从早期理论到现代应用的完整演进过程:技术影响对比:当前神经网络已广泛应用于计算机视觉、自然语言处理等领域,但仍面临可解释性、能耗等挑战。2025年最新研究显示,神经网络开始展现出类似人类的泛化能力,标志着AI发展进入新阶段‌。
加油吧zkf21 天前
人工智能·rnn·自然语言处理
循环神经网络 RNN:从时间序列到自然语言的秘密武器RNN(Recurrent Neural Network)是一类能够“记忆序列信息”的神经网络,它是处理时间序列、语音、自然语言、传感器数据等任务的核心模型,是 NLP 走向深度学习时代的关键技术之一。
曾经的三心草21 天前
人工智能·rnn·深度学习
深度学习9-循环神经网络提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档两个领域:一个计算机视觉,图像识别,CNN,Transformer,卷积神经网络 还有一个就是自然语言处理了,循环神经网络,RNN,Transformer
岁月的眸23 天前
人工智能·rnn·深度学习
【循环神经网络基础】为什么有了神经网络还需要有循环神经网络?在普通的神经网络中,信息的传递是单向的,这种限制虽然使得网络变得更容易学习,但在一定程度上也减弱了神经网络模型的能力。
jjjxxxhhh12324 天前
人工智能·rnn·lstm
【AI】-RNN/LSTM ,Transformer ,CNN 通俗介绍我们可以把构建AI模型想象成建房子。第一部分:框架 - 你的建筑工具包 框架就是你的建筑工具包,它提供了钢筋、水泥、预制板、起重机等,让你能更高效、更安全地盖房子,而不用从烧制水泥、冶炼钢筋开始。
墨利昂24 天前
人工智能·rnn·深度学习
10.17RNN情感分析实验:加载预训练词向量模块整理在NLP情感分析任务中,词向量的质量直接影响模型性能。尤其是当训练数据规模有限时,从零训练词嵌入层很容易出现过拟合。而预训练词向量通过大规模语料学习到的通用语义表示,能为模型提供坚实的特征基础。本文结合MindSpore官方教程及RNN情感分析实验实践,聚焦预训练词向量加载这一核心模块,拆解实现逻辑、关键细节及优化思路。
孤狼灬笑25 天前
rnn·深度学习·算法·cnn·生成模型·fnn
深度学习经典分类(算法分析与案例)目录前馈神经网络(FNN)卷积神经网络(CNN)循环神经网络(RNN)生成模型总结与展望深度学习是人工智能的重要分支,其分类方式多样,主要可以从学习方式、模型架构和应用场景等角度进行划分。例如,按照学习方式可分为监督学习、无监督学习和强化学习;按照应用场景分类,深度学习广泛应用于图像识别、自然语言处理、语音识别和推荐系统等领域。比如,CNN在医疗诊断中用于分析医学图像,RNN和Transformer在机器翻译和文本生成中表现优异。本文主要是从模型架构的角度来进行分类的。