rnn

裤裤兔1 天前
人工智能·rnn·神经网络·分类·cnn·医学图像处理
CNN和RNN结合提升分类效果首先利用3D CNN 对MRI进行分类操作数据:AD:73例 CN:102例 MRI-T1像 T1像便于显示解剖结构(T2像擅长显示病灶) 预处理:去除脑外(参数0.3) 网络结构: 共10层,包含 4个卷积层 4个池化层 2个全连接层
范桂飓1 天前
人工智能·rnn·lstm
人工智能发展史 — RNN/LSTM/GRU/Transformer 序列模型发展历程在 AI 领域,文本翻译、语音识别、股价预测等场景都离不开序列模型和序列数据处理。序列是数据点或事件的有序列表。与独立的图像或表格数据不同,序列数据中的元素具有内在的顺序和时间依赖性。 典型的例子包括:自然语言文本、语音、视频、股票价格、天气读数或传感器数据等。
xixixi777772 天前
人工智能·rnn·学习·架构·cnn·ocr·图像识别
CRNN(CNN + RNN + CTC):OCR识别的经典之作想象一个自动识别车牌的工厂流水线:过程分解:CNN(视觉质检员):先看整体车牌,找出“哪里是字、哪里是背景”
byzh_rc4 天前
人工智能·python·rnn·深度学习·神经网络·机器学习
[认知计算] 循环神经网络知乎:https://www.zhihu.com/people/byzh_rcCSDN:https://blog.csdn.net/qq_54636039
人工智能培训4 天前
人工智能·rnn·深度学习·大模型·具身智能·大模型学习·大模型工程师
循环神经网络讲解(2)#人工智能#具身智能#VLA#大模型#AI#LLM#Transformer 架构#AI技术前沿#Agent大模型#工信部证书#人工智能证书#职业证书
子非鱼9215 天前
人工智能·rnn·深度学习
3 传统序列模型——RNN虽然词向量能够表示词语的语义,但它本身并不包含词语之间的顺序信息。为了解决这一问题,研究者提出RNN(Recurrent Neural Network,循环神经网络)。
像风一样自由20205 天前
人工智能·rnn·lstm
LSTM-KNN融合模型:让AI既有记忆又会“查字典“假设你是一位股票交易员,每天早上醒来要预测今天的股价走势。你会怎么做?方法一:看趋势 你翻开过去三个月的K线图,发现"每次跌破20日均线后,通常会反弹",这就是记忆规律。
田里的水稻5 天前
人工智能·rnn·深度学习
DL_端到端_基于卷积循环神经网络的(CRNN)车牌号识别基于卷积神经网络(CNN)的车牌号识别(License Plate Recognition, LPR)是计算机视觉和智能交通系统中的一个典型应用。它通常包括以下几个主要步骤:
fantasy_arch7 天前
人工智能·rnn·lstm
LSTM和DenseNet区别t是深度学习中两种重要但设计哲学完全不同的神经网络架构,核心区别可以总结为:LSTM是用于处理序列数据的循环网络,核心是 时间上的记忆传递,而DenseNet是用于处理空间数据的前馈网络,核心是深度上的特征复用。
田里的水稻7 天前
rnn·神经网络·cnn
DL_神经网络在MLP、CNN和RNN(LSTM)之后(至2025)的发展神经网络发展演变列表如下,具体细节如下展开所述:总结:LSTM之后的演进主线这场演进的本质是:从LSTM的“记忆”开始,我们逐步赋予机器注意力、创造力、跨模态理解力、高效推理力——而这一切,仍在加速演进中。
东皇太星8 天前
人工智能·rnn·深度学习·神经网络
Transformers Tokenizer 使用详解通过掌握这些用法,你可以高效地使用 Transformers 的 Tokenizer 处理各种 NLP 任务。
极客BIM工作室9 天前
rnn·lstm·transformer
序列建模:RNN、LSTM 与 Transformer 的技术异同深度解析序列建模是自然语言处理(NLP)、语音识别、时序预测等领域的核心任务,其核心目标是捕捉数据中的 “时序依赖” 与 “全局关联”。循环神经网络(RNN)作为早期主流架构,奠定了序列建模的基础,但受限于梯度消失 / 爆炸问题;长短期记忆网络(LSTM)通过门控机制突破了这一局限,成为中长期序列建模的标杆;而 Transformer 凭借自注意力机制颠覆了传统时序依赖的建模方式,以并行计算能力和全局关联捕捉能力成为当前主流架构。本文将从结构设计、核心特性、性能表现、适用场景四大维度,系统对比三者的异同,剖析技术
deepdata_cn9 天前
rnn·算法·lstm
时序性步态数据处理的RNN及LSTM算法步态数据是通过传感器(如惯性测量单元IMU、压力传感鞋垫、运动捕捉系统)采集的人体行走过程中的多维数据,核心参数包括关节角度(髋、膝、踝)、肢体加速度、地面反作用力、足底压力分布等。其最显著的特征是时序连续性——一个完整步态周期(从一侧足跟着地到同侧再次着地)可分为支撑相(约占60%)和摆动相(约占40%),各阶段的参数变化呈现严格的时间先后依赖关系,且相邻步态周期之间存在规律性的重复与变异。 传统数据处理方法(如统计特征提取、隐马尔可夫模型)虽能捕捉部分时序规律,但难以处理长序列中复杂的非线性依赖关系。
木头左9 天前
人工智能·rnn·lstm
门控注意力单元与LSTM细胞状态更新的协同机制本技术方案通过在传统LSTM(Long Short-Term Memory)网络中植入门控注意力单元(Gated Attention Unit),构建具备动态特征权重分配能力的量化交易策略模型。该架构的核心价值在于解决传统LSTM在处理高频时序数据时存在的长程依赖建模不足问题,同时通过注意力机制增强关键时间步特征的提取能力。具体而言,系统通过以下三个层次实现技术突破:
fantasy_arch10 天前
网络·人工智能·rnn
RNN和残差网络模型的差异残差网络ResNet和循环神经网络RNN是两种完全不同结构的神经网络,设计目标,应用场景和工作原理均有本质差异。
玖日大大10 天前
人工智能·rnn·lstm
LSTM 深度解析:原理、实现与实战应用在深度学习的发展历程中,循环神经网络(Recurrent Neural Network, RNN)曾被寄予厚望,它通过引入循环结构,理论上能够捕捉序列数据中的时序依赖关系,为自然语言处理、时间序列预测等领域提供了新的解决方案。然而,传统 RNN 在实际应用中面临着严峻的挑战 —— 梯度消失(Vanishing Gradient)和梯度爆炸(Exploding Gradient)问题。当处理长序列数据时,梯度在反向传播过程中会急剧衰减或无限增大,导致模型无法学习到长期依赖关系,训练效果大打折扣。
代码小白的成长11 天前
人工智能·rnn·lstm
Windows: 调试基于千万短视频预训练的视频分类模型(videotag_tsn_lstm)2. 下载安装paddlepaddle和paddlehub
我爱鸢尾花11 天前
人工智能·python·rnn·深度学习·神经网络·算法
RNN公式推导、案例实现及Python实现在学习RNN公式推导时,在B站看到了这个视频,分别讲解了RNN前向传播和反向传播的推导公式,很清洗。结合实例,简化一下过程
倔强的石头10611 天前
人工智能·rnn·深度学习
循环神经网络(RNN):从序列数据难题到实战落地的完整指南要理解RNN的价值,首先要认清传统神经网络在处理序列数据时的“致命短板”。传统模型(如全连接网络、CNN)处理数据时,默认**“每个样本独立无关”**。比如用CNN识别一张猫的图片,无需考虑上一张图片的内容;用全连接网络预测房屋价格,只需分析当前房屋的面积、地段等特征。但面对序列数据,这种“无记忆”特性完全失效:
_codemonster12 天前
pytorch·rnn·深度学习
深度学习实战(基于pytroch)系列(三十六)循环神经网络的pytorch简洁实现上一节我们已经从零开始实现了循环神经网络,本节将使用PyTorch来更简洁地实现基于循环神经网络的语言模型。首先,我们读取周杰伦专辑歌词数据集。这一步和上节的代码基本一致。