技术栈
rnn
AI扶我青云志
10 天前
rnn
·
深度学习
·
cnn
ANN、CNN、RNN 深度解析
上次的博客讲解的是深度学习的大致内容,但对于三大神经网络层面并不是很详细,所以我写这个博客来对ANN、CNN、RNN进行更深、更全面的讲解。
野生的程序媛
10 天前
人工智能
·
rnn
·
深度学习
·
神经网络
·
机器学习
·
语言模型
·
cnn
第三章 卷积神经网络
卷积是卷积神经网络的核心操作,主要功能是在图像或特征上滑动卷积核(滤波器),提取新的特征。根据维度不同可分为:
suixinm
13 天前
rnn
·
深度学习
·
机器翻译
Word2Vec介绍
Word2Vec的实现说明及代码示例,涵盖原理概述、使用Gensim的实践示例,以及关键步骤的底层实现思路。
深度学习_乌冬面
14 天前
人工智能
·
rnn
·
语言模型
RNN为什么不适合大语言模型
在自然语言处理(NLP)领域中,循环神经网络(RNN)及衍生架构(如LSTM)采用序列依序计算的模式,这种模式之所以“限制了计算机并行计算能力”,核心原因在于其时序依赖的特性:
24毕业生从零开始学ai
14 天前
人工智能
·
rnn
·
深度学习
循环神经网络(RNN):序列数据处理的强大工具
在人工智能和机器学习的广阔领域中,处理和理解序列数据一直是一个重要且具有挑战性的任务。循环神经网络(Recurrent Neural Network,RNN)作为一类专门设计用于处理序列数据的神经网络,在诸多领域展现出了强大的能力。从自然语言处理中的文本生成、机器翻译,到时间序列分析中的股票价格预测、天气预测等,RNN 都发挥着关键作用。本文将深入探讨 RNN 的工作原理、架构特点、训练方法、常见类型以及其广泛的应用场景。
我不是小upper
15 天前
rnn
·
机器学习
·
transformer
讲透 RNN 到 Transformer !!!
哈喽,我是我不是小upper~在深度学习领域,序列数据处理一直是重要的研究方向,从语音识别到自然语言处理,从时间序列分析到机器翻译,数据都以序列的形式存在。今天咱们就来聊聊从 RNN 到 Transformer 的演变历程,一起探究为什么 “Attention Is All You Need”?
追风哥哥
20 天前
rnn
·
深度学习
·
cnn
·
卷积神经网络
·
transformer
Transformer、RNN (循环神经网络) 和 CNN (卷积神经网络)的区别
我们来详细对比一下 Transformer、RNN (循环神经网络) 和 CNN (卷积神经网络) 这三种在深度学习中极其重要的架构,并通过具体例子说明它们的区别。
DUTBenjamin
20 天前
人工智能
·
rnn
·
深度学习
深度学习5——循环神经网络
循环神经网络(Recurrent Neural Network, RNN)是一类专门处理序列数据的神经网络,其显著特征是神经元连接中存在循环结构,允许信息在时间维度上传递。与前馈神经网络不同,RNN能够利用历史时刻的信息来影响当前输出,具备"记忆"能力,这使其在处理具有时序依赖的数据时表现出独特优势。
摘取一颗天上星️
20 天前
人工智能
·
rnn
·
lstm
LSTM梯度推导与梯度消失机制解析
LSTM(长短期记忆网络)通过精妙的门控设计解决了传统RNN的梯度消失问题。我们将深入推导LSTM参数的梯度传播过程,揭示其保持梯度流动的数学本质。
只有左边一个小酒窝
21 天前
人工智能
·
rnn
·
深度学习
(九)现代循环神经网络(RNN):从注意力增强到神经架构搜索的深度学习演进
现代循环神经网络的内容,将介绍几种先进的循环神经网络架构,包括门控循环单元(GRU)、长短期记忆网络(LSTM)的变体,以及注意力机制等。这些内容将帮助你更深入地理解循环神经网络的发展和应用。
聚客AI
23 天前
人工智能
·
pytorch
·
python
·
rnn
·
神经网络
·
机器学习
·
自然语言处理
系统掌握PyTorch:图解张量、Autograd、DataLoader、nn.Module与实战模型
本文较长,建议点赞收藏,以免遗失。更多AI大模型应用开发学习视频及资料,尽在聚客AI学院。本文通过代码驱动的方式,系统讲解PyTorch核心概念和实战技巧,涵盖张量操作、自动微分、数据加载、模型构建和训练全流程,并实现线性回归与多层感知机模型。
Morpheon
24 天前
人工智能
·
rnn
·
深度学习
·
循环神经网络
循环神经网络(RNN):从理论到翻译
循环神经网络(RNN)是一种专为处理序列数据设计的神经网络,如时间序列、自然语言或语音。与传统的全连接神经网络不同,RNN具有"记忆"功能,通过循环传递信息,使其特别适合需要考虑上下文或顺序的任务。它出现在Transformer之前,广泛应用于文本生成、语音识别和时间序列预测(如股价预测)等领域。
拾忆-eleven
1 个月前
rnn
·
自然语言处理
·
nlp
NLP学习路线图(二十二): 循环神经网络(RNN)
在自然语言处理(NLP)的广阔天地中,序列数据是绝对的核心——无论是流淌的文本、连续的语音还是跳跃的时间序列,都蕴含着前后紧密关联的信息。传统神经网络如同面对一幅打散的拼图,无法理解词语间的顺序关系,注定在序列任务上举步维艰。而循环神经网络(RNN)的诞生,正是为了解决这一核心挑战,为机器赋予了处理序列信息的记忆能力。
MYH516
1 个月前
rnn
·
深度学习
·
cnn
RNN和CNN使用场景区别
RNN(循环神经网络)和 CNN(卷积神经网络)是深度学习中两种核心架构,它们的使用场景主要取决于数据结构和任务需求。以下是两者的关键区别及典型应用场景:
superior tigre
1 个月前
人工智能
·
rnn
·
深度学习
RNN循环网络:给AI装上“记忆“(superior哥AI系列第5期)
嘿!小伙伴们,又见面啦!👋 上期我们学会了让AI"看懂"图片,今天要给AI装上一个更酷的技能——记忆力!🧠
m0_67869333
1 个月前
笔记
·
rnn
·
深度学习
深度学习笔记25-RNN心脏病预测(Pytorch)
RNN 的核心特点是它能够利用序列中的历史信息来影响当前的输出。记忆性:RNN 能够利用历史信息来影响当前的输出,这使得它在处理序列数据时非常有效。例如,在自然语言处理中,RNN 可以利用前面的单词来预测下一个单词。
deflag
1 个月前
人工智能
·
rnn
·
深度学习
第1天:认识RNN及RNN初步实验(预测下一个数字)
RNN(循环神经网络) 是一种专门设计用来处理序列数据的人工神经网络。它的核心思想是能够“记住”之前处理过的信息,并将其用于当前的计算,这使得它非常适合处理具有时间顺序或上下文依赖关系的数据。
青橘MATLAB学习
1 个月前
rnn
·
回声状态网络
·
rnn变体
·
双向循环网络
·
深度循环网络
·
时钟频率驱动网络
·
时间间隔网络
RNN结构扩展与改进:从简单循环网络到时间间隔网络的技术演进
本文系统介绍 RNN 结构的常见扩展与改进方案。涵盖 简单循环神经网络(SRN)、双向循环神经网络(BRNN)、深度循环神经网络(Deep RNN) 等多种变体,解析其核心架构、技术特点及应用场景,展现 RNN 在处理序列数据时的灵活性与适应性,为相关领域研究与应用提供技术参考。
njsgcs
1 个月前
人工智能
·
rnn
·
lstm
lstm 长短期记忆 视频截图 kaggle示例
【官方双语】LSTM(长短期记忆神经网络)最简单清晰的解释来了!_哔哩哔哩_bilibili.[short,input]*[2.7,1.63]+b=5.95
yzx991013
1 个月前
人工智能
·
rnn
·
lstm
循环神经网络(RNN):原理、架构与实战
循环神经网络(Recurrent Neural Network, RNN)是一类专门处理序列数据的神经网络,如时间序列、自然语言、音频等。与前馈神经网络不同,RNN 引入了循环结构,能够捕捉序列中的时序信息,使模型在不同时间步之间共享参数。这种结构赋予了 RNN 处理变长输入、保留历史信息的能力,成为序列建模的强大工具。