深入理解RNN

[人工智能-深度学习-47]:卷积神经网CNN+循环神经网络RNN与组合电路+时序电路的比较
[人工智能-深度学习-51]:循环神经网络 - RNN基本原理详解

组合逻辑电路

组合逻辑电路在逻辑功能上的特点是任意时刻的输出仅仅取决于该时刻的输入,与电路原来或当前的状态无关。常见的与、或、非、亦或电路就是组合电路。给定的输入,一定是给定的输出,与电路的当前状态无关,即与"时间"无关。

时序逻辑电路

大多数数字电路系统,除了包含组合电路,还包括存储元件(本质区别) ,我们将这样的系统描述为时序电路。

时序逻辑电路在逻辑功能上的特点是:任意时刻的输出不仅取决于当时的输入信号,而且还取决于电路原来的状态,或者说,还与以前的输入有关。

RNN理解:

  • 之前的误区:
    1.本质上,输入层不用画神经元。因为他们是"固定的"(维度上),或者说他们没有什么讨论的必要性。只有hidden layer能称之为神经元,hidden layer的数量,代表了你要把上一层数据通过线性代数转成几维,这个是可以讨论的。
    所以RNN中的隐藏层,他的维度,和输入无关,输入就是你数据的特征维度。那么隐藏层你想是几个神经元无所谓的。
    2.以文本为例子,由于你想让网络学习到上下文信息这个任务,所以你每次喂给网络的只能是一个单词的词向量。比如文本:"I love you",就 是一个序列,由三个单词组成,不管单词由多少个字母组成,每个单词被编码成一个长度=2的向量。那么RNN所说的t,在这个特定的任务中,就成了上下文的顺序这个信息,其实本身时间也是为了描述当前状态下的隐藏层和前一状态是相关的。
    3.为什么要引入T维度?
    这张图已经反映了几个事情:
    1、输入输出本身和隐藏层的neuron数量n无关
    2、隐藏层Wh=n*n

当RNN只有一个神经元时,即最简单的one-to-one:youtube上的视频教学,理解是对的,当前的hidden层(别管有几个神经元)一对一的传给下一个状态。和时序逻辑电路一样的思路。

​​

而他的缺点就是:RNN网络不能并行的处理序列输入 ,一次只能处理一个序列中的一个单元(如单词),如"I love china"这个序列,RNN网络一次只能处理一个单词,无法并行的处理整句话(多个单词组成的序列)

加上T这个维度之后:我们之前是用T个时刻给他输入X,现在是用一个时刻输入[X0,X1,...XT]这样可以使WX+B这个过程并行化

但是X0------X1内部的hidden层的状态转移是由RNN自己做的,我们现在只需要保证 XT------>XT+1这个过程的hidden层转移即可。

相关推荐
charles_vaez9 分钟前
开源模型应用落地-模型上下文协议(MCP)-Resources-资源的使用逻辑
深度学习·语言模型·自然语言处理·开源
sy_cora16 分钟前
IEEE 列表会议第五届机器人、自动化与智能控制国际会议
运维·人工智能·机器人·自动化
吹风看太阳20 分钟前
机器学习08-损失函数
人工智能·机器学习
m0_7401546723 分钟前
《k-means 散点图可视化》实验报告
人工智能·机器学习·kmeans
zhz521423 分钟前
AI数字人融合VR全景:开启未来营销与交互新篇章
人工智能·ai·交互·vr·ai编程·智能体
智源研究院官方账号25 分钟前
智源联合南开大学开源Chinese-LiPS中文多模态语音识别数据集
人工智能·语音识别
Thomas_YXQ35 分钟前
Unity3D Overdraw性能优化详解
开发语言·人工智能·性能优化·unity3d
家庭云计算专家1 小时前
还没用过智能文档编辑器吗?带有AI插件的ONLYOFFICE介绍
服务器·人工智能·docker·容器·编辑器
ayiya_Oese1 小时前
[训练和优化] 3. 模型优化
人工智能·python·深度学习·神经网络·机器学习
小众AI1 小时前
Suna: 开源多面手 AI 代理
人工智能·开源