深入理解RNN

[人工智能-深度学习-47]:卷积神经网CNN+循环神经网络RNN与组合电路+时序电路的比较
[人工智能-深度学习-51]:循环神经网络 - RNN基本原理详解

组合逻辑电路

组合逻辑电路在逻辑功能上的特点是任意时刻的输出仅仅取决于该时刻的输入,与电路原来或当前的状态无关。常见的与、或、非、亦或电路就是组合电路。给定的输入,一定是给定的输出,与电路的当前状态无关,即与"时间"无关。

时序逻辑电路

大多数数字电路系统,除了包含组合电路,还包括存储元件(本质区别) ,我们将这样的系统描述为时序电路。

时序逻辑电路在逻辑功能上的特点是:任意时刻的输出不仅取决于当时的输入信号,而且还取决于电路原来的状态,或者说,还与以前的输入有关。

RNN理解:

  • 之前的误区:
    1.本质上,输入层不用画神经元。因为他们是"固定的"(维度上),或者说他们没有什么讨论的必要性。只有hidden layer能称之为神经元,hidden layer的数量,代表了你要把上一层数据通过线性代数转成几维,这个是可以讨论的。
    所以RNN中的隐藏层,他的维度,和输入无关,输入就是你数据的特征维度。那么隐藏层你想是几个神经元无所谓的。
    2.以文本为例子,由于你想让网络学习到上下文信息这个任务,所以你每次喂给网络的只能是一个单词的词向量。比如文本:"I love you",就 是一个序列,由三个单词组成,不管单词由多少个字母组成,每个单词被编码成一个长度=2的向量。那么RNN所说的t,在这个特定的任务中,就成了上下文的顺序这个信息,其实本身时间也是为了描述当前状态下的隐藏层和前一状态是相关的。
    3.为什么要引入T维度?
    这张图已经反映了几个事情:
    1、输入输出本身和隐藏层的neuron数量n无关
    2、隐藏层Wh=n*n

当RNN只有一个神经元时,即最简单的one-to-one:youtube上的视频教学,理解是对的,当前的hidden层(别管有几个神经元)一对一的传给下一个状态。和时序逻辑电路一样的思路。

​​

而他的缺点就是:RNN网络不能并行的处理序列输入 ,一次只能处理一个序列中的一个单元(如单词),如"I love china"这个序列,RNN网络一次只能处理一个单词,无法并行的处理整句话(多个单词组成的序列)

加上T这个维度之后:我们之前是用T个时刻给他输入X,现在是用一个时刻输入[X0,X1,...XT]这样可以使WX+B这个过程并行化

但是X0------X1内部的hidden层的状态转移是由RNN自己做的,我们现在只需要保证 XT------>XT+1这个过程的hidden层转移即可。

相关推荐
Yvette-W几秒前
ChatGPT 迎来 4o模型:更强大的图像生成能力与潜在风险
人工智能·chatgpt
Shockang几秒前
机器学习的一百个概念(5)数据增强
人工智能·机器学习
洁洁!4 分钟前
数据采集助力AI大模型训练
前端·人工智能·easyui
平平无奇科研小天才11 分钟前
scGPT环境安装
人工智能
xcLeigh17 分钟前
计算机视觉入门:从像素到理解的旅程
人工智能·python·opencv·计算机视觉
喾颛顼34 分钟前
Mac下小智AI本地环境部署
人工智能·经验分享·macos
艾鹤39 分钟前
ollama安装与使用
人工智能·llama
最新快讯40 分钟前
科技快讯 | 中国首款全自研高性能RISC-V服务器芯片发布;亚马逊推出Nova Act跻身AI智能体赛道
人工智能·科技
Peter11467178501 小时前
服务器入门操作1(深度学习)
服务器·人工智能·笔记·深度学习·学习
新加坡内哥谈技术1 小时前
大型语言模型Claude的“思维模式”最近被公开解剖
人工智能·语言模型·自然语言处理