双向RNN,深层RNN(吴恩达深度学习笔记)

目录

1.双向RNN(BRNN)

(1)简介

(2)例子

(3)缺点

2.深层RNN(DRNN)


1.双向RNN(BRNN)
(1)简介
  • 双向RNN模型(bidirectional RNN),它可以让你在序列的某点处不仅可以获取之前的信息,还可以获取未来的信息
(2)例子
  • 回顾命名实体识别的例子,在判断第三个单词Teddy是不是人名的一部分时,我们只看了前三个单词,除了这些信息我们还需要更多的信息。因为根据前3个单词无法判断他们说的是Teddy熊,还是前美国总统Teddy Roosevelt。

  • 在之前,我们RNN都是前向的,如何构成双向的RNN呢?

  • 如上图,我们添加一层反向循环层(绿色标记)。给定一个输入序列x<1>到x<4>:

  • 序列先计算前向a<1>,a<2>,a<3>,a<4>,正向传播

  • 然后在反向计算a<4>,a<3>,a<2>,a<1>,这也是正向传播

  • 然后计算y: 使用双向的激活值计算

  • 这就是双向循环神经网络,并且这些基本单元不仅仅是标准RNN单元,也可以是GRU单元或者LSTM单元。

(3)缺点
  • 双向RNN网络模型的缺点就是你需要完整的数据的序列 才能预测任意位置。比如构建一个语音识别系统,那么双向RNN模型需要考虑整个语音表达,你需要等待这个人说完,然后获取整个语音表达才能处理这段语音,并进一步做语音识别。对于实际的语音识别的应用通常会有更加复杂的模块(somewhat more complex modules),而不是仅仅用我们标准的双向RNN模型。
2.深层RNN(DRNN)
  • 通常我们会把RNN的多个层堆叠在一起构建更深的模型,来构建一些更深的RNN。
  • 这里的堆叠隐含层的堆叠,如下图
  • 如上图紫色标记,看这个激活值a[2]<3>是怎么计算的,一共有两个输入:一个是下面过来的输入a[1]<3>,一个是左边过来的输入a[2]<2>,于是计算公式为:
  • 对于左侧这样标准的神经网络,有很深的网络,甚至于100层深,而对于RNN来说,有三层就已经不少了。由于时间的维度,RNN网络会变得相当大,即使只有很少的几层,很少会看到这种网络堆叠到100层。
相关推荐
简简单单做算法21 小时前
基于GA遗传优化的Transformer-LSTM网络模型的时间序列预测算法matlab性能仿真
深度学习·matlab·lstm·transformer·时间序列预测·ga遗传优化·电池剩余寿命预测
一轮弯弯的明月21 小时前
贝尔数求集合划分方案总数
java·笔记·蓝桥杯·学习心得
龙文浩_1 天前
AI中NLP的文本张量表示方法在自然语言处理中的演进与应用
人工智能·pytorch·深度学习·神经网络·自然语言处理
航Hang*1 天前
第3章:Linux系统安全管理——第2节:部署代理服务
linux·运维·服务器·开发语言·笔记·系统安全
zjnlswd1 天前
tkinter学习案例--笔记代码
笔记·学习
极光代码工作室1 天前
基于BERT的新闻文本分类系统
深度学习·nlp·bert·文本分类
独小乐1 天前
009.中断实践之实现按键测试|千篇笔记实现嵌入式全栈/裸机篇
linux·c语言·驱动开发·笔记·嵌入式硬件·arm
无聊大侠hello world1 天前
Yu-AI-Agent 项目(AI 恋爱大师智能体) · 学习笔记
人工智能·笔记·学习
XINVRY-FPGA1 天前
XC7VX690T-2FFG1157I Xilinx AMD Virtex-7 FPGA
arm开发·人工智能·嵌入式硬件·深度学习·fpga开发·硬件工程·fpga
CheerWWW1 天前
C++学习笔记——箭头运算符、std::vector的使用、静态链接、动态链接
c++·笔记·学习