双向RNN,深层RNN(吴恩达深度学习笔记)

目录

1.双向RNN(BRNN)

(1)简介

(2)例子

(3)缺点

2.深层RNN(DRNN)


1.双向RNN(BRNN)
(1)简介
  • 双向RNN模型(bidirectional RNN),它可以让你在序列的某点处不仅可以获取之前的信息,还可以获取未来的信息
(2)例子
  • 回顾命名实体识别的例子,在判断第三个单词Teddy是不是人名的一部分时,我们只看了前三个单词,除了这些信息我们还需要更多的信息。因为根据前3个单词无法判断他们说的是Teddy熊,还是前美国总统Teddy Roosevelt。

  • 在之前,我们RNN都是前向的,如何构成双向的RNN呢?

  • 如上图,我们添加一层反向循环层(绿色标记)。给定一个输入序列x<1>到x<4>:

  • 序列先计算前向a<1>,a<2>,a<3>,a<4>,正向传播

  • 然后在反向计算a<4>,a<3>,a<2>,a<1>,这也是正向传播

  • 然后计算y: 使用双向的激活值计算

  • 这就是双向循环神经网络,并且这些基本单元不仅仅是标准RNN单元,也可以是GRU单元或者LSTM单元。

(3)缺点
  • 双向RNN网络模型的缺点就是你需要完整的数据的序列 才能预测任意位置。比如构建一个语音识别系统,那么双向RNN模型需要考虑整个语音表达,你需要等待这个人说完,然后获取整个语音表达才能处理这段语音,并进一步做语音识别。对于实际的语音识别的应用通常会有更加复杂的模块(somewhat more complex modules),而不是仅仅用我们标准的双向RNN模型。
2.深层RNN(DRNN)
  • 通常我们会把RNN的多个层堆叠在一起构建更深的模型,来构建一些更深的RNN。
  • 这里的堆叠隐含层的堆叠,如下图
  • 如上图紫色标记,看这个激活值a[2]<3>是怎么计算的,一共有两个输入:一个是下面过来的输入a[1]<3>,一个是左边过来的输入a[2]<2>,于是计算公式为:
  • 对于左侧这样标准的神经网络,有很深的网络,甚至于100层深,而对于RNN来说,有三层就已经不少了。由于时间的维度,RNN网络会变得相当大,即使只有很少的几层,很少会看到这种网络堆叠到100层。
相关推荐
毕设源码-朱学姐几秒前
【开题答辩全过程】以 基于uniapp的云笔记系统的设计与实现为例,包含答辩的问题和答案
笔记·uni-app
Wyawsl4 分钟前
nginx安全笔记
笔记·nginx·安全
智算菩萨10 分钟前
ChatGPT 5.4 API深度解析:从Transformer架构到企业级应用实践
人工智能·深度学习·ai·chatgpt·ai编程
油泼辣子多加31 分钟前
【PY】数据处理函数
python·深度学习·机器学习·数据分析
雾岛听蓝37 分钟前
动静态库原理与ELF文件详解
linux·经验分享·笔记
左左右右左右摇晃1 小时前
HTTP与HTTPS整理
笔记·http·https
六元七角八分1 小时前
学习笔记二《JavaScript 流程控制》
javascript·笔记
佛系菜狗1 小时前
AI+python学习笔记及思考
笔记·学习
OpenCSG1 小时前
MiroThinker-1.7:当 AI 学会“慢思考”,推理能力迎来质的飞跃
人工智能·深度学习·机器学习
云边散步1 小时前
godot2D游戏教程系列二(17)
笔记·学习·游戏