双向RNN,深层RNN(吴恩达深度学习笔记)

目录

1.双向RNN(BRNN)

(1)简介

(2)例子

(3)缺点

2.深层RNN(DRNN)


1.双向RNN(BRNN)
(1)简介
  • 双向RNN模型(bidirectional RNN),它可以让你在序列的某点处不仅可以获取之前的信息,还可以获取未来的信息
(2)例子
  • 回顾命名实体识别的例子,在判断第三个单词Teddy是不是人名的一部分时,我们只看了前三个单词,除了这些信息我们还需要更多的信息。因为根据前3个单词无法判断他们说的是Teddy熊,还是前美国总统Teddy Roosevelt。

  • 在之前,我们RNN都是前向的,如何构成双向的RNN呢?

  • 如上图,我们添加一层反向循环层(绿色标记)。给定一个输入序列x<1>到x<4>:

  • 序列先计算前向a<1>,a<2>,a<3>,a<4>,正向传播

  • 然后在反向计算a<4>,a<3>,a<2>,a<1>,这也是正向传播

  • 然后计算y: 使用双向的激活值计算

  • 这就是双向循环神经网络,并且这些基本单元不仅仅是标准RNN单元,也可以是GRU单元或者LSTM单元。

(3)缺点
  • 双向RNN网络模型的缺点就是你需要完整的数据的序列 才能预测任意位置。比如构建一个语音识别系统,那么双向RNN模型需要考虑整个语音表达,你需要等待这个人说完,然后获取整个语音表达才能处理这段语音,并进一步做语音识别。对于实际的语音识别的应用通常会有更加复杂的模块(somewhat more complex modules),而不是仅仅用我们标准的双向RNN模型。
2.深层RNN(DRNN)
  • 通常我们会把RNN的多个层堆叠在一起构建更深的模型,来构建一些更深的RNN。
  • 这里的堆叠隐含层的堆叠,如下图
  • 如上图紫色标记,看这个激活值a[2]<3>是怎么计算的,一共有两个输入:一个是下面过来的输入a[1]<3>,一个是左边过来的输入a[2]<2>,于是计算公式为:
  • 对于左侧这样标准的神经网络,有很深的网络,甚至于100层深,而对于RNN来说,有三层就已经不少了。由于时间的维度,RNN网络会变得相当大,即使只有很少的几层,很少会看到这种网络堆叠到100层。
相关推荐
响叮当!31 分钟前
大模型输出的全过程
人工智能·深度学习·机器学习
桂花很香,旭很美1 小时前
Anthropic Agent 工程实战笔记(二)工具设计
笔记·架构·language model
光的方向_2 小时前
04-Tokenization实战-从BPE到Hugging-Face应用
人工智能·深度学习·chatgpt·transformer
梅羽落2 小时前
XPath笔记
笔记
人工智能培训2 小时前
多模态大模型的统一表征与推理范式
人工智能·深度学习·ai大模型·多模态学习·具身智能·企业ai转型
桂花很香,旭很美2 小时前
Anthropic Agent 工程实战笔记(六)安全与生产
笔记·架构·agent
sponge'3 小时前
opencv学习笔记14:transformer
笔记·学习·transformer
吾在学习路3 小时前
SAMCT: Segment Any CT Allowing Labor-Free Task-Indicator Prompts
深度学习·计算机视觉
xhyu614 小时前
【学习笔记】推荐系统 (4.召回:Deep Retrieval、其他召回通道、曝光过滤)
笔记·学习
宝贝儿好4 小时前
【强化学习】第十章:随机高斯策略
人工智能·python·深度学习·神经网络·机器人·自动驾驶