探秘LSTMs及其变体的奇妙世界(基础篇)

LSTMs

RNN具有长期依赖问题(Long-Term Dependencies) RNN 会受到短时记忆的影响。如果一条序列足够长,那它们将很难将信息从较早的时间步传送到后面的时间步。

如果你正在尝试处理一段文本进行预测,RNN 可能从一开始就会遗漏重要信息。在反向传播期间(反向传播是一个很重要的核心议题,本质是通过不断缩小误差去更新权值,从而不断去修正拟合的函数),RNN 会面临梯度消失的问题。

因为梯度是用于更新神经网络的权重值(新的权值 = 旧权值 - 学习率*梯度),梯度会随着时间的推移不断下降减少,而当梯度值变得非常小时,就不会继续学习。

在递归神经网络中,获得小梯度更新的层会停止学习------ 那些通常是较早的层。 由于这些层不学习,RNN会忘记它在较长序列中以前看到的内容,因此RNN只具有短时记忆

LSTM定义

长短期记忆网络(Long Short Term Memory networks)

它们可以学习只保留相关信息来进行预测,并忘记不相关的数据。简单说,因记忆能力有限,记住重要的,忘记无关紧要的

LSTM通过刻意的设计来避免长期依赖问题。记住长期的信息在实践中是LSTM的默认行为,而非需要付出很大代价才能获得的能力!

LSTMs核心架构

单元状态(cell state)

LSTM 的关键是单元状态,即贯穿图顶部的水平线。

单元状态可以一层一层的线性传递下去,同时可以通过各种称为 的结构来调节。门是一种选择性的让信息通过的方式,它们由sigmoid神经网络层和逐点乘法运算组成

sigmoid 层输出介于 0 和 1 之间的数字,描述每个组件应允许多少通过。值 0 表示"不让任何内容通过",而值 1 表示"让所有内容通过。

LSTMs有3个门来保护和控制单元状态!

普通LSTMs的门结构

遗忘门(forget gate layer)

LSTM 的第一步是决定要从 cell 状态中丢弃哪些信息。这个决定是由一个称为 "forget gate layer" 的 sigmoid 层做出的。

注意:其中W_f并不共享,上式可以写成f_t=\sigma(W_{f_h}h_{t-1}+W_{f_x}x_t+b_f)

输入门(input gate layer)

下一步是决定我们将在 cell state 中存储哪些新信息。这分为两部分。首先,一个名为 "input gate layer" 的 <math xmlns="http://www.w3.org/1998/Math/MathML"> s i g m o i d sigmoid </math>sigmoid 层决定了我们将更新哪些值。接下来, <math xmlns="http://www.w3.org/1998/Math/MathML"> t a n h tanh </math>tanh 层创建一个新候选值 <math xmlns="http://www.w3.org/1998/Math/MathML"> C ~ t \tilde{C}_t </math>C~t的向量,该向量可以添加到状态中。在下一步中,我们将把这两者结合起来,创建对状态的更新。

我们将旧状态乘以 <math xmlns="http://www.w3.org/1998/Math/MathML"> f t f_t </math>ft,忘记了我们之前决定忘记的事情。然后我们添加 <math xmlns="http://www.w3.org/1998/Math/MathML"> i t ∗ C ~ t i_t*\tilde{C}_t </math>it∗C~t。这是新的候选值,根据我们决定更新每个 state 值的程度进行缩放。

输出门(output gate layer)

最后,我们需要决定要输出什么。此输出将基于我们的 cell 状态,但将是过滤版本。首先,我们运行一个 sigmoid 层,它决定我们要输出的 cell state 的哪些部分。然后,我们将单元状态通过 tanh(以将值推到-1和1之间) 并将其乘以 sigmoid 门的输出,以便我们只输出我们决定的部分。

LSTMs变体

窥视孔链接(peephole connections)

让 gate layers 查看单元cell状态。

耦合门

耦合的 forget 和 input 门。我们不是单独决定要忘记什么以及应该添加新信息什么,而是一起做出这些决定。我们只会在它的位置上输入一些东西。我们只在忘记旧值时向 state 输入新值。

GRU

LSTM 的一个稍微更引人注目的变化是由 Cho 等人(2014 年)引入的门控循环单元或 GRU(Gated Recurrent Unit)。它将 forget 和 input 门合并到一个 "update gate" 中。它还合并了 cell 状态和 hidden 状态,并进行了一些其他更改。生成的模型比标准 LSTM 模型更简单,并且越来越受欢迎。

<math xmlns="http://www.w3.org/1998/Math/MathML"> z t z_t </math>zt和 <math xmlns="http://www.w3.org/1998/Math/MathML"> r t r_t </math>rt都是对 <math xmlns="http://www.w3.org/1998/Math/MathML"> h t − 1 、 x t h_{t-1}、x_t </math>ht−1、xt做的sigmoid非线性映射,那区别在哪呢?原因在于GRU把忘记门和输入门合二为一了,而 <math xmlns="http://www.w3.org/1998/Math/MathML"> z t z_t </math>zt是属于要记住的,反过来 <math xmlns="http://www.w3.org/1998/Math/MathML"> 1 − z t 1-z_t </math>1−zt则是属于忘记的,相当于对输入 <math xmlns="http://www.w3.org/1998/Math/MathML"> h t − 1 、 x t h_{t-1}、x_t </math>ht−1、xt做了一些更改,而 <math xmlns="http://www.w3.org/1998/Math/MathML"> r t r_t </math>rt则相当于先见之明的把输入 <math xmlns="http://www.w3.org/1998/Math/MathML"> h t − 1 、 x t h_{t-1}、x_t </math>ht−1、xt在 <math xmlns="http://www.w3.org/1998/Math/MathML"> z t / 1 − z t z_t/1-z_t </math>zt/1−zt对其做更改之前,先实现存一份原始的,最终在 <math xmlns="http://www.w3.org/1998/Math/MathML"> h ~ \tilde{h} </math>h~上做一个 <math xmlns="http://www.w3.org/1998/Math/MathML"> t a n h tanh </math>tanh变化。

缺点

另外需要强调的是LSTM搞的这么复杂,除了在结构上天然地克服了梯度消失的问题,更重要的是具有更多的参数来控制模型;通过四倍于RNN的参数量,可以更加精细地预测时间序列变量。

此外,我记得有一篇文章讲到,LSTM 在 200左右长度的文本上,就已经捉襟见肘了

参考:Understanding LSTMs Network

相关推荐
松涛和鸣2 小时前
14、C 语言进阶:函数指针、typedef、二级指针、const 指针
c语言·开发语言·算法·排序算法·学习方法
yagamiraito_4 小时前
757. 设置交集大小至少为2 (leetcode每日一题)
算法·leetcode·go
星释4 小时前
Rust 练习册 57:阿特巴什密码与字符映射技术
服务器·算法·rust
无敌最俊朗@4 小时前
力扣hot100-141.环形链表
算法·leetcode·链表
WWZZ20256 小时前
快速上手大模型:深度学习10(卷积神经网络2、模型训练实践、批量归一化)
人工智能·深度学习·神经网络·算法·机器人·大模型·具身智能
sali-tec7 小时前
C# 基于halcon的视觉工作流-章62 点云采样
开发语言·图像处理·人工智能·算法·计算机视觉
fashion 道格7 小时前
用 C 语言玩转归并排序:递归实现的深度解析
数据结构·算法·排序算法
九年义务漏网鲨鱼9 小时前
蓝桥杯算法——状态压缩DP
算法·职场和发展·蓝桥杯
CappuccinoRose9 小时前
MATLAB学习文档(二十八)
开发语言·学习·算法·matlab
Freedom_my9 小时前
插入排序算法
数据结构·算法·排序算法