深度学习经典模型之RNN_LSTM_Seq2Seq

RNN

什么是RNN

循环神经网络(Recurrent Neural Network, RNN)是一类以序列(sequence)数据为输入,在序列的演进方向进行递归(recursion)且所有节点(循环单元)按链式连接的递归神经网络(recursive neural network)。

RNN是一种特殊的神经网络结构, 它是根据人的认知是基于过往的经验和记忆这一观点提出的. 它与DNN,CNN不同的是: 它不仅考虑前一时刻的输入,而且赋予了网络对前面的内容的一种记忆功能.

RNN之所以称为循环神经网路,即一个序列当前的输出与前面的输出也有关。具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出。

RNN时间线展开图及公式

RNN 参考人类思考的方式,按时间顺序将文本(字或词)输入至模型里处理,比如"我想吃汉堡"前一时间输入的信息会通过上图中的中间层传递给下一时刻,参与下一时间输出的计算。

输出信息公式
<math xmlns="http://www.w3.org/1998/Math/MathML" display="block"> O t = g ( V ∗ S t ) O_t = g(V*S_t) </math>Ot=g(V∗St)

中间层信息公式
<math xmlns="http://www.w3.org/1998/Math/MathML" display="block"> S t = f ( U ∗ V t + W ∗ S t − 1 ) S_t = f(U * V_t + W * S_{t-1}) </math>St=f(U∗Vt+W∗St−1)

RNN应用领域

RNN的应用领域有很多, 可以说只要考虑时间先后顺序的问题都可以使用RNN来解决.这里主要说一下几个常见的应用领域:

  • 自然语言处理(NLP): 主要有视频处理, 文本生成, 语言模型, 图像处理
  • 机器翻译, 机器写小说
  • 语音识别
  • 图像描述生成
  • 文本相似度计算
  • 推荐(音乐推荐、网易考拉商品推荐、Youtube视频推荐等新的应用领域).

RUN发展

代表性RNN及变体

  • 基本RNN:循环网络的基本构成
  • LSTM:突破性进展的长短期记忆网络
  • GRU:新式的Cell模块单元
  • NTM:更大记忆体模型的探索

RNN存在的 知期记忆 问题

RNN 跟传统神经网络最大的区别在于每次都会将前一次的输出结果,带到下一次的隐藏层中,一起训练 。也就是说,RNN 前面所有的输入都会对未来的输出产生影响。如下图所示,RNN 中短期的记忆影响较大(如橙色区域),但是长期的记忆影响就很小(如黑色和绿色区域),这就是 RNN 存在的短期记忆问题

RNN无法并行训练,导致训练成本较高。

LSTM - Long Short-Term Memory - 接替RNN

长短期记忆网络 在Bert出来之前,LP领域的任务都 不管是文本分类或NER(实体提取) 等都是用LSTM来完成。

什么是LSTM

由于RNN也有梯度消失的问题,因此很难处理长序列的数据。LSTM是对RNN的改进的特例(Long Short-Term Memory),它可以避免常规RNN的梯度消失,因此在工业界得到了广泛的应用。

Long Short Term Memory networks(以下简称LSTMs),一种特殊的RNN网络,该网络设计出来是为了解决长依赖问题。该网络由 Hochreiter & Schmidhuber (1997)引入,并有许多人对其进行了改进和普及。他们的工作被用来解决了各种各样的问题,直到目前还被广泛应用。

整体表征图

上图 左侧为 <math xmlns="http://www.w3.org/1998/Math/MathML"> t − 1 t-1 </math>t−1的时间步,中间为 <math xmlns="http://www.w3.org/1998/Math/MathML"> t t </math>t时刻的时间步,中侧为 <math xmlns="http://www.w3.org/1998/Math/MathML"> t + 1 t+1 </math>t+1时刻的时间步。

α (sigmoid): <math xmlns="http://www.w3.org/1998/Math/MathML"> x ? x_? </math>x?不论取何况,所有的值都会被压缩 <math xmlns="http://www.w3.org/1998/Math/MathML"> 0 1 0~1 </math>0 1之间,当 <math xmlns="http://www.w3.org/1998/Math/MathML"> x i x_i </math>xi取值越大,α越接近于1,反之接近于0。

所有循环神经网络都具有神经网络的重复模块链的形式。在标准的RNN中,该重复模块将具有非常简单的结构,例如单个tanh层。LSTMs也具有这种链式结构,但它的重复单元不同于标准RNN网络里的单元只有一个网络层,它的内部有四个网络层。

LSTM核心思路

单元状态

LSTMs的核心是单元状态(Cell State),用贯穿单元的水平线表示。

单元状态有点像传送带。它沿着整个链一直走,只有一些微小的线性相互作用。信息很容易在不改变的情况下流动。单元状态如下图所示。

LSTM确实有能力将信息移除或添加到单元状态,并由称为gates的结构小心地进行调节。

门控机制

如下图,三个α (sigmoid)即对应三个门,从左到右分别是: 遗忘门,输入门,输出门

门是一种选择性地让信息通过的方式。它们由一个Sigmod网络层和一个点乘运算组成。

因为sigmoid层的输出是0-1的值,这代表有多少信息能够流过sigmoid层。0表示都不能通过,1表示都能通过。

三个门的表达式

遗忘门

遗忘门 是上一个隐层信息 <math xmlns="http://www.w3.org/1998/Math/MathML"> h t − 1 h_{t-1} </math>ht−1 和 当前输入的信息 <math xmlns="http://www.w3.org/1998/Math/MathML"> x i x_i </math>xi息整合(组合成一个非线性的函数)后输入到α里。

如果 遗忘门 认为该数据需要丢弃,那么α数值贴近于0,相关于衰减。 越接近于1,数据保留更多,衰减更少。

输入门

输入门依然是上一时刻的信息 <math xmlns="http://www.w3.org/1998/Math/MathML"> h t − 1 h_{t-1} </math>ht−1与当前输入的信息 <math xmlns="http://www.w3.org/1998/Math/MathML"> x i x_i </math>xi组合后,输入到α里。

输出门

Seq2Seq

什么是Seq2Seq

seq2seq是是一种循环神经网络RNN的变种,包含编码器(Encoder)和解码器(Decoder)两个部门,也称为 Encoder-Decoder 模型。

Seq2Seq结构

seq2seq是"Sequence to Sequence"的简写,seq2seq模型的核心就是编码器(Encoder)和解码器(Decoder)组成的。

<math xmlns="http://www.w3.org/1998/Math/MathML"> h α h_α </math>hα 隐藏层信息
<math xmlns="http://www.w3.org/1998/Math/MathML"> x 1 , x 2 , x 3 , x 4 x_1,x_2,x_3,x_4 </math>x1,x2,x3,x4: 输入值
<math xmlns="http://www.w3.org/1998/Math/MathML"> h 1 , h 2 , h 3 , h 4 h_1,h_2,h_3,h_4 </math>h1,h2,h3,h4:输入值经过encoder + <math xmlns="http://www.w3.org/1998/Math/MathML"> h α h_α </math>hα 整后后得到的值
<math xmlns="http://www.w3.org/1998/Math/MathML"> h 0 ' h^`_0 </math>h0'是decoder的隐藏层信息,上下文向量c在seq2seq不再被当成RNN的初始隐藏层,而是当成每一个神经元的输入(每个神经都拥有一个输入)

Seq2Seq的数据流程

在Encoder中,"欢迎/来/北京"这些词转换成词向量,也就是Embedding,我们用 $v_i$来表示,与上一时刻的隐状态 $h_{t-1}$按照时间顺序进行输入,每一个时刻输出一个隐状态$h_{t}$ ,我们可以用函数$f$ 表达RNN隐藏层的变换:$h_t=f(v_i,h_{t-1})$ 。假设有t个词,最终通过Encoder自定义函数$q$ 将各时刻的隐状态变换为向量 $c=q(h_0,h_1,...,h_{t})$,这个 $c$就相当于从"欢迎/来/北京"这几个单词中提炼出来的大概意思一样,包含了这句话的含义。

Decoder的每一时刻的输入为Eecoder输出的$c$ 和Decoder前一时刻解码的输出$s_{t-1}$ ,还有前一时刻预测的词的向量$E_{t-1}$ (如果是预测第一个词的话,此时输入的词向量为"GO"的词向量,标志着解码的开始),我们可以用函数g 表达解码器隐藏层变换: $s_i=g(c,s_{t-1},E_{t-1})$。直到解码解出" EOS",标志着解码的结束。

Seq2Seq Attention模型

在 Seq2Seq 模型,Encoder 总是将源句子的所有信息编码到一个固定长度的上下文向量 c 中,然后在 Decoder 解码的过程中向量 c 都是不变的。这存在着不少缺陷:

  1. 对于比较长的句子,很难用一个定长的向量 c 完全表示其意义。
  2. RNN 存在长序列梯度消失的问题,只使用最后一个神经元得到的向量 c 效果不理想。
  3. 与人类的注意力方式不同,即人类在阅读文章的时候,会把注意力放在当前的句子上。

Attention 即注意力机制 ,是一种将模型的注意力放在当前翻译单词上的一种机制。使用了 Attention 后,Decoder 的输入就不是固定的上下文向量 c 了,而是会根据当前翻译的信息,计算当前的 c

Seq2Seq 是自然语言处理中的一种重要模型,通过在seq2seq结构中加入Attention机制,使seq2seq的性能大大提升,现在seq2seq被广泛地用于机器翻译、对话生成、文本摘人、人体姿态序列生成等各种任务上,并取得了非常好的效果。

公式

RNN的attention都是基于decoder中的目标词和encoder的序列中的每一个词计算点积(或者其他的计算方式,如MLP,conv等都可以),然后softmax得到一个概率分布,也就是attention的权值。然后对encoder的序列中的每个词对应的向量做加权和得到最终的attention的结果。具体的如下图:

对于 Decoder 的每一步解码 i ,都有一个输入Ci,对输入序列所有隐层信息 h1 ,h2 ,...,hTx进行加权求和。

相当于在预测下一个词时,会把输入序列的隐层信息都看一遍,决定预测预测当前词语输入序列的哪些词最相关。
<math xmlns="http://www.w3.org/1998/Math/MathML" display="block"> C i = ∑ j = 1 T x a i j h j Ci = \sum_{j=1}^{T_x}a_ijh_j </math>Ci=j=1∑Txaijhj
<math xmlns="http://www.w3.org/1998/Math/MathML" display="block"> S t = f ( S t − 1 , y t − 1 , c t ) S_t = f(S_{t-1},y_{t-1},c_t) </math>St=f(St−1,yt−1,ct)

[参考]

一文看尽RNN(循环神经网络)

Seq2Seq模型介绍

相关推荐
sp_fyf_20247 分钟前
人工智能-大语言模型-微调技术-LoRA及背后原理简介
人工智能·语言模型·自然语言处理
RaidenQ10 分钟前
2024.9.20 Python模式识别新国大EE5907,PCA主成分分析,LDA线性判别分析,GMM聚类分类,SVM支持向量机
python·算法·机器学习·支持向量机·分类·聚类
xuehaishijue11 分钟前
射击靶标检测系统源码分享
人工智能·计算机视觉·目标跟踪
Kenneth風车15 分钟前
【机器学习(九)】分类和回归任务-多层感知机 (MLP) -Sentosa_DSML社区版
人工智能·算法·低代码·机器学习·分类·数据分析·回归
知来者逆18 分钟前
ChemChat——大语言模型与化学的未来,以及整合外部工具和聊天机器人的潜力
人工智能·gpt·语言模型·自然语言处理·机器人·llm·大语言模型
AI领航者18 分钟前
大型语言模型的结构性幻觉:不可避免的局限性
人工智能·语言模型·自然语言处理·llm·大语言模型·ai大模型·大模型幻觉
fydw_71518 分钟前
PyTorch 池化层详解
人工智能·深度学习
NiNg_1_23424 分钟前
机器学习之Python中Scikit-Learn(sklearn)入门
python·机器学习·scikit-learn
奥利给少年42 分钟前
深度学习——管理模型的参数
人工智能·深度学习
小羊在奋斗1 小时前
【C++】探秘二叉搜索树
c++·人工智能·神经网络·机器学习