2022最新版-李宏毅机器学习深度学习课程-P26 Recurrent Neural Network

RNN

应用场景:填满信息

把每个单词表示成一个向量的方法:独热向量

还有其他方法,比如:Word hashing 单词哈希

  • 输入:单词
  • 输出:该单词属于哪一类的概率分布

由于输入是文字序列,这就产生了一个问题:

是到达还是离开?

隐藏层的输出会被存储在内存中,内存能被视为另一个输入。

改变序列的顺序会改变输出。

RNN的网络结构

目前已提出的两个网络及区别

双向RNN

它与传统的循环神经网络(RNN)相比有一个重要的区别:它在每个时间步上包含两个方向的循环连接,一个从过去到未来(正向),另一个从未来到过去(逆向)。

在双向RNN中,每个时间步的隐藏状态是由两部分组成,一部分来自正向传播,另一部分来自逆向传播。这使得双向RNN能够捕捉到序列中的上下文信息,不仅考虑了过去的信息还考虑了未来的信息。这对于很多自然语言处理任务,如情感分析、命名实体识别、语言建模等非常有用,因为理解一个词语或标记通常需要考虑它周围的上下文。

在训练双向RNN时,通常会使用标准的反向传播算法 ,但是需要在正向和逆向传播中分别计算梯度 ,然后将它们合并以更新网络参数。这使得双向RNN的训练稍微复杂一些,但在实际应用中,往往能够提供更好的性能。

RNN的经典变形:LSTM

四个输入,1个输出,三个门

网络结构

三个门都是1:打开,0:关闭

注意这与遗忘门的名字是反着的,但就是这么奇怪~

操作例子

原本的网络结构

参数是原本的四倍

结构简图

一个单元

多个单元

多层的LSTM

Keras支持三个RNN:LSTM GRU SimpleRNN

相关推荐
AI绘画哇哒哒1 小时前
【收藏必看】大模型智能体六大设计模式详解:从ReAct到Agentic RAG,构建可靠AI系统
人工智能·学习·ai·语言模型·程序员·产品经理·转行
CNRio2 小时前
人工智能基础架构与算力之3 Transformer 架构深度解析:从注意力机制到算力适配演进
人工智能·深度学习·transformer
qy-ll2 小时前
深度学习——CNN入门
人工智能·深度学习·cnn
青瓷程序设计5 小时前
动物识别系统【最新版】Python+TensorFlow+Vue3+Django+人工智能+深度学习+卷积神经网络算法
人工智能·python·深度学习
F_D_Z6 小时前
数据集相关类代码回顾理解 | sns.distplot\%matplotlib inline\sns.scatterplot
python·深度学习·matplotlib
金智维科技官方7 小时前
RPA财务机器人为企业高质量发展注入动能
人工智能·机器人·rpa·财务
沫儿笙7 小时前
安川机器人tag焊接怎么节省保护气
人工智能·物联网·机器人
2501_941147427 小时前
人工智能赋能智慧教育互联网应用:智能学习与教育管理优化实践探索》
人工智能
yLDeveloper7 小时前
一只菜鸟学机器学习的日记:入门分布偏移
机器学习·dive into deep learning
阿龙AI日记7 小时前
详解Transformer04:Decoder的结构
人工智能·深度学习·自然语言处理