深度之眼(二十九)——神经网络基础知识(四)-循环神经网络

文章目录

一、 学习目标

二、序列数据

序列数据是常见的数据类型,前后数据通常具有关联性

三、语言模型

综合考虑序列数据的关联性

如果句子里面的字数一多,那么计算量就会非常大。

四、循环神经网络

上一个的时间步的隐藏布,会对下一个的时间步的隐藏布产生影响。

多层感知机和循环神经网络

循环神经网络会记录历史信息。W权重矩阵是循环使用的,(Wxh、Whh、Whq)这三个是不会变化的

  1. 循环神经网络的隐藏状态可以捕捉截至当前时间步的序列的历史信息
  2. 循环神经网络模型参数的数量不随时间步的增加而增长

4.1 RNN的反向传播

也称穿越时间的反向传播

五、门控循环单元-GNU

引入门的原因:防止梯度消失

有重置门、更新门。使用激活函数Sigmoid进行判决

5.1 候选隐藏状态

与RNN相比,可以判断是否需要上一个时间布的隐藏状态,从而得出候选隐藏状态。

之后候选隐藏状态与更新门相连接,最后得出下一个隐藏状态

重置门用于候选隐藏状态计算过程当中用来控制上一时间步控制隐藏状态要遗忘哪些信息。

更新门更新当前时间步隐藏状态的时候去组合上一时间步隐藏状态H_t-1以及当前时间步的候选隐藏状态H^~这样进行组合,得到H_t

六、长短期记忆网络-LSTM

个人理解就是长期记忆就是依赖于记忆细胞

主要记住上面这个示意图就能理解LSTM了。

七、回顾

其中BN后面几个都是BN的推广。BN会在baseline里面讲到

相关推荐
青松@FasterAI1 小时前
【NLP高频面题 - 分布式训练篇】ZeRO主要为了解决什么问题?
人工智能·深度学习·自然语言处理·分布式训练·nlp面试
lu_rong_qq1 小时前
【LLM】一文了解 NLP 里程碑模型 BERT
人工智能·自然语言处理·bert
几两春秋梦_2 小时前
PINN求解偏微分方程
人工智能·pytorch·python
蒸土豆的技术细节2 小时前
vllm源码(一)
人工智能·自然语言处理
随风飘摇的土木狗2 小时前
【MATLAB第112期】基于MATLAB的SHAP可解释神经网络回归模型(敏感性分析方法)
神经网络·matlab·bp·敏感性分析·shap·可解释·shaply
微凉的衣柜2 小时前
深度剖析 DeepSeek V3 技术报告:架构创新与卓越性能表现
人工智能·语言模型·大模型
量子位2 小时前
奥特曼年终总结,明确 AGI 如何实现,2025 奔向超级智能
人工智能
嘟嘟实验室3 小时前
FaceFusion3.1.1,deepfacelive模型使用教程,BUG修复,云端镜像支持
人工智能·python·macos·aigc·数字人·facefusion
夜半被帅醒3 小时前
什么是神经网络?神经网络的基本组成部分训练神经网络激活函数有哪些局限性和挑战
人工智能·深度学习·神经网络
Jackilina_Stone3 小时前
【HUAWEI】HCIP-AI-MindSpore Developer V1.0 | 第一章 神经网络基础( 1 人工神经网络 ) | 学习笔记
人工智能·神经网络·学习·hcip·huawei