深度学习与神经网络 | 邱锡鹏 | 第六章学习笔记 循环神经网络

6.循环神经网络

文章目录

  • 6.循环神经网络
    • [6.1 给神经网络增加记忆能力](#6.1 给神经网络增加记忆能力)
    • [6.2 循环神经网络](#6.2 循环神经网络)
    • [6.3 应用到机器学习](#6.3 应用到机器学习)
    • [6.4 参数学习](#6.4 参数学习)
    • [6.5 如何解决长程依赖问题](#6.5 如何解决长程依赖问题)
    • [6.6 GRU 和 LSTM](#6.6 GRU 和 LSTM)
    • [6.7 深层循环神经网络](#6.7 深层循环神经网络)
    • [6.8 应用](#6.8 应用)
    • [6.9 扩展到图结构](#6.9 扩展到图结构)

6.1 给神经网络增加记忆能力

6.2 循环神经网络

6.3 应用到机器学习

s是单个词的意思,b是一个词的开始,e是一个词的结束

没有结果产生的部分就是编码部分,有结果产生的部分就是解码部分

这是之前说的自回归模型

6.4 参数学习

会让第t个时刻的时候收不到关于第k个时刻的损失对地t个时刻的影响 原因就是梯度爆炸或者梯度消失

6.5 如何解决长程依赖问题

让上图的伽马=1即可,但是这个条件很强,很难达到

6.6 GRU 和 LSTM

ft是遗忘门,说的是我们这次应该忘记多少信息

6.7 深层循环神经网络

就是多叠了几层

6.8 应用

6.9 扩展到图结构

相关推荐
淮北4946 小时前
vim学习进阶
学习·编辑器·vim
sayang_shao8 小时前
ARM架构运行模式学习笔记
arm开发·学习·架构
happymaker06269 小时前
web前端学习日记——DAY04
前端·学习
solicitous11 小时前
遇到一个口头机遇
学习·生活
湘美书院--湘美谈教育11 小时前
湘美谈教育湘美书院网文研究:人工智能与微型小说选集
人工智能·深度学习·神经网络·机器学习·ai写作
梦醒过后说珍重12 小时前
炼丹笔记:感知超分辨率模型中复合损失权重的科学调参SOP
深度学习
CoovallyAIHub12 小时前
Pipecat:构建实时语音 AI Agent 的开源编排框架,500ms 级端到端延迟
深度学习·算法·计算机视觉
CoovallyAIHub12 小时前
Energies | 8版YOLO对8版Transformer实测光伏缺陷检测,RF-DETR-Small综合胜出
深度学习·算法·计算机视觉
观书喜夜长13 小时前
大模型应用开发学习-基于 LangChain 框架实现的交互式问答脚本
python·学习
FPGA小迷弟13 小时前
FPGA 时序约束基础:从时钟定义到输入输出延迟的完整设置
前端·学习·fpga开发·verilog·fpga