深度学习与神经网络 | 邱锡鹏 | 第六章学习笔记 循环神经网络

6.循环神经网络

文章目录

  • 6.循环神经网络
    • [6.1 给神经网络增加记忆能力](#6.1 给神经网络增加记忆能力)
    • [6.2 循环神经网络](#6.2 循环神经网络)
    • [6.3 应用到机器学习](#6.3 应用到机器学习)
    • [6.4 参数学习](#6.4 参数学习)
    • [6.5 如何解决长程依赖问题](#6.5 如何解决长程依赖问题)
    • [6.6 GRU 和 LSTM](#6.6 GRU 和 LSTM)
    • [6.7 深层循环神经网络](#6.7 深层循环神经网络)
    • [6.8 应用](#6.8 应用)
    • [6.9 扩展到图结构](#6.9 扩展到图结构)

6.1 给神经网络增加记忆能力

6.2 循环神经网络

6.3 应用到机器学习

s是单个词的意思,b是一个词的开始,e是一个词的结束

没有结果产生的部分就是编码部分,有结果产生的部分就是解码部分

这是之前说的自回归模型

6.4 参数学习

会让第t个时刻的时候收不到关于第k个时刻的损失对地t个时刻的影响 原因就是梯度爆炸或者梯度消失

6.5 如何解决长程依赖问题

让上图的伽马=1即可,但是这个条件很强,很难达到

6.6 GRU 和 LSTM

ft是遗忘门,说的是我们这次应该忘记多少信息

6.7 深层循环神经网络

就是多叠了几层

6.8 应用

6.9 扩展到图结构

相关推荐
Slow菜鸟4 小时前
AI学习篇(五) | awesome-design-md 使用说明
人工智能·学习
狐狐生风5 小时前
LangChain 向量存储:Chroma、FAISS
人工智能·python·学习·langchain·faiss·agentai
狐狐生风5 小时前
LangChain RAG 基础
人工智能·python·学习·langchain·rag·agentai
墨北小七5 小时前
使用InspireFace进行智慧楼宇门禁人脸识别的训练微调
人工智能·深度学习·神经网络
HackTorjan5 小时前
深度神经网络的反向传播与梯度优化原理
人工智能·spring boot·神经网络·机器学习·dnn
数智工坊6 小时前
【Mask2Former论文阅读】:基于掩码注意力的通用分割Transformer,大一统全景/实例/语义分割
论文阅读·深度学习·transformer
fpcc7 小时前
AI和大模型——Fine-tuning
人工智能·深度学习
努力努力再努力FFF7 小时前
医生对AI辅助诊断感兴趣,作为临床人员该怎么了解和学习?
人工智能·学习
AI医影跨模态组学7 小时前
如何将纵向MRI深度学习特征与局部晚期直肠癌新辅助放化疗后的免疫微环境建立关联,并解释其对pCR及预后的机制
人工智能·深度学习·论文·医学·医学影像·影像组学
sakiko_8 小时前
UIKit学习笔记5-使用UITableView制作聊天页面
笔记·学习·swift·uikit