动手学深度学习54 循环神经网络

动手学深度学习54 循环神经网络

  • [1. 循环神经网络RNN](#1. 循环神经网络RNN)
    • [2. QA](#2. QA)

1. 循环神经网络RNN

h t h_t ht 与 h t − 1 h_{t-1} ht−1 x t − 1 x_{t-1} xt−1有关
x t x_t xt 与 h t h_t ht x t − 1 x_{t-1} xt−1 有关

怎么把潜变量变成RNN--假设更简单

潜变量和隐变量的区别:隐变量通常是现实生活中存在的东西,只是我们没有观察到;潜变量可指代现实生活中不存在(人为创造)的东西。

隐变量:一个向量。

输出【o_t】发生在观察【x_t】之前。根据o_t和x_t的值计算损失。

φ:激活函数。输出不需要激活函数。

RNN: 在MLP中加了一项 W h h h t − 1 W_{hh}h_{t-1} Whhht−1, 和前一个时间状态的 h t − 1 h_{t-1} ht−1发生关系。所有x的信息都存储到h里面。 W h h W_{hh} Whh存储时序信息。

n个输出的多分类交叉熵损失平均值,再取指数--困惑度。

做指数,损失数值会变大。

困惑度=1,下面候选词词概率最高。=2 候选两个词都很有可能。

clipping

g:表示所有层的梯度放在一起

theta:=5 或者=10

g值正常,不做处理,g过大,将值处理成theta,保证g不会过大--不会超过theta值,防止梯度爆炸。

可视化RNN:
https://www.bilibili.com/video/BV1z5411f7Bm/?vd_source=eb04c9a33e87ceba9c9a2e5f09752ef8

2. QA

循环神经网络可以认为是一个简单的递归网络。递归理解为何树一样的东西。

14: tracking? 目标追踪

相关推荐
哥布林学者几秒前
吴恩达深度学习课程五:自然语言处理 第一周:循环神经网络 (六)长短期记忆 LSTM
深度学习·ai
qq_356448375 分钟前
机器学习基本概念与梯度下降
人工智能
水如烟33 分钟前
孤能子视角:关系性学习,“喂饭“的小孩认知
人工智能
徐_长卿36 分钟前
2025保姆级微信AI群聊机器人教程:教你如何本地打造私人和群聊机器人
人工智能·机器人
XyX——39 分钟前
【福利教程】一键解锁 ChatGPT / Gemini / Spotify 教育权益!TG 机器人全自动验证攻略
人工智能·chatgpt·机器人
十二AI编程2 小时前
Anthropic 封杀 OpenCode,OpenAI 闪电接盘:AI 编程生态的 48 小时闪电战
人工智能·chatgpt
CCC:CarCrazeCurator2 小时前
从 APA 到 AVP:汽车自动泊车系统技术演进与产业发展深度研究
人工智能
OpenMiniServer3 小时前
当 AI 成为 Git 里的一个“人”
人工智能·git
bryant_meng3 小时前
【DLNR】《High-frequency Stereo Matching Network》
人工智能·深度学习·计算机视觉·stereo matching·dlnr