动手学深度学习54 循环神经网络

动手学深度学习54 循环神经网络

  • [1. 循环神经网络RNN](#1. 循环神经网络RNN)
    • [2. QA](#2. QA)

1. 循环神经网络RNN

h t h_t ht 与 h t − 1 h_{t-1} ht−1 x t − 1 x_{t-1} xt−1有关
x t x_t xt 与 h t h_t ht x t − 1 x_{t-1} xt−1 有关

怎么把潜变量变成RNN--假设更简单

潜变量和隐变量的区别:隐变量通常是现实生活中存在的东西,只是我们没有观察到;潜变量可指代现实生活中不存在(人为创造)的东西。

隐变量:一个向量。

输出【o_t】发生在观察【x_t】之前。根据o_t和x_t的值计算损失。

φ:激活函数。输出不需要激活函数。

RNN: 在MLP中加了一项 W h h h t − 1 W_{hh}h_{t-1} Whhht−1, 和前一个时间状态的 h t − 1 h_{t-1} ht−1发生关系。所有x的信息都存储到h里面。 W h h W_{hh} Whh存储时序信息。

n个输出的多分类交叉熵损失平均值,再取指数--困惑度。

做指数,损失数值会变大。

困惑度=1,下面候选词词概率最高。=2 候选两个词都很有可能。

clipping

g:表示所有层的梯度放在一起

theta:=5 或者=10

g值正常,不做处理,g过大,将值处理成theta,保证g不会过大--不会超过theta值,防止梯度爆炸。

可视化RNN:
https://www.bilibili.com/video/BV1z5411f7Bm/?vd_source=eb04c9a33e87ceba9c9a2e5f09752ef8

2. QA

循环神经网络可以认为是一个简单的递归网络。递归理解为何树一样的东西。

14: tracking? 目标追踪

相关推荐
绒绒毛毛雨20 分钟前
On the Plasticity and Stability for Post-Training Large Language Models
人工智能·机器学习·语言模型
SuniaWang8 小时前
《Spring AI + 大模型全栈实战》学习手册系列 · 专题六:《Vue3 前端开发实战:打造企业级 RAG 问答界面》
java·前端·人工智能·spring boot·后端·spring·架构
IDZSY04309 小时前
AI社交平台进阶指南:如何用AI社交提升工作学习效率
人工智能·学习
七七powerful9 小时前
运维养龙虾--AI 驱动的架构图革命:draw.io MCP 让运维画图效率提升 10 倍,使用codebuddy实战
运维·人工智能·draw.io
水星梦月9 小时前
大白话讲解AI/LLM核心概念
人工智能
温九味闻醉10 小时前
关于腾讯广告算法大赛2025项目分析1 - dataset.py
人工智能·算法·机器学习
White-Legend10 小时前
第三波GPT5.4 日400刀
人工智能·ai编程
. . . . .10 小时前
Claude Code Hooks的原理、触发执行机制以及如何编写 Hooks
人工智能
w_t_y_y10 小时前
codex(一)下载安装&使用
人工智能
老鱼说AI10 小时前
大规模并发处理器程序设计(PMPP)讲解(CUDA架构):第四期:计算架构与调度
c语言·深度学习·算法·架构·cuda