李沐54_循环神经网络RNN——自学笔记

潜变量自回归模型

使用潜变量ht总结过去信息。

困惑度perplexity

1.衡量一个语言模型的好坏可以用平均交叉熵

2.历史原因NLP使用困惑度exp(Π)来衡量,是平均每次可能选项

3.无穷大是最差,1是完美

梯度裁剪

1.迭代中计算这T个时间步的梯度,在反向传播过程中产生长度为O(T)的矩阵乘法链,导致数值不稳定

2.梯度裁剪可以有效预防梯度爆炸。如果梯度长度超过θ,那么拖影回长度θ

总结

1.循环神经网络的输出取决于当下输入和前一时间的隐变量

2.应用到语言模型中时,循环神经网络根据当前词预测下一次时刻词

3.通常使用困惑度来衡量语言模型的好坏

python 复制代码
相关推荐
lilihuigz1 分钟前
WordPress AI代理:开源CMS如何成为智能网络操作系统的核心驱动力 - WP站长
人工智能·开源·cms
不知名的老吴7 分钟前
一文看懂:针对大语言模型的提示注入攻击
人工智能·语言模型·自然语言处理
yantaohk11 分钟前
PCDN还能赚钱吗?普通人用闲置宽带赚钱的机会、收益和风险分析
大数据·人工智能·内容运营
唐叔在学习15 分钟前
TodoList:我的待办助手
python·程序员·ai编程·待办应用
小妖同学学AI20 分钟前
天啊!现在连AI团队都能一键“召唤”了?!零代码搞定智能应用开发!
人工智能
MediaTea22 分钟前
AI 术语通俗词典:ID3 算法
人工智能·算法
薛定猫AI26 分钟前
【深度解析】Open Design 本地优先 AI 设计系统:用多模型 Agent 生成高保真 UI 原型
人工智能·ui
Old Uncle Tom27 分钟前
《企业AI成功部署实战指南:51 次成功部署的经验教训》给我们的启发
人工智能
卷卷说风控34 分钟前
【卷卷观察】Agent Skills 为什么突然火了?我花了一晚上研究,结论有点反直觉
人工智能
隐层漫游者41 分钟前
2026深度学习硬核通关:从自动微分Autograd到激活函数全景图解,一文看懂神经网络的“灵魂”与“骨架”
深度学习