李沐54_循环神经网络RNN——自学笔记

潜变量自回归模型

使用潜变量ht总结过去信息。

困惑度perplexity

1.衡量一个语言模型的好坏可以用平均交叉熵

2.历史原因NLP使用困惑度exp(Π)来衡量,是平均每次可能选项

3.无穷大是最差,1是完美

梯度裁剪

1.迭代中计算这T个时间步的梯度,在反向传播过程中产生长度为O(T)的矩阵乘法链,导致数值不稳定

2.梯度裁剪可以有效预防梯度爆炸。如果梯度长度超过θ,那么拖影回长度θ

总结

1.循环神经网络的输出取决于当下输入和前一时间的隐变量

2.应用到语言模型中时,循环神经网络根据当前词预测下一次时刻词

3.通常使用困惑度来衡量语言模型的好坏

python 复制代码
相关推荐
火红色祥云2 分钟前
深度学习入门:基于Python的理论与实现笔记
笔记·python·深度学习
FoldWinCard2 分钟前
Python 第五次作业
linux·windows·python
hit56实验室4 分钟前
【易经系列】《蒙卦》六五:童蒙,吉。
人工智能
AI浩4 分钟前
VISION KAN:基于Kan的无注意力视觉骨干网络
人工智能·目标检测
China_Yanhy5 分钟前
转型AI运维工程师·Day 10:拥抱“不确定性” —— 断点续训与 Spot 实例抢占
运维·人工智能·python
木昆子5 分钟前
实战A2UI:从JSON到像素——深入Lit渲染引擎
前端·人工智能
TGITCIC6 分钟前
AI Agent中的 ReAct 和 Ralph Loop对比说明
人工智能·ai大模型·ai agent·ai智能体·agent开发·大模型ai·agent设计模式
挖你家服务器电缆7 分钟前
【深度学习系列学习总结】四大框架之一:cnn
人工智能·深度学习·cnn
花酒锄作田7 分钟前
Flask - 常见应用部署方案
python·flask
菡萏如佳人7 分钟前
AI时代学习新范式—认知供应链模式(附OpenClaw四步拆解)
人工智能·学习