李沐54_循环神经网络RNN——自学笔记

潜变量自回归模型

使用潜变量ht总结过去信息。

困惑度perplexity

1.衡量一个语言模型的好坏可以用平均交叉熵

2.历史原因NLP使用困惑度exp(Π)来衡量,是平均每次可能选项

3.无穷大是最差,1是完美

梯度裁剪

1.迭代中计算这T个时间步的梯度,在反向传播过程中产生长度为O(T)的矩阵乘法链,导致数值不稳定

2.梯度裁剪可以有效预防梯度爆炸。如果梯度长度超过θ,那么拖影回长度θ

总结

1.循环神经网络的输出取决于当下输入和前一时间的隐变量

2.应用到语言模型中时,循环神经网络根据当前词预测下一次时刻词

3.通常使用困惑度来衡量语言模型的好坏

python 复制代码
相关推荐
羽凌寒25 分钟前
图像对比度调整(局域拉普拉斯滤波)
人工智能·计算机视觉
大模型铲屎官25 分钟前
【Python-Day 14】玩转Python字典(上篇):从零开始学习创建、访问与操作
开发语言·人工智能·pytorch·python·深度学习·大模型·字典
yunvwugua__28 分钟前
Python训练营打卡 Day27
开发语言·python
一点.点30 分钟前
计算机视觉的简单介绍
人工智能·深度学习·计算机视觉
量子-Alex31 分钟前
【目标检测】【Transformer】Swin Transformer
人工智能·目标检测·transformer
GISer_Jing31 分钟前
AI知识梳理——RAG、Agent、ReAct、LangChain、LangGraph、MCP、Function Calling、JSON-RPC
人工智能
Stara05111 小时前
基于多头自注意力机制(MHSA)增强的YOLOv11主干网络—面向高精度目标检测的结构创新与性能优化
人工智能·python·深度学习·神经网络·目标检测·计算机视觉·yolov11
YuSun_WK1 小时前
目标跟踪相关综述文章
人工智能·计算机视觉·目标跟踪
一切皆有可能!!2 小时前
RAG数据处理:PDF/HTML
人工智能·语言模型
kyle~2 小时前
深度学习---知识蒸馏(Knowledge Distillation, KD)
人工智能·深度学习