李沐54_循环神经网络RNN——自学笔记

潜变量自回归模型

使用潜变量ht总结过去信息。

困惑度perplexity

1.衡量一个语言模型的好坏可以用平均交叉熵

2.历史原因NLP使用困惑度exp(Π)来衡量,是平均每次可能选项

3.无穷大是最差,1是完美

梯度裁剪

1.迭代中计算这T个时间步的梯度,在反向传播过程中产生长度为O(T)的矩阵乘法链,导致数值不稳定

2.梯度裁剪可以有效预防梯度爆炸。如果梯度长度超过θ,那么拖影回长度θ

总结

1.循环神经网络的输出取决于当下输入和前一时间的隐变量

2.应用到语言模型中时,循环神经网络根据当前词预测下一次时刻词

3.通常使用困惑度来衡量语言模型的好坏

python 复制代码
相关推荐
白日做梦Q11 小时前
超分辨率重建:从SRCNN到SwinIR的技术演进与突破
图像处理·人工智能·超分辨率重建
好汉学技术11 小时前
Scrapy框架数据存储完全指南(实操为主,易落地)
python
kkai人工智能11 小时前
一、AI走进生活
人工智能·生活
想看一次满天星11 小时前
某里231——AST解混淆流程
爬虫·python·ast·js·解混淆
没有钱的钱仔11 小时前
python 记录
开发语言·python
vibag11 小时前
RAG文本处理
python·语言模型·langchain·大模型
nvd1111 小时前
疑难杂症:如何让 Cline 乖乖使用 MCP Tool?
python
却道天凉_好个秋11 小时前
OpenCV(五十):meanshift图像分割
人工智能·opencv·计算机视觉·图像分割·meanshift
vibag12 小时前
MCP实践
python·语言模型·langchain·大模型
undsky_12 小时前
【n8n教程】:Switch节点,实现工作流多路由控制
人工智能·ai·aigc·ai编程