RNN 交叉熵

RNN善于处理时序 序列数据

简单RNN

展开就是

LSTM

遗忘门f_t决定上期记忆保留多少

隐藏层

在神经网络中,隐藏层指的是除了输入层和输出层之外的层,它们的输出不会直接用于网络的最终输出,而是作为中间步骤用于提取和转换数据。因此,如:卷积层作为一种在输入和输出之间的处理层,被归类为隐藏层。

隐状态

X_t符号含义

反向传播以求梯度 前向传播以求输出

信息论

信息熵

交叉熵损失函数

可以由信息熵推广而来,也可以通过极大似然的推导而来

softmax

然后选最大的,详见DL Softmax,多层感知机,卷积【0】_softmax与多层感知机的对比-CSDN博客

概率论

极大似然

数据集中,每个点的概率密度函数之积最小(即约≈p(X)),求导=0求参数,叫做参数的极大似然估计

相关推荐
金井PRATHAMA1 小时前
认知语义学对人工智能自然语言处理深层语义分析的影响与启示
人工智能·自然语言处理·知识图谱
星期天要睡觉2 小时前
深度学习——基于 PyTorch 的 CBOW 模型实现自然语言处理
pytorch·深度学习·自然语言处理
小龙3 小时前
图卷积神经网络(GCN)学习笔记
笔记·学习·cnn·gcn·图卷积神经网络·理论知识
先做个垃圾出来………4 小时前
传统模型RNN与CNN介绍
人工智能·rnn·cnn
静西子18 小时前
LLM大语言模型部署到本地(个人总结)
人工智能·语言模型·自然语言处理
北京地铁1号线20 小时前
Qwen-VL(阿里通义千问视觉语言模型)模型架构和损失函数介绍
人工智能·语言模型·自然语言处理
灵光通码1 天前
自然语言处理开源框架全面分析
人工智能·自然语言处理·开源
这张生成的图像能检测吗1 天前
(论文速读)从语言模型到通用智能体
人工智能·计算机视觉·语言模型·自然语言处理·多模态·智能体
MarkHD1 天前
大语言模型入门指南:从原理到实践应用
人工智能·语言模型·自然语言处理
A尘埃1 天前
NLP(自然语言处理, Natural Language Processing)
人工智能·自然语言处理·nlp