RNN 交叉熵

RNN善于处理时序 序列数据

简单RNN

展开就是

LSTM

遗忘门f_t决定上期记忆保留多少

隐藏层

在神经网络中,隐藏层指的是除了输入层和输出层之外的层,它们的输出不会直接用于网络的最终输出,而是作为中间步骤用于提取和转换数据。因此,如:卷积层作为一种在输入和输出之间的处理层,被归类为隐藏层。

隐状态

X_t符号含义

反向传播以求梯度 前向传播以求输出

信息论

信息熵

交叉熵损失函数

可以由信息熵推广而来,也可以通过极大似然的推导而来

softmax

然后选最大的,详见DL Softmax,多层感知机,卷积【0】_softmax与多层感知机的对比-CSDN博客

概率论

极大似然

数据集中,每个点的概率密度函数之积最小(即约≈p(X)),求导=0求参数,叫做参数的极大似然估计

相关推荐
可触的未来,发芽的智生19 小时前
微论-自成长系统引发的NLP新生
javascript·人工智能·python·程序人生·自然语言处理
P-ShineBeam1 天前
知识图谱-数据科学图谱可扩展平台-KGLiDS
人工智能·自然语言处理·知识图谱
代码小白的成长1 天前
Windows: 调试基于千万短视频预训练的视频分类模型(videotag_tsn_lstm)
人工智能·rnn·lstm
夏洛克信徒1 天前
AI盛宴再启:Gemini 3与Nano Banana Pro掀起的产业革命
人工智能·神经网络·自然语言处理
背心2块钱包邮1 天前
第24节——手搓一个“ChatGPT”
人工智能·python·深度学习·自然语言处理·transformer
阿杰学AI1 天前
AI核心知识27——大语言模型之AI Agent(简洁且通俗易懂版)
人工智能·ai·语言模型·自然语言处理·aigc·agent·ai agent
西猫雷婶1 天前
CNN卷积计算|多维卷积核自动计算
人工智能·pytorch·深度学习·神经网络·机器学习·cnn
黑客思维者1 天前
BERT 双向编码器架构在自然语言处理领域的潜力与优势分析
自然语言处理·架构·bert
我爱鸢尾花1 天前
RNN公式推导、案例实现及Python实现
人工智能·python·rnn·深度学习·神经网络·算法
hudawei9961 天前
词嵌入中语料库矩阵和句子矩阵是怎样的?
人工智能·ai·自然语言处理·词嵌入·word embedding·词向量·语义理解