AI理论知识系统复习(1):交叉熵损失函数

目录

[1 什么是交叉熵损失函数](#1 什么是交叉熵损失函数)

[2 疑问:为什么要乘以负一](#2 疑问:为什么要乘以负一)


bastract:

交叉熵损失函数就是-ln(真实类别的预测概率)

1 什么是交叉熵损失函数

在看transformer的时候遇到了这个,稍微写一下笔记,

这里面

  • softmax 得到预测概率分布 pred_prob

  • one-hot 表示真实分布 target_prob

这里真实分布target_prob里面,除了该类别的位置是1以外,其他位置都是0,那么乘以0的就都没了,所以这个公式其实就是

比如

类别 概率
27 0.8
128 0.1
311 0.1

2 疑问:为什么要乘以负一

因为 log(x) 的值永远 ≤ 0(当 x 在 0~1 区间时):

  • log(1) = 0

  • log(0.8) ≈ -0.22

  • log(0.01) = -4.6

  • log(0.000001) = -13.8

损失(loss)必须是 "越小越好" 的非负数

但是 log(prob) 会产生负数,怎么办?

👉 乘上 -1,把负数变成正数,同时保持"概率越大损失越小"的性质"。

相关推荐
时序之心15 天前
时序论文速递:覆盖损失函数优化、模型架构创新、理论基础与表征学习、应用场景与隐私保护等方向(11.10-11.14)
人工智能·损失函数·时间序列·表征学习·时序论文
沉默媛21 天前
什么是Hinge损失函数
人工智能·损失函数
nju_spy1 个月前
牛客网 AI题(一)机器学习 + 深度学习
人工智能·深度学习·机器学习·lstm·笔试·损失函数·自注意力机制
大千AI助手1 个月前
Huber损失函数:稳健回归的智慧之选
人工智能·数据挖掘·回归·损失函数·mse·mae·huber损失函数
l12345sy2 个月前
Day26_【深度学习(6)—神经网络NN(2)损失函数】
人工智能·深度学习·神经网络·损失函数
七元权2 个月前
论文阅读-Adaptive Multi-Modal Cross-Entropy Loss for Stereo Matching
论文阅读·深度学习·计算机视觉·损失函数·双目深度估计
荒野饮冰室3 个月前
目标检测定位损失函数:Smooth L1 loss 、IOU loss及其变体
深度学习·神经网络·损失函数·iou
l12345sy3 个月前
Day19_【机器学习—线性回归 (2)—损失函数、梯度下降法】
人工智能·机器学习·线性回归·梯度下降法·损失函数
失散134 个月前
深度学习——03 神经网络(2)-损失函数
人工智能·深度学习·神经网络·损失函数