【学习一下】深入理解交叉熵

机器学习(尤其是分类问题)中,交叉熵损失(CrossEntropyLoss)是最常见的损失函数之一:
Loss=−∑c=1Myclog⁡(y^c) Loss = - \sum_{c=1}^{M}y_c\log(\hat{y}_c) Loss=−c=1∑Myclog(y^c)

本文详细总结一下这个公式是怎么来的,以及深入理解一下交叉熵的本质。

概率分布

根据随机变量的类型,概率分布有连续分布离散分布两大类。机器学习领域中,我们通常讨论的是离散分布,比如分类器输出的每个类别的概率:

Class 0 1 2 3 4
Probability 0.15 0.5 0.25 0.1 0.0

信息

在信息论中,信息 的本质是消除不确定。一个事件发生的概率越小,它发生时带来的信息量就越大:

事件 概率 信息量
"太阳从东边升起" ≈1.0 几乎为0(没什么信息)
"明天会下雨"(干旱地区) 0.01 很大(很有信息)
"抛硬币正面朝上" 0.5 中等

自信息(Self-Information)

对于单个事件xxx,其自信息定义为:
I(x)=−log⁡2P(x)=log⁡21P(x) I(x) = -\log_2 P(x) = \log_2 \frac{1}{P(x)} I(x)=−log2P(x)=log2P(x)1

这个公式来源于对I(x)I(x)I(x)性质的要求:

公理 数学表达 直观解释
非负性 I(x)≥0I(x) \geq 0I(x)≥0 信息量不能为负
确定性事件无信息 P(x)=1⇒I(x)=0P(x)=1 \Rightarrow I(x)=0P(x)=1⇒I(x)=0 必然事件不提供信息
独立事件可加 I(x,y)=I(x)+I(y)I(x,y) = I(x) + I(y)I(x,y)=I(x)+I(y) 独立事件的信息量相加
单调性 P(x)<P(y)⇒I(x)>I(y)P(x) < P(y) \Rightarrow I(x) > I(y)P(x)<P(y)⇒I(x)>I(y) 概率越小,信息量越大

根据独立事件可加性 这个函数方程可以推导出它的解就是对数函数:
I(P)=−k⋅log⁡(P) I(P)=-k\cdot\log(P) I(P)=−k⋅log(P)

其中kkk是常熟,通常取k=1k=1k=1,底数取2(单位是比特bit)或eee(单位是纳特nat)。

信息熵(Entropy)

信息熵是自信息的期望值 ,也就是随机变量每个可能取值的自信息基于其概率的加权平均,表示这个随机变量的平均不确定性:
H(X)=E[I(X)]=−∑i=1nP(xi)log⁡2P(xi) H(X) = E[I(X)] = -\sum_{i=1}^{n} P(x_i) \log_2 P(x_i) H(X)=E[I(X)]=−i=1∑nP(xi)log2P(xi)

假设某个分类任务的其中一个样本真值标注GT为:

Class 0 1 2 3 4
Probability 0.0 0.0 0.0 1.0 0.0

而模型预测结果Pred为:

Class 0 1 2 3 4
Probability 0.15 0.2 0.25 0.1 0.3

GT 的信息熵为 −1log(1)=0-1log(1)=0−1log(1)=0,Pred 的信息熵为
−0.15log⁡(0.15)−0.2log⁡(0.2)−0.25log⁡(0.25)−0.1log⁡(0.1)−0.3log⁡(0.3)=2.2282 -0.15\log(0.15)-0.2\log(0.2)-0.25\log(0.25)-0.1\log(0.1)-0.3\log(0.3)=2.2282 −0.15log(0.15)−0.2log(0.2)−0.25log(0.25)−0.1log(0.1)−0.3log(0.3)=2.2282

可以看到,模型预测值的信息熵是很大的,说明其确定性很低。

换个角度理解,GT 分布是完全确定的,描述其分布需要的数据量非常少。而Pred分布非常不确定,描述其分布需要的数据量很大。

交叉熵(CrossEntropy)

信息熵衡量的是一个分布自身的不确定性,而在机器学习中,我们通常需要描述两个分布之间的关系:

  • 真实分布P(真实标签的分布)
  • 预测分布Q(模型预测的概率分布)

交叉熵描述的就是:用分布Q来编码分布P的数据,平均需要多少bit?其定义是:
H(P,Q)=−∑i=1nP(xi)log⁡2Q(xi) H(P, Q) = -\sum_{i=1}^{n} P(x_i) \log_2 Q(x_i) H(P,Q)=−i=1∑nP(xi)log2Q(xi)

交叉熵与信息熵的关系

H(P,Q)=H(P)+DKL(P∥Q) H(P, Q) = H(P) + D_{KL}(P \parallel Q) H(P,Q)=H(P)+DKL(P∥Q)

其中DKL(P∥Q)D_{KL}(P \parallel Q)DKL(P∥Q)是KL散度(Kullback-Leibler Divergence):
DKL(P∥Q)=∑iP(xi)log⁡P(xi)Q(xi)=∑iP(xi)log⁡P(xi)−∑iP(xi)log⁡Q(xi) D_{KL}(P \parallel Q) = \sum_i P(x_i) \log \frac{P(x_i)}{Q(x_i)} = \sum_i P(x_i) \log P(x_i) - \sum_i P(x_i) \log Q(x_i) DKL(P∥Q)=i∑P(xi)logQ(xi)P(xi)=i∑P(xi)logP(xi)−i∑P(xi)logQ(xi)

KL散度描述了两个概率分布之间的差异,它是证据深度学习(EDL)的关键概念。

相关推荐
*Lisen6 分钟前
从零手写 FlashAttention(PyTorch实现 + 原理推导)
人工智能·pytorch·python
字节跳动数据库9 分钟前
数据孤岛难打通、权限怕失控?DBW 助“小龙虾”落地最后一公里
人工智能
俊哥V16 分钟前
AI一周事件 · 2026-04-22 至 2026-04-28
人工智能·ai
Black蜡笔小新27 分钟前
AI大模型训练工作站/私有化本地化AI模型训推工作站DLTM为农业生产装上AI“慧眼”
人工智能·ai大模型
小星AI28 分钟前
Claude Code Agent SDK 从入门到精通,一步到位
人工智能·agent·cursor
端平入洛30 分钟前
梯度是什么:PyTorch 自动求导详解
人工智能·深度学习
时序之心31 分钟前
上海交大、东北大学:时序分类与感知领域的两项前沿突破
人工智能·分类·时间序列
nashane34 分钟前
HarmonyOS 6学习:画中画(PiP)状态同步与场景化实战指南
学习·pip·harmonyos·harmonyos 5
小五兄弟39 分钟前
YouTube 肖像检测扩展背后:短剧出海版权保护的技术实现与实战策略
大数据·人工智能
阿聪谈架构40 分钟前
第08章:MCP 模型上下文协议(下)
人工智能·后端