【学习一下】深入理解交叉熵

机器学习(尤其是分类问题)中,交叉熵损失(CrossEntropyLoss)是最常见的损失函数之一:
Loss=−∑c=1Myclog⁡(y^c) Loss = - \sum_{c=1}^{M}y_c\log(\hat{y}_c) Loss=−c=1∑Myclog(y^c)

本文详细总结一下这个公式是怎么来的,以及深入理解一下交叉熵的本质。

概率分布

根据随机变量的类型,概率分布有连续分布离散分布两大类。机器学习领域中,我们通常讨论的是离散分布,比如分类器输出的每个类别的概率:

Class 0 1 2 3 4
Probability 0.15 0.5 0.25 0.1 0.0

信息

在信息论中,信息 的本质是消除不确定。一个事件发生的概率越小,它发生时带来的信息量就越大:

事件 概率 信息量
"太阳从东边升起" ≈1.0 几乎为0(没什么信息)
"明天会下雨"(干旱地区) 0.01 很大(很有信息)
"抛硬币正面朝上" 0.5 中等

自信息(Self-Information)

对于单个事件xxx,其自信息定义为:
I(x)=−log⁡2P(x)=log⁡21P(x) I(x) = -\log_2 P(x) = \log_2 \frac{1}{P(x)} I(x)=−log2P(x)=log2P(x)1

这个公式来源于对I(x)I(x)I(x)性质的要求:

公理 数学表达 直观解释
非负性 I(x)≥0I(x) \geq 0I(x)≥0 信息量不能为负
确定性事件无信息 P(x)=1⇒I(x)=0P(x)=1 \Rightarrow I(x)=0P(x)=1⇒I(x)=0 必然事件不提供信息
独立事件可加 I(x,y)=I(x)+I(y)I(x,y) = I(x) + I(y)I(x,y)=I(x)+I(y) 独立事件的信息量相加
单调性 P(x)<P(y)⇒I(x)>I(y)P(x) < P(y) \Rightarrow I(x) > I(y)P(x)<P(y)⇒I(x)>I(y) 概率越小,信息量越大

根据独立事件可加性 这个函数方程可以推导出它的解就是对数函数:
I(P)=−k⋅log⁡(P) I(P)=-k\cdot\log(P) I(P)=−k⋅log(P)

其中kkk是常熟,通常取k=1k=1k=1,底数取2(单位是比特bit)或eee(单位是纳特nat)。

信息熵(Entropy)

信息熵是自信息的期望值 ,也就是随机变量每个可能取值的自信息基于其概率的加权平均,表示这个随机变量的平均不确定性:
H(X)=E[I(X)]=−∑i=1nP(xi)log⁡2P(xi) H(X) = E[I(X)] = -\sum_{i=1}^{n} P(x_i) \log_2 P(x_i) H(X)=E[I(X)]=−i=1∑nP(xi)log2P(xi)

假设某个分类任务的其中一个样本真值标注GT为:

Class 0 1 2 3 4
Probability 0.0 0.0 0.0 1.0 0.0

而模型预测结果Pred为:

Class 0 1 2 3 4
Probability 0.15 0.2 0.25 0.1 0.3

GT 的信息熵为 −1log(1)=0-1log(1)=0−1log(1)=0,Pred 的信息熵为
−0.15log⁡(0.15)−0.2log⁡(0.2)−0.25log⁡(0.25)−0.1log⁡(0.1)−0.3log⁡(0.3)=2.2282 -0.15\log(0.15)-0.2\log(0.2)-0.25\log(0.25)-0.1\log(0.1)-0.3\log(0.3)=2.2282 −0.15log(0.15)−0.2log(0.2)−0.25log(0.25)−0.1log(0.1)−0.3log(0.3)=2.2282

可以看到,模型预测值的信息熵是很大的,说明其确定性很低。

换个角度理解,GT 分布是完全确定的,描述其分布需要的数据量非常少。而Pred分布非常不确定,描述其分布需要的数据量很大。

交叉熵(CrossEntropy)

信息熵衡量的是一个分布自身的不确定性,而在机器学习中,我们通常需要描述两个分布之间的关系:

  • 真实分布P(真实标签的分布)
  • 预测分布Q(模型预测的概率分布)

交叉熵描述的就是:用分布Q来编码分布P的数据,平均需要多少bit?其定义是:
H(P,Q)=−∑i=1nP(xi)log⁡2Q(xi) H(P, Q) = -\sum_{i=1}^{n} P(x_i) \log_2 Q(x_i) H(P,Q)=−i=1∑nP(xi)log2Q(xi)

交叉熵与信息熵的关系

H(P,Q)=H(P)+DKL(P∥Q) H(P, Q) = H(P) + D_{KL}(P \parallel Q) H(P,Q)=H(P)+DKL(P∥Q)

其中DKL(P∥Q)D_{KL}(P \parallel Q)DKL(P∥Q)是KL散度(Kullback-Leibler Divergence):
DKL(P∥Q)=∑iP(xi)log⁡P(xi)Q(xi)=∑iP(xi)log⁡P(xi)−∑iP(xi)log⁡Q(xi) D_{KL}(P \parallel Q) = \sum_i P(x_i) \log \frac{P(x_i)}{Q(x_i)} = \sum_i P(x_i) \log P(x_i) - \sum_i P(x_i) \log Q(x_i) DKL(P∥Q)=i∑P(xi)logQ(xi)P(xi)=i∑P(xi)logP(xi)−i∑P(xi)logQ(xi)

KL散度描述了两个概率分布之间的差异,它是证据深度学习(EDL)的关键概念。

相关推荐
hanweixiao3 分钟前
AI 应用评测平台
人工智能
郝学胜-神的一滴5 分钟前
自动微分实战:梯度下降的迭代实现与梯度清零核心解析
人工智能·pytorch·python·深度学习·算法·机器学习
HyperAI超神经6 分钟前
【TVM教程】理解 Relax 抽象层
人工智能·深度学习·学习·机器学习·gpu·tvm·vllm
白小筠6 分钟前
自然语言处理-文本预处理
人工智能·自然语言处理·easyui
叶帆7 分钟前
【YFIOs】面向AI时代的工业物联基座-YFIOs 2.0
人工智能·物联网·yfios
炽烈小老头7 分钟前
【每天学习一点算法 2026/04/07】快乐数
学习·算法
丁当粑粑9 分钟前
LLM调参必知:max_tokens + stop参数详解
人工智能
摸鱼仙人~10 分钟前
AWQ:激活感知权重量化——让大语言模型更轻更快
人工智能·语言模型·自然语言处理
Maynor99610 分钟前
纸质书《OpenClaw超级个体实操手册》已上市!
人工智能·github·飞书
计算机安禾11 分钟前
【数据结构与算法】第31篇:排序概述与插入排序
c语言·开发语言·数据结构·学习·算法·重构·排序算法