KL divergence(KL 散度)详解

本文用一种浅显易懂的方式说明KL散度。
参考资料

KL散度本质上是比较两个分布的相似程度。

现在给出2个简单的离散分布,称为分布1和分布2.

分布1有3个样本,

其中A的概率为50%, B的概率为40%,C的概率为10%

分布2也有3个样本:

其中A的概率为50%,B的概率为10%,C的概率为40%。

现在想比较分布1和分布2的相似程度。

直观看上去分布1和分布2中样本A的概率是一样的,仅仅B和C的概率换了一下。

分布应该是相似的,但是如何量化来看呢。

可以这样做,用分布1的各个样本的概率和分布2样本概率做比值,相加再求平均。

现假设分布1的概率分布为P,分布2的概率分布为Q,

那么P(A) = 0.5, P(B)=0.4, P( C) = 0.1

Q(A) = 0.5, Q(B) = 0.1, Q( C) = 0.4,

各样本概率做比值之后为:

P(A)/Q(A) + P(B)/Q(B) + P( C)/Q( C) = 1+4+1/4

再对3个样本取平均: (1+4+1/4) / 3 = 1.75

这就是我们想要的分布1和分布2的相似度。

不过有一个问题,

可以看到P(B)和Q(B), P( C)和Q( C)仅仅概率做了交换,它们的相似度大小应该是一样的(仅仅方向不一样),

也就是说P(B)/Q(B), P( C)/Q( C)的绝对值应该是一样的,符号不一样。

但是现在,哪个分子大哪个结果就大,这是不应该的,

想要这样一个函数来解决这个问题,

f(4) = y

f(1/4) = -y,

这里的4为P(B)/Q(B), 1/4为P( C)/Q( C),

经过f(x)后得到的应该是同样的相似度大小,只是方向不一样,一个是变大的方向,一个是变小的方向,用负号表示方向的不同。

那么什么样的函数能满足f(x)呢,

可以取几个值画一下,你会发现,这个f(x)就是log(x)。

那么现在把刚才的相似度修改一下,

把简单的P(x)/Q(x)换成log(P(x) / Q(x)).

于是变为: ∑ 1 n l o g P ( x ) Q ( x ) / n \sum_{1}^{n} log\frac{P(x)}{Q(x)} / n 1∑nlogQ(x)P(x)/n

对样本取平均值表示每个样本的weight都是1/n,

不要取这么平均,把weight改为P(x),

那么就得到 ∑ 1 n P ( x ) l o g P ( x ) Q ( x ) \sum_{1}^{n} P(x) log\frac{P(x)}{Q(x)} 1∑nP(x)logQ(x)P(x)

这就是我们熟悉的KL散度,它比较的是分布P和分布Q的相似度。

"||"右边的Q表示是reference分布。

K L ( P ∣ ∣ Q ) = ∑ 1 n P ( x ) l o g P ( x ) Q ( x ) KL(P||Q) = \sum_{1}^{n} P(x) log\frac{P(x)}{Q(x)} KL(P∣∣Q)=1∑nP(x)logQ(x)P(x)

相关推荐
技术探索家6 分钟前
别再让Claude乱写代码了!一个配置文件让AI准确率提升10%
人工智能
算家计算23 分钟前
AI学习范式变革:Ilya Sutskever最新访谈揭示后规模时代的AI发展路径—从算力竞争到研究竞争的转向
人工智能·资讯
Jing_Rainbow1 小时前
【AI-7 全栈-2 /Lesson16(2025-11-01)】构建一个基于 AIGC 的 Logo 生成 Bot:从前端到后端的完整技术指南 🎨
前端·人工智能·后端
syounger1 小时前
奔驰全球 IT 加速转型:SAP × AWS × Agentic AI 如何重塑企业核心系统
人工智能·云计算·aws
16_one1 小时前
autoDL安装Open-WebUi+Rag本地知识库问答+Function Calling
人工智能·后端·算法
智能交通技术1 小时前
iTSTech:自动驾驶技术综述报告 2025
人工智能·机器学习·自动驾驶
清云逸仙2 小时前
AI Prompt 工程最佳实践:打造结构化的Prompt
人工智能·经验分享·深度学习·ai·ai编程
todoitbo2 小时前
基于Rokid CXR-M SDK实现AR智能助手应用:让AI大模型走进AR眼镜
人工智能·ai·ar·ar眼镜·rokid
hacker7072 小时前
openGauss 在K12教育场景的数据处理测评:CASE WHEN 实现高效分类
人工智能·分类·数据挖掘
暖光资讯3 小时前
前行者获2025抖音最具影响力品牌奖,亮相上海ZFX装备前线展,引领外设行业“文化科技”新浪潮
人工智能·科技