什么是熵、交叉熵、相对熵(KL散度)

本文将会讲述什么是熵、交叉熵、相对熵。

文章目录

1.熵

熵是衡量一个概率分布的随机程度,也可以说是其包含信息量的大小。用数学语言表达则是信息x出现不确定性的大小I(x)。其值越大说明包含的信息量越大,发生的概率越小。

但是以上仅为单一信息量的求解方法,其实情况中,我们需要求一个多个信息的信息量,即平均信息量H(x),也叫信息熵。

2.交叉熵

交叉熵是描述两个分布逼近的程度,交叉熵越大表示两个分布越可以近似,当两个分布相同时,交叉熵取得极小值。

3.相对熵(KL散度)

相对熵是描述两个分布之间的差异程度,相对熵越小表示两个分布之间的差异越小,当P和Q分布相同时,相对熵为0。

将交叉熵和信息熵的公式代入,相对熵可以表示为以下:

相关推荐
Juchecar4 分钟前
通过“单词补全”演示 Transformer 原理(Python代码可运行)
人工智能·python
禁默10 分钟前
第六届机器学习与计算机应用国际学术会议
运维·人工智能·机器学习·自动化
念念010711 分钟前
基于机器学习的P2P网贷平台信用违约预测模型
人工智能·机器学习
悟乙己14 分钟前
机器学习超参数调优全方法介绍指南
人工智能·机器学习·超参数
阿里云大数据AI技术16 分钟前
Mem0 + Milvus:为人工智能构建持久化长时记忆
人工智能
悟乙己17 分钟前
探讨Hyperband 等主要机器学习调优方法的机制和权衡
人工智能·机器学习·超参数·调参
藓类少女18 分钟前
【深度学习】重采样(Resampling)
人工智能·深度学习
真上帝的左手18 分钟前
26. AI-Agent-Dify
人工智能
在猴站学算法18 分钟前
机器学习(西瓜书)第八章 集成学习
人工智能·机器学习·集成学习