信息论(五):联合熵与条件熵

既然我们已经对熵有了很好的直觉理解,接下来就可以让联合概率和条件概率的概念同样自然易懂。

联合概率分布(Joint Probability Distribution):如果单个随机变量 X 的分布为 p(x),那么两个变量 X 和 Y 的联合分布为 p(x,y)。

直觉来说,将 X 和 Y 想象成发生在同一个世界中的两个事件:X = 明天的天气,Y = 你是否带伞。联合分布告诉你这两个事件同时发生的概率:

p(x, y) = Pr(X = x 且 Y = y)

想象一个网格(表格)

|--------|----------|----------|-----|
| | Y = y₁ | Y = y₂ | ... |
| X = x₁ | p(x₁,y₁) | p(x₁,y₂) | ... |
| X = x₂ | p(x₂,y₁) | p(x₂,y₂) | ... |
| ... | ... | ... | ... |

假如,网格中的每个单元格都是一个可能性像素,联合分布用概率权重来表示这些像素。

联合熵(Joint entropy)衡量事件对 (X, Y) 作为一个单一组合系统的不确定性。这是同时看到两者时意料之中的惊喜。

H(X, Y) = - \sum_{x \in \mathcal{X}} \sum_{y \in \mathcal{Y}} p(x, y) \log p(x, y)


条件概率分布(Conditional Probability Distribution)则聚焦于某一行。条件概率是指固定一个变量,然后观察另一个变量的不确定性时所得到的概率分布。

p(y | x) = Pr(Y = y,已知 X = x)

这意味着,如果我们已经知道 X = x,那么 Y 的分布是什么?

在上面的表格中,选择一行(例如 X = x₁)。现在,缩小该行,使其所有概率之和为 1,该行变为条件分布:p(Y|X=x₁)。这就像,联合分布是整个地图;条件化是放大到某个区域;重归一化是调整亮度,使放大后的世界更合理。

条件熵(Conditional entropy)是 H(Y|X) = 如果你已经知道 X,那么你对 Y 的剩余不确定性,它是放大地图每一行后 Y 的平均意外值。

其中

H(Y|X = x) = - \sum_{y \in \mathcal{Y}} p(y|x) \log p(y|x)

联合熵来自联合概率分布,而条件熵来自条件概率分布,熵始终是"预期的意外"。并且,联合分布决定了同时看到 (X, Y) 的意外程度;条件分布决定了在已知 X 的情况下看到 Y 的意外程度;边缘分布(p(x) 或 p(y))决定了单个变量的意外程度。熵的每一面都反映出同一概率结构的不同视角。

相关推荐
智能工业品检测-奇妙智能4 分钟前
国产化系统的性价比对比
人工智能·spring boot·后端·openclaw·奇妙智能
咚咚王者5 分钟前
人工智能之语言领域 自然语言处理 第十九章 深度学习框架
人工智能·深度学习·自然语言处理
独隅7 分钟前
Python AI 全面使用指南:从数据基石到智能决策
开发语言·人工智能·python
啊巴矲10 分钟前
小白从零开始勇闯人工智能:机器学习汇总(复习大纲篇)
人工智能
耶叶12 分钟前
如何在AndroidStudio里面接入你的AI助手
人工智能·android-studio
OpenBayes贝式计算13 分钟前
教程上新丨基于 GPU 部署 OpenClaw,轻松接入飞书/Discord 等社交软件
人工智能·深度学习·机器学习
小超同学你好22 分钟前
Langgraph 17. Skills 三级加载与 Token 优化(含代码示例)
人工智能·语言模型·langchain
吴佳浩 Alben23 分钟前
GPU 编号错乱踩坑指南:PyTorch cuda 编号与 nvidia-smi 不一致
人工智能·pytorch·python·深度学习·神经网络·语言模型·自然语言处理
AI茶水间管理员29 分钟前
爆火的OpenClaw到底强在哪?一文了解核心架构(附一条消息的全链路流程)
人工智能·后端
Agent产品评测局29 分钟前
中小企业数字化转型,优先选 RPA 还是 AI Agent?:2026企业自动化架构选型深研
人工智能·ai·chatgpt·自动化·rpa