信息论(五):联合熵与条件熵

既然我们已经对熵有了很好的直觉理解,接下来就可以让联合概率和条件概率的概念同样自然易懂。

联合概率分布(Joint Probability Distribution):如果单个随机变量 X 的分布为 p(x),那么两个变量 X 和 Y 的联合分布为 p(x,y)。

直觉来说,将 X 和 Y 想象成发生在同一个世界中的两个事件:X = 明天的天气,Y = 你是否带伞。联合分布告诉你这两个事件同时发生的概率:

p(x, y) = Pr(X = x 且 Y = y)

想象一个网格(表格)

|--------|----------|----------|-----|
| | Y = y₁ | Y = y₂ | ... |
| X = x₁ | p(x₁,y₁) | p(x₁,y₂) | ... |
| X = x₂ | p(x₂,y₁) | p(x₂,y₂) | ... |
| ... | ... | ... | ... |

假如,网格中的每个单元格都是一个可能性像素,联合分布用概率权重来表示这些像素。

联合熵(Joint entropy)衡量事件对 (X, Y) 作为一个单一组合系统的不确定性。这是同时看到两者时意料之中的惊喜。

H(X, Y) = - \sum_{x \in \mathcal{X}} \sum_{y \in \mathcal{Y}} p(x, y) \log p(x, y)


条件概率分布(Conditional Probability Distribution)则聚焦于某一行。条件概率是指固定一个变量,然后观察另一个变量的不确定性时所得到的概率分布。

p(y | x) = Pr(Y = y,已知 X = x)

这意味着,如果我们已经知道 X = x,那么 Y 的分布是什么?

在上面的表格中,选择一行(例如 X = x₁)。现在,缩小该行,使其所有概率之和为 1,该行变为条件分布:p(Y|X=x₁)。这就像,联合分布是整个地图;条件化是放大到某个区域;重归一化是调整亮度,使放大后的世界更合理。

条件熵(Conditional entropy)是 H(Y|X) = 如果你已经知道 X,那么你对 Y 的剩余不确定性,它是放大地图每一行后 Y 的平均意外值。

其中

H(Y|X = x) = - \sum_{y \in \mathcal{Y}} p(y|x) \log p(y|x)

联合熵来自联合概率分布,而条件熵来自条件概率分布,熵始终是"预期的意外"。并且,联合分布决定了同时看到 (X, Y) 的意外程度;条件分布决定了在已知 X 的情况下看到 Y 的意外程度;边缘分布(p(x) 或 p(y))决定了单个变量的意外程度。熵的每一面都反映出同一概率结构的不同视角。

相关推荐
风象南6 小时前
普通人用AI加持赚到的第一个100块
人工智能·后端
牛奶7 小时前
2026年大模型怎么选?前端人实用对比
前端·人工智能·ai编程
牛奶7 小时前
前端人为什么要学AI?
前端·人工智能·ai编程
哥布林学者8 小时前
高光谱成像(一)高光谱图像
机器学习·高光谱成像
罗西的思考9 小时前
AI Agent框架探秘:拆解 OpenHands(10)--- Runtime
人工智能·算法·机器学习
冬奇Lab10 小时前
OpenClaw 源码精读(2):Channel & Routing——一条消息如何找到它的 Agent?
人工智能·开源·源码阅读
冬奇Lab10 小时前
一天一个开源项目(第38篇):Claude Code Telegram - 用 Telegram 远程用 Claude Code,随时随地聊项目
人工智能·开源·资讯
格砸12 小时前
从入门到辞职|从ChatGPT到OpenClaw,跟上智能时代的进化
前端·人工智能·后端
可观测性用观测云12 小时前
可观测性 4.0:教系统如何思考
人工智能
sunny86512 小时前
Claude Code 跨会话上下文恢复:从 8 次纠正到 0 次的工程实践
人工智能·开源·github