【统计至简】【古典概率模型】联合概率、边缘概率、条件概率、全概率

联合概率、边缘概率、条件概率

  • 联合概率
  • 边缘概率
  • 条件概率
  • 全概率

一副标准扑克牌有 54 张,包括 52 张常规牌(13 个点数,每个点数有 4 种花色)和 2 张王(大、小王)。我们从中随机抽取一张牌,定义以下事件:

  • 事件 A:抽到的牌是红桃
  • 事件 B:抽到的牌是 K

联合概率

联合概率联合概率是指两个事件同时发生的概率,即抽到的牌既是红桃又是 K 的概率。在扑克牌中,既是红桃又是 K 的牌只有 1 张,即红桃 K。所以事件 A 和事件 B 的联合概率 P ( A ∩ B ) P(A \cap B) P(A∩B)为:
P ( A ∩ B ) = 1 54 P(A \cap B)=\frac{1}{54} P(A∩B)=541

边缘概率

边缘概率是只考虑一个事件发生的概率,而不考虑另一个事件的情况。

  • 对于事件 A(抽到红桃),扑克牌中红桃有 13 张,所以事件 A 的边缘概率 P ( A ) P(A) P(A)为:
    P ( A ) = 13 54 P(A)=\frac{13}{54} P(A)=5413
  • 对于事件 B(抽到 K),扑克牌中 K 有 4 张,所以事件 B 的边缘概率 P ( B ) P(B) P(B)为:
    P ( B ) = 4 54 = 2 27 P(B)=\frac{4}{54}=\frac{2}{27} P(B)=544=272

条件概率

条件概率是在某个事件已经发生的条件下,另一个事件发生的概率。

  • 在事件 B(抽到 K)已经发生的条件下,求事件 A(抽到红桃)的概率,即 P ( A ∣ B ) P(A|B) P(A∣B)。因为已知抽到的是 K,而 4 张 K 中只有 1 张是红桃 K,所以:
    P ( A ∣ B ) = 1 4 P(A|B)=\frac{1}{4} P(A∣B)=41
  • 在事件 A(抽到红桃)已经发生的条件下,求事件 B(抽到 K)的概率,即 P ( B ∣ A ) P(B|A) P(B∣A)。因为已知抽到的是红桃,而 13 张红桃中只有 1 张是 K,所以:
    P ( B ∣ A ) = 1 13 P(B|A)=\frac{1}{13} P(B∣A)=131

根据前面提到的条件概率公式 P ( A ∣ B ) = P ( A ∩ B ) P ( B ) P(A|B)=\frac{P(A\cap B)}{P(B)} P(A∣B)=P(B)P(A∩B),我们可以验证一下:已知 P ( A ∩ B ) = 1 54 P(A \cap B)=\frac{1}{54} P(A∩B)=541, P ( B ) = 4 54 P(B)=\frac{4}{54} P(B)=544,则 P ( A ∣ B ) = P ( A ∩ B ) P ( B ) = 1 54 4 54 = 1 4 P(A|B)=\frac{P(A\cap B)}{P(B)}=\frac{\frac{1}{54}}{\frac{4}{54}}=\frac{1}{4} P(A∣B)=P(B)P(A∩B)=544541=41符合我们前面计算的结果。

全概率

假设一副扑克牌,去掉大小王共 52 张牌,将其分为两组,其中一组是黑色牌(黑桃和梅花)共 26 张,记为事件 B 1 B_1 B1;另一组是红色牌(红桃和方块)共 26 张,记为事件 B 2 B_2 B2。我们定义事件A为 "抽到的牌是 K"。

首先, B 1 B_1 B1和 B 2 B_2 B2构成了样本空间的一个划分,即 B 1 B_1 B1和 B 2 B_2 B2互斥(一副牌不可能既是黑色又是红色),且 B 1 ∪ B 2 B_1\cup B_2 B1∪B2是整个样本空间(所有牌不是黑色就是红色)。已知 P ( B 1 ) = P ( B 2 ) = 26 52 = 1 2 P(B_1)=P(B_2)=\frac{26}{52}=\frac{1}{2} P(B1)=P(B2)=5226=21,即在没有任何其他条件的情况下,抽到黑色牌和红色牌的概率都是 1 2 \frac{1}{2} 21。

在黑色牌组 B 1 B_1 B1中,K 有 2 张(黑桃 K 和梅花 K),所以在 B 1 B_1 B1发生的条件下,A发生的概率 P ( A ∣ B 1 ) = 2 26 = 1 13 P(A|B_1)=\frac{2}{26}=\frac{1}{13} P(A∣B1)=262=131。

在红色牌组 B 2 B_2 B2中,K 也有 2 张(红桃 K 和方块 K),所以 P ( A ∣ B 2 ) = 2 26 = 1 13 P(A|B_2)=\frac{2}{26}=\frac{1}{13} P(A∣B2)=262=131。

根据全概率公式 P ( A ) = ∑ i = 1 n P ( B i ) P ( A ∣ B i ) P(A)=\sum_{i = 1}^{n}P(B_i)P(A|B_i) P(A)=∑i=1nP(Bi)P(A∣Bi),这里 n = 2 n = 2 n=2,则:
KaTeX parse error: No such environment: align* at position 7: \begin{̲a̲l̲i̲g̲n̲*̲}̲ P(A)&=P(B_1)P(...

这与我们直接计算从 52 张牌中抽到 K 的概率结果是一致的,即 4 52 = 1 13 \frac{4}{52}=\frac{1}{13} 524=131,说明全概率公式是合理且有效的。它通过将一个复杂事件A分解为在不同条件 B i B_i Bi下的简单事件,然后综合这些简单事件的概率来计算复杂事件的概率。

相关推荐
aichitang202413 小时前
躲藏博弈:概率论与博弈论视角下的最优策略选择
概率论·博弈论
浪九天2 天前
人工智能直通车系列06【Python 基础与数学基础】(属性与方法概率论:概率基本概念)
人工智能·深度学习·神经网络·机器学习·概率论
CS创新实验室3 天前
《机器学习数学基础》补充资料:连续正态分布随机变量的熵
人工智能·机器学习·概率论·机器学习数学基础
CS创新实验室7 天前
《机器学习数学基础》补充资料:矩阵运算技巧和矩阵指数
机器学习·矩阵·概率论·机器学习数学基础
阿正的梦工坊11 天前
Cramér-Rao界:参数估计精度的“理论底线”
机器学习·概率论
阿正的梦工坊11 天前
正态分布的奇妙性质:为什么奇数阶中心矩(odd central moments)为零?
线性代数·机器学习·概率论
阿正的梦工坊11 天前
Fisher信息矩阵(Fisher Information Matrix,简称FIM)
人工智能·机器学习·矩阵·概率论
@心都12 天前
机器学习数学基础:32.斯皮尔曼等级相关
人工智能·机器学习·概率论
nuise_15 天前
朴素贝叶斯法
人工智能·机器学习·概率论