神经网络|(五)概率论基础知识-条件概率

【1】引言

前序完成了古典概型知识的简单学习,今天在此基础上开始条件概率的学习。古典概型的学习文章为:神经网络|(四)概率论基础知识-古典概型-CSDN博客

【2】条件概率

条件概率就是在A事件已经发生的条件下,B事件发生的概率。

设A、B是两个事件,且P(A)>0,A事件发生的条件下B事件发生的条件概率为:

上式很容易推出新表达式:

【3】应用讨论

实际上,如果给我们一个实例,我们会陷入的困境是:在某条件已经达成的前提下,究竟是按照P(B/A)还是按照P(AB)计算。

P(B/A)明确说了是事件A发生的条件下事件B再发生的概率,综合变表现的效果是事件A和B都发生;

而P(AB)就直接代表AB两个事件都发生了。

这样看,P(B/A)和P(AB)直接表现效果好像是一样的,所以具体该如何选择?

【3.1】古典概型

首先给古典概型的示例:投币游戏,任何一次投币正面朝上的概率都是1/2,问:前两次投币正面朝上,但第三次投币反面朝上的概率?

其实三次投币的所有可能情况都可以直接列出来:

【正正正,正正反,正反正,正反反,反正正,反正反,反反正,反反反】

很显然,正正反的概率是1/8。

实际上我们自己算出1/8也非常容易,因为每一次投币的正面朝上和反面朝上的概率都是1/2,并且每一步的结果互相独立、互不影响,所以应该让每一次投币的概率直接相乘:

P(正正反)=(1/2)(1/2)(1/2)=1/8。

从另一个角度,第三次投币为反面是在前两次投币为正面的条件下发生的,正正反的总投币结果影应该是条件概率:

P(反|正正)=P(正正反)/P(正正)=(1/8)/(1/4)=1/2

其中,P(正正)代表前两次投币结果都是正面的概率,P(正正)=(1/2)/(1/2)=1/4。

P(反|正正)=1/2,本质上代表的是第三次投币,也就是单次投币为反面的概率。虽然有前两次投币为正面的条件,但这是个古典概型下的投币试验,和前面的任何效果都没有关系。

这启发我们,古典概型下,计算某前提条件下的条件概率实际上是回到了单次试验发生的概率 ,它的结果是单次试验的概率,不是 在获得前提条件下的多次试验后再加上最后这次试验的综合概率。

【3.2】古典概型进阶

再给一个示例:玩投壶游戏,投中才可进下一轮。假如第一次投中的概率是0.5,但如果第一次投中后,会移远壶的距离,此时投中的概率变成0.3,如果第二次再投中。会再次移远壶的距离,这时的投中概率变成0.1。问,前两次投中,第三次没有投中的概率?

这时候我们按照传统的思路来分析,记Ai为第i次投壶投中,则前两次投中,第三次没有投中的概率可以这样想:

A1代表第一次投中,A1A2代表两次投中,这两次投中是一步接一步,且第一次投中不会改变第二次投中的概率,因为题目中已经约定好了第二次投中的概率是0.3 ;

但在另一个角度,只有在第一次投中的条件下,第二次投壶游戏才可能发生。

这时候,不妨写出来:

这个计算结果回到了第二次投壶自带的概率,所以它是0.3。

然后我们再看这个模型,其实它就是稍微复杂的古典模型,每一事件发生的概率是提前预知的,在这个事件之前的所有事件,都和这个概率没有关系。

条件概率只是该事件单独发生的概率。

【3.3】综合分析

所以,在某条件已经达成的前提下,新事件发生的概率,其实是计算综合概率,比如A已经发生时,B发生的概率,其实计算的目标是P(AB)。

【4】细节说明

前述分析中,使用了三个事件来说明实际应用中应该计算综合概率,中间未分析第一个事件发生条件下第二个事件发生的概率,其实就是再往回走一步,省略是因为分析第三步和第二步没有本质区别。

古典概型是理解条件概率分析的基础,上述条件概率求取的过程中,给出了不同步骤时不同的概率,实际上就是将不同的古典概型结合在一起,但在本质上还是古典概型,所以使用古典概型来分析非常实用。

【5】总结

回顾了条件概率的基础知识。

相关推荐
汐汐咯1 天前
随机过程笔记
概率论
橙狮科技2 天前
2014-2024高考真题考点分布详细分析(另附完整高考真题下载)
概率论·高考
jie*3 天前
小杰机器学习(six)——概率论——1.均匀分布2.正态分布3.数学期望4.方差5.标准差6.多维随机变量及其分布
人工智能·机器学习·概率论
、水水水水水4 天前
p-value与e-value
概率论·数理统计
明月照山海-14 天前
机器学习周报十三
人工智能·机器学习·概率论
北京地铁1号线15 天前
概率统计面试题1:随机抛掷的点到圆心距离的期望
概率论
ratbag67201315 天前
概率论与数理统计专业重点学哪些知识?
概率论
Yingjun Mo16 天前
1. 统计推断-基于神经网络与Langevin扩散的自适应潜变量建模与优化
人工智能·神经网络·算法·机器学习·概率论
图先16 天前
概率论第五讲—大数定律与中心极限定理
概率论
图先19 天前
概率论第六讲—数理统计
概率论