神经网络|(五)概率论基础知识-条件概率

【1】引言

前序完成了古典概型知识的简单学习,今天在此基础上开始条件概率的学习。古典概型的学习文章为:神经网络|(四)概率论基础知识-古典概型-CSDN博客

【2】条件概率

条件概率就是在A事件已经发生的条件下,B事件发生的概率。

设A、B是两个事件,且P(A)>0,A事件发生的条件下B事件发生的条件概率为:

上式很容易推出新表达式:

【3】应用讨论

实际上,如果给我们一个实例,我们会陷入的困境是:在某条件已经达成的前提下,究竟是按照P(B/A)还是按照P(AB)计算。

P(B/A)明确说了是事件A发生的条件下事件B再发生的概率,综合变表现的效果是事件A和B都发生;

而P(AB)就直接代表AB两个事件都发生了。

这样看,P(B/A)和P(AB)直接表现效果好像是一样的,所以具体该如何选择?

【3.1】古典概型

首先给古典概型的示例:投币游戏,任何一次投币正面朝上的概率都是1/2,问:前两次投币正面朝上,但第三次投币反面朝上的概率?

其实三次投币的所有可能情况都可以直接列出来:

【正正正,正正反,正反正,正反反,反正正,反正反,反反正,反反反】

很显然,正正反的概率是1/8。

实际上我们自己算出1/8也非常容易,因为每一次投币的正面朝上和反面朝上的概率都是1/2,并且每一步的结果互相独立、互不影响,所以应该让每一次投币的概率直接相乘:

P(正正反)=(1/2)(1/2)(1/2)=1/8。

从另一个角度,第三次投币为反面是在前两次投币为正面的条件下发生的,正正反的总投币结果影应该是条件概率:

P(反|正正)=P(正正反)/P(正正)=(1/8)/(1/4)=1/2

其中,P(正正)代表前两次投币结果都是正面的概率,P(正正)=(1/2)/(1/2)=1/4。

P(反|正正)=1/2,本质上代表的是第三次投币,也就是单次投币为反面的概率。虽然有前两次投币为正面的条件,但这是个古典概型下的投币试验,和前面的任何效果都没有关系。

这启发我们,古典概型下,计算某前提条件下的条件概率实际上是回到了单次试验发生的概率 ,它的结果是单次试验的概率,不是 在获得前提条件下的多次试验后再加上最后这次试验的综合概率。

【3.2】古典概型进阶

再给一个示例:玩投壶游戏,投中才可进下一轮。假如第一次投中的概率是0.5,但如果第一次投中后,会移远壶的距离,此时投中的概率变成0.3,如果第二次再投中。会再次移远壶的距离,这时的投中概率变成0.1。问,前两次投中,第三次没有投中的概率?

这时候我们按照传统的思路来分析,记Ai为第i次投壶投中,则前两次投中,第三次没有投中的概率可以这样想:

A1代表第一次投中,A1A2代表两次投中,这两次投中是一步接一步,且第一次投中不会改变第二次投中的概率,因为题目中已经约定好了第二次投中的概率是0.3 ;

但在另一个角度,只有在第一次投中的条件下,第二次投壶游戏才可能发生。

这时候,不妨写出来:

这个计算结果回到了第二次投壶自带的概率,所以它是0.3。

然后我们再看这个模型,其实它就是稍微复杂的古典模型,每一事件发生的概率是提前预知的,在这个事件之前的所有事件,都和这个概率没有关系。

条件概率只是该事件单独发生的概率。

【3.3】综合分析

所以,在某条件已经达成的前提下,新事件发生的概率,其实是计算综合概率,比如A已经发生时,B发生的概率,其实计算的目标是P(AB)。

【4】细节说明

前述分析中,使用了三个事件来说明实际应用中应该计算综合概率,中间未分析第一个事件发生条件下第二个事件发生的概率,其实就是再往回走一步,省略是因为分析第三步和第二步没有本质区别。

古典概型是理解条件概率分析的基础,上述条件概率求取的过程中,给出了不同步骤时不同的概率,实际上就是将不同的古典概型结合在一起,但在本质上还是古典概型,所以使用古典概型来分析非常实用。

【5】总结

回顾了条件概率的基础知识。

相关推荐
微小冷2 天前
二关节机器人系统模型推导
线性代数·机器人·概率论·推导·拉格朗日函数·二关节机器人·机器人控制系统的设计
软件开发技术深度爱好者2 天前
概率中“都发生”和“至少一个”问题的解答
概率论·数学广角
FF-Studio4 天前
【硬核数学】3. AI如何应对不确定性?概率论为模型注入“灵魂”《从零构建机器学习、深度学习到LLM的数学认知》
大数据·人工智能·深度学习·机器学习·数学建模·自然语言处理·概率论
如果你想拥有什么先让自己配得上拥有14 天前
概率论中的生日问题,违背直觉?如何计算? 以及从人性金融的角度分析如何违背直觉的?
金融·概率论
云博客-资源宝15 天前
Excel函数大全
机器学习·excel·概率论
爱学习的capoo17 天前
【解析法与几何法在阻尼比设计】自控
线性代数·机器学习·概率论
TomcatLikeYou18 天前
概率论中的基本定义(事件,期望,信息量,香农熵等)
深度学习·机器学习·概率论
phoenix@Capricornus20 天前
期望最大化(EM)算法的推导——Q函数
算法·机器学习·概率论
Algo-hx21 天前
概率论的基本概念:开启不确定性世界的数学之旅
概率论
Algo-hx21 天前
随机变量及其分布:概率论的量化核心
概率论