二项分布和泊松分布

一、二项分布

1.1 n重伯努利试验

若是二项分布,则必是n重伯努利试验概型。即:每次试验只有两种结果

,且在每次试验中A发生的概率相等,即P(A)=p,将这种试验独立重复n次,则称这种试验为n重伯努利试验,也叫n重伯努利概率模型,所以二项分布也叫伯努利分布。

1.2 什么是二项

二项是指:把一个随机试验的结果只划分成两种。例如:要么A事件发生,要么A事件没发生,记为:

;所以二项的涵义可理解为:随机变量X的取值只有两个,第一个取值的代表某事件发生了,第二个则代表某事件未发生。再例如:将考试成绩的结果分为两类,第一类是成绩≥60分,则第二类是成绩<60分。

1.2 二项分布X~B

用随机变量X来表示在n重伯努利试验中A事件发生的次数,其概率函数为:

,

,

则称:X服从参数为(n,p)的二项分布,记作X~B。期望:E(X)=np;方差:D(X)=n·p(1-p)。

1.4 二项分布的性质

一般地,对于固定的n及p,当k增加时,概率P(X=k)先是随之增加直至到达最大值,随后单调减少:① 当(n+1)p为整数时,概率P(X=k)在k=

=p(n+1)和(n+1)p-1时达到最大值;② 不为整数时,概率P(X=k)在k=

在p(n+1)时达到最大值。称

为二项分布的最可能值。说人话就是:当发生k次为几时,二项分布的概率值最大,最大即意味着最有可能发生。

1.5 二项分布示例

抛一枚硬币,设朝上的结果为随机变量X。问:假设一共抛5次,正面和反面发生的概率均为1/2,求3次正面朝上的概率:

,答:5次中发生3次正面朝上的概率为31.25%

随机变量X(正面朝上次数)的期望:E(X)=np=(

),指:抛5次,正面朝上次数的平均结果是2.5次。

随机变量X(正面朝上次数)的方差:D(X)=n·p(1-p)=(

,指:抛5次,正面朝上出现次数的方差为1.2。

二、泊松分布

2.1 与二项分布的区别

泊松分布可以理解为:二项分布的试验次数趋向于无穷大时,事件A发生的次数及概率的分布。在理论上,泊松分布是二项分布的极限分布。当趋于无限次数时,可理解为一个时段或时空内,将每次试验是在分割成每秒/每分等事件单位下的事件A是否发生。如下图所示。

重点:一般地,当n较大,p较小,np大小适当时,以(n,p)为参数的二项分布可近似看成参数为

的泊松分布,这样可利用泊松分布对二项分布作近似计算,实际计算时,

时近似的效果极好。

2.2 泊松分布的涵义

泊松分布是用来描述:在一个比较长的时间段(时空)里面,一个很小概率事件发生的次数。例如:一段时间内电话总台收到的来电呼叫次数;一段时间内,账户登录系统发生故障的次数;在一天内,来到商场的顾客人数;游泳池里一平方米内,从水底冒出来泡的次数等。

2.3 泊松分布X~P

用随机变量X来表示在在一段时间或时空内A事件发生的次数,其概率函数为:

,

其中

,称X服从参数为

的泊松分布(poisson distribution),记作X~P(

)。

其中期望E(X)和方差D(X)都为:

2.4 泊松分布查表得概率

例如:k=5次,

=7,依下表查的P(X=5)=0.369≈37%;

例如:k≤3次,

=4,依下表查的P(X≤3)=0.0183+0.0916+0.2381+0.4335=0.7815≈78%。

相关推荐
用户87612829073746 分钟前
前端ai对话框架semi-design-vue
前端·人工智能
量子位7 分钟前
稚晖君刚挖来的 90 后机器人大牛:逆袭履历堪比爽文男主
人工智能·llm
量子位12 分钟前
200 亿机器人独角兽被曝爆雷,官方回应来了
人工智能·llm
机器之心15 分钟前
细节厘米级还原、实时渲染,MTGS方法突破自动驾驶场景重建瓶颈
人工智能
arbboter31 分钟前
【AI插件开发】Notepad++ AI插件开发实践:从Dock窗口集成到功能菜单实现
人工智能·notepad++·动态菜单·notepad++插件开发·dock窗口集成·ai代码辅助工具·ai对话窗口
jndingxin40 分钟前
OpenCV 图形API(或称G-API)(1)
人工智能·opencv·计算机视觉
神马行空2 小时前
一文解读DeepSeek大模型在政府工作中具体的场景应用
人工智能·大模型·数字化转型·deepseek·政务应用
合合技术团队2 小时前
实测对比|法国 AI 独角兽公司发布的“最强 OCR”,实测效果如何?
大数据·人工智能·图像识别
蒹葭苍苍8732 小时前
LoRA、QLoRA微调与Lama Factory
人工智能·笔记
蹦蹦跳跳真可爱5892 小时前
Python----机器学习(基于PyTorch的线性回归)
人工智能·pytorch·python·机器学习·线性回归