泊松分布与二项分布的可加性

泊松分布与二项分布的可加性

泊松分布的可加性

例 : 设 X , Y X,Y X,Y 相互独立 , X ∼ P ( λ 1 ) X\sim P(\lambda_1) X∼P(λ1) , Y ∼ P ( λ 2 ) Y\sim P(\lambda_2) Y∼P(λ2) , 求证 Z = X + Y Z=X+Y Z=X+Y 服从参数为 λ 1 + λ 2 \lambda_1 + \lambda_2 λ1+λ2 的泊松分布

证明 :

由题意 , X X X 的分布律为 P { X = i } = λ 1 i i ! e − λ 1 , i = 0 , 1 , 2 , ⋯ P\{X=i\}=\frac{\lambda_1^i}{i!}e^{-\lambda_1},i=0,1,2,\cdots P{X=i}=i!λ1ie−λ1,i=0,1,2,⋯

Y Y Y 的分布律为 P { Y = i } = λ 2 i i ! e − λ 2 , i = 0 , 1 , 2 , ⋯ P\{Y=i\}=\frac{\lambda_2^i}{i!}e^{-\lambda_2},i=0,1,2,\cdots P{Y=i}=i!λ2ie−λ2,i=0,1,2,⋯

Z Z Z 的可能取值为 0 , 1 , 2 , ⋯ 0,1,2,\cdots 0,1,2,⋯ , Z Z Z 的分布律为 P { Z = k } = P { X + Y = k } = ∑ i = 0 k P { X = i } P { Y = k − i } = ∑ i = 0 k λ 1 i λ 2 k − i i ! ( k − i ) ! e − λ 1 e − λ 2 = e − ( λ 1 + λ 2 ) k ! ∑ i = 0 k k ! λ 1 i λ 2 k − i i ! ( k − i ) ! = e − ( λ 1 + λ 2 ) k ! ∑ i = 0 k C k i λ 1 i λ 2 k − i = ( λ 1 + λ 2 ) k k ! e − ( λ 1 + λ 2 ) P\{Z=k\}=P\{X+Y=k\}=\sum_{i=0}^{k}P\{X=i\}P\{Y=k-i\}=\sum_{i=0}^k\frac{\lambda_1^i \lambda_2^{k-i}}{i!(k-i)!}e^{-\lambda_1}e^{-\lambda_2}=\frac{e^{-(\lambda_1+\lambda_2)}}{k!}\sum_{i=0}^k\frac{k!\lambda_1^i \lambda_2^{k-i}}{i!(k-i)!}=\frac{e^{-(\lambda_1+\lambda_2)}}{k!}\sum_{i=0}^{k}C_k^i\lambda_1^i\lambda_2^{k-i}=\frac{(\lambda_1+\lambda_2)^k}{k!}e^{-(\lambda_1+\lambda_2)} P{Z=k}=P{X+Y=k}=∑i=0kP{X=i}P{Y=k−i}=∑i=0ki!(k−i)!λ1iλ2k−ie−λ1e−λ2=k!e−(λ1+λ2)∑i=0ki!(k−i)!k!λ1iλ2k−i=k!e−(λ1+λ2)∑i=0kCkiλ1iλ2k−i=k!(λ1+λ2)ke−(λ1+λ2)

k = 0 , 1 , 2 , ⋯ k=0,1,2,\cdots k=0,1,2,⋯

二项分布的可加性

类似地,可以证明, X ∼ B ( n 1 , p ) , Y ∼ B ( n 2 , p ) X\sim B(n_1,p),Y\sim B(n_2,p) X∼B(n1,p),Y∼B(n2,p) , 则   Z = X + Y ∼ B ( n 1 + n 2 , p ) 则\,Z=X+Y \sim B(n_1+n_2,p) 则Z=X+Y∼B(n1+n2,p)

相关推荐
HappyAcmen2 天前
1.3 古典概型和几何概型
笔记·概率论·学习方法
程序员老周6662 天前
4.大语言模型预备数学知识
人工智能·神经网络·线性代数·自然语言处理·大语言模型·概率论·数学基础
pen-ai4 天前
【统计方法】蒙特卡洛
人工智能·机器学习·概率论
phoenix@Capricornus5 天前
极大似然估计例题——正态分布的极大似然估计
线性代数·概率论
VU-zFaith8705 天前
C++概率论算法详解:理论基础与实践应用
c++·算法·概率论
zyq~7 天前
【课堂笔记】标签传播算法Label Propagation Algorithm(LPA)
人工智能·笔记·算法·机器学习·概率论·lpa·半监督学习
小于小于大橙子9 天前
强化学习的前世今生(五)— SAC算法
人工智能·算法·ai·自动驾驶·概率论·强化学习
zyq~10 天前
【课堂笔记】EM算法
人工智能·笔记·算法·机器学习·概率论·gmm·em算法
无水先生14 天前
【概率论基本概念01】点估计
概率论
拾忆-eleven15 天前
NLP学习路线图(二): 概率论与统计学(贝叶斯定理、概率分布等)
学习·自然语言处理·概率论