泊松分布与二项分布的可加性

泊松分布与二项分布的可加性

泊松分布的可加性

例 : 设 X , Y X,Y X,Y 相互独立 , X ∼ P ( λ 1 ) X\sim P(\lambda_1) X∼P(λ1) , Y ∼ P ( λ 2 ) Y\sim P(\lambda_2) Y∼P(λ2) , 求证 Z = X + Y Z=X+Y Z=X+Y 服从参数为 λ 1 + λ 2 \lambda_1 + \lambda_2 λ1+λ2 的泊松分布

证明 :

由题意 , X X X 的分布律为 P { X = i } = λ 1 i i ! e − λ 1 , i = 0 , 1 , 2 , ⋯ P\{X=i\}=\frac{\lambda_1^i}{i!}e^{-\lambda_1},i=0,1,2,\cdots P{X=i}=i!λ1ie−λ1,i=0,1,2,⋯

Y Y Y 的分布律为 P { Y = i } = λ 2 i i ! e − λ 2 , i = 0 , 1 , 2 , ⋯ P\{Y=i\}=\frac{\lambda_2^i}{i!}e^{-\lambda_2},i=0,1,2,\cdots P{Y=i}=i!λ2ie−λ2,i=0,1,2,⋯

Z Z Z 的可能取值为 0 , 1 , 2 , ⋯ 0,1,2,\cdots 0,1,2,⋯ , Z Z Z 的分布律为 P { Z = k } = P { X + Y = k } = ∑ i = 0 k P { X = i } P { Y = k − i } = ∑ i = 0 k λ 1 i λ 2 k − i i ! ( k − i ) ! e − λ 1 e − λ 2 = e − ( λ 1 + λ 2 ) k ! ∑ i = 0 k k ! λ 1 i λ 2 k − i i ! ( k − i ) ! = e − ( λ 1 + λ 2 ) k ! ∑ i = 0 k C k i λ 1 i λ 2 k − i = ( λ 1 + λ 2 ) k k ! e − ( λ 1 + λ 2 ) P\{Z=k\}=P\{X+Y=k\}=\sum_{i=0}^{k}P\{X=i\}P\{Y=k-i\}=\sum_{i=0}^k\frac{\lambda_1^i \lambda_2^{k-i}}{i!(k-i)!}e^{-\lambda_1}e^{-\lambda_2}=\frac{e^{-(\lambda_1+\lambda_2)}}{k!}\sum_{i=0}^k\frac{k!\lambda_1^i \lambda_2^{k-i}}{i!(k-i)!}=\frac{e^{-(\lambda_1+\lambda_2)}}{k!}\sum_{i=0}^{k}C_k^i\lambda_1^i\lambda_2^{k-i}=\frac{(\lambda_1+\lambda_2)^k}{k!}e^{-(\lambda_1+\lambda_2)} P{Z=k}=P{X+Y=k}=∑i=0kP{X=i}P{Y=k−i}=∑i=0ki!(k−i)!λ1iλ2k−ie−λ1e−λ2=k!e−(λ1+λ2)∑i=0ki!(k−i)!k!λ1iλ2k−i=k!e−(λ1+λ2)∑i=0kCkiλ1iλ2k−i=k!(λ1+λ2)ke−(λ1+λ2)

k = 0 , 1 , 2 , ⋯ k=0,1,2,\cdots k=0,1,2,⋯

二项分布的可加性

类似地,可以证明, X ∼ B ( n 1 , p ) , Y ∼ B ( n 2 , p ) X\sim B(n_1,p),Y\sim B(n_2,p) X∼B(n1,p),Y∼B(n2,p) , 则   Z = X + Y ∼ B ( n 1 + n 2 , p ) 则\,Z=X+Y \sim B(n_1+n_2,p) 则Z=X+Y∼B(n1+n2,p)

相关推荐
西猫雷婶1 天前
神经网络|(十九)概率论基础知识-伽马函数·下
人工智能·深度学习·神经网络·机器学习·回归·scikit-learn·概率论
西猫雷婶4 天前
神经网络|(十八)概率论基础知识-伽马函数溯源-阶乘的积分表达式
人工智能·深度学习·神经网络·机器学习·概率论
西猫雷婶8 天前
神经网络|(十六)概率论基础知识-伽马函数·中
人工智能·深度学习·神经网络·学习·机器学习·概率论
西西弗Sisyphus8 天前
大模型 多轮对话
语言模型·概率论·知识蒸馏
Jooou9 天前
机器学习:贝叶斯派和频率派
机器学习·概率论·贝叶斯派
simon_skywalker13 天前
概率论基础教程第六章 随机变量的联合分布(二)
概率论
simon_skywalker13 天前
概率论基础教程第5章 连续型随机变量(三)
概率论
西西弗Sisyphus14 天前
知识蒸馏 Knowledge Distillation 概率链式法则(Probability Chain Rule)
概率论·概率链式法则
西猫雷婶14 天前
神经网络|(十二)概率论基础知识-先验/后验/似然概率基本概念
人工智能·神经网络·机器学习·回归·概率论
海绵宝宝汉堡包14 天前
数据分析专栏记录之 -基础数学与统计知识 2 概率论基础与python
python·数据分析·概率论