概率基本概念 --- 离散型随机变量实例

条件概率&独立事件

随机变量

+- 离散型随机变量
+- 非离散型随机变量
  • 连续型随机变量
  • 奇异性型随机变量

概率表示

  • 概率分布函数
  • 概率密度函数
  • 概率质量函数
  • 全概率公式
  • 贝叶斯公式

概率计算

  • 数学期望
  • 方差
  • 协方差

计算实例

  • 假设有两个离散型随机变量X和Y,它们代表某天中两个不同时间段内通过某个路口的车辆数。以下是随机变量X和Y的概率分布:
X的概率分布(0点到6点):
  • P(X=0) = 0.2(没有车辆通过)
  • P(X=1) = 0.5(1辆车通过)
  • P(X=2) = 0.3(2辆车通过)
Y的概率分布(6点到12点):
  • P(Y=0) = 0.1(没有车辆通过)
  • P(Y=1) = 0.4(1辆车通过)
  • P(Y=2) = 0.3(2辆车通过)
  • P(Y=3) = 0.2(3辆车通过)
首先,我们计算X的数学期望(E(X)和E(Y)):
  • E(X) = 0 * P(X=0) + 1 * P(X=1) + 2 * P(X=2)= 0 * 0.2 + 1 * 0.5 + 2 * 0.3 = 0 + 0.5 + 0.6= 1.1
  • E(Y) = 0 * P(Y=0) + 1 * P(Y=1) + 2 * P(Y=2) + 3 * P(Y=3) = 0 * 0.1 + 1 * 0.4 + 2 * 0.3 + 3 * 0.2= 0 + 0.4 + 0.6 + 0.6= 1.6
复制代码
X加权期望值是: 1.1
X加权方差是: 0.49
Y加权期望值是: 1.6
X加权方差是: 0.8400000000000001
现在,计算方差(D(X),D(Y)):

D(X) = E(X^2) - [E(X)]^2

  • E(X^2): E(X^2) = 0^2 * P(X=0) + 1^2 * P(X=1) + 2^2 * P(X=2) = 0 + 0.5 + 1.2 = 1.7

  • 然后计算方差: D(X) = E(X^2) - [E(X)]^2 = 1.7 - (1.1)^2 = 1.7 - 1.21 = 0.49

D(Y) = E(Y^2) - [E(Y)]^2

  • E(Y^2): E(Y^2) = 0^2 * P(Y=0) + 1^2 * P(Y=1) + 2^2 * P(Y=2) + 3^2 * P(Y=3) = 0 + 0.4 + 1.2 + 1.8 = 3.4

  • 然后计算方差: D(Y) = E(Y^2) - [E(Y)]^2 = 3.4 - (1.6)^2 = 3.4 - 2.56 = 0.84

公式推导

最后,我们计算X和Y的协方差(Cov(X,Y)):

根据这些结果,协方差 Cov(X,Y) 的计算结果为-4.440892098500626e-16)

这个值非常接近于0,说明在独立性假设下,X和Y几乎没有线性相关性。

实际上,这个极小的负值可以被视为计算中的舍入误差,可以忽略不计。

因此,我们可以认为在独立性假设下,X和Y的协方差为0。

相关推荐
liruiqiang054 小时前
深入理解概率密度函数和概率的关系
机器学习·线性回归·概率论
@心都20 小时前
机器学习数学基础:18.向量组及其线性组合
线性代数·机器学习·概率论
liruiqiang051 天前
机器学习 - 进一步理解最大似然估计和高斯分布的关系
人工智能·机器学习·概率论
凋零蓝玫瑰2 天前
解锁几何:从古希腊到现代生活的奇幻空间密码
线性代数·概率论
golitter.2 天前
机器学习:朴素贝叶斯分类器
人工智能·机器学习·概率论
西猫雷婶2 天前
神经网络|(九)概率论基础知识-泊松分布及python仿真
概率论
@心都3 天前
机器学习数学基础:15.分块矩阵
机器学习·矩阵·概率论
@心都4 天前
机器学习数学基础:19.线性相关与线性无关
线性代数·机器学习·概率论
西猫雷婶4 天前
神经网络|(八)概率论基础知识-二项分布及python仿真
概率论
婷小主的保镖的学习日记5 天前
一篇关于高等数理统计结合机器学习论文的撰写(如何撰写?)
人工智能·机器学习·概率论