概率基本概念 --- 离散型随机变量实例

条件概率&独立事件

随机变量

+- 离散型随机变量
+- 非离散型随机变量
  • 连续型随机变量
  • 奇异性型随机变量

概率表示

  • 概率分布函数
  • 概率密度函数
  • 概率质量函数
  • 全概率公式
  • 贝叶斯公式

概率计算

  • 数学期望
  • 方差
  • 协方差

计算实例

  • 假设有两个离散型随机变量X和Y,它们代表某天中两个不同时间段内通过某个路口的车辆数。以下是随机变量X和Y的概率分布:
X的概率分布(0点到6点):
  • P(X=0) = 0.2(没有车辆通过)
  • P(X=1) = 0.5(1辆车通过)
  • P(X=2) = 0.3(2辆车通过)
Y的概率分布(6点到12点):
  • P(Y=0) = 0.1(没有车辆通过)
  • P(Y=1) = 0.4(1辆车通过)
  • P(Y=2) = 0.3(2辆车通过)
  • P(Y=3) = 0.2(3辆车通过)
首先,我们计算X的数学期望(E(X)和E(Y)):
  • E(X) = 0 * P(X=0) + 1 * P(X=1) + 2 * P(X=2)= 0 * 0.2 + 1 * 0.5 + 2 * 0.3 = 0 + 0.5 + 0.6= 1.1
  • E(Y) = 0 * P(Y=0) + 1 * P(Y=1) + 2 * P(Y=2) + 3 * P(Y=3) = 0 * 0.1 + 1 * 0.4 + 2 * 0.3 + 3 * 0.2= 0 + 0.4 + 0.6 + 0.6= 1.6
复制代码
X加权期望值是: 1.1
X加权方差是: 0.49
Y加权期望值是: 1.6
X加权方差是: 0.8400000000000001
现在,计算方差(D(X),D(Y)):

D(X) = E(X^2) - [E(X)]^2

  • E(X^2): E(X^2) = 0^2 * P(X=0) + 1^2 * P(X=1) + 2^2 * P(X=2) = 0 + 0.5 + 1.2 = 1.7

  • 然后计算方差: D(X) = E(X^2) - [E(X)]^2 = 1.7 - (1.1)^2 = 1.7 - 1.21 = 0.49

D(Y) = E(Y^2) - [E(Y)]^2

  • E(Y^2): E(Y^2) = 0^2 * P(Y=0) + 1^2 * P(Y=1) + 2^2 * P(Y=2) + 3^2 * P(Y=3) = 0 + 0.4 + 1.2 + 1.8 = 3.4

  • 然后计算方差: D(Y) = E(Y^2) - [E(Y)]^2 = 3.4 - (1.6)^2 = 3.4 - 2.56 = 0.84

公式推导

最后,我们计算X和Y的协方差(Cov(X,Y)):

根据这些结果,协方差 Cov(X,Y) 的计算结果为-4.440892098500626e-16)

这个值非常接近于0,说明在独立性假设下,X和Y几乎没有线性相关性。

实际上,这个极小的负值可以被视为计算中的舍入误差,可以忽略不计。

因此,我们可以认为在独立性假设下,X和Y的协方差为0。

相关推荐
ballball~~1 天前
正态(高斯)分布(Gaussian distribution)
算法·概率论
AI科技星1 天前
引力场与磁场的几何统一:磁矢势方程的第一性原理推导、验证与诠释
数据结构·人工智能·经验分享·线性代数·算法·计算机视觉·概率论
Niuguangshuo2 天前
高斯分布的加权和 vs. 加权混合
概率论
Niuguangshuo2 天前
随机变量及其分布:从离散到连续,深入理解概率模型的基础
概率论
Z_Jiang2 天前
金融投资 的 小游戏:海边躺平
经验分享·金融·概率论·程序员创富
liliangcsdn4 天前
全方差公式在DDIM中的应用示例
概率论
helloworld也报错?4 天前
深度强化学习(1)——基础知识(名词解释,概率论基础,蒙特卡洛采样,马尔可夫决策过程)
人工智能·深度学习·机器学习·概率论
liliangcsdn5 天前
全期望公式在DDIM中的应用实例
算法·机器学习·概率论
surtr16 天前
【算法自用】一些比较有趣的题目
算法·动态规划·概率论·图论
natide9 天前
表示/嵌入差异-4-闵可夫斯基距离(Minkowski Distance-曼哈顿距离-欧氏距离-切比雪夫距离
人工智能·深度学习·算法·机器学习·自然语言处理·概率论