术语“in law”(在分布上)

在概率论和统计学中,术语"in law"(在分布上)指的是随机变量的分布收敛到某个目标分布的情况。下面是对这个概念及其在定理中的应用的详细解释


"In Law"(在分布上)的含义

定义:

如果 { Y n } \{Y_n\} {Yn}是一系列随机变量,并且它们的分布函数 F Y n ( x ) F_{Y_n}(x) FYn(x) 对于所有 x x x 收敛于某个目标分布函数 F Y ( x ) F_Y(x) FY(x),即:
lim ⁡ n → ∞ F Y n ( x ) = F Y ( x ) 对于所有 x 使得 F Y ( x ) 是连续的 , \lim_{n \to \infty} F_{Y_n}(x) = F_Y(x) \text{ 对于所有 } x \text{ 使得 } F_Y(x) \text{ 是连续的}, n→∞limFYn(x)=FY(x) 对于所有 x 使得 FY(x) 是连续的,

则我们说随机变量 Y n Y_n Yn 收敛于随机变量 Y Y Y 的分布,记作:
Y n → d Y Y_n \xrightarrow{d} Y Ynd Y


Y n → L Y Y_n \xrightarrow{L} Y YnL Y

定理 2.3.2 的含义

定理: 如果 Y n Y_n Yn 在分布上收敛于一个分布 H H H,那么 Y n Y_n Yn 是在概率上有界的。

解释:

  • 收敛在分布上(Convergence in Law/Distribution) :表示随机变量 Y n Y_n Yn 的分布函数 F Y n ( x ) F_{Y_n}(x) FYn(x) 随着 n n n 的增大趋向于分布函数 F H ( x ) F_H(x) FH(x)。

  • 概率上有界(Bounded in Probability) :意味着存在一个常数 M M M,对于任意 ϵ > 0 \epsilon > 0 ϵ>0,都有:
    P ( ∣ Y n ∣ > M ) ≤ ϵ P(|Y_n| > M) \leq \epsilon P(∣Yn∣>M)≤ϵ

    即 Y n Y_n Yn 的绝对值不会超过 M M M 的概率可以使得小于任意的 ϵ \epsilon ϵ。这表明 Y n Y_n Yn 的值在概率上被控制在某个有限范围内。

为何"in law"意味着概率上有界

虽然"在分布上收敛"说明了分布的收敛性,但定理中指出,如果 Y n Y_n Yn 的分布收敛于某个目标分布 H H H,那么 Y n Y_n Yn 必定在概率上有界。这意味着虽然随机变量的分布变化,但是它们的值在某个有限范围内的概率趋向于1,不会无限增大。

相关推荐
Researcher-Du12 小时前
随机采样之接受拒绝采样
概率论
无水先生1 天前
ML 系列:机器学习和深度学习的深层次总结( 19)— PMF、PDF、平均值、方差、标准差
概率论
无水先生1 天前
ML 系列:机器学习和深度学习的深层次总结( 20)— 离散概率分布 (Bernoulli 分布)
概率论
卡洛驰2 天前
交叉熵损失函数详解
人工智能·深度学习·算法·机器学习·ai·分类·概率论
Ricciflows3 天前
分析学大师Elias M. Stein的分析系列教材
线性代数·数学建模·矩阵·概率论·抽象代数·拓扑学·傅立叶分析
乔大将军3 天前
数理统计(第4章第2节:2元方差分析)
概率论
爱代码的小黄人6 天前
数学期望和联合概率密度
概率论
VisionX Lab6 天前
视频批量裁剪工具
音视频·概率论
无水先生6 天前
ML 系列:第 18 部 - 高级概率论:条件概率、随机变量和概率分布
概率论
AnitasCat7 天前
VAE原理及代码实现
人工智能·机器学习·概率论