术语“in law”(在分布上)

在概率论和统计学中,术语"in law"(在分布上)指的是随机变量的分布收敛到某个目标分布的情况。下面是对这个概念及其在定理中的应用的详细解释


"In Law"(在分布上)的含义

定义:

如果 { Y n } \{Y_n\} {Yn}是一系列随机变量,并且它们的分布函数 F Y n ( x ) F_{Y_n}(x) FYn(x) 对于所有 x x x 收敛于某个目标分布函数 F Y ( x ) F_Y(x) FY(x),即:
lim ⁡ n → ∞ F Y n ( x ) = F Y ( x ) 对于所有 x 使得 F Y ( x ) 是连续的 , \lim_{n \to \infty} F_{Y_n}(x) = F_Y(x) \text{ 对于所有 } x \text{ 使得 } F_Y(x) \text{ 是连续的}, n→∞limFYn(x)=FY(x) 对于所有 x 使得 FY(x) 是连续的,

则我们说随机变量 Y n Y_n Yn 收敛于随机变量 Y Y Y 的分布,记作:
Y n → d Y Y_n \xrightarrow{d} Y Ynd Y


Y n → L Y Y_n \xrightarrow{L} Y YnL Y

定理 2.3.2 的含义

定理: 如果 Y n Y_n Yn 在分布上收敛于一个分布 H H H,那么 Y n Y_n Yn 是在概率上有界的。

解释:

  • 收敛在分布上(Convergence in Law/Distribution) :表示随机变量 Y n Y_n Yn 的分布函数 F Y n ( x ) F_{Y_n}(x) FYn(x) 随着 n n n 的增大趋向于分布函数 F H ( x ) F_H(x) FH(x)。

  • 概率上有界(Bounded in Probability) :意味着存在一个常数 M M M,对于任意 ϵ > 0 \epsilon > 0 ϵ>0,都有:
    P ( ∣ Y n ∣ > M ) ≤ ϵ P(|Y_n| > M) \leq \epsilon P(∣Yn∣>M)≤ϵ

    即 Y n Y_n Yn 的绝对值不会超过 M M M 的概率可以使得小于任意的 ϵ \epsilon ϵ。这表明 Y n Y_n Yn 的值在概率上被控制在某个有限范围内。

为何"in law"意味着概率上有界

虽然"在分布上收敛"说明了分布的收敛性,但定理中指出,如果 Y n Y_n Yn 的分布收敛于某个目标分布 H H H,那么 Y n Y_n Yn 必定在概率上有界。这意味着虽然随机变量的分布变化,但是它们的值在某个有限范围内的概率趋向于1,不会无限增大。

相关推荐
十二imin5 天前
霍夫丁不等式详解
算法·机器学习·概率论
牟同學7 天前
从赌场到AI:期望值如何用C++改变世界?
c++·人工智能·概率论
likunyuan083012 天前
概率统计中的数学语言与术语2
概率论
MoRanzhi120316 天前
0. NumPy 系列教程:科学计算与数据分析实战
人工智能·python·机器学习·数据挖掘·数据分析·numpy·概率论
A尘埃17 天前
概率论+贝叶斯定理+似然函数和极大似然估计
概率论
likunyuan083017 天前
概率统计中的数学语言与术语1
人工智能·机器学习·概率论
2401_8414956418 天前
【机器学习】朴素贝叶斯法
人工智能·python·数学·算法·机器学习·概率论·朴素贝叶斯法
汐汐咯21 天前
随机过程笔记
概率论
橙狮科技22 天前
2014-2024高考真题考点分布详细分析(另附完整高考真题下载)
概率论·高考
jie*22 天前
小杰机器学习(six)——概率论——1.均匀分布2.正态分布3.数学期望4.方差5.标准差6.多维随机变量及其分布
人工智能·机器学习·概率论