术语“in law”(在分布上)

在概率论和统计学中,术语"in law"(在分布上)指的是随机变量的分布收敛到某个目标分布的情况。下面是对这个概念及其在定理中的应用的详细解释


"In Law"(在分布上)的含义

定义:

如果 { Y n } \{Y_n\} {Yn}是一系列随机变量,并且它们的分布函数 F Y n ( x ) F_{Y_n}(x) FYn(x) 对于所有 x x x 收敛于某个目标分布函数 F Y ( x ) F_Y(x) FY(x),即:
lim ⁡ n → ∞ F Y n ( x ) = F Y ( x ) 对于所有 x 使得 F Y ( x ) 是连续的 , \lim_{n \to \infty} F_{Y_n}(x) = F_Y(x) \text{ 对于所有 } x \text{ 使得 } F_Y(x) \text{ 是连续的}, n→∞limFYn(x)=FY(x) 对于所有 x 使得 FY(x) 是连续的,

则我们说随机变量 Y n Y_n Yn 收敛于随机变量 Y Y Y 的分布,记作:
Y n → d Y Y_n \xrightarrow{d} Y Ynd Y


Y n → L Y Y_n \xrightarrow{L} Y YnL Y

定理 2.3.2 的含义

定理: 如果 Y n Y_n Yn 在分布上收敛于一个分布 H H H,那么 Y n Y_n Yn 是在概率上有界的。

解释:

  • 收敛在分布上(Convergence in Law/Distribution) :表示随机变量 Y n Y_n Yn 的分布函数 F Y n ( x ) F_{Y_n}(x) FYn(x) 随着 n n n 的增大趋向于分布函数 F H ( x ) F_H(x) FH(x)。

  • 概率上有界(Bounded in Probability) :意味着存在一个常数 M M M,对于任意 ϵ > 0 \epsilon > 0 ϵ>0,都有:
    P ( ∣ Y n ∣ > M ) ≤ ϵ P(|Y_n| > M) \leq \epsilon P(∣Yn∣>M)≤ϵ

    即 Y n Y_n Yn 的绝对值不会超过 M M M 的概率可以使得小于任意的 ϵ \epsilon ϵ。这表明 Y n Y_n Yn 的值在概率上被控制在某个有限范围内。

为何"in law"意味着概率上有界

虽然"在分布上收敛"说明了分布的收敛性,但定理中指出,如果 Y n Y_n Yn 的分布收敛于某个目标分布 H H H,那么 Y n Y_n Yn 必定在概率上有界。这意味着虽然随机变量的分布变化,但是它们的值在某个有限范围内的概率趋向于1,不会无限增大。

相关推荐
bulingg1 天前
L1与L2正则化的差异
线性代数·矩阵·概率论
皮蛋瘦肉熬不成粥1 天前
MES(The Measures of Effect Size )工具箱的使用
matlab·概率论
我要学好英语2 天前
概率密度——分布、期望、方差和协方差
深度学习·概率论·概率密度·方差·协方差·期望·分布
我要学好英语2 天前
概率法则——贝叶斯定理
深度学习·概率论·贝叶斯定理
Eloudy2 天前
贝叶斯定律的内涵
概率论
Zero3 天前
机器学习概率论与统计学--(6)概率论:连续分布
机器学习·概率论·统计学·概率密度函数·连续分布
Zero4 天前
机器学习概率论与统计学--(7)概率论:多维随机变量
机器学习·概率论·随机变量·统计学·多维随机变量
Zero4 天前
机器学习概率论与统计学--(5)概率论:离散分布
机器学习·概率论·统计学·离散分布
irpywp5 天前
SentrySearch:一款支持用自然语言检索原生 MP4 视频的 Python 命令行工具
python·音视频·概率论
Zero5 天前
机器学习概率论与统计学--(3)概率论:随机变量
机器学习·概率论·随机变量·统计学