术语“in law”(在分布上)

在概率论和统计学中,术语"in law"(在分布上)指的是随机变量的分布收敛到某个目标分布的情况。下面是对这个概念及其在定理中的应用的详细解释


"In Law"(在分布上)的含义

定义:

如果 { Y n } \{Y_n\} {Yn}是一系列随机变量,并且它们的分布函数 F Y n ( x ) F_{Y_n}(x) FYn(x) 对于所有 x x x 收敛于某个目标分布函数 F Y ( x ) F_Y(x) FY(x),即:
lim ⁡ n → ∞ F Y n ( x ) = F Y ( x ) 对于所有 x 使得 F Y ( x ) 是连续的 , \lim_{n \to \infty} F_{Y_n}(x) = F_Y(x) \text{ 对于所有 } x \text{ 使得 } F_Y(x) \text{ 是连续的}, n→∞limFYn(x)=FY(x) 对于所有 x 使得 FY(x) 是连续的,

则我们说随机变量 Y n Y_n Yn 收敛于随机变量 Y Y Y 的分布,记作:
Y n → d Y Y_n \xrightarrow{d} Y Ynd Y


Y n → L Y Y_n \xrightarrow{L} Y YnL Y

定理 2.3.2 的含义

定理: 如果 Y n Y_n Yn 在分布上收敛于一个分布 H H H,那么 Y n Y_n Yn 是在概率上有界的。

解释:

  • 收敛在分布上(Convergence in Law/Distribution) :表示随机变量 Y n Y_n Yn 的分布函数 F Y n ( x ) F_{Y_n}(x) FYn(x) 随着 n n n 的增大趋向于分布函数 F H ( x ) F_H(x) FH(x)。

  • 概率上有界(Bounded in Probability) :意味着存在一个常数 M M M,对于任意 ϵ > 0 \epsilon > 0 ϵ>0,都有:
    P ( ∣ Y n ∣ > M ) ≤ ϵ P(|Y_n| > M) \leq \epsilon P(∣Yn∣>M)≤ϵ

    即 Y n Y_n Yn 的绝对值不会超过 M M M 的概率可以使得小于任意的 ϵ \epsilon ϵ。这表明 Y n Y_n Yn 的值在概率上被控制在某个有限范围内。

为何"in law"意味着概率上有界

虽然"在分布上收敛"说明了分布的收敛性,但定理中指出,如果 Y n Y_n Yn 的分布收敛于某个目标分布 H H H,那么 Y n Y_n Yn 必定在概率上有界。这意味着虽然随机变量的分布变化,但是它们的值在某个有限范围内的概率趋向于1,不会无限增大。

相关推荐
jackyrongvip3 天前
妙用《甄嬛传》中的选妃来记忆概率论中的乘法公式
概率论
lynn-666 天前
【深度学习与大模型基础】第8章-概率分布
人工智能·算法·机器学习·概率论
猎人everest9 天前
机器学习之概率论
人工智能·机器学习·概率论
豆芽8199 天前
二项式分布(Binomial Distribution)
人工智能·python·机器学习·numpy·概率论
zbdx不知名菜鸡11 天前
self Attention为何除以根号dk?(全新角度)
transformer·attention·概率论
优美的赫蒂11 天前
扩展卡尔曼滤波
机器学习·数学建模·矩阵·概率论
Lichenpar13 天前
AI小白的第七天:必要的数学知识(四)
人工智能·概率论·概率分布
pen-ai13 天前
离散概率分布:正态分布,二项分布,连续分布,正态分布的性质
算法·机器学习·概率论
kngines13 天前
从零构建大语言模型全栈开发指南:第一部分:数学与理论基础-1.1.2核心数学基础:线性代数、概率论与梯度优化
人工智能·线性代数·大语言模型·概率论·强化学习·rlhf
zyq~14 天前
【课堂笔记】定理:样本越多,测量的经验损失越接近真实损失
笔记·机器学习·概率论