【概率论】条件期望

在高等概率论中,给定一个概率空间 ( Ω , F , P ) (\Omega, \mathcal{F}, P) (Ω,F,P) 和其子 σ \sigma σ-代数 G ⊆ F \mathcal{G} \subseteq \mathcal{F} G⊆F,随机变量 X X X 关于 G \mathcal{G} G 的 条件期望 E [ X ∣ G ] E[X|\mathcal{G}] E[X∣G] 是一个满足以下两个条件的随机变量:

  1. G \mathcal{G} G-可测性 : E [ X ∣ G ] \mathbb{E}[X|\mathcal{G}] E[X∣G] 是 G \mathcal{G} G-可测的函数。
  2. 积分等式 :对任意 A ∈ G A \in \mathcal{G} A∈G,有
    ∫ A E [ X ∣ G ]   d P = ∫ A X   d P . \int_A \mathbb{E}[X|\mathcal{G}] \, dP = \int_A X \, dP. ∫AE[X∣G]dP=∫AXdP.

关键点解析:

存在性与唯一性 :由Radon-Nikodym定理保证, E [ X ∣ G ] \mathbb{E}[X|\mathcal{G}] E[X∣G] 在几乎必然意义下唯一存在。

直观意义 : E [ X ∣ G ] \mathbb{E}[X|\mathcal{G}] E[X∣G] 是在已知 G \mathcal{G} G 所包含的信息(即 G \mathcal{G} G-可测事件)时,对 X X X 的"最佳预测"。

特例 :若 G = σ ( Y ) \mathcal{G} = \sigma(Y) G=σ(Y) 由另一个随机变量生成,则 E [ X ∣ G ] \mathbb{E}[X|\mathcal{G}] E[X∣G] 可记为 E [ X ∣ Y ] \mathbb{E}[X|Y] E[X∣Y],表示给定 Y Y Y 时 X X X 的期望。

与其他定义的关联:

• 若 ( X , Y ) (X,Y) (X,Y) 有联合密度 f ( x , y ) f(x,y) f(x,y),则 E [ X ∣ Y = y ] = ∫ x f ( x ∣ y ) d x = ∫ x f ( x , y ) d x ∫ f ( x , y ) d x \mathbb{E}[X|Y=y] = \int x f(x|y) dx=\frac{\int x f(x,y) dx}{\int f(x,y) dx} E[X∣Y=y]=∫xf(x∣y)dx=∫f(x,y)dx∫xf(x,y)dx,其中 f ( x ∣ y ) f(x|y) f(x∣y) 为条件密度。测度论定义将此推广到更一般的场景,因此条件期望 E [ X ∣ Y = y ] \mathbb{E}[X|Y=y] E[X∣Y=y] 是关于 y y y 的函数。

性质:

条件期望具有线性性、单调性、塔性质(迭代期望)等,例如:

线性性 : E [ a X + b Y ∣ G ] = a E [ X ∣ G ] + b E [ Y ∣ G ] \mathbb{E}[aX + bY | \mathcal{G}] = a\mathbb{E}[X|\mathcal{G}] + b\mathbb{E}[Y|\mathcal{G}] E[aX+bY∣G]=aE[X∣G]+bE[Y∣G]。

塔性质 :若 H ⊆ G \mathcal{H} \subseteq \mathcal{G} H⊆G,则 E [ E [ X ∣ G ] ∣ H ] = E [ E [ X ∣ H ] ∣ G ] = E [ X ∣ H ] \mathbb{E}[\mathbb{E}[X|\mathcal{G}]|\mathcal{H}] =\mathbb{E}[\mathbb{E}[X|\mathcal{H}]|\mathcal{G}] = \mathbb{E}[X|\mathcal{H}] E[E[X∣G]∣H]=E[E[X∣H]∣G]=E[X∣H]。

数学期望与条件期望 E [ E [ X ∣ G ] ] = E [ X ] \mathbb{E}[\mathbb{E}[X|\mathcal{G}]] = \mathbb{E}[X] E[E[X∣G]]=E[X]。

相关推荐
炼金士2 天前
大模型、运筹优化、概率论与控制论在港口物流智能调度中的融合应用(挑战与未来研究报告)
人工智能·概率论·集装箱码头
加油JIAX4 天前
贝叶斯滤波与卡尔曼滤波
概率论·slam·kf
Zero5 天前
机器学习概率论与统计学--(13)线性回归
机器学习·线性回归·概率论·统计学
Zero5 天前
机器学习概率论与统计学--(12)假设检验
机器学习·概率论·统计学
笨笨饿7 天前
30_泰勒级数
c语言·stm32·嵌入式硬件·线性代数·机器学习·自动化·概率论
加油JIAX7 天前
误差状态卡尔曼滤波(ESKF)推导
概率论·slam·ekf·imu·卡尔曼滤波·kf·eskf
⊱⋛赫宇⋚⊰8 天前
转专业数学
线性代数·机器学习·概率论
Brother Jiawei8 天前
概率-基础
线性代数·机器学习·概率论
做cv的小昊8 天前
【TJU】应用统计学——第四周作业(2.3 C-R不等式、2.4区间估计)
c语言·人工智能·算法·机器学习·数学建模·r语言·概率论
luoganttcc9 天前
eiθ=cosθ+isinθ证明
线性代数·矩阵·概率论·欧拉公式