扩散模型相关的概率论基础

一、期望(Expectation)

期望是对随机变量在分布下的"加权平均"。

离散情形:

连续情形(积分):

在连续随机变量里:概率不是"点的值",而是"密度函数",所以期望会变成积分形式:

求平均 = 所有可能值 × 它出现的概率密度

积分和期望的关系:连续情形下,期望本质上就是一个积分。p(x)是权重(概率密度),f(x)是被加权的函数。

等价于

因为想要的p(z∣x)很难算,所以用q(z∣x)来近似它

二、VAE/Diffusion 中反复出现的核心公式

1. 边际化(Marginalization)

这是 VAE 最核心的困难之处------这个积分对所有 z 都是 intractable 的。

2. 贝叶斯公式

VAE 用一个神经网络来这个难以计算的后验 p(z∣x):

这里编码器网络接收输入 x,输出两个值:

  • :隐变量的均值
  • :隐变量的标准差

ϕ就是这个网络的所有可学习参数,通过最大化 ELBO 来训练。

3. KL 散度

衡量两个分布"距离"的函数:

(z∼q:z服从q分布)

KL(q||p) = "用 q 作为权重,衡量 q 和 p 的差异"意思就是"如果数据是按照 q 分布出现的,

那 p 有多不匹配?"所以必须用q来采样(用 q 加权),不能用Ep,否则变成在模型生成的数据下评估误差。

展开就是:,ELBO 其实就是这个结构的变形!

,当且仅当 q=p时等于 0。

4. 蒙特卡洛估计(MC Estimation)

当积分无法解析计算时,用采样近似:

VAE 的重建项就是这样估计的(通常 N=1,因为batch 和多次迭代已经在平均了)。

原来的期望是

这是一个连续积分( 这个期望本质上是一个高维积分,而积分里的函数形式又非常复杂**)**,要对所有可能的 z 值加权求和------有无穷多个点。而蒙特卡洛估计只用了 N 离散的采样点:

用有限个离散样本替代了无穷连续的积分。

相关推荐
风落无尘8 小时前
第二章《概率与生存》完整学习资料
人工智能·矩阵·概率论
风筝在晴天搁浅1 天前
用rand7()函数构造函数rand10()
概率论
上课不要睡觉了2 天前
day13统计师考试(初级)统计量与抽样分布
统计·概率论·统计师考试
the sun343 天前
概率论:随机变量的定义、常见离散型、连续型随机变量
概率论
做cv的小昊4 天前
【TJU】应用统计学——第一周作业(1.1 数理统计的基本内容、1.2 数理统计的基本概念)
人工智能·笔记·考研·机器学习·数学建模·概率论
白云千载尽4 天前
深度思考——概率论与神经网络训练的关系
人工智能·神经网络·概率论
做cv的小昊5 天前
【TJU】研究生应用统计学课程笔记(5)——第二章 参数估计(2.3 C-R不等式)
c语言·笔记·线性代数·机器学习·数学建模·r语言·概率论
做cv的小昊5 天前
【TJU】应用统计学——第七周作业(4.2 多元线性回归分析、4.3 可化为线性回归的曲线回归、4.4 单因子方差分析)
线性代数·算法·数学建模·矩阵·回归·线性回归·概率论
点云侠7 天前
最小二乘拟合椭圆
线性代数·机器学习·概率论