【机器学习】 贝叶斯理论的变分推理

许志永

一、说明

贝叶斯原理,站在概率角度上似乎容易解释,但站在函数立场上就不那么容易了;然而,在高端数学模型中,必须要在函数和集合立场上有一套完整的概念,其迭代和运算才能有坚定的理论基础。

二、贝叶斯概念的难处

2.1 并不简单

贝叶斯定理看起来天真地简单。但是,分母是在 z 上积分的分区函数,就不简单了。一般来说,它不能通过分析来解决。即使我们可以对已知分布族的先验和可能性进行建模,后验 p(z |x)总体上仍然难以解决。

让我们用一个简单的例子来演示它的复杂性。我们使用多项式分布来选择 K 正态分布之一。然后,我们使用选定的正态分布对 xi进行采样。如图所示,后部的复杂性已经无法控制。

源代码修改

另一种方法是近似解。在 ML 中,有两种主要的近似方法。它们是采样和变分推理。在本文中,我们将讨论后者。

变分推理 中,给定观测值 X,w e 为潜在变量 z 构建概率模型 q,即 qpz|X)。

上面的边际 pX) 可以计算为:

在变分推理中,我们避免计算边际 pX )。这种分区功能通常很讨厌。相反,我们选择一些易于处理的分布族 q来近似p。

我们将 q 与样本数据拟合,以了解分布参数 θ。当我们为 q 做出选择时,我们确保它易于操作。例如,它的期望和归一化因子可以直接从分布参数计算。由于这个选择,我们可以用 q 代替 p 进行任何推断或分析。

2.2 概述

虽然这个概念听起来很简单,但细节却并非如此。在本节中,我们将详细介绍著名的主题建模算法(称为潜在狄利克雷分配(LDA)的主要步骤。我们希望这能为您提供一个顶级概述,然后再深入研究细节和证明。

以下是 LDA 的图形模型。

该模型包含变量 α、β、θ、z 和 w。不要担心变量的含义,因为它在我们的上下文中并不重要。 w 是我们的观察结果。 θ 和 z 是我们想要发现的隐藏变量(潜在因子)。 α 和 β 在我们的讨论中是固定且已知的。图形模型中的箭头表示依赖性。例如,w 仅取决于 z 和 β。因此,p(w|α, β, θ, z) 可以简化为 p(w|z, β)。

与许多概率模型一样,我们感兴趣的是在给定已知输入的情况下对联合分布 p(w, θ, z |α, β) 进行建模。我们应用链式法则来扩展联合概率,使其仅由单个变量的分布组成。然后,我们应用图中的依赖关系来简化每一项。我们得到:

基于主题建模问题,θw 可以用狄利克雷分布建模,z 可以用多项式分布建模。我们的目标是用 q 近似 所有隐藏变量 θz

我们定义了一个目标来最小化 pq 之间的差异。这可以通过最大化下面的ELBO(证据下限)来完成。

即使不是那么明显,当 pq 相同时,ELBO 会最大化。然而,联合概率qθ, z )仍然很难建模。我们将它分解并近似为 q(θ*,* z) ≈ q(θqz )。即使它可能不完美,经验结果通常也是好的。 z 由多个变量 z₁、z₂、z₃、... 组成。并且可以分解为单个组件,如 Qz₁Qz ₂)...因此,q的最终模型为:

根据主题建模问题,我们可以对具有狄利克雷分布的 θ 和具有多项分布的 zi 进行建模,并使用 γφi 对相应的分布参数进行建模。这是一个伟大的里程碑,因为我们设法用单个隐藏变量的分布对复杂模型进行建模,并为每个隐藏变量选择一个可处理的分布。剩下的问题是如何学习γ 和φi。让我们回到ELBO目标:

在许多 ML 问题中,为了有效地对问题进行建模,隐藏变量通常相互依赖。我们无法一步优化它们。相反,我们一次优化一个变量,同时保持其他变量固定。因此,我们轮流旋转隐藏变量以交替步骤进行优化,直到解决方案收敛。在 LDA 中,z 和 θ分别在下面的步骤 5 和 6 中进行优化。

剩下的主要问题是如何在修复其他参数的同时优化变分参数。在每次迭代中,目标隐变量 zk的最佳分布为:

分子对除 zk 之外的所有隐藏变量进行积分。

听起来我们正在重新引入邪恶的双胞胎:正常化因素。尽管如此,这不会成为问题。我们选择 q 作为可处理的分布。它们的期望和归一化可以从分布参数分析中得出。

等式中的分子值得更多解释。对于正则期望 E[f (x₁, x₂, x₃ )],我们评估所有变量的 f

但是对于我们的分子,我们省略了目标变量。

即,

-k 是以下的缩写:

但是,我们不会在计算期望时执行积分。我们对 qi 的选择使我们能够简化 ELBO 最大化中的许多计算。让我们更详细地介绍一下。

在 LDA 中,q 近似为:

其中 θz 分别由γ 和 φ 建模。我们的计算涉及:

  1. 将 ELBO 扩展到单个变量
  2. 计算预期值
  3. 优化 ELBO

展开 ELBO

使用图形模型和链式规则,我们将ELBO扩展为:

计算预期值

我们不想用细节让您不知所措。因此,我们仅演示如何仅计算第一个项的期望。首先,θ 由参数为 α 的狄利克雷分布建模。

接下来,我们将计算其期望值 w.r.t. q

这里没有证明,E[log θi] 可以直接从γ计算出来。

我们深思熟虑地选择 q,通常使用基于问题陈述中隐藏变量属性的已知分布。数学家已经分析解决了这些期望表达式。我们甚至不担心归一化因素。

优化 ELBO

在我们扩展 ELBO 中所有剩余的项后,我们可以将其区分为 w.r.t. γiγ 中的第 i 个参数)和φ ni (第 n 个单词中的第 i参数)。 通过将导数设置为零,我们找到了γi的最佳解:

φni的最佳解决方案将是:

由于γφ ni之间存在依赖关系,我们将以交替的步骤迭代优化参数。

Source

以下是概述。对于其余的文章,我们将介绍变分推理、证明和详细示例中的一些主要设计决策。

三、KL-背离

为了找到q ,我们将问题变成优化问题。我们计算 q 的最佳参数,以最小化目标 p* 的反向 KL 发散。

如前所述,KL-发散不是对称的。q的最优解只有在q复杂到足以对p进行建模时, KL*(* p,q)和KLq ,p )的最优解才会相同。这就提出了一个重要的问题,即当KL-发散KL(p,q)与p的期望更匹配时,为什么使用反向KL -散度KLq, p)。例如,当使用高斯分布对蓝色双峰分布进行建模时,反向KL散度解将是图中的红色曲线(b)或(c)。两种解决方案仅涵盖一种模式。

但是,(a) 中的 KL 散度解将覆盖大部分原始分布,其均值将与 p* 的均值匹配。

(包括均值和方差)描述了分布。KL-散度解是力矩投影(m-投影)。它将 qp 的矩匹配。如果我们匹配所有矩参数,它们将完全相同。如果 q 使用指数分布族,我们可以使用 KL-散度将 q 的矩与 p* 精确匹配。这里没有太多解释,他们预期的足够统计数据将匹配。

(即 p =q )反向KL散度是一种信息投影(i-投影),不一定产生正确的时刻。由此判断,我们可以得出结论,m投影是优越的。但是,如果一个机制可以完全匹配p*,那么这样的机制也需要完全理解p*,这首先是困难的。所以听起来并不像它可能的那样好。

在变分推理中,使用 i 投影代替。为了证明我们的选择是合理的,让我们提出一些我们想要遵循的约束。首先,我们要避免分区函数的计算,计算困难。其次,我们希望避免计算pz ),因为我们需要分区函数来计算它。因此,让我们为 p 定义一个新术语,即非规范化分布,它将分区函数分开。

让我们将新定义代入反向KL背离。

Z 不会改变 w.r.t. q。当我们最小化反向KL发散时,可以忽略它。

这是个好消息。在图形模型中,非规范化的 p 是使用因子明确定义的。它们易于计算,并且 R.H.S. 中的目标不需要任何规范化。使用反向KL散度是一个很好的折衷方案,即使在某些情况下它可能并不完美。对于 qp* 相比过于简单,结果可能会造成伤害。然而,变异推断通常显示出良好的经验结果。接下来,让我们看看如何优化反向KL发散。

四、证据下限

让我们在下面介绍凸函数 f和称为证据下界 (ELBO) 的项的詹森不等式
该图源自维基百科

ELBO 实际上是在最后一步中对凹函数应用詹森不等式后的证据的下限(log px))。

源代码修改

ELBO与KL背离有关:

源代码修改

现在让 Z 成为边际 px )。不要将 Z 与隐藏变量 z 混淆。不幸的是,我们需要用大写字母重载符号,因为 Z 在其他文献中经常使用。

Z 不会改变我们对 q 的建模方式。所以从优化 q 的角度来看,log Z 是一个常数。

因此,最小化KL发散度将与最大化ELBO相同。直观地说,给定任何分布 q ,ELBO 始终是 log Z 的下限。但是,当 q 等于 p* 时,差距减小到零。因此,最大化ELBO将KL发散度降低到零。

通过最大化证据下限ELBO,我们最小化了两个数据分布的差异。

让我们将 ELBO 概括为

其中 Z 现在是一般归一化因子。

同样,如上所示,最大化ELBO与最小化KL散度相同,因为Z 不会因我们对q进行建模的方式而变化。

这比KL背离带来了一个主要优势。ELBO 适用于归一化和非归一化分布,无需计算常规 KL 散度定义所需的 Z

ELBO 和图形模型(可选)

让我们演示如何使用图形模型在 ELBO 中计算非归一化分布。联合概率分布可以通过马尔可夫随机场建模为:

我们将ELBO中的非规范化p替换为上面φ因子。

因此,最小化KL发散等效于最小化吉布斯自由能。我们称之为自由能,因为它是我们可以通过改变配置来操纵的能量的一部分。如果我们使用能量模型扩展模型,则可以进一步扩展此模型。

五、平均场变分推理

(信用:证明和方程起源于这里

不要太快开心。我们错过了变分推理中重要而困难的一步。q 的选择是什么?当 q 包含多个变量时,即 q(z) = q (z₁, z₂, z₃, ...),这可能非常困难。为了进一步降低复杂性,平均场变分推理做出了一个大胆的假设,即分布可以分解为分布,每个分布仅涉及一个隐藏变量。

然后,我们根据问题使用可处理的分布对每个分布进行建模。我们选择的分布将易于分析。例如,如果 z₁是多项式,我们使用多项式分布对其进行建模。如前所述,许多隐藏变量相互依赖。因此,我们将使用坐标下降来优化它。我们将隐藏变量分组为每个包含自变量的组。我们交替旋转和优化每组变量,直到解决方案收敛。

所以最后一个难题是如何在每个迭代步骤中优化qizi )。我们将首先介绍几个概念。当 x 不依赖于 z 时,概率链式规则可以写成如下:

其次,由于我们将qz )建模为独立分量qizi),我们可以将熵建模为单个熵的总和。

有了这些信息,我们扩展了ELBO


zjz 中的排序是非常随意的。在下面的等式中,我们使 zk 成为最后一个元素。并将与 z 无关的所有内容分组到一个常量中。因此,等式变为

我们进一步删除与zk无关的项,然后以积分形式表示。

我们取导数并将其设置为零以找到优化的分布 qzk)。

最佳解决方案是

所有不断吸收并转化为Z'。我们可以用贝叶定理扩展分子。同样,相应的分母将与 zk 无关,因此被吸收为归一化因子。

这与我们在概述部分得到的等式相同。

还有其他方法可以找到优化的 q。让我们把所有内容都放在MRF的上下文中。如前所述,我们的目标是

让我们用 qx ) 将其扩展为 q(x₁) qx₂qx₃...

这个方程可以用类似于MAP推理的线性代数来解决。但是我们不会在这里详细说明解决方案。

六、回顾

我们知道分布 p 的方程。但是分析或操纵它是令人讨厌的。

因此,根据观察结果,我们将为每个单独的模型参数使用可处理的 qip 进行建模。例如

为了最小化 pq 之间的差异,我们最大化下面的 ELBO。

在每个迭代步骤中,相应模型参数 zj 的最佳解为:

由于每个q都被选择为易于处理的,因此可以通过分析方式找到期望值或归一化因子(如果需要),并且非常简单。

七、示例

(图片来源:这个例子和一些方程都来自这里

让我们用一个例子来演示变化推断。考虑下面的分布 px):

其中μ (平均值)和τ (精度)分别由高斯分布和伽马分布建模。因此*,让我们* 用 q (μ, τ) 近似 p (x, μ, τ )。通过方差推断,我们可以从数据中学习这两个参数。每次迭代中 μτ的最优值将满足

因此,让我们首先用链式规则扩展 pxμ, τ ),然后从问题定义中扩展 p的定义来评估它。

我们的下一个任务是使用下面的平均场变分推理通过 q 近似 p

现在,应用平均场变化推断,我们得到:

对数 q 是二次的。所以q是高斯分布的。

我们的下一个任务是将上面的方程与高斯定义进行匹配,以找到参数 μττ ⁻¹ = σ²)。

因此,μτ是:

如前所述,计算归一化 Z 通常很困难,但对于这些众所周知的分布来说并非如此。如果需要,可以通过分布参数计算归一化因子。我们需要专注于查找这些参数。

我们在计算日志 qτ) 时重复相同的过程。

τ 是伽马分布,因为上面的分布仅依赖于 τ 和对数 τ 。伽马分布的相应参数 ab 为:

现在,我们有两个可处理的分布,我们希望找到它们的参数μτ

同样,让我们将一些术语重写为期望表单。

如前所述,数学已经通过分析解决了这些期望项。我们甚至懒得计算任何归一化因子。

μa 可以立即解决。但是 τ 依赖于bb 依赖于 τ

因此,我们将交替步骤迭代地解决它们。

  1. 将 τn 初始化为某个任意值。
  2. 用上面的等式求解 bn
  3. 用上面的方程求解 τn
  4. 重复最后两个步骤,直到值收敛。

八、抽样与变分推理

抽样方法存在一个主要缺点。我们不知道目前的采样解决方案与实际情况有多远。我们希望,如果我们进行足够的采样,解决方案是接近的,但没有定量测量。为了测量这样的距离,我们需要一个目标函数。由于变分推理被表述为优化问题,因此我们确实对进展有一定的指示。但是,变分推理近似于解,而不是找到确切的解。事实上,我们的解决方案不太可能是准确的。

相关推荐
牧歌悠悠2 小时前
【深度学习】Unet的基础介绍
人工智能·深度学习·u-net
坚毅不拔的柠檬柠檬2 小时前
AI革命下的多元生态:DeepSeek、ChatGPT、XAI、文心一言与通义千问的行业渗透与场景重构
人工智能·chatgpt·文心一言
坚毅不拔的柠檬柠檬2 小时前
2025:人工智能重构人类文明的新纪元
人工智能·重构
jixunwulian2 小时前
DeepSeek赋能AI边缘计算网关,开启智能新时代!
人工智能·边缘计算
Archie_IT2 小时前
DeepSeek R1/V3满血版——在线体验与API调用
人工智能·深度学习·ai·自然语言处理
大数据追光猿2 小时前
Python应用算法之贪心算法理解和实践
大数据·开发语言·人工智能·python·深度学习·算法·贪心算法
灵感素材坊3 小时前
解锁音乐创作新技能:AI音乐网站的正确使用方式
人工智能·经验分享·音视频
xinxiyinhe4 小时前
如何设置Cursor中.cursorrules文件
人工智能·python
AI服务老曹4 小时前
运用先进的智能算法和优化模型,进行科学合理调度的智慧园区开源了
运维·人工智能·安全·开源·音视频
alphaAIstack4 小时前
大语言模型推理能力从何而来?
人工智能·语言模型·自然语言处理