机器学习周志华学习笔记-第14章<概率图模型>

机器学习周志华学习笔记-第14章<概率图模型>

卷王,请看目录

  • 14概率图模型
    • [14.1 隐马尔可夫模型(HMM)](#14.1 隐马尔可夫模型(HMM))
        • [14.1.1 HMM评估问题](#14.1.1 HMM评估问题)
        • [14.1.2 HMM解码问题](#14.1.2 HMM解码问题)
        • [14.1.3 HMM学习问题](#14.1.3 HMM学习问题)
    • [14.2 马尔可夫随机场(MRF)](#14.2 马尔可夫随机场(MRF))
    • [14.3 条件随机场(CRF)](#14.3 条件随机场(CRF))
    • [14.4 学习与推断](#14.4 学习与推断)
        • [14.4.1 变量消去](#14.4.1 变量消去)
        • [14.4.2 信念传播](#14.4.2 信念传播)
    • [14.5 近似推断](#14.5 近似推断)
        • [14.5.1 马尔科夫链蒙特卡罗MCMC采样](#14.5.1 马尔科夫链蒙特卡罗MCMC采样)
        • [14.5.2 变分推断](#14.5.2 变分推断)
    • [14.6 LDA话题模型](#14.6 LDA话题模型)

14概率图模型

机器学习的核心价值观,可以通俗地理解为:根据一些已观察到的证据来推断未知。其中基于概率的模型将学习任务归结为计算变量的概率分布,正如之前已经提到的:生成式模型先对联合分布进行建模,从而再来求解后验概率,例如:贝叶斯分类器先对联合分布进行最大似然估计,从而便可以计算类条件概率;判别式模型则是直接对条件分布进行建模。

概率图模型(probabilistic graphical model)是一类用图结构来表达各属性之间相关关系的概率模型 ,一般而言:图中的一个结点表示一个或一组随机变量,结点之间的边则表示变量间的相关关系,从而形成了一张"变量关系图"。若使用有向的边来表达变量之间的依赖关系,这样的有向关系图称为贝叶斯网(Bayesian nerwork)或有向图模型 ;若使用无向边则称为马尔可夫网(Markov network)或无向图模型

14.1 隐马尔可夫模型(HMM)

隐马尔可夫模型(Hidden Markov Model,简称HMM)是结构最简单的一种贝叶斯网,在语音识别与自然语言处理领域上有着广泛的应用。HMM中的变量分为两组:状态变量与观测变量,其中状态变量一般是未知的,因此又称为"隐变量",观测变量则是已知的输出值。在隐马尔可夫模型中,变量之间的依赖关系遵循如下两个规则:

  1. 观测变量的取值仅依赖于状态变量
  2. 下一个状态的取值仅依赖于当前状态 ,通俗来讲:现在决定未来,未来与过去无关,这就是著名的马尔可夫性。

    基于上述变量之间的依赖关系,我们很容易写出隐马尔可夫模型中所有变量的联合概率分布:

    易知:欲确定一个HMM模型需要以下三组参数:

    当确定了一个HMM模型的三个参数后,便按照下面的规则来生成观测值序列:

    在实际应用中,HMM模型的发力点主要体现在下述三个问题上:
14.1.1 HMM评估问题

HMM评估问题指的是:给定了模型的三个参数与观测值序列,求该观测值序列出现的概率 。例如:对于赌场问题,便可以依据骰子掷出的结果序列来计算该结果序列出现的可能性,若小概率的事件发生了则可认为赌场的骰子有作弊的可能。解决该问题使用的是前向算法,即步步为营,自底向上的方式逐步增加序列的长度,直到获得目标概率值。在前向算法中,定义了一个前向变量,即给定观察值序列且t时刻的状态为 S i S_i Si的概率:

基于前向变量,很容易得到该问题的递推关系及终止条件:

因此可使用动态规划法,从最小的子问题开始,通过填表格的形式一步一步计算出目标结果。

14.1.2 HMM解码问题

HMM解码问题指的是:给定了模型的三个参数与观测值序列,求可能性最大的状态序列 。例如:在语音识别问题中,人说话形成的数字信号对应着观测值序列,对应的具体文字则是状态序列,从数字信号转化为文字正是对应着根据观测值序列推断最有可能的状态值序列。解决该问题使用的是Viterbi算法,与前向算法十分类似地,Viterbi算法定义了一个Viterbi变量,也是采用动态规划的方法,自底向上逐步求解。

14.1.3 HMM学习问题

HMM学习问题指的是:给定观测值序列,如何调整模型的参数使得该序列出现的概率最大 。这便转化成了机器学习问题,即从给定的观测值序列中学习出一个HMM模型,该问题正是EM算法的经典案例之一。其思想也十分简单:对于给定的观测值序列,如果我们能够按照该序列潜在的规律来调整模型的三个参数,则可以使得该序列出现的可能性最大。假设状态值序列也已知,则很容易计算出与该序列最契合的模型参数:

但一般状态值序列都是不可观测的,且即使给定观测值序列与模型参数,状态序列仍然遭遇组合爆炸。因此上面这种简单的统计方法就行不通了,若将状态值序列看作为隐变量,这时便可以考虑使用EM算法来对该问题进行求解:

  1. 首先对HMM模型的三个参数进行随机初始化;
  2. 根据模型的参数与观测值序列,计算t时刻状态为i且t+1时刻状态为j的概率以及t时刻状态为i的概率。
  3. 接着便可以对模型的三个参数进行重新估计:
  4. 重复步骤2-3,直至三个参数值收敛,便得到了最终的HMM模型。

14.2 马尔可夫随机场(MRF)

马尔可夫随机场(Markov Random Field)是一种典型的马尔可夫网,即使用无向边来表达变量间的依赖关系。在马尔可夫随机场中,对于关系图中的一个子集,若任意两结点间都有边连接,则称该子集为一个团;若再加一个结点便不能形成团,则称该子集为极大团。

MRF使用势函数来定义多个变量的概率分布函数,其中每个(极大)团对应一个势函数,一般团中的变量关系也体现在它所对应的极大团中,因此常常基于极大团来定义变量的联合概率分布函数。具体而言,若所有变量构成的极大团的集合为C,则MRF的联合概率函数可以定义为:

对于条件独立性,马尔可夫随机场通过分离集来实现条件独立,若A结点集必须经过C结点集才能到达B结点集,则称C为分离集。书上给出了一个简单情形下的条件独立证明过程,十分贴切易懂,此处不再展开。基于分离集的概念,得到了MRF的三个性质:

  • 全局马尔可夫性:给定两个变量子集的分离集,则这两个变量子集条件独立。
  • 局部马尔可夫性:给定某变量的邻接变量,则该变量与其它变量条件独立。
  • 成对马尔可夫性:给定所有其他变量,两个非邻接变量条件独立。

    对于MRF中的势函数,势函数主要用于描述团中变量之间的相关关系,且要求为非负函数,直观来看:势函数需要在偏好的变量取值上函数值较大,例如:若x1与x2成正相关,则需要将这种关系反映在势函数的函数值中。一般我们常使用指数函数来定义势函数:

14.3 条件随机场(CRF)

前面所讲到的隐马尔可夫模型和马尔可夫随机场都属于生成式模型,即对联合概率进行建模,条件随机场则是对条件分布进行建模。CRF(Conditional Random Field)试图在给定观测值序列后,对状态序列的概率分布进行建模,即P(y | x)。

直观上看:CRF与HMM的解码问题十分类似,都是在给定观测值序列后,研究状态序列可能的取值。CRF可以有多种结构,只需保证状态序列满足马尔可夫性即可,一般我们常使用的是链式条件随机场:

与马尔可夫随机场定义联合概率类似地,CRF也通过团以及势函数的概念来定义条件概率P(y | x)。在给定观测值序列的条件下,链式条件随机场主要包含两种团结构:单个状态团及相邻状态团,通过引入两类特征函数便可以定义出目标条件概率:
以词性标注为例,如何判断给出的一个标注序列靠谱不靠谱呢?转移特征函数主要判定两个相邻的标注是否合理,

例如:动词+动词显然语法不通;状态特征函数则判定观测值与对应的标注是否合理,

例如: ly结尾的词-->副词较合理。因此我们可以定义一个特征函数集合,用这个特征函数集合来为一个标注序列打分,并据此选出最靠谱的标注序列。

也就是说,每一个特征函数(对应一种规则)都可以用来为一个标注序列评分,把集合中所有特征函数对同一个标注序列的评分综合起来,就是这个标注序列最终的评分值。可以看出:特征函数是一些经验的特性。

14.4 学习与推断

对于生成式模型,通常我们都是先对变量的联合概率分布进行建模,接着再求出目标变量的边际分布(marginal distribution),那如何从联合概率得到边际分布呢?这便是学习与推断。下面主要介绍两种精确推断的方法:变量消去与信念传播。

14.4.1 变量消去

变量消去利用条件独立性来消减计算目标概率值所需的计算量 ,它通过运用乘法与加法的分配率,将对变量的积的求和问题转化为对部分变量交替进行求积与求和的问题,从而将每次的运算控制在局部,达到简化运算的目的。

14.4.2 信念传播

若将变量求和操作看作是一种消息的传递过程,信念传播可以理解成:一个节点在接收到所有其它节点的消息后才向另一个节点发送消息,同时当前节点的边际概率正比于他所接收的消息的乘积
因此只需要经过下面两个步骤,便可以完成所有的消息传递过程。利用动态规划法的思想记录传递过程中的所有消息,当计算某个结点的边际概率分布时,只需直接取出传到该结点的消息即可,从而避免了计算多个边际分布时的冗余计算问题。

  1. 指定一个根节点,从所有的叶节点开始向根节点传递消息,直到根节点收到所有邻接结点的消息(从叶到根);
  2. 从根节点开始向叶节点传递消息,直到所有叶节点均收到消息(从根到叶)。

14.5 近似推断

精确推断方法通常需要很大的计算开销,因此在现实应用中近似推断方法更为常用。近似推断方法大致可分为两大类:第一类是采样(sampling),通过使用随机化方法完成近似;第二类是使用确定性近似完成近似推断,典型代表为变分推断(variational inference)。

14.5.1 马尔科夫链蒙特卡罗MCMC采样

在贝叶斯推断和许多概率模型中,目标是从某个复杂的后验分布 p ( θ ∣ x ) p(\theta \mid x) p(θ∣x)中获取样本。然而,在大多数情况下,这种分布很难直接采样,因为其可能涉及到难以求解的归一化常数。MCMC 提供了一种间接方法,通过构建一个马尔可夫链,使其逐步收敛到目标分布。然后,通过在平衡态(或稳态)下从马尔可夫链中提取样本,我们可以得到接近于目标分布的样本。

马尔可夫性质 :马尔可夫链是一种具有"无记忆"性质的随机过程,当前状态的下一个状态只依赖于当前状态,而不依赖于历史状态。数学上,设 X 1 , X 2 , ... X_1, X_2, \dots X1,X2,...是马尔可夫链中的状态序列,满足:
P ( X n + 1 ∣ X 1 , X 2 , ... , X n ) = P ( X n + 1 ∣ X n ) P(X_{n+1} \mid X_1, X_2, \dots, X_n) = P(X_{n+1} \mid X_n) P(Xn+1∣X1,X2,...,Xn)=P(Xn+1∣Xn)

转移矩阵 :马尔可夫链通过转移概率矩阵(或转移核)定义,设 P i j P_{ij} Pij是从状态 i i i转移到状态 j j j的概率。

Metropolis-Hastings(MH)算法是 MCMC 中常用的采样方法。它通过构造一个易于采样的提议分布 q ( θ ′ ∣ θ ) q(\theta' \mid \theta) q(θ′∣θ),并通过接受或拒绝的方式生成目标分布的样本。

步骤

  1. 初始化 θ 0 \theta_0 θ0
  2. 对每一轮迭代:
    • 根据提议分布 q ( θ ′ ∣ θ t ) q(\theta' \mid \theta_t) q(θ′∣θt) 生成候选样本 θ ′ \theta' θ′
    • 计算接受概率:
      α = min ⁡ ( 1 , p ( θ ′ ∣ x ) q ( θ t ∣ θ ′ ) p ( θ t ∣ x ) q ( θ ′ ∣ θ t ) ) \alpha = \min \left(1, \frac{p(\theta' \mid x) q(\theta_t \mid \theta')}{p(\theta_t \mid x) q(\theta' \mid \theta_t)} \right) α=min(1,p(θt∣x)q(θ′∣θt)p(θ′∣x)q(θt∣θ′))
    • 接受或拒绝 θ ′ \theta' θ′:
      • 以概率 α \alpha α接受 θ ′ \theta' θ′,即 θ t + 1 = θ ′ \theta_{t+1} = \theta' θt+1=θ′
      • 否则,拒绝 θ ′ \theta' θ′,即 θ t + 1 = θ t \theta_{t+1} = \theta_t θt+1=θt

Gibbs 采样是一种特殊的 MCMC 方法,适用于条件分布易于采样的情况。它通过逐个更新每个变量,条件在其他变量的当前值上。

步骤

  1. 初始化 θ ( 0 ) \theta^{(0)} θ(0)
  2. 对每一轮迭代 t t t,依次更新每个变量 θ i \theta_i θi:
    θ i ( t + 1 ) ∼ p ( θ i ∣ θ 1 ( t + 1 ) , ... , θ i − 1 ( t + 1 ) , θ i + 1 ( t ) , ... , θ d ( t ) ) \theta_i^{(t+1)} \sim p(\theta_i \mid \theta_1^{(t+1)}, \dots, \theta_{i-1}^{(t+1)}, \theta_{i+1}^{(t)}, \dots, \theta_d^{(t)}) θi(t+1)∼p(θi∣θ1(t+1),...,θi−1(t+1),θi+1(t),...,θd(t))
  3. 重复迭代,直到样本收敛。
14.5.2 变分推断

变分推断的核心思想是将一个难以直接计算的复杂分布 p ( z ∣ x ) p(z \mid x) p(z∣x)用一个简单的概率分布 q ( z ; θ ) q(z; \theta) q(z;θ)来近似,其中 θ \theta θ是 q q q的参数。目标是找到参数 θ \theta θ使得 q q q和 p p p之间的差异最小,通常使用KL散度(Kullback-Leibler divergence)作为衡量两个分布差异的指标。

变分推断的步骤如下:

  1. 定义变分分布 :选择一个参数化的概率分布 q ( z ; θ ) q(z; \theta) q(z;θ)作为 p ( z ∣ x ) p(z \mid x) p(z∣x) 的近似。这个分布需要足够灵活以捕捉后验分布的重要特征,同时又足够简单以便于优化和抽样。

  2. 优化参数 :通过最小化 q q q和 p p p之间的KL散度来优化参数 t h e t a theta theta:
    min ⁡ θ KL ( q ( z ; θ ) ∥ p ( z ∣ x ) ) \min_{\theta} \text{KL}(q(z; \theta) \parallel p(z \mid x)) θminKL(q(z;θ)∥p(z∣x))

    这个优化问题可以转化为最大化变分下界(Evidence Lower Bound, ELBO),因为:
    KL ( q ( z ; θ ) ∥ p ( z ∣ x ) ) = E q ( z ; θ ) [ log ⁡ q ( z ; θ ) ] − E q ( z ; θ ) [ log ⁡ p ( x , z ) ] \text{KL}(q(z; \theta) \parallel p(z \mid x)) = \mathbb{E}{q(z; \theta)}[\log q(z; \theta)] - \mathbb{E}{q(z; \theta)}[\log p(x, z)] KL(q(z;θ)∥p(z∣x))=Eq(z;θ)[logq(z;θ)]−Eq(z;θ)[logp(x,z)]

    其中,( \mathbb{E}_{q(z; \theta)}[\log p(x, z)] ) 是ELBO,即变分下界。

  3. 迭代更新 :使用梯度下降或其他优化算法迭代更新参数 θ \theta θ,直到收敛。在每次迭代中,计算 q q q下的期望,并更新 θ \theta θ以增加ELBO。

变分推断和MCMC都是处理复杂概率分布的方法,但它们在哲学和实践上有所不同。MCMC通过构造马尔可夫链来生成样本,而变分推断通过优化一个简单分布来近似复杂分布。在某些情况下,变分推断可能比MCMC更快,尤其是在高维空间中,但MCMC有时能提供更准确的样本。

14.6 LDA话题模型

话题模型主要用于处理文本类数据,其中隐狄利克雷分配模型(Latent Dirichlet Allocation,简称LDA)是话题模型的杰出代表。在话题模型中,有以下几个基本概念:词(word)、文档(document)、话题(topic)。

  • 词:最基本的离散单元;
  • 文档:由一组词组成,词在文档中不计顺序;
  • 话题:由一组特定的词组成,这组词具有较强的相关关系。

在现实任务中,一般我们可以得出一个文档的词频分布,但不知道该文档对应着哪些话题,LDA话题模型正是为了解决这个问题。具体来说:LDA认为每篇文档包含多个话题,且其中每一个词都对应着一个话题。因此可以假设文档是通过如下方式生成:

这样一个文档中的所有词都可以认为是通过话题模型来生成的,当已知一个文档的词频分布后(即一个N维向量,N为词库大小),则可以认为:每一个词频元素都对应着一个话题,而话题对应的词频分布则影响着该词频元素的大小。因此很容易写出LDA模型对应的联合概率函数:

从上图可以看出,LDA的三个表示层被三种颜色表示出来:

  • corpus-level(红色): α和β表示语料级别的参数,也就是每个文档都一样,因此生成过程只采样一次。
  • document-level(橙色): θ是文档级别的变量,每个文档对应一个θ。
  • word-level(绿色): z和w都是单词级别变量,z由θ生成,w由z和β共同生成,一个单词w对应一个主题z。

通过上面对LDA生成模型的讨论,可以知道LDA模型主要是想从给定的输入语料中学习训练出两个控制参数α和β,当学习出了这两个控制参数就确定了模型,便可以用来生成文档。其中α和β分别对应以下各个信息:

  • α:分布p(θ)需要一个向量参数,即Dirichlet分布的参数,用于生成一个主题θ向量;
  • β:各个主题对应的单词概率分布矩阵p(w|z)。

把w当做观察变量,θ和z当做隐藏变量,就可以通过EM算法学习出α和β,求解过程中遇到后验概率p(θ,z|w)无法直接求解,需要找一个似然函数下界来近似求解,原作者使用基于分解(factorization)假设的变分法(varialtional inference)进行计算,用到了EM算法。每次E-step输入α和β,计算似然函数,M-step最大化这个似然函数,算出α和β,不断迭代直到收敛。

相关推荐
亦枫Leonlew1 小时前
三维测量与建模笔记 - 5.3 光束法平差(Bundle Adjustment)
笔记·计算机视觉·三维重建·光束法平差
Lbs_gemini06031 小时前
C++研发笔记14——C语言程序设计初阶学习笔记12
c语言·开发语言·c++·笔记·学习
MC何失眠2 小时前
vulnhub靶场【哈利波特】三部曲之Fawkes
网络·python·学习·网络安全
MarisolHu2 小时前
前端学习笔记-Vue篇-02
前端·vue.js·笔记·学习
霖大侠3 小时前
Adversarial Learning forSemi-Supervised Semantic Segmentation
人工智能·算法·机器学习
先知demons4 小时前
uniapp开发微信小程序笔记10-触底加载
前端·笔记·微信小程序·小程序·uni-app
B1nna4 小时前
外卖开发(三)开发笔记——AOP实现实现公共字段填充、主键回显、抛异常和事务管理
笔记
我的老子姓彭4 小时前
C++学习笔记
c++·笔记·学习
CQU_JIAKE4 小时前
3.29【机器学习】第五章作业&实现
人工智能·算法·机器学习
望云山1904 小时前
机器学习概述,特征工程简述2.1——2.3
人工智能·机器学习