贝叶斯网络:利用变量消除(Variable Elimination)进行推理

贝叶斯网络简介

贝叶斯网络(Bayesian network )也叫贝氏网路、信念网络 (belief network)或是有向无环图(DAG)模型,是一种概率图模型。它利用DAG的结构,得到一组随机变量{X1,X2,...,Xn}的条件概率分布(conditional probability distributions, or CPDs)。它的作用简单来说就是:通过分析因果关系来理解数据。

一般而言,DAG中节点 表示随机变量,包括可观测变量,或潜在变量、未知参数。连接两个节点的箭头 代表这两个随机变量是具有因果关系非条件独立 的;若没有箭头连接二者的情况就称随机变量彼此间条件独立 。单箭头的起点是" ",终点是" ";两节点之间产生一个条件概率值

贝叶斯网络的应用包括:疾病和相关症状间的概率关系(已知症状,计算各疾病的发生概率);生物信息学中基因调控网络、蛋白质结构分析、基因表达分析等;各个领域的决策支持系统;电力故障分析,如利用因果分析技术帮助电力、能源等公司找到电力系统中的风险所在等。

贝叶斯网络是一种强有力的基于概率的不确定性推理 方法。它可以模拟 某个变量改变会产生什么样的结果, 比如天气的改变会如何影响能源供给和购物的状况。++贝叶斯网络++ 和++神经网络++ 的最大区别优势是,前者的运作过程有透明性,不是黑盒子。

贝叶斯网络的计算方法

贝叶斯网络的计算方法 分为精确推导 法和随机推导 法。前者包括列举推理 法、变量消除推理 法(variable elimination)。后者包括直接取样推导 法、拒绝取样推导 法、概率加权推导 法、马尔可夫链蒙特卡罗推导 法。本文介绍精确推导法中的两个方法。

列举推理法

假如有两个服务器S1和S2,会发送数据包到用户端(用U表示)。而S2的发送成功率与S1的成功与否有关。其DAG结构图表示如下。对每个数据包传输,只有两个可能值:T (成功)或 F (失败)。那么就有如下的联合概率 公式:

现在思考一个问题: ++假设用户U已经收到数据包,那么S1发送数据成功的概率是多大?++

即我们要求

而已知{S1}的真值表、{S1,S2}的真值表、{S1,S2,U}的真值表,这个问题是可以直接手动推导的!

推导如下:

变量消除推理法

在BN(贝叶斯网络)中,我们把叫做边际概率 (Marginal Probability),把叫做条件概率 ,其中E可以是单个或联合证据 (conjunctive evidence)。这里的X叫做查询变量 (query variable),E叫做证据变量 (evidence variable),所有其他变量都叫隐变量 (hidden variable)。注意:边际概率的意思是,我们没有得到任何证据。我们通常对后验概率感兴趣,也就是某件事已经发生,想计算这件事发生的原因是由某个因素引起的概率。

现在考虑一个案例,名字叫"如果John和Mary都打电话(Call)给你,那么发生入室盗窃(Burglary)的概率是多少?"。

故事的背景如下:假如你正在参加一个聚会,突然John打电话 给你,你离开聚会并接听,他说家里有警报(Alarm) ,但是他说的话不一定是事实(只是具有某个概率 ),因为他经常喝醉。然后没多久Mary打电话 给你,说回家吧,家里有警报(Alarm) ,同样她的话可信度也对应一个概率。现在你需要弄清楚这是由入室盗窃(Burglary) 引起的警报 ,还是由地震(Earthquake) 引起的警报 ,或者他俩都说的谎话(喝醉产生幻觉或故意开玩笑)。

你要求的是

第一步,其中j,m都是小写,分别表示J,M的具体值,这里是J=True, M=True

(注:大写字母表示随机变量 ,需要处理它的所有可能值。 因此P(B| j, m) 就表示当John和Mary都打电话来时, 家里发生**入室盗窃(Burglary)**的概率是多大,未发生的概率是多大)

第二步 :显然上式分母 是个常数,不重要。当J为真,M为真,分母对于入室盗窃的真假,是个恒定的值。而分子P(B,j, m)将随B的取值(True或False)变化而变化。

因此我们可以简单说:P(B| j, m)与P(B,j, m)成正比。比例性的另一个说法是,乘以某个alpha,于是我们有

第三步 :注意这个例子一共有5个变量 ,在完全联合分布 中有2^5=32个可能的组合。现在目标公式考虑了BJM三个变量,就有2^2=4个情况可以表示:(地震为真,警报为真)、(地震为真,警报为假)、(地震为假,警报为真)、(地震为假,警报为假)。我们可以写为对隐变量求和完整联合分布 。于是得到:

第四步 :根据该问题的贝叶斯网络的DAG结构,我们进一步得到

重点:贝叶斯网络的完整联合分布始终可以通过拓扑顺序乘以所有条件概率来表示。

第五步 :进一步做代数整理,把拆解成的分步求和,也就是所谓的逐步变量消除。为此,先对A求和,再对E求和,就得到:

第六步 :为进一步理解上述公式,我们画一个计算图。考虑B为真(True)的场景,即要计算这个概率值,根据公式应该是

假设入室盗窃 发生的概率(即P(b) )为0.001,地震 发生的概率(即P(e) )为0.002,那么地震 未发生的概率(即P(¬e) )为0.998;假设入室盗窃和地震 都发生时,警报 响的概率(即P(a|b,e) )为0.95,那么此时警报不 响的概率(即P(¬a|b,e) )为0.05;假设入室盗窃 发生而地震 未发生时,警报 响的概率(即P(a|b,¬e) )为0.94,那么此时警报不 响的概率(即P(¬a|b,¬e) )为0.06;假设警报 响而John 打来电话的概率(即P(j|a) )为0.90;假设警报 响而Mary 打来电话的概率(即P(m|a) )为0.70;假设警报不 响而John 打来电话的概率(即P(j|¬a) )为0.05;假设警报不 响而Mary 打来电话的概率(即P(m|¬a) )为0.01。那么,就得到如下的贝叶斯网络概率图,其中含"+"的圈圈 表示求和节点(即∑) ,而不含"+"的圈圈 表示乘法节点。

需要指出,上图底部两侧 计算是重复的、冗余的 ,可用**动态规划(DP)**计算。本文不作过多讨论。

重点:在贝叶斯网络中进行计算推理的动态编程算法 ,就叫做变量消除(Variable Elimination )

变量消除(VE) 使用名称因子(factor ),因子是一个函数 ,VE通过按顺序消除 所有变量,直到因子只剩下查询变量 (Query Variable )。为了消除一个变量,必须联合 包含该变量的所有因子 ;输出该变量对新的因子的影响之和 ;输出乘积形式的联合分布(Joint distribution)。

变量消除(VE)的例子

还是上面的例子,现在我们求P(J)

上式中消去了E变量,是A和B的函数!

因此**,原式**可改写为

上式中消去了B变量,是A的函数!

因此**,原式**可改写为

上式中消去了M变量,是A的函数!

因此**,原式**可改写为

上式又消去了A变量,是J的函数!

因此**,原式**可改写为

以上展示了变量消除(VE)推理法 是如何工作的**。** 它线性化创建 这些计算的序列,并且不断返回。

变量消除(VE)的特定数值计算

我们回到第五步 的公式

其中是A的函数,我们分别列出真值表,如下

表中数据和DAG中一致。

现在计算真值表,如下

我们可以把上式命名为f1,它的取值为0.63和0.005,即

我们的公式变成了

接下来对给定(E,B)的A条件概率乘以A的f1求和,即考虑

由于是一个必要的假设前提,我们直接给出真值表,如下:

解释如下:地震 发生、盗窃 发生,警报 响的概率是0.95,警报不 响的概率是0.05;地震 发生、盗窃未 发生,警报 响的概率是0.29,警报不 响的概率是0.71;地震未 发生、盗窃 发生,警报 响的概率是0.94,警报不 响的概率是0.06;地震未 发生、盗窃未 发生,警报 响的概率是0.001,警报不响的概率是0.999。

注意是对A求和,消去A变量,因此是E、B的函数,得到:

我们把上式叫做,就有:

我们的公式变成了,显然E被求和、消去 ,所以它是B的函数!(当然,B只有True和False两个可能值)

现在考虑除去的部分,即

又已知B和E的真值表,如下

表中数据和DAG中一致。

我们得到的真值表如下

我们不妨把叫做,计算后就有

而我们的原公式变成了

现在思考如何把与概率分布更好对应起来,即

可以发现真值表的总和不为1 ,我们要对它进行归一化

归一化常数为0.0019,每个概率值要除以它。我们得到:

这就是我们最终要求的概率。

意思是,如果John和Mary都打电话(Call)给你,那么发生入室盗窃(Burglary)的概率是0.32!

这就是使用变量消除在贝叶斯网络中进行推理的方法。

变量消除(VE)推理法的总结

一. 每个操作只是各个因子的简单乘法,并进行累加

二. 复杂度 取决于最大的因子,比如在本文的例子中是3个变量,而不是5个(因为j,m都已知);复杂度正比于 变量数;和最大因子的消除顺序成指数相关 ;最优消除顺序的求解是N-hard 问题;可以用启发式 的方法求解,以及用特殊数据结构(如polytree

三. 没有魔法

polytree 的相关资料**:**

https://en.wikipedia.org/wiki/Polytree

相关推荐
禁默1 分钟前
第六届机器人、智能控制与人工智能国际学术会议(RICAI 2024)
人工智能·机器人·智能控制
Robot2519 分钟前
浅谈,华为切入具身智能赛道
人工智能
只怕自己不够好13 分钟前
OpenCV 图像运算全解析:加法、位运算(与、异或)在图像处理中的奇妙应用
图像处理·人工智能·opencv
CV学术叫叫兽29 分钟前
一站式学习:害虫识别与分类图像分割
学习·分类·数据挖掘
果冻人工智能1 小时前
2025 年将颠覆商业的 8 大 AI 应用场景
人工智能·ai员工
代码不行的搬运工1 小时前
神经网络12-Time-Series Transformer (TST)模型
人工智能·神经网络·transformer
石小石Orz1 小时前
Three.js + AI:AI 算法生成 3D 萤火虫飞舞效果~
javascript·人工智能·算法
罗小罗同学1 小时前
医工交叉入门书籍分享:Transformer模型在机器学习领域的应用|个人观点·24-11-22
深度学习·机器学习·transformer
孤独且没人爱的纸鹤2 小时前
【深度学习】:从人工神经网络的基础原理到循环神经网络的先进技术,跨越智能算法的关键发展阶段及其未来趋势,探索技术进步与应用挑战
人工智能·python·深度学习·机器学习·ai
阿_旭2 小时前
TensorFlow构建CNN卷积神经网络模型的基本步骤:数据处理、模型构建、模型训练
人工智能·深度学习·cnn·tensorflow