目录
[(1)例子 A](#(1)例子 A)
[(2)例子 B](#(2)例子 B)
1.概念
首先我们需要明确,两种不同的模型都用于监督学习任务中。监督学习的任务就是从数据中学习一个模型,并用基于这个模型对给定的输入预测相应的输出。这种模型的一般形式为决策函数或者条件概率分布 。
我们先用一张图来初步感受一下,等看完文章后再回来看一遍会更直观:
2.定义
生成式模型 先对数据的联合分布进行建模,然后再通过贝叶斯公式计算样本属于各类别的后验概率 。
判别式模型 直接进行条件概率建模,由数据直接学习决策函数 或条件概率分布作为预测的模型。判别方法不关心背后的数据分布,关心的是对于给定的输入,应该预测什么样的输出。
用一句话总结就是生成模型估计的是联合概率分布 ,判别式模型估计的是条件概率分布。
3.举例
可能经过上面的表述仍然不能够直观的理解两个模型的差异,我这里举两个例子:
(1)例子 A
两种模型来如何确定一只羊是山羊还是绵羊?
生成式模型 :首先根据山羊的数据和绵羊的数据分别学习出山羊的特征 和绵羊的特征 ,然后从待识别的羊中提取特征 x,将这些特征分别放到山羊模型和绵羊模型中并得到条件概率 和 ,如果 > ,那么我就认为这只羊属于山羊,否则为绵羊。
判别式模型 :直接从山羊和绵羊的数据中提取特征 x 并学习得到模型,然后从待识别的羊中提取特征 x,然后带入到模型中以判断这只羊是绵羊和山羊概率(比如 LR 中,结果大于 0.5 为正例,小于 0.5 为反例)。
我们可以看到,生成式模型强调数据本身特点,判别式模型强调数据边界。在分类的过程中,生成式模型对每个结果都要亲自试一试,遍历完一遍后取概率最大的结果;而判别式模型直接通过模型得到结果。
(2)例子 B
维基百科中有这样的一个例子:
对于给定数据集 。
生成式模型 :
y=0 | y=1 | |
---|---|---|
x=1 | 1/6 | 2/6 |
x=2 | 2/6 | 1/6 |
如果现在有一个x=2 ,那我们可以得到:
所以我们把 x=2 判别为类别 0。
判别式模型 :
y=0 | y=1 | |
---|---|---|
x=1 | 1/3 | 2/3 |
x=2 | 2/3 | 1/3 |
对于给定的 x=2,我们直接可以得到 和 的值。
4.特点
生成式模型 的特点在于,其可以从统计的角度表示数据的分布情况,能反映同类数据本身的相似度,不关心各类的边界在哪;
而判别式模型 直接学习的是条件概率分布,所以其不能反映训练数据本身的特性,其目的在于寻找不同类别之间的最优分界面,反映异类数据之间的差异。
由生成模型可以得到判别模型,但由判别模型得不到生成模型。
当存在隐变量(当我们找不到引起某一现象的原因的时候,我们就把这个在起作用但是无法确定的因素,叫"隐变量") 时,仍可以利用生成方法学习,此时判别方法不能用。因为生成式模型同时对 x 和 y 建立概率模型,所以如果 x 中有出现没有观察到的量或者只有部分 y 的时候,就可以很自然地使用 EM 算法 来进行处理。极端情况下,在完全没有 y 信息的情况下,GM 仍然是可以工作的------无监督学习可以看成是 GM 的一种。
5.优缺点
生成式模型
优点
由于统计了数据的分布情况,所以其实际带的信息要比判别模型丰富,对于研究单类问题来说也比判别模型灵活性强;
模型可以通过增量学习得到(增量学习是指一个学习系统能不断地从新样本中学习新的知识,并能保存大部分以前已经学习到的知识。);
收敛速度更快,当样本容量增加的时,生成模型可以更快的收敛于真实模型;
隐变量存在时,也可以使用。
缺点学习和计算过程比较复杂,由于学习了更多的样本信息,所以计算量大,如果我们只是做分类,就浪费了这部分的计算量;
准确率较差;
往往需要对特征进行假设,比如朴素贝叶斯中需要假设特征间独立同分布,所以如果所选特征不满足这个条件,将极大影响生成式模型的性能。
判别式模型
优点
由于关注的是数据的边界,所以能清晰的分辨出多类或某一类与其他类之间的差异,所以准确率相对较高;
计算量较小,需要的样本数量也较小;
缺点不能反映训练数据本身的特性;
收敛速度较慢。
6.代表算法
生成式模型:朴素贝叶斯、贝叶斯网络、隐马尔可夫模型、隐马尔可夫模型;
判别式模型:k 近邻法、决策树、逻辑斯谛回归模型、最大熵模型、支持向量机、条件随机场。
参考
https://www.zhihu.com/question/20446337
http://freemind.pluskid.org/machine-learning/discriminative-modeling-vs-generative-modeling/