自然语言处理系列三十九》条件随机场CRF算法原理

注:此文章内容均节选自充电了么创始人,CEO兼CTO陈敬雷老师的新书 《自然语言处理原理与实战》(人工智能科学与技术丛书)【陈敬雷编著】【清华大学出版社】

文章目录

自然语言处理系列三十九

条件随机场(CRF)算法原理

条件随机场(CRF)前面的章节分词、词性标注等已经提到过,这里再给大家详细讲解一下。条件随机场是Conditional Random Fields的缩写,即条件随机域,是Lafferty于2001年,在最大熵模型和隐马尔科夫模型的基础上,提出的一种判别式概率无向图学习模型,是一种用于标注和切分有序数据的条件概率模型,近年来在分词、词性标注和命名实体识别等序列标注任务中取得了很好的效果。也就是说要理解条件随机场需要先了解马尔可夫链、隐马尔可夫模型(HMM)的一些基本概念。

10.1 算法原理[18]

下面我们从马尔可夫链开始逐步过渡到条件随机场(CRF)的方式给大家讲解。

  1. 马尔可夫链
    比如:一个人想从A出发到达目的地F,然后中间必须依次路过B,C, D, E,于是就有这样一个状态:
    若想到达B,则必须经过A;
    若想到达C,则必须经过A, B;
    以此类推,最终
    若想到达F,则必须经过A,B,C,D,E。
    如果把上面的状态写成一个序列的话,那就是:{到达A, 到达B, 到达c, ..., 到达F},而且很明显,状态序列的每个状态值取决于前面的状态是否已经满足。
    于是,像这样,"状态序列的每个状态值取决于前面有限个状态"的状态序列就是马尔可夫链。
    这个名字中的"链"字用的还是很形象的,因为你可以这样理解,一条"串联在一起的灯泡"是个链子吧,那若想点亮最后一个灯泡(距离插头最远的灯泡),你必须让电流从插头起依次经过所有的灯泡。
    于是,如果把上面那个状态序列{到达A, 到达B, 到达c, ..., 到达F}中的每个状态当做灯泡的话,那这个序列就是一条"把灯泡串联在一起的链子",如图10.1所示。

图10.1 状态序列(图片来源于CSDN)

但注意:马尔可夫链的定义是"状态序列的每个状态值取决于前面有限个状态",注意是"有限个状态",不是"全部状态"。因此,对于马尔可夫链,其包含"想到达目的地F,则只需要到达目的地E就可以了,而前面的目的地A, B, C, D则到不到达都无所谓"这样的情况。

再注意:这里是为了便于理解而举了个"串联"的例子,真实的马尔可夫链是包含"并行"的情况,因为其定义是"状态序列的每个状态值取决于前面有限个状态",这就包括"一个人想到达目的地C,那就得先从A处开车并在B处买早餐"这样的情况,这样一来,先到A还是先到B就无所谓了(无论是先去麦当劳买早餐再去开车,还是先开车然后在去麦当劳买早餐都行),只要A和B同时满足就好,如图10.2所示。

图10.2 马尔可夫链状态串联(图片来源于CSDN)

总之,马尔科夫链中的各个元素既可以是一对一,也可以是一对多,当然也可以是多对一或多对多,如图10.3所示。

图10.3 马尔可夫链各元素关系(图片来源于CSDN)

  1. 隐马尔可夫模型(HMM)

这里仅简单说明下HMM:

还用上面一个人从A到F的例子。

但这里需要把条件和内容改一改:

条件更改:

此人想今天逛完A, B,C, D, E, F这几处,但是他想先逛哪个后逛哪个我们不知道。

内容添加:

此人每到达一处,他就会买一个礼物带给你,可这家伙逛的太兴奋了,于是乎带给你的礼物有重复的,因此,最后你会有这样的观测结果:{礼物1,礼物2,礼物1,礼物3,礼物2,礼物2} (于是还是不知道他想先逛哪个后逛哪个)。

结果,我们不知道状态序列(我们不知道他逛的顺序),但是知道观测序列,且每个观测一定是一个状态生成的(礼物一定是他到地方才能买)。

因此这个例子就是在描述:一个不知道状态序列(即马尔科夫链),却知道根据各个状态生成的一个观测随机序列的过程,而这个过程就是隐马尔可夫模型。

用数学定义说明的话就是:

隐马尔可夫模型描述由一个隐藏的马尔可夫链随机生成的不可观测的状态序列,再由各个状态生成一个观测而产生观测随机序列的过程。

OK,HMM的定义说完了,然后我们看看HMM的局限性。

HMM的局限性

1,该模型定义的是联合概率,必须列举所有观察序列的可能值,而这对多数领域来说是比较困难的。

2,基于观察序列中的每个元素都相互条件独立。即:在任何时刻观察值仅仅与状态序列中的一个状态有关。而大多数现实世界中的真是观察序列是有多个相互作用的特征和观察序列中较长范围内的元素之间的依赖而形成的。

PS:条件随机场就解决了第二个局限性。

3.产生式模型和判别式模型

如果你已经了解HMM的话就会知道:HMM中需要计算的概率是"观测序列(输入)和状态序列(输出)的联合概率",即P(状态序列, 观测序列),即状态序列和观测序列同时发生的概率。

于是乎对于输入x(或者说观察序列)和输出y(或者说标记序列):

构建它们的联合概率分布P(y,x)的模型就是产生式模型,该模型可以根据联合概率生成样本,如:HMM, BNs, MRF。

PS:HMM是隐马尔可夫模型。

构建它们的条件概率分布P(y | x)的模型就是判别式模型,因为没有y的知识,所以无法生成样本,只能判断分类,如:CRF, SVM, MEMM。

PS:CRF就是这里要讲的条件随机场。

产生式模型:无穷样本--> 概率密度模型=产生模型--> 预测

判别式模型:有限样本--> 判别函数=预测模型--> 预测

例子

对四个元素:(1, 0),(1, 0), (2, 0), (2, 1)

产生式模型:求 P(x, y)

因为上面四个元素中(1,0)有两个,所以 P(1, 0) = 2/4 = 1/2

同理:p(1, 1) =0, p(2, 0) = 1/4, p(2, 1) = 1/4.

判别式模型:求P(y|x)

因为对上面四个元素,若x=1,那一定有y=0,所以 P(0|1) =1

同理:p(1|1) =0, p(0|2) = 1/2, p(1|2) = 1/2.

比较

产生式模型:从统计的角度表示数据的分布情况,能够反映同类数据本身的相似度,不关心判别边界。

优点:

实际上带的信息比判别模型丰富,研究单类问题比判别模型灵活性强

能更充分的利用先验知识

模型可以通过增量学习得到

缺点:

学习过程比较复杂

在目标分类问题中易产生较大的错误率

判别式模型:寻找不同类别之间的最优分类面,反映的是异类数据之间的差异。

优点:

分类边界更灵活,比使用纯概率方法或生产模型得到的更高级。

能清晰的分辨出多类或某一类与其他类之间的差异特征

在聚类、viewpointchanges、parital occlusion and scale variations 中的效果较好

适用于较多类别的识别

缺点:

不能反映训练数据本身的特征

能力有限,可以告诉你是1还是2,但没有办法把整个场景描述出来

二者关系:

由产生式模型可以得到判别模型,反之不能。

  1. 条件随机场(CRF)

好了,终于到CRF了,那什么是CRF呢?

这里再举个例子:

假设你基(姬)友给了你ta一天生活的照片(这些照片是排好序的),然后让你给这些照片打上标签(Tag),比如:这张在吃饭,这张在睡觉,这张在唱歌,那么你该怎么做呢?

如果用HMM的思想,那就是:

我手上已经有了观测集合(一天的照片),然后让我求该观测集合对应的状态集合(打Tag)。OK,我开始打Tag了,嗯...这张照片黑乎乎的,那可能在睡觉;这张照片七彩斑斓的,是在KVM吧,那是在唱歌;这张...这张张着大嘴的特写是什么鬼?在吃饭?在唱歌?嗯...看不懂。问问ta好了,(转头),诶?ta人呢?我特!!算了,胡乱给一个!在狼嚎(唱歌)!嗯,就这么愉快的决定了。

于是乎像上面这个例子描述的这样,虽然HMM最终会给出一个结论,但因为HMM的"基于观察序列中的每个元素都相互条件独立"的缺陷,导致其在给某个观测"配对"状态时会毫无根据。

不过我们是人,我们才不会傻乎乎的胡乱猜,那在这样的情况下我们怎么做?答案大家都知道:我们会看看前一张图片是什么,如果前一张图片是在KVM,那这张就很有可能在唱歌;如果前一张是在厨房,那这一张就很有可能在张嘴吃饭。

根据这个例子,我们可以看出,在给某个输出(观测/特征)找其输入(产生"观测/特征"的状态)时,不能不考虑上下文(紧挨着该特征的特征),否则准确性会大大降低。

而这种"HMM强化版的思想"就是CRF了。

好了,下面让我们对比着HMM一步步的理清CRF。

CRF与HMM

首先,我们先把上面的例子简单切换一下:"照片"切换成"单词","照片的Tag"切换成"词性标签"(如:名词、动词、形容词等),"给照片打Tag"切换成"词性标注"(即:这个词是名词?动词?还是什么)

而上面在介绍"产生式模型和判别式模型"时说明了CRF属于判别式模型,而这里再详细些,即CRF的本质是:"隐含变量(这里磁性标签是隐含变量)的马尔科夫链" + "可观测状态到隐含变量"的条件概率。

好了,下面开始。

PS:后面的"词性标签"和"词语"分别对应"隐含变量,即输入"和"观测状态,即输出"。

先说马尔科夫链部分:

假设CRF和HMM的词性标签都满足马尔科夫性,即,当前词性仅和上一个词有概率转移关系而与其他位置的词性无关,比如:形容词后面跟形容词的概率是0.5,跟修饰性"的"的概率为0.5,跟动词的概率为0。

因此,通过在一个标注集上进行统计,就很容易得到一个概率转移矩阵,即任意词性A后紧邻任意词性B的概率都可以被统计出来。

对HMM来说,这部分就结束了。

但对CRF来说,它在二维的条件转移矩阵的基础上又增加了一维词语特征,如:当AB紧邻,A是动词且单词的长度超过3时,B是名词的概率是xx。

在这个小例子中在判断B时仅考虑一个词A,即统计P(B|A),这当然能够得到很多数据的反馈,而如果在判断B时需要考虑多个词呢?如P(B|ASDFGH),那这就可能会遇到数据稀疏的问题,因为序列ASDFGH根本就没有在数据集中出现过。注意数据稀疏对机器学习的影响是巨大的,因此马尔科夫链在CRF这边会以损失一定的全局信息来换取更饱满的数据,实验证明这笔交易在词性标注时是赚的。

再说词性(隐含变量,即输入)和词语(观测状态,即输出)的映射概率:

如果是HMM,那就是统计所有的词性组合,然后计算这所有的词性组合生成该单词组合的概率,然后选一个概率最大的词性组合。

而CRF正好反过来,CRF通过对挖掘词语本身的特征,把词语转换为一个k维特征向量,然后对于每个特征计算特征到词性的条件概率,这样每个词语对候选词性的条件概率即为所有特征条件概率的加和。比如我们假设特征向量只有两个,且P ( "词语长度>3" --> 名词词性)的概率为0.9, P("词语位于句子末尾"--> 名词词性)概率为0.4,且一个词恰好满足这两个特征,则其为名词的条件概率为 (0.9 + 0.4) / 2 = 0.65。这样,CRF根据这个条件转移数值再结合词性的马尔科夫特性,就可以使用与HMM类似的方法寻找最优的词性标注序列了。下一篇文章详细讲解CRF开源工具实战,敬请关注!

总结

此文章有对应的配套新书教材和视频:

【配套新书教材】
《自然语言处理原理与实战》(人工智能科学与技术丛书)【陈敬雷编著】【清华大学出版社】

新书特色:本书从自然语言处理基础开始,逐步深入各种NLP热点前沿技术,使用了Java和Python两门语言精心编排了大量代码实例,契合公司实际工作场景技能,侧重实战。

全书共分为19章,详细讲解中文分词、词性标注、命名实体识别、依存句法分析、语义角色标注、文本相似度算法、语义相似度计算、词频-逆文档频率(TF-IDF)、条件随机场、新词发现与短语提取、搜索引擎Solr Cloud和Elasticsearch、Word2vec词向量模型、文本分类、文本聚类、关键词提取和文本摘要、自然语言模型(Language Model)、分布式深度学习实战等内容,同时配套完整实战项目,例如对话机器人实战、搜索引擎项目实战、推荐算法系统实战。

本书理论联系实践,深入浅出,知识点全面,通过阅读本书,读者不仅可以理解自然语言处理的知识,还能通过实战项目案例更好地将理论融入实际工作中。

【配套视频】
自然语言处理NLP原理与实战 视频教程【陈敬雷】

视频特色:《自然语言处理NLP原理与实战》包含了互联网公司前沿的热门算法的核心原理,以及源码级别的应用操作实战,直接讲解自然语言处理的核心精髓部分,自然语言处理从业者或者转行自然语言处理者必听视频!

上一篇:自然语言处理系列三十八》词频-逆文档频率TF-IDF》Python代码实现
下一篇:自然语言处理系列三十九》条件随机场CRF开源工具实战

相关推荐
IT枫斗者5 分钟前
集合工具类
java·linux·数据库·windows·算法·microsoft
俞兆鹏10 分钟前
AI学习指南深度学习篇-RMSprop的Python实践
ai
Point__Nemo11 分钟前
深度学习Day-33:Semi-Supervised GAN理论与实战
人工智能·深度学习
朱皮皮呀12 分钟前
排序算法-归并排序
数据结构·算法·排序算法·归并排序
MogulNemenis13 分钟前
力扣100题——贪心算法
算法·leetcode·贪心算法
aWty_15 分钟前
机器学习--线性回归
python·算法·机器学习·线性回归
魔力之心15 分钟前
人工智能与机器学习原理精解【20】
人工智能·机器学习
我搞slam29 分钟前
Cartographer源码理解
算法·slam·cartographer
SEU-WYL3 小时前
基于深度学习的因果发现算法
人工智能·深度学习·算法
Rivieres3 小时前
算法入门-贪心1
java·算法·leetcode·推荐算法