《智能的理论》全书转至目录****
不同AGI的研究路线对比简化版:《AGI(具身智能)路线对比》,欢迎各位参与讨论、批评或建议。
一.表情识别(傅小兰,2015;郭德俊,刘海燕和王振宏,2012)
表情具有交流和表达的作用,那么人们是如何识别他人的表情的呢?为了迅速适应环境挑战从而做出快速的适应性反应,表情识别具有快速存取和提取的特点。通常情况下,表情识别是一种自动化的加工,具有高加工优先性。下面将分别就面部表情、姿态表情以及语调表情的识别进行论述。
1.面部表情识别
根据基本情绪理论,那些基本表情是天生而非学习习得的类别,是在进化的过程中形成的。因此对表情的分类是一种全或无的方式。如如果某个表情属于愤怒就不会属于悲伤;而持其他如情绪文化相对论观点的研究者则认为表情的种类是习得的,他们认为像恐惧和愤怒等表情类别的概念就像鸟与家具等概念一样是习得的,并且对于表情类别的定义其边界并不清晰,属于模糊边界(如高兴与正常的表情的分界线是不确定的),表情属于哪一类是根据其和表情原型的相似程度来确定的(原型理论,19-6:范畴理论)。因此对表情的分类只是在程度上进行区别。如如果某个表情属于愤怒的程度更高,而属于悲伤的程度较低,那么该表情被就容易被识别为愤怒。
面部表情识别时利用了哪些面孔知觉特征信息?面部情感计分技术(FAST)是一种与具体情绪相联系的面部运动分类技术,包括六种基本情绪的面部运动(喜、怒、忧、惧、悲、恐)。这六种基本情绪的表情可从面孔的三个部分(额-眉区、眼-睑区、鼻颊-口唇区)予以区分,即每种基本表征在这三个面部区域上不同。
面部活动编码系统(FACS)则依赖于产生表情的很细小的面部肌肉活动,包含了44个面部活动单元(如脸颊鼓起、酒窝、嘴角下压、下嘴唇下压和下巴提起等),这些活动单元单独或是结合起来可对所有面部肌肉运动进行解释。
2.姿态表情识别
识别他人的表情还可以通过他人的身体姿态。面部表情的识别,需要在近距离的面对面的条件下进行,但姿态表情的识别却可以在比较远的距离进行,这拓宽了我们进行情绪交流的范围。在日常生活中,情绪的出现常常涉及身体动作,从进化的角度看,情绪会引起一系列适应环境的身体行为反应。
姿态表情可以由身体的多个部分来表达,其中最重要的是身体躯干姿势。一项研究通过采用计算机产生的多个人体躯干姿态模型图,要求被试把六种基本表情分别对应到躯干姿态模型图上,结果表明身体姿态表情的识别跟语调表情的识别成绩差不多,一些姿态表情的识别成绩接近面部表情的识别成绩。一些姿态表情识别的研究还采用全身运动姿态的光点图,结果发现,人们很容易从这种生物运动模式中识别出表情。
3.语调表情识别
声带以一种准周期的方式振动产生音素(包括元音和辅音),这种振动的基础频率称之为基频,表示为F0。当前对情绪状态的识别主要关注对F0及其相关物理参数的测量。众多的研究发现,愤怒和高兴的语调表情伴随着F0增加,以及声音的波幅更高。这表明愤怒和高兴的语调表情在物理特征上存在很多相似之处。语调表情有一个特殊的地方,即同一种表情的不同子类(比如愤怒包括暴怒和生气等子类别),而这些子类在物理特征上也有极大的不同。