人机交互中的人脸表情识别研究进展

人机交互中的人脸表情识别研究进展
人机交互中的人脸表情识别研究进展

第14卷 第5期2009年5月

中国图象图形学报Journal of I m age and Graphics

Vol .14,No .5

M ay,2009

人机交互中的人脸表情识别研究进展

薛雨丽

毛 峡

郭 叶

吕善伟

(北京航空航天大学电子信息工程学院,北京 100191)

摘 要 随着人机交互与情感计算技术的快速发展,人脸表情识别已成为人们研究的热点。为了阐明人机交互中人脸表情识别的研究方向及进展,该文从人脸表情数据库、表情特征提取、表情分类方法、鲁棒的表情识别、精细的表情识别、混合表情识别、非基本表情识别等方面对人脸表情识别的研究现状进行了分析。最后总结了人脸表情识别研究的热点及趋势,同时指出了人脸表情识别研究存在的局限性,并对人脸表情识别的发展进行了展望。关键词 表情识别 情感表情 人脸表情数据库

中图法分类号:TP39114 文献标识码:A 文章编号:100628961(2009)052764209

The Research Advance of Fac i a l Expressi on Recogn iti on i n Human Co m puter I n teracti on

XUE Yu 2li,MAO Xia,G UO Ye,LV Shan 2wei

(School of Electronic and Infor m ation Engineering,B eihang U niversity,B eijing 100191)

Abstract A l ong with the rap id p r ogress of the technol ogies in hu man computer interacti on and affective computing,facial exp ressi on recogniti on has been actively researched 1T o clarify the research directi on and devel opment of facial exp ressi on recogniti on in hu man computer interacti on,the research states of facial exp ressi on recogniti on are analyzed fr om the as pects of facial exp ressi on database,facial feature extracti on,facial exp ressi on classificati on methods,r obust facial exp ressi on recogniti on,fine 2graded facial exp ressi on recogniti on,m ixed facial exp ressi on recogniti on,and non 2basic facial exp ressi on recogniti on 1Finally,the study hots pots and trends of facial exp ressi on recogniti on are concluded,the li m its in facial exp ressi on recogniti on are pointed out,and the expectati on of the devel opment of facial exp ressi on recogniti on is given 1Keywords facial exp ressi on recogniti on,e moti onal facial exp ressi on,facial exp ressi on database

基金项目:国家自然科学基金项目(60572044);国家高技术研究发展计划(863计划)项目(2006AA01Z135);高等学校博士学科点专项科研基金项目(20070006057)

收稿日期:2008210211;改回日期:2008212212

第一作者简介:薛雨丽(1980~ ),女。北京航空航天大学电子信息工程学院博士研究生。主要研究方向为情感计算、人机交互、图像处理与模式识别。E 2mail:YuL i_Xue@ee .buaa .edu .cn

1 引 言

人们对于人脸表情的研究可以追溯到19世纪,

生物学家Dar win 在《人类和动物的表情》一书中,就对人类的面部表情与动物的面部表情进行了研究和

比较[1]

。心理学家Mehrabian 提出,在人们的交流中,只有7%的信息是通过语言来传递,而通过面部

表情传递的信息量却达到了55%[2]

人机交互模式已从语言命令交互阶段、图像用户界面交互阶段发展到自然和谐的人机交互阶段。同时,由麻省理工学院Picard 教授提出的情感计算(affective computing )[3]领域正蓬勃兴起,其目标是使计算机拥有情感,即能够像人类一样识别和表达情感,使人机交互更加人性化。为了使人机交互更加和谐与自然,新型的人机交互技术正逐渐成为研究热点。

人脸表情识别是人机交互与情感计算研究的重

要组成部分。由于人脸表情包含丰富的行为信息,因此对人脸表情进行识别有利于了解人类的情感等心理状态,并可进行有效的人机交互。人脸表情识别涉及心理学、社会学、人类学、生命科学、认知科学、生物学、病理学、计算机科学等研究领域。可见,人脸表情识别的进展对提高人工情感智能水平和探索人类情感及认知能力极具科学意义,并将促进相关学科的发展。

2 人脸表情识别

随着计算机技术的发展,人脸表情识别技术也逐渐发展起来。20世纪90年代,对人脸表情识别的研究变得非常活跃。国外较为著名的研究机构有麻省理工学院、卡内基梅隆大学、匹兹堡大学、马里兰大学、加利福尼亚大学、代尔夫特理工大学等。国内的研究始于20世纪90年代末,近几年开展研究的单位较多,例如哈尔滨工业大学、中国科学院、清华大学、中国科学技术大学、浙江大学、南京理工大学、东南大学、北方交通大学、北京航空航天大学、北京科技大学、西南交通大学、大连理工大学、天津大学、湖南大学等都对人脸表情识别进行了研究。

本文将从人脸表情数据库、表情特征提取、表情分类方法、鲁棒的表情识别、精细的表情识别、混合表情识别、非基本表情识别等方面对人脸表情识别的研究现状进行分析。

211 人脸表情数据库

由于人脸表情数据库可为人脸表情识别提供必需的人脸表情数据,因此,建立丰富、有效的人脸表情数据库对人脸表情识别技术的发展具有重要意义。

目前的人脸表情数据库大致分为以下两类[4]:一类人脸表情数据库是基于6种基本情感[5](高兴、悲伤、害怕、嫌恶、惊讶和生气),例如,马里兰大学人脸表情数据库[6]包含40个不同种族和文化背景被试者的图像序列。每个图像序列持续大约9秒钟,包含1~3种基本表情。日本女性人脸表情数据库(JAFFE)[7]包含10个日本女性的6种情感表情和中性表情共213个图像。

另一类人脸表情数据库则集中于提取人脸更加细微的表情。这些表情一般采用面部动作编码系统(F ACS)进行编码,其可用44个不同的动作单元来描述表情特征的细微变化。例如卡内基梅隆大学机器人研究所和心理学系共同建立的Cohn2Kanade AU2Coded人脸表情数据库[8]就包含了单一运动单元和复合运动单元共23种表情。现有210个18岁到50岁成年人的脸部表情图像序列。

此外,还有一些人脸数据库包含了部分非基本表情,如Yale人脸数据库[9]包含了困乏、眨眼等常见表情;P I E(pose,illum inati on,and exp ressi on)人脸数据库[10]包含了眨眼等表情;AR人脸数据库[11]包含了尖叫等表情;韩国人脸数据库(KF DB)[12]包含有眨眼表情。

在国内,清华大学的清华人脸表情数据库[13]包含常见的8类情感类表情和中文语音发音的说话类表情。北京航空航天大学毛峡教授等人建立了基于多种情感的北航人脸表情数据库[14],包含有18种单一表情、3种混合表情和4种复杂表情,具有多种在其他人脸数据库中未曾出现的情感表情。中国科学院计算技术研究所的CAS2PE AL人脸数据库[15]包含了7种类别(姿势、表情、饰品、光照、背景、距离和时间)的人脸图像。其中表情子数据集包含中性、微笑、皱眉、惊讶、闭眼和张嘴等6种表情。

212 表情特征提取

表情特征的提取方法分为基于运动与基于形变的两类[16217]。其中运动是指表情发生时面部特征随时间的变化,而形变则是指有表情的脸相对于中性表情脸的差异。

21211 运动特征提取

面部表情图像的运动特征包括特征点运动距离的大小及运动方向,其可以反映人脸的表情及其变化。代表性的方法包括光流法[18]、运动模型[18219]、特征点跟踪方法[20]等。

佐治亚理工学院的Essa和麻省理工学院的Pentland使用光流法进行了运动估计,并使用面部肌肉运动模型描述了面部的运动[18]。

马里兰大学计算机视觉研究室的Yacoob和Davis等人提出了面部的局部参数运动模型[19],同时构建了面部运动的中级描述,并使用启发式规则对6种表情进行了分类。

萨诺夫公司的Zhu等人提出了一种检测28个面部特征点的方法[21],其对各种表情和姿势的变化具有鲁棒性。该方法首先基于眼睛的位置用一个训练的人脸网格来评估面部特征的大致位置;然后,在预估位置的周围搜索精确的面部特征位置。

美国伦斯勒理工学院的Tong等人提出了多状

567

第5期薛雨丽等:人机交互中的人脸表情识别研究进展

态层级方法用来跟踪面部特征点[22]。其中统计形状模型的层级表达,用于表征人脸的全局形状约束和面部组件的局部结构细节;Gabor小波和灰度级轮廓用于表征面部特征点;多状态局部形状模型用于处理面部组件的形状变化。这样通过一个多模跟踪方法即可动态评价面部组件的状态和面部特征点的位置。

21212 形变特征提取

面部特征的形变可以由形状和纹理两方面来描述,又可以分为基于模型的方法和基于图像的方法两类。其中基于模型的方法有活动外观模型(AAM)、点分布模型(P DM)等;基于图像的方法有Gabor变换、主成分分析(PCA)等。

英国曼彻斯特大学的Cristinacce等人提出一种特征响应成对增强算法(PRFR)和AAM相结合的方法[23],用以检测面部眼眶、鼻尖及嘴角等局部区域的特征点及边缘的一些特征。Tang等人使用AAM来提取特征点,并结合局部形状特征识别表情[24]。

法国格勒诺布尔国立理工学院Ha mmal等人先通过转移可信度模型(T BM)提取基本情感表情的轮廓信息,然后由基于规则的决策系统对距离系数进行分类[25]。

美国加利福尼亚大学的Yu等人提出了一种基于规划的遗传方法[26],该方法使用Gabor小波表征原始特征,并使用线性和非线性的算子合成新的特征,再由支持向量机对表情进行分类。

香港科技大学的L iao等人提出了基于两组特征的表情识别方法[27]。其中一组特征采用了强度和梯度图的局部二元模式特征和Gabor滤波器的Tsallis能量;另一组特征通过对训练图像的线性判别分析(LDA)来获得。

希腊亚历士多德大学的Kotsia等人通过提取表情的纹理和形状信息,并采用神经网络进行融合来对基本表情和表情动作单元进行识别[28]。

213 表情分类方法

目前用于表情分类的方法可以分为时空域方法和空域方法两类。其中时空域方法包括隐马尔可夫模型方法、回归神经网络方法、空时运动能量模板方法等;空域方法包括神经网络方法、支持向量机方法、Ada Boost方法、基于规则推理的方法、主成分分析、独立分量分析、Fisher线性判别分析等。近年来,隐马尔可夫模型、人工神经网络、支持向量机和Adaboost算法等成为主流的表情识别方法。

隐马尔可夫模型(HMM)是一种用于描述随机过程信号统计特性的概率模型。中科院自动化研究所的Zhou等人提出一种基于Adaboost的嵌入式隐马尔可夫模型[29],实现了面部表情的实时识别。加拿大滑铁卢大学的M iners等人利用模糊隐马尔可夫模型进行了动态的面部表情识别[30],并在人机交互中取得了很好的识别效果。

人工神经网络(ANN)是对人脑神经系统的模拟,具有较强的自学习、自组织、联想及容错能力。美国卡内基梅隆大学的Tian等人提出一个基于Gabor小波特征和F ACS系统的自动面部活动分析系统[31],该系统采用神经网络作为分类器,识别率可达90%。伊朗大不里士大学的Seyedarabi等人先从正面图像序列抽取面部特征点,然后通过光流自动跟踪这些特征点,最后使用RBF神经网络和模糊推理系统对特征向量进行分类[32]。加拿大肯考迪亚大学的Ma等人先对人脸图像进行2维离散余弦变换(DCT),然后使用前馈神经网络作为分类器对表情进行分类[33]。土耳其东地中海大学的Soyel等人将3维面部特征点的距离矢量通过神经网络识别7种基本情感,获得了9113%的平均识别率[34]。

支持向量机(S VM)作为一种模式识别方法,具有出色的学习性能和结构风险最小化的优点,其能够解决小样本情况下的学习问题。美国加利福尼亚大学的L ittle wort等人提出了基于Gabor滤波的S VM分类器[35],用于从连续的视频序列中识别表情。东南大学的Xu等人提出了一种层级结构的支持向量机树[36],用于进行表情识别,获得了比其他方法更高的识别精确性和鲁棒性。

Adaboost算法作为一种健壮、快速的检测算法,已成为对象检测领域的研究热点。清华大学的W ang等人使用基于boosting Haar特征的l ook2up2 table类型的弱分类器来提取面部表情,自动的识别出7种表情[37]。韩国科学技术院的Jung等人提出一种新型的矩形特征[38],并使用Adaboost算法从所有可能矩形中选择矩形特征,取得了比使用Haar矩形特征更好的识别效果。但Ada Boost方法在小样本情况下的性能并不好[39]。

214 鲁棒的表情识别

与受控环境下的人脸表情识别相比,鲁棒表情识别的研究相对较少。近些年,由于鲁棒人脸检测和鲁棒人脸识别的快速发展,逐渐有一些解决光照、

667中国图象图形学报 第14卷

头部运动、噪声和局部遮挡情况的鲁棒表情识别的研究成果。

施乐帕罗奥多研究中心的B lack等人、美国斯坦福大学的Gokturk等人研究了与视角无关的表情识别[6,40],使其对头部运动具有鲁棒性。例如, Gokturk等人提出了一种鲁棒的与观察角度无关的表情识别方法[40]。该系统使用一个3维的基于模型的跟踪器,同时鲁棒地提取每一帧中人脸的姿势和外形。

日本工学院大学的Ebine等人、日本佳能研究中心的Matsugu等人研究了与人无关的鲁棒表情识别[41242]。例如,Matsugu等人描述了一个基于规则的算法[42],用来识别人脸表情,解决了表情识别中与人无关、平移、旋转和尺度变换等问题。实验结果表明,对10余人的5600个静态图像的微笑表情的识别率达到了9716%。

英国伦敦大学的Shan等人研究了对图像分辨率具有鲁棒性的表情识别[43]。他们引入了一种低计算量的判别特征空间,在不同精度的图像上实现了鲁棒的表情识别。

更多的研究者则针对面部遮挡或噪声提出了一些表情识别方法。一些研究者使用局部特征进行鲁棒的表情识别。英国斯塔福德郡大学的Bourel等人提出了表情特征的局部表征[44],并对分类器输出进行数据融合,用来对存在面部遮挡的视频序列进行表情识别。后来,他们又提出了基于局部空间几何面部模型和基于状态的面部运动模型的表情表示方法[45],用于从视频序列鲁棒识别人脸表情。实验显示,其在面部有局部遮挡和特征有不同水平的噪音的情况下,表情的识别率有较少的下降。美国卡内基梅隆大学的Gr oss等人使用鲁棒主成分分析(RPCA)训练具有遮挡的人脸图像来得到活动外观模型(AAM)的人脸图像灰度变化模型,并提出了具有鲁棒性的活动外观模型方法[46],其对于有遮挡情况下的人脸跟踪取得了很好的识别效果。

一些研究者也使用整体特征进行鲁棒表情识别。希腊亚历士多德大学的Buciu等人提出了基于Gabor小波的特征提取和两种分类器(最大相关分类器和余弦相似度度量)[47],获得了对局部遮挡(如眼部遮挡和嘴部遮挡)鲁棒的表情识别。英国伦敦大学学院的T owner等人基于主成分分析提出了3种方法[48],用来对不完整的人脸表情进行重构,并取得了较好的表情识别效果。清华大学的刘晓 使用模板匹配的方法检测块状区域内的遮挡情况[49],对于遮挡部分的局部特征进行了丢弃。但其使用平均脸来进行模板匹配,在人脸结构差异较大的情况下,并不能获得好的识别效果。

基于对局部遮挡的鲁棒性观点,与考虑整个人脸的模型相比,采用局部面部信息的人脸模型具有较多优点。虽然基于局部特征点和局部几何表征的人脸模型对局部遮挡具有鲁棒性,但由于基于局部信息的方法会造成一些模型参数的丢失,因此分类器必须能够处理部分输入数据,并能进行重新训练。

以上研究虽提出了各种方法用来提取特征,以获得对面部遮挡的鲁棒性,但由于没有去除这些遮挡,因此难以避免引入错误。

215 精细的表情识别

对于面部表情的变化,存在以下两种表情分类的方法:一种是基于消息评价的方法,即把面部表情直接与情感状态相对应,如Ek man提出的6种基本表情[5];另一种是基于符号表达的方法,即先把面部的各种运动和形变进行细致的编码,再根据表情字典将编码与某种表情对应,或用于描述各种表情。如Ek man和Friesen提出的面部动作编码系统[5]。相对于基本表情的识别,对表情单元的识别实现了精细的表情识别。

21511 对表情单元的识别

研究者们通常使用局部特征分析和光流法等运动分析技术来对表情单元进行识别。

卡内基梅隆大学的L ien通过区别表情单元(运动单元或混合运动单元)来理解面部肌肉的独立机制[50]。它考虑了3个上面部表情单元和6个下面部表情单元,并对其进行自动识别和强度测量。这些表情是经常出现的表情,并存在细微差别。

匹兹堡大学的Cohn和卡内基梅隆大学的Kanade等人使用光流法来识别面部表情的细微变化[51]。他们通过评价光流的分级算法来自动跟踪选取的面部特征,并对眉毛和嘴巴区域的动作单元和混合动作单元进行识别。

加利福尼亚大学的Donat o等人采用光流法、主成分分析、独立成分分析、局部特征分析、线性判别分析、Gabor小波和局部主成分等方法对12个面部单元进行了识别[52],并对这些方法的识别效果进行了比较。

荷兰代尔夫特工业大学的Pantic等人建立了一个集成了各种方法的表情识别专家系统[53],该系统

767

第5期薛雨丽等:人机交互中的人脸表情识别研究进展

可以识别正面和侧面两个视角的16个动作单元和6种基本表情。

美国卡内基梅隆大学机器人研究所的Tian 和

Kanade 等人开发了自动人脸分析系统[54]

,先基于永久性和暂时性的面部特征分析面部表情,然后将面部表情的细微变化识别为面部动作单元,并分为中性表情、6个上部动作单元和10个下部动作单元。

麻省理工学院媒体实验室的Kapoor 等人提出

了一种全自动的面部动作单元分析系统[55]

,该系统先使用红外相机检测瞳孔,然后通过主成分分析提取参数,并用支持向量机来识别上部面部动作单元及其混合动作单元。

微表情是指持续时间不超过1/4s 的简短表情。微表情经常不自觉地发生,可以表现非故意表达的情感,但大多数人不能够感知自己或他人的微表情。在D i ogenes 研究项目中,心理学家Ekman 发现,微表情可以用于测谎。对于微表情的自动识别难度很大,目前还未有研究涉及。21512 对表情强度的识别

对人脸表情强度的识别有助于计算机理解人的情绪及其变化。由于不同个体表达同一种表情存在变化速度、幅度和持续时间上的差别,而且对面部表情强度的感知还依赖于如性别、文化背景和交流语

境等诸多因素[56257]

,因此具有较大难度。

表情单元的强度可以从微量(trace )变化到最

大(maxi m u m )

[58]

(如图1所示)。微量指面部的运动刚刚能被注意到;轻微(slight )指外观上有一个或更多的变化可以被观察到;显著(marked /p r onounced )可以由一系列与指定动作单元相关的准则确定,以区别于轻微;极度(severe /extre me )由类似于显著与轻微间的差别确定;最大(maxi m u m )指具有最大的外观变化

图1 强度评价的等级

Fig 11 Degrees of I ntensity Evaluati on

日本东京理科大学的Kobayashi 等人通过神经

网络对面部各器官的形变与表情强度之间的关系构

建强度模型[59]

,将“弱”和“强”的面部特征点位置输入神经网络,由一个输出神经单元给出6种基本

表情的强度值,取得了较高的识别率。

日本图像信息科技实验室的Ki m ura 和大阪大学的Yachida 先利用弹性网格模型提取面部表情形变信息,然后通过K 2L 变换将面部的多元运动向量投影到低维空间,再由投影向量的大小估计表情强

度的大小,用于对每种表情构建一个强度模型[60]

美国匹兹堡大学电子工程系的L ien 等人基于F ACS 系统进行面部特征提取与强度估计

[61]

,即先

通过特征点跟踪、密度流跟踪、主成分分析、时空域高梯度成分分析等方法提取表情变化信息,然后将图像序列投影在特征空间用于估计表情的类型和强度。

日本大阪大学的W ang 等人先通过B 样条曲线构造表情变化模型来表征面部特征运动与表情变化的关系,然后用匹配图标记的方法跟踪面部特征点的运动,并依据面部特征点的位移轨迹来估计高兴、

惊讶和生气表情序列的表情强度[62]

日本京都大学的Yang 等人建立的实时表情识别系统[63]

是先将面部运动单元分为上部、中部和下部,然后计算不同特征点的距离变化,并由模糊规则推理人脸各部分的6种基本情感强度。

香港中文大学的Lee 等人先通过提取表情变化特征,从面部运动轨迹中抽取表情强度值[64]

;然后分别使用层叠神经网络和支持向量机通过建立表情强度模型来对表情强度值进行预测。其开发的视觉系统可以估计高兴、生气和悲伤等情感的表情强度。

湖南大学的李燕先采用等容特征映射进行表情特征降维,然后从高维的面部特征点运动轨迹中抽

取出表示表情强度的1维流形[65]

,并将支持向量机用于表情强度等级的度量。该论文对特定个体的高兴表情进行了强度度量,但没有对其他情感表情进行强度度量。

表情强度的度量涉及到细微的面部运动,要求面部特征提取具有较高的准确性和鲁棒性,这使得人机交互中对表情强度进行识别的难度较大。216 混合表情识别

混合表情是由多种情绪引起的复杂表情。某一混合表情并不等同于几种基本表情的简单叠加。与基本表情识别相比,混合表情识别对特征提取及识别方法的要求更高,识别难度更大。目前,对混合表情的研究较少,研究者主要采用模糊理论及较为成熟的模式识别方法对混合表情进行识别。

日本东京理科大学的Kobayashi 等人将混合表

8

67中国图象图形学报 第14卷

情图像的面部特征点位置输入到神经网络进行训练,对测试混合表情的识别率达到了70%[66]。对于混合表情的选择标准是,当一种情感表情的强度变弱时,还能够感知到另一种情感表情。神经网络的输出有6个神经元,每个神经元对应一种情感,与获得的最大值神经元对应的情感即为识别结果。但该系统将表情识别结果归为单一情感,这明显不符合人们对混合表情的感觉。

日本国际模糊工程研究实验室Ralescu等人首先利用模糊逻辑对表情图像进行语言建模[67],然后采用了基于模糊逻辑的定性建模对6种表情进行识别,并且对两种混合表情“悲伤且微笑表情”和“微笑且悲伤表情”进行识别。在表情建模中,由于同一表情图像可能被识别为几种表情,并有对应的强度,所以要采用几种表情来定义每一表情图像。

哈尔滨工业大学的金辉和中国科学院的高文提出了一种人脸面部混合表情识别系统[68],首先把脸部分成各个表情特征区域,分别提取其运动特征,并按时序组成特征序列;然后通过分析不同特征区域所包含的不同表情信息的含义和表情的含量;最后通过概率融合来理解、识别任意时序长度的、复杂的混合表情图像序列。其各种表情的总体识别率达到9619%。但该系统识别的仍旧是7种基本表情,不能满足人机交互中对混合表情识别的需要。

北京大学的武宇文考虑了基于脸部形状和结构特征的表情模糊性描述,并分析了基于脸部2维形状和结构特征描述表情模糊性的合理性和不足之处[69]。

天津大学的左坤隆采用AAM提取表情特征,并用人工神经网络方法对提取的特征进行混合表情的分类,取得了稍优于Gabor小波方法的识别结果[70]。

北京科技大学的Zhao等人提出了一种基于模糊核分类和支持向量机的面部复杂表情识别方法[71]。

由于人类的情感和表情具有模糊性,因此对混合表情识别进行研究对人机交互中的模糊情感识别具有积极的促进意义。

217 非基本表情识别

虽然大多数人脸表情识别集中于情感表情和表情单元的识别,但在人机交互中,还需要从人脸表情中识别其他的一些状态,如疼痛、疲劳等。这些非基本表情的识别在许多人机交互中具有很好的应用前景。

相对于基本情感表情和表情单元识别而言,非基本表情识别起步较晚。英国剑桥大学的El Kali ouby等人提出了一个能够推理复杂精神状态的系统[72],该系统能够从表情和头部姿势视频中实时识别同意、不同意、精神集中、感兴趣、思考、不确定等精神状态。北京航空航天大学的薛雨丽、毛峡等人基于Ada Boost方法对包括打哈欠、好奇等9种表情进行了识别[14]。美国加利福尼亚大学的L ittle wort等人提出一个对自发的疼痛表情进行识别的系统[73]。美国卡内基梅隆大学的A shraf等人利用活动外观模型来识别疼痛表情[74]。印度的Saradadevi等人通过对嘴巴的跟踪和对打哈欠的识别来检测驾驶员的疲劳状态[75]。但是,大多数研究仍局限于对设定表情的识别,缺乏鲁棒性。例如,当对疲劳进行检测时,则可能会受到情感表情的干扰。

3 结 语

从表情识别的研究现状看,有以下几个热点及趋势:(1)提高表情识别的效率和速率,不断有新的表情识别方法和改进方案被提出;(2)解放以往需要人工辅助的工作,以实现表情识别的自动化;

(3)从对静态图像转向动态视频表情序列的研究,以充分利用表情的时空信息;(4)随着3维人脸模型在人脸识别中的成功应用,表情识别研究也从2维向3维空间发展;(5)从对基本表情的识别逐渐转向更为复杂的精细表情、混合表情及非基本表情的识别;(6)与人脸跟踪、识别及合成等技术相结合来构建各种实时的表情识别系统。

然而目前开展的人脸表情识别研究仍存在以下几大局限:(1)多数研究仍停留在高兴、悲伤、惊讶、愤怒、嫌恶、害怕等基本表情识别的研究上,但基本表情并不能涵盖人类的主要表情,为了提高人工情感的表达能力,就需要识别更多的表情(如细微表情、混合表情、非基本表情);(2)缺乏对表情识别鲁棒性的研究,由于光照、姿势、遮挡等对面部表情识别有较大影响,并且表情模式也因人而异,因此这些因素都影响到表情识别的实用化。为了提高表情识别的鲁棒性,则需要借鉴人脸识别中成功的经验进行攻关;(3)人脸表情数据的不足。就目前的人脸表情数据库而言,一方面,多数数据库仍为静态灰度图像,不能满足彩色视频分析系统的需要;另一方

967

第5期薛雨丽等:人机交互中的人脸表情识别研究进展

面,真实表情难以获得、表情的种类较少、对表情的标定还存在难度,这些都使得少数的表情数据库差强人意。表情数据的匮乏已成为表情识别的瓶颈问题,因此进一步的研究迫切需要更接近生活的基于自然情感的彩色视频表情数据库。

基于以上的分析,本文认为在人脸表情识别领域,尽管基础研究较为丰富,在某些方面已取得可喜的成绩,但与人类的表情识别及情感能力相比,仍有很大差距,主要表现在对精细表情的识别及情感理解能力不足、表情识别的鲁棒性差等。现今,人脸识别系统已经推向商业应用,而表情识别系统仍难以满足实际需要。未来的人机交互中,情感将是不可忽视的因素,而表情又是情感交流的门户,表情识别必将在情感化人机交互中占有重要地位。所以,在当今科学高度发展、智能识别技术日益进步的条件下,需要以勇气与智慧来挑战表情识别的难点问题,并进行创新性研究,以便早日使机器接近人类的情感智能水平。

参考文献(References)

1 Dar win C1The Ex p ressi on of the E moti ons in Ani m als and Man[M].

London,UK:John Murray,18721

2 Mehrabian A1Communicati on without words[J]1Psychol ogy Today, 1968,2(4):532561

3 Picard R W1Affective Computing[M]1Cambridge,MA,US A: M I T Press,19971

4 Gr oss R1Face databases[A]1I n:L i S,Jain A,eds.Handbook of Face Recogniti on[M]1Ne w York:Sp ringer,20051

5 Ekman P,Friesen W1Constants acr oss cultures in the face and

e moti on[J]1Journal o

f Pers onality and Social Psychol ogy,1971,

17(2):12421291

6 B lack M J,Yacoob Y1Recognizing facial exp ressi ons in i m age sequences using l ocal para meterized models of i m age moti on[J]1

I nternati onal Journal of Computer V isi on,1997,25(1):232481

7 LyonsM,Aka matsu S,Ka machi M,et al1Coding facial exp ressi ons with Gabor wavelets[A]1I n:Pr oceedings of the Third I EEE

I nternati onal Conference on Aut omatic Face and Gesture Recogniti on

[C],Nara,Japan,1998:20022051

8 Kanade T,Cohn J,Tian YL1Co mprehensive database f or facial ex pressi on analysis[A]1I n:Pr oceedings of the4th I EEE I nternati onal Conference on Aut omatic Face and Gesture Recogniti on[C], Grenoble,France,2000:462531

9 B elhumeur P N,Hes panha J P,Krieg man D J1E igenfaces:vs1 fisherfaces:recogniti on using class s pecific linear p r ojecti on[J]1

I EEE Transacti ons on Pattern Analysis and Machine I ntelligence,

1997,19(7):71127201

10 Si m T,B aker S,B sat M1The C MU pose,illum ination,and

exp ressi on(P I E)database[A]1I n:Pr oceedings of the I EEE

I nternati onal Conference on Aut omatic Face and Gesture Recogniti on

[C],W ashingt on,DC,US A,2002:462511

11 Martinez A M,Benavente R1The AR face database[R]1Technical Report24,The Computer V isi on Center(CVC),Barcel ona, Spain,19981

12 Hwang B W,Roh M C,Lee S W1Perf or mance evaluati on of face recogniti on algorithm s on A sian face database[A]1I n:Pr oceedings of the Sixth I EEE I nternati onal Conference on Aut omatic Face and Gesture Recogniti on[C],Seoul,South Korea,2004:27822831

13 W u Dan,L in Xue2yin1The design and realizati on of a video database

f or facial exp ressi on analysis[J]1Computer Engineerin

g and

App licati ons,2004,40(5):17721801[吴丹,林学訚1人脸表情视频数据库的设计与实现[J]1计算机工程与应用,2004, 40(5):17721801]

14 Xue Yu2li,Mao Xia,Zhang Fan1Design and realizati on of BHU facial exp ressi on database[J]1Journal of Beijing University of Aer onautics and A str onautics,2007,33(2):22422281[薛雨丽,毛峡,张帆1BHU人脸表情数据库的设计与实现[J]1北京航空航天学报,2007,33(2):22422281]

15 Gao W,Cao B,Shan S,et al1The CAS2PE AL large2scale chinese face database and baseline evaluati ons[J]1I EEE Transacti ons on Syste m s,Man and Cybernetics,Part A,2008,38(1):14921611 16 Pantic M,Rothkrantz L J M1Aut o matic analysis of facial ex pressi ons: the state of the art[J]1I EEE Transacti ons on Pattern Analysis and Machine I ntelligence,2000,22(12):1424214461

17 Fasel B,Luettin J1Aut omatic facial exp ressi on analysis:a survey [J]1Pattern Recogniti on,2003,36(1):25922751

18 Essa I,Pentland A1Coding,analysis,inter p retati on,and recogniti on of facial exp ressi ons[J]1I EEE Transacti ons on Pattern Analysis and Machine I ntelligence,1997,19(7):75727631

19 Yacoob Y,Davis L1Recognizing human facial exp ressi ons fr om l ong

i m age sequences using op tic fl ow[J]1I EEE Transacti ons on Pattern

Analysis and Machine I ntelligence,1996,18(6):63626421

20 Cohn J,Zl ochower A,L ien J J,et al1Aut omated face coding:a computer2visi on based method of facial exp ressi on analysis[A]1I n: Pr oceedings of the7th Eur opean Conference on Facial Exp ressi on Measure ment and Meaning[C],Salzburg,Austria,1997:32923331 21 Zhu Z,J i Q1Robust pose invariant facial feature detecti on and tracking in real2ti m e[A]1I n:Pr oceedings of the18th I nternati onal Conference on Pattern Recogniti on[C],Hong Kong,China,2006: 1092210951

22 Tong Y,W ang Y,Zhu Z W,et al1Facial feature tracking using a multi2state hierarchical shape model under varying face pose and facial exp ressi on[A]1I n:Pr oceedings of the18th I nternati onal Conference on Pattern Recogniti on[C],Hong Kong,China,2006: 28322861

23 Cristinacce D,Cootes T,Scott I1A multi2stage app r oach t o facial feature detecti on[A]1I n:Pr oceedings of the15th B ritish Machine V isi on Conference[C],London,UK,2004:27722861

24 Tang F Q,Deng B1Facial exp ressi on recogniti on using AAM and

077中国图象图形学报 第14卷

l ocal facial features[A]1I n:Pr oceedings of the Third I nternati onal Conference on Natural Computati on[C],Haikou,China,2007: 63226351

25 H amm a l Z,Couvreu r L,Cap lie r A,et a l1Facial exp re ssion classificati on:an app r oach based on the fusi on of facial def or mati ons using the transferable belief model[J]1I nternati onal Journal of App r oxi m ate Reas oning,2007,46(3):54225671

26 Yu J G,Bhanu B1Evoluti onary feature synthesis f or facial exp ressi on recogniti on[J]1Pattern Recogniti on Letters,2006,27(11): 1289212981

27 L iao S,Fan W,Chunga C S,et al1Facial exp ressi on recogniti on using advanced l ocal binary patterns,Tsallis entr op ies and gl obal appearance features[A]1I n:Pr oceedings of the2006I EEE

I nternati onal Conference on I m age Pr ocessing[C],A tlanta,G A,

US A,2006:66526681

28 Kotsia I,Zafeiri ou S,Pitas L1Texture and shape infor mati on fusi on

f or facial exp ressi on and facial acti on unit recogniti on[J]1Pattern

Recogniti on,2008,41(3):83328511

29 Zhou X,Huang X,Xu B,et a l1Real2ti m e facial exp ression recogniti on based on boosted e mbedded hidden markov model[A]1

I n:Pr oceedings of the Third I nternati onal Conference on I m age and

Graphics[C],Hong Kong,China,2004:29022931

30 M iners B W,Basir O A1Dyna m ic facial exp ressi on recogniti on using fuzzy hidden Markov models[A]1I n:Pr oceedings of the

I nternati onal Conference on Syste m s,Man and Cybernetics[C],

Ha waii,US A,2005:1417214221

31 Tian Y,Takeo K,Cohn J F1Recognizing Facial Acti ons by Co mbining Geometric Features and Regi onal Appearance Patterns[R]1C MU2 R I2T R201201,Robotics I nstitute,Carnegie Mell on University, Pittsburgh,P A,US A,20011

32 Seyedarabi H,Aghagolzadeh A,Khanmohammadi S1Recogniti on of six basic facial exp ressi ons by feature2points tracking using RBF neural net w ork and fuzzy inference syste m[A]1I n:Pr oceedings of the2004I EEE I nternati onal Conference on Multi m edia and Expo

[C],Tai pei,Tai w an,China,2004:1219212221

33 Ma L,Khorasani K1Facial exp ressi on recogniti on using constructive feedf or ward neural net w orks[J]1I EEE Transacti ons on Syste m sMan and Cybernetics Part B2Cybernetics,2004,34(3):1588215951

34 Soyel H,De m irel H1Facial exp ressi on recogniti on using3D facial feature distances[A]1I n:Pr oceedings of the4th I nternati onal Conference on I m age Analysis and Recogniti on[C],Montreal, Canada,2007:83128381

35 L ittlewort G,Bartlett M S,Fasel I,et al1Analysis of machine learning methods f or real2ti m e recogniti on of facial exp ressi ons fr om video[R]1MP Lab TR2003105,Machine Percep ti on Laborat ory

I nstitute forNeural Computati on,University of Calif ornia,San D iego,

CA,US A,20031

36 Xu Q Z,Zhang P Z,Yang L X,et al1A facial exp ressi on recogniti on app r oach based on novel support vect or machine tree[A]1I n: Pr oceedings of the4th I nternati onal Sy mposium on Neural Net w orks

[C],Nanjing,China,2007:3742381137 W ang Y B,A i H Z,W u B,et al1Real ti m e facial exp ressi on recogniti on with adaboost[A]1I n:Pr oceedings of the17th

I nternati onal Conference on Pattern Recogniti on[C],Ca mbridge,

UK,2004:92629291

38 Jung S U,Ki m D H,An K H,et al1Efficient rectangle feature extracti on f or real2ti m e facial exp ressi on recogniti on based on Ada Boost[A]1I n:Pr oceedings of the2005I eee/R sj I nternati onal Conference on I ntelligent Robots and Syste m s[C],Edmont on, Canada,2005:3634236391

39 Guo G,D yer C R1Si m ultaneous feature selection and classifier training via linear p r ogra mm ing:a case study f or face exp ressi on recogniti on[A]1I n:Pr oceedings of the2003I EEE Computer Society Conference on Computer V isi on and Pattern Recogniti on[C], Madis on,W isconsin,US A,2003,1:34623521

40 Gokturk S B,Bouguet J Y,Tomasi C,et a l1Model2based face tracking f or vie w2independent facial exp ressi on recogniti on[A]1I n: Pr oceedings of the Fifth I EEE I nternati onal Conference on Aut omatic Face and Gesture Recogniti on[C],W ashingt on,DC,US A,2002: 28722931

41 Ebine H,Naka mura O1The recogniti on of facial ex pressi ons considering the difference bet w een individuality[J]1Transacti ons of the I nstitute of Electrical Engineers of Japan,1999,1192C(4):47424811

42 Matsugu M,Mori K,M itari Y,et al1Facial exp ressi on recogniti on combined with r obust face detecti on in a convoluti onal neural net w ork

[A]1I n:Pr oceedings of the I nternati onal Joint Conference on Neural

Net w orks[C],Portland,OR,US A,2003:2243222461

43 Shan C F,G ong S G,Mco wan PW1Robust facial ex pressi on recogniti on using l ocal binary patterns[A]1I n:Pr oceedings of the2005

I nternati onal Conference on I m age Pr ocessing[C],Genoa,Italy,

2005:2225222281

44 Bourel F,Chibelushi C C,Lo w A A1Recogniti on of facial ex pressi ons in the p resence of occlusi on[A]1I n:Pr oceedings of the12th B ritish Machine V isi on Conference[C],Manchester,UK,2001:21322221 45 Bourel F,Chibelushi C C,Low A A1Robust facial exp ression recogniti on using a state2based model of s patially2l ocalised facial dyna m ics[A]1I n:Pr oceedings of the5th I EEE I nternati onal Conference on Aut omatic Face and Gesture Recogniti on[C], W ashingt on,DC,US A,2002:11321181

46 Gr oss R,Matthe ws I,Baker S1Active appearance models with occlusi on [J]1I m age and V isi on Computing,2006,24(6):59326041

47 Buciu I,Kotsia I,Pitas I1Facial exp ressi on analysis under partial occlusi on[A]1I n:Pr oceedings of the2005I EEE I nternati onal Conference on Acoustics,Speech,and Signal Pr ocessing[C], Philadel phia,P A,US A,2005,V:45324561

48 Towner H,Slater M1Reconstructi on and recogniti on of occluded facial exp ressi ons using PCA[A]1I n:Pr oceedings of the Second

I nternati onal Conference on Affective Computing and I ntelligent

I nteracti on[C],L isbon,Portugal,2007:362471

49 L iu Xiao2m in1Facial Exp ressi on Recogniti on in Human Computer

I nteracti on[D]1Beijing:Tsinghua University,20061[刘晓 1人

机交互界面中的人脸表情识别[D]1北京:清华大学,20061]

177

第5期薛雨丽等:人机交互中的人脸表情识别研究进展

50 L ien J2J J1Aut omatic Recogniti on of Facial Exp ressi on U sing H idden Markov Models and Esti m ati on of Exp ressi on I ntensity[D].

Pittsburgh,P A,US A:Carnegie Mell on University,19981

51 Cohn J F,Zl ochower A J,L ien J J,et al1Feature2point tracking by op tical fl ow discri m inates subtle differences in facial exp ressi on[A]1

I n:Pr oceedings of the3rd I EEE I nternati onal Conference on

Aut omatic Face and Gesture Recogniti on[C],Nara,Japan,1998: 39624011

52 Donat o G,BartlettM S,C1Hager J,et al1Classifying facial acti ons [J]1I EEE Transacti ons on Pattern Analysis and Machine

I ntelligence,1999,21(10):97429891

53 Pantic M,Rothkrantz L J M1Expert syste m for aut omatic analysis of facial exp ressi ons[J]1I m age and V isi on Computing,2000, 18(11):88129051

54 Tian Y I,Kanade T,Cohn J F1Recognizing acti on units f or facial exp ressi on analysis[J]1I EEE Transacti ons on Pattern Analysis and Machine I ntelligence,2001,23(2):9721151

55 Kapoor A,Q i Y,Picard R W1Fully aut omatic upper facial acti on recogniti on[A]1I n:Pr oceedings of the I EEE I nternati onal Workshop on Analysis and Modeling of Faces and Gestures[C], N ice,France,2003:19522021

56 M atsumot o D,Kasri F,Kooken K1American2Japanese cultural differences in judge ments of exp ressi on intensity and subjective experience[J]1Cogniti on and Emoti on,1999,13(2):20122181 57 N iedenthal P M,Halberstadt J B,Margolin J,et al1E moti onal state and the detecti on of change in facial exp ressi on of emoti on[J]1 Eur opean Journal of Social Psychol ogy,2000,30(2):21122221

58 Ghent J,Mcdonald J1Phot o2realistic facial exp ressi on synthesis[J]1

I m age and V isi on Computing,2005,23(12):1041210501

59 Kobayashi H,Hara F1Recogniti on of six basic facial exp ressi ons and their strength by neural net w ork[A]1I n:Pr oceedings of the I EEE

I nternati onal Workshop on Robot and Human Communicati on[C],

Tokyo,Japan,1992:38123861

60 Ki m ura S,Yachida M1Facial exp ressi on recogniti on and its degree esti m ati on[A]1I n:Pr oceedings of the1997I EEE Computer Society Conference on Computer V isi on and Pattern Recogniti on[C],San Juan,Puert o R ico,1997:29523001

61 L ien J J J,Kanade T,Cohn J F,et al1Subtly different facial exp ressi on recogniti on and exp ressi on intensity esti m ati on[A]1I n: Pr oceedings of the I EEE Computer Society Conference on Computer V isi on and Pattern Recogniti on[C],Santa Barbara,CA,US A, 1998:85328591

62 W ang M,I w ai Y,Yachida M1Recognizing degree of continuous facial exp ressi on change[A]1I n:Pr oceedings of the14th

I nternati onal Conference on Pattern Recogniti on[C],B risbane,

Australia,1998:1188211901

63 Yang D,Kunihir o T,Shi m oda H,et al1A study of real2ti m e i m age p r ocessing method f or treating human emoti on by facial exp ressi on

[A]1I n:Pr oceedings of the I EEE I nternati onal Conference on

Syste m s,Man,and Cybernetics[C],Tokyo,Japan,1999:

36023641

64 Lee K K,Xu Y1Real2ti m e esti m ati on of facial exp ressi on intensity

[A]1I n:Pr oceedings of the I EEE I nternati onal Conference on

Robotics&Aut omati ons[C],Tai pei,Tai w an,China,2003: 2567225721

65 L i Yan1R esearch on M ethods for Facial Exp ression Intensity M easurem ent Based on V ideo[D]1Changsha:Hunan University, 20061[李燕1基于视频的面部表情强度度量方法研究[D]1长沙:湖南大学,20061]

66 Kobayashi H,Hara F1Recogniti on of m ixed facial exp ressi ons by neural net w ork[A]1I n:Pr oceedings of the I EEE I nternati onal Workshop on Robot and Human Communicati on[C],Tokyo,Japan, 1992:38723911

67 Ralescu A,I w a mot o H1Recogniti on of and reas oning about facial exp ressi ons using fuzzy l ogic[A]1I n:Pr oceedings of the2nd I EEE

I nternati onalWorkshop on Robot and Human Communicati on[C],

Tokyo,Japan,1993:25922641

68 J in Hui,Gao Wen1The hu man facial combined ex pressi on recogniti on system[J]1Chinese Journal of Computers,2000,23(6):60226081 [金辉,高文1人脸面部混合表情识别系统[J]1计算机学报, 2000,23(6):60226081]

69 W u Yu2wen1Studies on Facial Exp ressi on Recogniti on Based on2D Shape and Structural Features[D]1Beijing:Peking University, 20051[武宇文1基于脸部二维形状与结构特征的表情识别研究

[D]1北京:北京大学,20051]

70 Zuo Kun2l ong1A Study of Aut omatic Facial Exp ressi on Analysis and Recogniti on Syste m[D]1Tianjin:Tianjin University,20041[左坤隆1人脸表情自动分析与识别系统的研究[D]1天津:天津大学,20041]

71 Zhao H,W ang Z L,Men J H1Facial comp lex exp ressi on recogniti on based on fuzzy kernel clustering and support vect or machines[A]1

I n:Pr oceedings of the Third I nternati onal Conference on Natural

Computati on[C],Haikou,China,2007:56225661

72 El Kali ouby R,Robins on P1Real2ti m e inference of comp lex mental states fr om facial exp ressi ons and head gestures[A]1I n:Pr oceedings of the2004I EEE Computer S ociety Conference on Computer V isi on and Pattern Recogniti on Workshop[C],W ashingt on,DC,US A, 2004:15421591

73 L ittle wort G C,Bartlett M S,Lee K1Faces of pain:aut omated measurement of s pontaneous facial exp ressi ons of genuine and posed pain[A]1I n:Pr oceedings of the9th I nternati onal Conference on Multi m odal I nterfaces[C],Nagoya,A ichi,Japan,2007:152211 74 A shraf a B,Lucey S,Cohn J F,et al1The painful face:pain exp ressi on recogniti on using active appearance models[A]1I n: Pr oceedings of the9th I nternati onal Conference on Multi m odal

I nterfaces[C],Nagoya,A ichi,Japan,2007:92141

75 Saradadevi M,Bajaj P1D river fatigue detecti on using mouth and ya wning analysis[J]1I nternati onal Journal of Computer Science and Net w ork Security,2008,8(6):18321881

277中国图象图形学报 第14卷

人脸识别技术的应用背景及研究现状

1.人脸识别技术的应用 随着社会的不断进步以及各方面对于快速有效的自动身份验证的迫切要求,生物特征识别技术在近几十年中得到了飞速的发展。作为人的一种内在属性,并且具有很强的自身稳定性及个体差异性,生物特征成为了自动身份验证的最理想依据。当前的生物特征识别技术主要包括有:指纹识别,视网膜识别,虹膜识别,步态识别,静脉识别,人脸识别等。与其他识别方法相比,人脸识别由于具有直接,友好,方便的特点,使用者无任何心理障碍,易于为用户所接受,从而得到了广泛的研究与应用。除此之外,我们还能够对人脸识别的结果作进一步的分析,得到有关人的性别,表情,年龄等诸多额外的丰富信息,扩展了人脸识别的应用前景。当前的人脸识别技术主要被应用到了以下几个方面:(1)刑侦破案公安部门在档案系统里存储有嫌疑犯的照片,当作案现场或通过其他途径获得某一嫌疑犯的照片或其面部特征的描述之后,可以从数据库中迅速查找确认,大大提高了刑侦破案的准确性和效率。 (2)证件验证在许多场合(如海口,机场,机密部门等)证件验证是检验某人身份的一种常用手段,而身份证,驾驶证等很多其他证件上都有照片,使用人脸识别技术,就可以由机器完成验证识别工作,从而实现自动化智能管理。 (3)视频监控在许多银行,公司,公共场所等处都设有24小时的视频监控。当有异常情况或有陌生人闯入时,需要实时跟踪,监控,识别和报警等。这需要对采集到的图像进行具体分析,且要用到人脸的检测,跟踪和识别技术。 (4)入口控制入口控制的范围很广,既包括了在楼宇,住宅等入口处的安全检查,也包括了在进入计算机系统或情报系统前的身份验证。 (5)表情分析根据人脸图像中的面部变化特征,识别和分析人的情感状态,如高兴,生气等。此外,人脸识别技术还在医学,档案管理,人脸动画,人脸建模,视频会议等方面也有着巨大的应用前景。 2.人脸识别技术在国外的研究现状 当前很多国家展开了有关人脸识别的研究,主要有美国,欧洲国家,日本等,著名的研究机构有美国MIT的Media lab,AI lab,CMU的Human-Computer I nterface Institute,Microsoft Research,英国的Department of Engineerin g in University of Cambridge等。综合有关文献,目前的方法主要集中在以下几个方面: (1)模板匹配 主要有两种方法,固定模板和变形模板。固定模板的方法是首先设计一个或几个参考模板,然后计算测试样本与参考模板之间的某种度量,以是否大于阈值来判断测试样本是否人脸。这种方法比较简单,在早期的系统中采用得比较

《微表情识别读脸读心》2019期末考试题与答案

《微表情识别读脸读心》2019期末考试题与答 案 一、单选题(题数:40,共40.0 分) 1安慰反应的形态意义哪一项描述是错误的?() A、视线转移,频繁眨眼,闭眼(视觉安慰);轻哼,吹口哨,吁气(听觉安慰) B、舔嘴唇,磨牙,咀嚼,吞咽,吸烟; (口部安慰) C、挠头皮,玩头发,搓脖子;摸脸、额头、鼻子、耳朵、嘴、下巴;捂住锁骨,拍胸口,按摩腹部; 松领带、领口,玩项链、耳环等;搓手,玩手指; 抖腿等(肌肤安慰) D、身体约束僵住 答案:D 2关于这场猜测锁匙位置的测试哪一项描述是错误的?() A、李博士将锁匙放在6墙-8行-8列却在卡片上写6墙-8行-9列是动用了反测试策略 B、这种反测试策略的核心就就是强化不真实遗忘真实

C、这种反测试策略属于意识转移类的精神反测试 D、李博士反测试没有获得成功 答案:D 3关于辨析情绪的意义哪一项描述是错误的?() A、排除了干扰因素才能锁定刺激与情绪反应的因果联系 B、行为痕迹特征不能与说谎直接划等号 C、科学识别应该是找到差异点 D、回应刺激时视线向左表示回忆,视线向右表示编造 答案:D 4关于松明猜测硬币藏匿手的测试哪一项描述是错误的?() A、王力宏上台即双手叉腰或抱胸是紧张的对抗反应 B、询问喜欢的颜色及血型的用意是找回答真实的基线反应 C、一般而言人们习惯于多用或首先使用顺手 D、使用顺手是不自信的表现 答案:D

5逃离反应的形态意义哪一项描述是错误的?() A、吓了一跳、后退、头、身体、脚转向一边 B、深吸气,脸色发白,全身发冷,腿发颤 C、视线转移,坐姿、站姿角度扭转 D、面孔、肢体靠近刺激源 答案:D 6关于表达者表达解析哪一项描述是正确的?() A、疏忽几个表情动作的观察不影响准确判断其真实内心 B、是准确认识表达者内心的基础和前提 C、只要盯着其眼动反应就能准确判断其真实内心 D、只要关注其情绪与事件性质是否一致就能准确判断其真实内心 答案:B 7微表情是指持续时间多长的表情?() A、1/2秒 B、不足1/5秒

面部表情识别实验报告分析

面部表情识别实验 实验报告 小组成员: 面部表情识别实验 西南大学重庆 400715

摘要:情绪认知是一种复杂的过程,它包含观察、分析、判断、推理等,是借助于许多线索,特别是借助面部那些活动性更大的肌肉群的运动而实现的。所以,情绪认知的准确度受多种因素的影响。 当我们与他人相互交往的时候,不管是不是面对面。我们都正在不断的表达着情绪,同时又正在观察,解释着的对方做出的表情,在人际交往过程中,情绪的表达和认知是十分的迅速和及时,那么人是借助于哪些表情来认知他人的情绪的呢?情绪识别实际上并不是针对表情本身的,而是针对这它背后的意义。例如:皱眉可能是一种情绪的表现,我们见到这种面部表情就试图解释潜在于它背后的情绪。尖锐,短促,声音嘶哑可能是一种情绪表现,我们听到这种语言表情就试图解释潜在于它背后的情绪捶胸,顿足可能是一种情绪的表现,我们见到这种动作表情就是试图解释潜在于它背后的情绪。对于这个复杂的问题,心理学家曾经做过许多的研究。 面部表情认知的研究可分为两个步骤:第一步是面部表情刺激物的制作或选择,这可以用专门拍摄(录像)或图示来描画,也可以用完全装扮出的活生生的表情或自发的表情等。第二步时对表情进行识别评定。也可以用多种方法,如自由评定法,即让被试自由地对表情给出情绪词汇;或限制评定法,即向被试提供各种提供各种情绪词汇或情绪情境,要求被试只能根据所提供的情绪词汇或者情绪情境进行分类或者匹配等;或参照自由评定法,即向被试提供参考线索(如情境,人格特征等),让其说出所表达的情绪的词汇等。 关键词:情绪表情认知线索

1 前言 传统心理学把情绪列为心理现象的三大方面之一。情绪也是心理学理论体系中一个不可缺少的研究环节。情绪(emotion)是体验,又是反应;是冲动,又是行为;它是有机体的一种复合状态。情绪的表现有和缓的和激动的,细微的和强烈的,轻松的和紧张的等诸多形式,广泛地同其他心理过程相联系。自古以来,科学家们十分注意探讨情绪之奥妙,但与情绪的重要性不相适应的是,长期以来情绪研究一直是心理学尤其是实验心理学研究中的一个薄弱环节。造成这一现象的最主要原因是情绪所特有的复杂性以及由此衍生出来的情绪研究方法学上的困难。我国心理学家孟昭兰(1987)将理论认为面部表情是传递具体信息的外显行为面部表情是提供人们在感情上互相了解的鲜明标记。情绪过程既包括情绪体验,也包括情绪表现,而表情既是情绪的外部表现,也是情绪体验的发生机制;既是最敏锐的情绪发生器,也是最有效的情绪显示器。这就从机制上说明了以面部肌肉运动模式作为情绪标志的根据。 面部表情(facial expression_r)的发生是有其客观的物质基础的:表情按面部不同部位的肌肉运动而模式化,面部反应模式携带着心理学的意义,那就是或快乐、或悲伤等具体情绪。但是,对表情进行测量的原则在于:所要测量的是面孔各部位的肌肉运动本身,而不是面部所给予观察者的情绪信息。该实验将14名被试分为两组进行表情认知的实验,实验目的在于通过实验了解面部表情认知的基本

人脸识别技术的应用背景及研究现状

人脸识别技术的应用背景及研究现状 1.人脸识别技术的应用 随着社会的不断进步以及各方面对于快速有效的自动身份验证的迫切要求,生物特征识别技术在近几十年中得到了飞速的发展。作为人的一种内在属性,并且具有很强的自身稳定性及个体差异性,生物特征成为了自动身份验证的最理想依据。当前的生物特征识别技术主要包括有:指纹识别,视网膜识别,虹膜识别,步态识别,静脉识别,人脸识别等。与其他识别方法相比,人脸识别由于具有直接,友好,方便的特点,使用者无任何心理障碍,易于为用户所接受,从而得到了广泛的研究与应用。除此之外,我们还能够对人脸识别的结果作进一步的分析,得到有关人的性别,表情,年龄等诸多额外的丰富信息,扩展了人脸识别的应用前景。当前的人脸识别技术主要被应用到了以下几个方面:(1)刑侦破案公安部门在档案系统里存储有嫌疑犯的照片,当作案现场或通过其他途径获得某一嫌疑犯的照片或其面部特征的描述之后,可以从数据库中迅速查找确认,大大提高了刑侦破案的准确性和效率。 (2)证件验证在许多场合(如海口,机场,机密部门等)证件验证是检验某人身份的一种常用手段,而身份证,驾驶证等很多其他证件上都有照片,使用人脸识别技术,就可以由机器完成验证识别工作,从而实现自动化智能管理。 (3)视频监控在许多银行,公司,公共场所等处都设有24小时的视频监控。当有异常情况或有陌生人闯入时,需要实时跟踪,监控,识别和报警等。这需要对采集到的图像进行具体分析,且要用到人脸的检测,跟踪和识别技术。 (4)入口控制入口控制的范围很广,既包括了在楼宇,住宅等入口处的安全检查,也包括了在进入计算机系统或情报系统前的身份验证。 (5)表情分析根据人脸图像中的面部变化特征,识别和分析人的情感状态,如高兴,生气等。此外,人脸识别技术还在医学,档案管理,人脸动画,人脸建模,视频会议等方面也有着巨大的应用前景。 2.人脸识别技术在国外的研究现状 当前很多国家展开了有关人脸识别的研究,主要有美国,欧洲国家,日本等,著名的研究机构有美国MIT的Media lab,AI lab,CMU的Human-Computer I nterface Institute,Microsoft Research,英国的Department of Engineerin g in University of Cambridge等。综合有关文献,目前的方法主要集中在以下几个方面:

人脸表情识别

图像处理与模式识别 ------人脸表情识别介绍摘要:人脸表情是我们进行交往和表达情绪的一种重要手段,不经过特殊训练,人类对其面部表情往往很难掩饰,所以,通过对人脸表情进行分析,可以获得重要的信息。人脸表情识别是人机交互的智能化实现的一个重要组成部分,也是模式识别、图像处理领域的一个重要研究课题,近几年来,受到了越来越多的科研人员的关注。 本文综述了国内外近年来人脸表情识别技术的最新发展状况,对人脸表情识别系统所涉及到的关键技术: 人脸表情特征提取,做了详细分析和归纳。 关键词:人脸定位;积分投影;人脸表情识别;流形学习;局部切空间排列Abstract:Facial expression is a kind of important meansthatwe communicateand express the emotions.Without special training, People often difficult to conceal their facial expression.So, by the analyzing facial expression, we can obtain important information. Facial expression recognitionis animportant component that the implementation of human-computer interaction, and animportant research topic in the field of pattern recognition, image processing, in recent years, more and more researchers focus on this topic. In this paper,we present the latest development of this area,and give a detailed analysisand summary for facial expression feature extraction. Keywords:facelocation; integral projection; facialexpression recognition; manifold learning;GILTSA

2019最新版微表情识别·读脸读心答案

1.1 微表情涵义·由来 1 【单选题】微表情是指持续时间多长的表情?()B ?A、1/2秒 ?B、不足1/5秒 ?C、5秒 ?D、以上都不对 2 【多选题】下面哪些描述符合微表情的特征?()ABCD ?A、时间不足1/5秒 ?B、受到有效刺激后的反应 ?C、不由自主地表现出来 ?D、表达内心的真实情感 3 【判断题】表情是表现在面部或姿态上的情感信息。()正确 1.2 保罗·埃克曼的贡献 1 【单选题】保罗·埃克曼研究的微表情主要在哪个领域?()C ?A、身体动作 ?B、副语言 ?C、面部表情 ?D、以上都不对 2 【多选题】保罗·埃克曼研究微表情的主要贡献有哪些?()ABCD ?A、完成面部表情编码 ?B、编撰并发布FACS—AU教程 ?C、研发微表情训练工具(Meet) ?D、人际欺骗研究 3

【判断题】独立发现并深入研究微表情的学者是保罗·埃克曼。()错误 1.3 国内·应用研究概况 1 【单选题】 国内探索微表情应用研究的实战机构不包括哪些?()D ?A、公安机构 ?B、检察机构 ?C、安全机构 ?D、环保机构 2 【判断题】 受到lie to me 传播的影响国内业界开始关注并研究微表情。()正确 3 【判断题】 国内研究微表情的专业团队主要有中科院心理研究所傅小兰团队、中国人民政法大学姜振宇团队和上海政法学院范海鹰团队。()正确 1.4 教学模式·教学环节 1 【单选题】微表情识别读脸读心课程宜采用哪种教学模式?()D ?A、理论讲授式 ?B、实操训练式 ?C、案例观摩式 ?D、A+B+C 2 【多选题】微表情识别读脸读心课程的教学模式包括哪些教学环节?()ABC

面部表情识别与面孔身份识别的独立加工与交互作用机制_汪亚珉

心理科学进展 2005,13(4):497~516 Advances in Psychological Science 面部表情识别与面孔身份识别的 独立加工与交互作用机制* 汪亚珉1,2 傅小兰1 (1中国科学院心理研究所,脑与认知国家重点实验室,北京 100101)(2中国科学院研究生院,北京 100039) 摘 要面孔识别功能模型认为,面部表情识别与面孔身份识别是两条独立的并行路径。以往诸多研究者都认可并遵循二者分离的原则。但近期研究表明,面部表情识别与面孔身份识别存在交互作用。首先总结和分析已有的面部表情识别的研究成果,评述神经心理学与认知神经科学研究中的论争,然后介绍人脸知觉的分布式神经机制以及相关的实验证据,最后提出面部表情识别与面孔身份识别的多级整合模型,并展望研究前景。 关键词面孔身份识别,面部表情识别,面孔识别功能模型,人脸知觉的分布式神经模型,多级整合模型。分类号 B842 面孔识别一直备受研究者关注。20世纪70年代,Ekman和Frisen系统地研究了人脸基本表情的文化普遍性,并从解剖学角度提出了6种基本的面部表情[1]。20世纪80年代,Bruce和Young系统地研究了人对面孔的识别及其影响因素,提出了经典的面孔识别功能模型[2]。自此,面孔识别成为认知科学研究领域中的热点问题之一。 人能轻易地从不同表情中识别出同一个人的面孔(即面孔身份识别,facial identity recognition),也能从不同人的面孔上识别出同一种表情(即面部表情识别,facial expression recognition),识别得如此精巧,以至众多研究者相信,识别面孔与识别表情 收稿日期:2005-04-24 * 本研究得到中国科技部973项目(2002CB312103)、国家自然科学基金重点项目(60433030)和面上项目 (30270466)、中国科学院心理研究所创新重点项目 (0302037)经费支持。 通讯作者:傅小兰,E-mail: fuxl@https://www.360docs.net/doc/b513051342.html, 两者相互独立,互不干扰[2~7]。那么,这种分离识别究竟是如何实现的?面孔身份识别与面部表情识别究竟是彼此独立的还是相互作用的?这已成为认知科学(尤其是计算机视觉)面孔识别研究领域中亟待解决的一个重要问题。 在过去开展的大量研究中,对面孔身份识别问题的探讨相对比较深入,而对面部表情识别的研究则囿于经典功能模型,并未能取得实质性进展。近年来随着脑认知研究技术的发展,面部表情识别的研究也在不断深入,研究者对面部表情识别与面孔身份识别间的关系也提出了新的阐释。本文在综述已有研究的基础上,试图进一步探讨面部表情识别与面孔身份识别之间的独立加工与交互作用机制。首先,基于经典面孔识别功能模型,分析传统的面孔身份识别与面部表情识别的并行分离加工观点,以及行为学、神经心理学与认知神经科学的研究发现;其

基于深度学习的人脸表情识别研究与实现

西南科技大学硕士研究生学位论文第I页 目录 1绪论 (1) 1.1研究背景及意义 (1) 1.2国内外研究现状及趋势 (2) 1.3本文的研究内容与章节安排 (6) 2人脸表情识别预处理及相关技术 (8) 2.1人脸表情数据集 (8) 2.1.1严格数据集 (8) 2.1.2非严格数据集 (9) 2.2数据筛选 (10) 2.2.1基于某种概率分布的筛选策略 (10) 2.2.2 基于图模型的筛选策略 (11) 2.3人工神经网络 (12) 2.3.1正向传播 (13) 2.3.2反向传播 (14) 2.4自编码器神经网络 (16) 2.5卷积神经网络 (18) 2.5.1局部感受野 (18) 2.5.2权值共享 (19) 2.5.3池化(pooling) (19) 2.6循环神经网络 (20) 2.7人脸检测 (22) 2.8人脸关键点检测与对齐 (23) 2.9本章小结 (25) 3基于降噪自编码器的表情识别研究与实现 (26) 3.1堆栈式降噪自编码器 (26) 3.2Dropout (27) 3.3降噪自编码器表情识别网络 (28) 3.4实验与分析 (29) 3.5本章小结 (32) 4基于卷积神经网络的表情识别研究与实现 (33) 4.1一种轻量级CNN人脸表情识别模型 (33)

西南科技大学硕士研究生学位论文第II页 4.2利用bottleneck特征训练CNN表情识别网络 (38) 4.3微调(fine turn)训练CNN表情识别网络 (40) 4.4本章小结 (41) 5基于循环神经网络的表情识别研究与实现 (43) 5.1图像序列筛选 (43) 5.2CNN+LSTM表情识别方法 (44) 5.3实验结果分析 (45) 5.4本章小结 (46) 总结和展望 (47) 致谢 (49) 参考文献 (50) 攻读硕士期间获取得的研究成果 (55)

人脸表情识别综述

人脸表情识别综述 一、人脸表情识别技术目前主要的应用领域包括人机交互、安全、机器人制造、医疗、通信和汽车领域等 二、1971年,心理学家Ekman与Friesen的研究最早提出人类有六种主要情感,每种情感以唯一的表情来反映人的一种独特的心理活动。这六种情感被称为基本情感,由愤怒(anger)、高兴(happiness)、悲伤(sadness)、惊讶(surprise)、厌恶(disgust)和恐惧(fear)组成 人脸面部表情运动的描述方法---人脸运动编码系统FACS (Facial Action Coding System),根据面部肌肉的类型和运动特征定义了基本形变单元AU(Action Unit),人脸面部的各种表情最终能分解对应到各个AU上来,分析表情特征信息,就是分析面部AU的变化情况 FACS有两个主要弱点:1.运动单元是纯粹的局部化的空间模板;2.没有时间描述信息,只是一个启发式信息 三、人脸表情识别的过程和方法 1、表情库的建立:目前,研究中比较常用的表情库主要有:美国CMU机器人研究所和心理学系共同建立的 Cohn-Kanade AU-Coded Facial Expression Image Database(简称CKACFEID)人脸表情数据库;日本ATR 建立的日本女性表情数据库(JAFFE),它是研究亚洲人表情的重要测试库 2、表情识别: (1)图像获取:通过摄像头等图像捕捉工具获取静态图像或动态图像序列。 (2)图像预处理:图像的大小和灰度的归一化,头部姿态的矫正,图像分割等。 →目的:改善图像质量,消除噪声,统一图像灰度值及尺寸,为后序特征提取和分类识别打好基础 主要工作→人脸表情识别子区域的分割以及表情图像的归一化处理(尺度归一和灰度归一) (3)特征提取:将点阵转化成更高级别图像表述—如形状、运动、颜色、纹理、空间结构等,在尽可能保证稳定性和识别率的前提下,对庞大的图像数据进行降维处理。 →特征提取的主要方法有:提取几何特征、统计特征、频率域特征和运动特征等 1)采用几何特征进行特征提取主要是对人脸表情的显著特征,如眼睛、眉毛、嘴巴等的位置变化进行定位、测量,确定其大小、距离、形状及相互比例等特征,进行表情识别 优点:减少了输入数据量 缺点:丢失了一些重要的识别和分类信息,结果的精确性不高

实验心理学实验设计方案-表情识别

不同面部表情的识别速度与识别准确性差异研究 一、引言速度—准确性权衡是关系到一切反应时实验信度的基本问题,下面我们将尝试通过一个简单的生活化的实验来展示任务速度和任务准确性之间普遍的权衡关系。在反应时实验中,当被试追求较快的速度时,必然要以牺牲准确性为代价。同样,当被试力求高的准确性时,也必然要以放慢速度为代价。在具体的实验中,被试究竟会如何权衡二者的关系,取决于很多因素。本实验主要探讨不同面部表情(痛苦、微笑、悲哀、快乐)识别速度与准确率是否存在显著差异。 实验假设:不同面部表情的识别速度与识别准确性存在差异 二、实验目的通过实验证明不同面部表情(痛苦、微笑、悲哀、快乐)的识别速度与识别准确性存在差异,本实验旨在研究不同面部表情的识别速度与识别准确性存在差异,通过自编的e-prime 实验程序对四十名被试进行施测。 三、实验仪器与材料 痛苦、微笑、悲哀、快乐的图片(均选自于标准的实验图片库)、电脑、e-prime 程序 四、实验设计 采用单因素完全随机化设计

自变量为不同面部表情、区分为(痛苦、微笑、悲哀、快乐)四种。每个小组只接受一种实验处理,只对一种表情做出反应。 因变量为反应时、准确率,分别是识别的准确率、以及被试对不同面部表情识别的反应时。 五、实验程序 (一)被试构成 采用简单随机抽样,在弘德楼随机选取了几个自习室,共选取了 40 个被试。男女各半,年龄为18-23 岁,随机分为四个小组。 (二)研究工具 在计算机上自编好e-prime 实验程序 (三)实验过程 (1)正式实验前被试要先进行几次类似练习,以熟悉按键反应。 (2)被试坐在电脑前,接受相同的指导语。其指导语为:“在接下 来的一段时间里你将继续进行此类题目的正式作答,请用心作答”。被试按键确认后即开始正式实验、期间不再中断休息。 (3)使用主试自编计算机视觉搜索程序,每帧呈现一副面部表情图 片,每幅图片呈现的间隔时间一致,随机播放图片。每种表情的图片都有10 张,每张呈现2 次,共呈现20 次,所有表情图片共呈现80 次。痛苦按 “1 ”键、微笑按“2”键、悲哀按“3”键、快乐按“4 ”键。 其中第1 小组只对痛苦做反应、2 小组只对微笑做反应、3 小组只对悲哀做反应、4 小组只对快乐做反应。每出现一幅图要求被试按对应的反应键,计算机自动记录反应时间和正确率。

2019年微表情识别-读脸读心考试答案

2019年微表情识别-读脸读心最新满分考试答案 一、单选题(题数:40,共分) 1.愉悦的识别要点包括的表情形态和意义,以下错误的是()A A.瞪眼 B.咧嘴 C.嘴角上扬 D.超乎预期的满足和开心 2. 微表情是指持续时间多长的表情() B A、1/2秒 B、不足1/5秒 C、5秒 D、以上都不对 3. 关于猜测选放的墙的测试哪一项描述是错误的()B A、李博士回应天蝎座,b型血、警号3867问题时目光低视,摇头说我不知道是控制的对抗反应 B、在听到十八岁那年考上了海洋大学出现快速眨眼,点头是思考比对时的真实反应 C、在听到这成为了您神探之路的起点时出现连连点头是高度认同的下意识反应 D、人在接受有效刺激时也能完全控制自己的情绪反应 4. 冻结反应的形态意义哪一项描述是错误的()D A、面部的惊讶 B、肢体的约束 C、呼吸的控制 D、肢体冰冷 5. 有意控制的动作的形态意义哪一项描述是错误的()D A、可以出现在面部表情 B、可以出现在身体动作 C、可以出现在站姿或坐姿 D、可以控制出汗或面部颜色 6. 国内探索微表情应用研究的实战机构不包括哪些()D A、公安机构 B、检察机构 C、安全机构 D、环保机构 7. 反应性行为的形态意义哪一项描述是错误的() D

A、包括副语言行为 B、包括头部反应 C、是难以自主控制的生理反应 D、是可以自主控制的生理反应 8. 关于表达者表达解析哪一项描述是正确的() B A、疏忽几个表情动作的观察不影响准确判断其真实内心 B、是准确认识表达者内心的基础和前提 C、只要盯着其眼动反应就能准确判断其真实内心 D、只要关注其情绪与事件性质是否一致就能准确判断其真实内心 9. 爱恨反应的形态意义哪一项描述是错误的() D A、爱的时候会主动亲近对方 B、恨的时候会主动拉开距离 C、身体间的距离,可以体现出人和人之间的心理距离 D、人的内心的喜爱与厌恶是不能从表情动作中表达出来的 10. 保罗·埃克曼研究的微表情主要在哪个领域() C A、身体动作 B、副语言 C、面部表情 D、以上都不对 11. 仰视反应的形态意义哪一项描述是错误的() D A、头和肢体向上是正仰视反应 B、头和肢体向下是负仰视反应 C、有身份地位差异的握手是正或负仰视反应的体现 D、头和肢体远离刺激源 12. 关于松明猜测硬币藏匿手的测试哪一项描述是错误的()D A、王力宏上台即双手叉腰或抱胸是紧张的对抗反应 B、询问喜欢的颜色及血型的用意是找回答真实的基线反应 C、一般而言人们习惯于多用或首先使用顺手 D、使用顺手是不自信的表现 13. 关于这场猜测锁匙位置的测试哪一项描述是错误的() D A、李博士将锁匙放在6墙-8行-8列却在卡片上写6墙-8行-9列是动用了反测试策略 B、这种反测试策略的核心就就是强化不真实遗忘真实 C、这种反测试策略属于意识转移类的精神反测试 D、李博士反测试没有获得成功 14. 关于情绪“干扰点”哪一项描述是错误的() D A、有意控制行为 B、经历带入反应

幼儿表情识别实验报告

幼儿表情识别实验报告 摘要在情绪活动中,人的面部、姿态和语音、语调会发生一系列明显的变化,这些变化因为可被他人直接观察到,往往成为情绪活动的表征,所以统称为“表情”。它包括面部表情、姿态表情和语调表情。面部表情为人际交流提供了丰富的个人信息和社会交往信息。本实验采用了表情指认的范式,探讨学前儿童对于高兴、好奇、伤心、害怕、讨厌和愤怒等6种面部表情的识别特点。结果发现,大中小班的儿童均对于“高兴”和“好奇”等积极情绪的表情识别成绩最好,对于“愤怒”的识别成绩最差,其他消极情绪的识别成绩居于之间。随着年龄增长,儿童对于以上6种基本表情(特别是高兴、好奇和生气)的识别能力也逐渐增强。 关键词学前儿童面部表情识别 1 引言 在情绪活动中,人的面部、体姿和语音、语调会发生一系列明显的变化,例如:面红耳赤、目瞪口呆、手舞足蹈、语无伦次等等。这些变化因为可被他人直接观察到,往往成为情绪活动的表征,所以统称为“表情”。表情是情绪活动所特有的外显表现,是人际交往的重要工具,也是研究情绪的重要客观指标。它包括面部表情、姿态表情和语调表情。其中最引人关注,也是非常重要的表情就是面部表情。(邹巍,2007) 面部表情是指通过眼部肌肉、颜面肌肉和口部肌肉的变化来表现各种情绪状态。面部表情是情绪的发生机制,它是最敏感的情绪发生器,也是显示器。同时,面部表情也可以被定义成面部肌肉的特定运动模式。这些特殊的肌肉和其他肌肉组织不同,并不负责关节运动的功能,而仅仅用来专门承担面部表情的表达任务。表情的独特地位从其生理基础就可见一斑。 面部表情的重要性在于它是人类情绪最为明显的外显形式,是人际交往中传递情绪的主要媒介。面部表情为人际交流提供了一套快捷、有效的符号系统,使得个体情绪不需要依赖言语就能准确地被传递出来。它包含丰富的个人信息和社会交往信息,同时还传达出一些有关人的认知、行为、性情、个性、气质、真实性和心理的信息。当看到不同面孔时,人能轻易地识别同一种表情,这就是所谓的面部表情识别。这种机能,在人类的生存活动和种族演进中具有重要的生物适应价值和社会交际功能。 那么,人类从何时开始能够识别不同的面部表情呢?以往研究发现,婴儿早在3个月时就能区分通过图片呈现的一些基本面部表情的模式,如愉快、悲伤和惊奇等,到 7个月时已能对一些基本积极表情进行表情意义上的归类识别,即可以跨情境、跨面孔地抽取出它们的表情模式(梅冬梅等, 2013)。利用习惯化与去习惯化的实验范式,研究者还发现,10个月大的婴儿可以区分高级分组的积极情绪(快乐+惊奇)与高级分组的消极情绪(愤怒+恐惧)。 关于面部表情模式的研究,贡献较大的是Izard和P. Ekman。他们通过婴儿面部表情提出了特定的基本情绪的面部模式和标定的标准,并从而得出人类基本情绪的类别。Ekman制订了一个以面部肌肉运动成分为基础的情绪测量系统,称为“面部表情编码技术”(FAST)。FAST把面部分为:(1)额-眉区,(2)眼-睑区,(3)鼻颊-口唇区三个部位,以照片为标本确定每一部位的肌肉运动变化,从而提出愉快、惊奇、悲伤、厌恶、愤怒和惧怕六种情绪。Ekman和Frieser又把FAST修改为“面部运动编码系统”(FACS)。FACS是以解剖为基础,标定面部肌肉运动,分辨出和FAST相同的六种情绪。Izard和Dougherty提出了“最大限度辨别面部肌肉运动编码系统”(Max),能辨认兴趣、愉快、惊奇、悲伤、愤怒、厌恶、轻蔑、惧怕和生理不适的痛苦9种基本情绪。

2019版微表情识别·读脸读心答案

微表情涵义·由来 1 【单选题】微表情是指持续时间多长的表情()B A、1/2秒 B、不足1/5秒 C、5秒 D、以上都不对 2 【多选题】下面哪些描述符合微表情的特征()ABCD A、时间不足1/5秒 B、受到有效刺激后的反应 C、不由自主地表现出来 D、表达内心的真实情感 3 【判断题】表情是表现在面部或姿态上的情感信息。()正确保罗·埃克曼的贡献 1 【单选题】保罗·埃克曼研究的微表情主要在哪个领域()C A、身体动作 B、副语言 C、面部表情 D、以上都不对 2 【多选题】保罗·埃克曼研究微表情的主要贡献有哪些()ABCD A、完成面部表情编码 B、编撰并发布FACS—AU教程 C、研发微表情训练工具(Meet) D、人际欺骗研究 3

【判断题】独立发现并深入研究微表情的学者是保罗·埃克曼。()错误 国内·应用研究概况 1 【单选题】 国内探索微表情应用研究的实战机构不包括哪些()D A、公安机构 B、检察机构 C、安全机构 D、环保机构 2 【判断题】 受到lie to me 传播的影响国内业界开始关注并研究微表情。()正确 3 【判断题】 国内研究微表情的专业团队主要有中科院心理研究所傅小兰团队、中国人民政法大学姜振宇团队和上海政法学院范海鹰团队。()正确 教学模式·教学环节 1 【单选题】微表情识别读脸读心课程宜采用哪种教学模式()D A、理论讲授式 B、实操训练式 C、案例观摩式 D、A+B+C 2 【多选题】微表情识别读脸读心课程的教学模式包括哪些教学环节()ABC

A、理论讲授 B、案例教学 C、实操训练 D、以上都不对 3 【判断题】微表情识别读脸读心是一本应用技术类课程。()正确 案例教学1:《非常了得·我是飞机调度员》 1 【多选题】影响误判事件为假的主要影响因素是什么()BD A、所提问题不够有效 B、观察者先入为主的经验带入 C、扮演者说到飞机晚点时出现的羞愧 D、回应印象最深刻的一次调度有多麻烦时的回避 实操训练1:《真真假假·我曾喝过将军泡的茶》 1 【多选题】支持判断事件为假的表情动作有哪些()ABCD A、讲述主题时眼睛向左瞟,而在讲述事件过程时眼睛有几次向右瞟。 B、讲述事件过程时出现左手揪裤子动作,讲完后有个明显的吞咽动作。 C、讲到坐着有3个人、我坐在边上时眼睛向右瞟,而在回应宿舍住在哪个 位置时眼睛向左瞟。 D、回应喝的茶是什么颜色的问题时说茶,绿色吧(不肯定) 微表情产生原理 1 【单选题】埃克曼认为在人类情绪产生及表达过程中起着重要作用的是()B A、有用的联合性习惯原理 B、大脑中的自动评估系统群 C、对立原理 D、神经系统直接作用原理 2 【多选题】微表情产生的可能机制包括哪些环节()ABCD

2019年微表情识别-读脸读心最新考试答案

2019 年微表情识别- 读脸读心最新满分考试答案 一、单选题(题数:40 ,共40.0 分) 1. 愉悦的识别要点包括的表情形态和意义,以下错误的是?() A A. 瞪眼 B. 咧嘴 C. 嘴角上扬 D. 超乎预期的满足和开心 2. 微表情是指持续时间多长的表情?() B A、1/2 秒 B、不足1/5 秒 C、5 秒 D、以上都不对 3. 关于猜测选放的墙的测试哪一项描述是错误的?()B A 、李博士回应天蝎座,b 型血、警号3867 问题时目光低视,摇头说我不知道是控制的对抗反应 B、在听到十八岁那年考上了海洋大学出现快速眨眼,点头是思考比对时的真实反应 C、在听到这成为了您神探之路的起点时出现连连点头是高度认同的下意识反应 D、人在接受有效刺激时也能完全控制自己的情绪反应 4. 冻结反应的形态意义哪一项描述是错误的?()D A、面部的惊讶 B、肢体的约束 C、呼吸的控制 D、肢体冰冷 5. 有意控制的动作的形态意义哪一项描述是错误的?()D A、可以出现在面部表情 B、可以出现在身体动作 C、可以出现在站姿或坐姿 D、可以控制出汗或面部颜色

6. 国内探索微表情应用研究的实战机构不包括哪些?() D A 、公安机构 B、检察机构 12. 关于松明猜测硬币藏匿手的测试哪一项描述是错误的?()D

C、安全机构 D、环保机构 7. 反应性行为的形态意义哪一项描述是错误的?() D A、包括副语言行为 B、包括头部反应 C、是难以自主控制的生理反应 D、是可以自主控制的生理反应 8. 关于表达者表达解析哪一项描述是正确的?() B A、疏忽几个表情动作的观察不影响准确判断其真实内心 B、是准确认识表达者内心的基础和前提 C、只要盯着其眼动反应就能准确判断其真实内心 D、只要关注其情绪与事件性质是否一致就能准确判断其真实内心 9. 爱恨反应的形态意义哪一项描述是错误的?() D A 、爱的时候会主动亲近对方 B、恨的时候会主动拉开距离 C、身体间的距离,可以体现出人和人之间的心理距离 D、人的内心的喜爱与厌恶是不能从表情动作中表达出来的 10. 保罗·埃克曼研究的微表情主要在哪个领域?() C A、身体动作 B、副语言 C、面部表情 D、以上都不对 11. 仰视反应的形态意义哪一项描述是错误的?() D A、头和肢体向上是正仰视反应 B、头和肢体向下是负仰视反应 C、有身份地位差异的握手是正或负仰视反应的体现 D、头和肢体远离刺激源

人脸表情识别概述

2011.8 77 人脸表情识别概述 韦妍 广东女子职业技术学院 广东 511450 摘要:人脸表情识别是智能化人机交互技术中的一个重要组成部分,现在是越来越受到重视。本文阐述了人脸表情识别的课题背景及其起源、发展与研究现状,并结合国内外相关领域的发展,从特征提取方面对目前表情识别的主流方法做了详细介绍,并提出了人脸表情识别中需要解决的问题。 关键词:人脸表情识别;特征提取 0 引言 人脸表情是人们之间非语言交流时的最丰富的资源和最容易表达人们感情的一种有效方式,在人们的交流中起着非常重要的作用。表情含有丰富的人体行为信息,是情感的主载体,通过脸部表情能够表达人的微妙的情绪反应以及人类对应的心理状态,由此可见表情信息在人与人之间交流中的重要性。人脸表情识别技术随着人们对表情信息的日益重视而受到关注,成为目前一个研究的热点。所谓人脸表情识别,就是利用计算机进行人脸表情图像获取、表情图像预处理、表情特征提取和表情分类的过程,它通过计算机分析人的表情信息,从而推断人的心理状态,最后达到实现人机之间的智能交互。表情识别技术是情感计算机研究的内容之一,是心理学、生理学、计算机视觉、生物特征识别、情感计算、人工心理理论等多学科交叉的一个极富挑战性的课题,它的研究对于自然和谐的人机交互、远程教育、安全驾驶等都有重要的作用和意义。 1 国内外研究的发展与现状 国际上对人脸表情的分析与识别的研究工作可分为基于心理学和计算机两类。早在1872年,生物学家达尔文所做的心理实验就表明,面部表情的含义不会随着国家、种族、性别的不同而不同。1978年美国心理学家Ekman 和Friesen 开发了面部动作编码系统(Facial Action coding system ,FACS),以此来检测面部表情的细微变化。在这个系统中, 他将表情分为六个基本类别:悲伤、高兴、恐惧、厌恶、愤怒和惊奇,说明了与无表情人脸特征相比,这六种表情的人脸特征具有相对独特的肌肉运动规律。后来大多数学者的研 究都是建立在FACS 系统的基础上的,所以说这一系统的提出具有里程碑的意义。 计算机方面,最初对表情识别做了尝试的是Suwa 和Sugie 等人。1978年,他们对选定的连续图像序列中脸部固 定的20个点进行跟踪识别, 并与原型模式((Prototype patterns)进行比较以实现识别。同年,Terzopoulous 和Waters 运用了简化的Ekman-Friesen 模型,用计算机产生人脸动画,同时也做了人脸视频序列的表情分析。直到1981年才有学者从肌肉角度的观点出发,用仿生学方法为面部表情建立模型。 到目前为止,人脸表情识别已经经过了四十多年的发展。尤其是近些年来,随着计算机软件技术的发展和硬件性能的提高,它更成为一个热门的研究课题。英国、美国、日本等经济发达国家和发展中国家如印度、新加坡都有专门的研究组进行这方面的研究。其中美国的麻省理工学院(MIT)的多媒体实验室的感知计算组、斯坦福大学、卡耐基梅隆大学(CMU)机器人研究所、东京大学、大阪大学的贡献尤为突出。 到目前为止,国外的人脸表情识别的方法大致可以分为五类: (1) 基于几何特征提取的方法 基于几何特征的表情识别是指对嘴、眉毛、鼻子、眼睛等这些人脸表情的显著特征的形状和位置变化进行定位和测量,确定它的形状、大小、距离及相互比例,进行表情识别的方法。Bourel 等人定义了面部特征点之间的九个距离并通过它们构建了表情特征向量进行表情分析。Chibelushi 等人也采用了面部几何特征点并采用Kanade-Tucas-Tomasi 特征点跟踪算法实现特征点跟踪,然后通过计算得到九个特征

面部表情识别实验报告

面部表情识别实验报告 作者:王顺兰学号:222011********* 西南大学政治与公共管理学院重庆400715 摘要:被实验将14名被试分为两组进行表情认知的实验,实验目的在于通过实验了解面部表情认知的基本特征,结果分别统计两组被试对各种面部表情正确判断的百分数,并对两组判断的平均正确率进行显著性检验,表明差异显著。对表情的认知符合“面部肌肉运动模式作为情绪标志的根据”这一论断,也符合面部动作编码系统。 关键词:情绪表情认知线索 一、实验目的与器材 实验目的:通过实验了解面部表情认知的基本特征。 实验器材: JGW-B型心理实验台速示器单元,记录用纸(2种,一为白纸,另一种为事先编制好编号与描述各种表情的语词的记录纸) 面部表情卡片6张 注视点卡片1张 二、实验程序 接通电源,打开速示器开关,灯亮。在“工作方式”栏,选择A为“定时”,B为“背景”,选“A-B”顺序方式;“时间选择栏”,A定为“5000”,B选为“背景”。被试坐在桌前观察窗口,两眼注视中心;注视点卡片输入B视场,表情卡片依次输入A视场。 将全体被试分为相等的2个组,A组被试发给事先编好的记录纸。指导语:请你一张一张的看一些与记录纸上情绪是一致的表情图片,你判断是那种表情,就在相应的位置“√”。 B组发给一张白纸,指导语:看表情图片描述为何种表情,并按呈现顺序写在白纸上。两组被试呈现卡片的顺序相同。并且不允许两组之间互通信息。 每个被试测试完毕后,主试询问他们是用什么辅助方法判断表情的? A:模仿面部表情并体验 B:想象适合面部表情的情绪 C:联想过去的经验 D:其他程序和线索

三、实验结果 分别统计两组对面部表情正确判断的百分数并对两组判断的平均正确率进行显著性检验 表情认知的线索 如下表 表1:组一的实验结果 组一正确个数百分比 1 6 100% 2 6 100% 3 6 100% 4 6 100% 5 3 50% 6 6 100% 7 6 100% 平均 5.5 91.7% 表2:组二的实验结 组二正确个数百分比 1 1.5 25% 2 2.5 41% 3 4.5 75% 4 / / 5 2.5 41% 6 4 66% 7 0.5 8% 平均 2.5 41%

基于深度学习的面部表情识别研究与实现

基于深度学习的面部表情识别研究与实现 面部表情识别在视频识别领域是一个具有挑战性的课题,从视频中提取出具有判别性的特征来识别面部表情变化的细微差距仍有一 定的难度。近年来,深度神经网络(DNN)在基于静态图像的面部表情识别任务中,表现出了优于传统方法的优势。但是经典深度神经网络并不善于提取动态视频中的时序特征,再加上训练数据的缺乏,对于复 杂环境下的视频表情识别,DNN还没有达到令人满意的程度。为了提高复杂环境下的视频面部表情识别的准确率,本文提出了一种基于深度学习的多模态融合网络模型。该融合网络融合了三个模块的分类结果,每个模块都是一个完整独立的深度神经网络,能够识别视频片段 中的面部表情。本文主要工作如下:第一,提出了一种可以识别视频中面部表情的三维卷积神经网络。该网络对二维Inception-ResNet在时间维度上进行了扩展。并与LSTM单元结合,共同提取视频片段中的时空关系。此外,该网络还引入了人脸关键点,以突出对表情变化有显著贡献的面部区域。第二,为了从面部图像序列中提取高级情感特征,本文对VGG-FACE网络进行了微调。在此基础上,引入了LSTM单元, 构成一个VGG-LSTM结构,由VGG提取人脸特征,再由LSTM捕捉面部变化。第三,提出了一种结合人工高级统计特征(HSF)与卷积循环网络(CRNN)特征的双通道网络模型。旨在共同学习具有较好识别性能的情感特征,从音频中获取更丰富的情感信息。第四,探讨了多种融合方法,建立多模态融合网络模型,在实验基础上对上述三个模块的分类结果进行融合,以提高面部表情识别的性能。本文所提出的融合网络在

AFEW数据集上达到了59.5%的识别准确率。实验结果表明,将三维卷积网络、循环神经网络以及音频模型相结合可以显著提高对视频中面部表情的识别能力。

相关文档
最新文档