表情识别应用1

表情识别应用1
表情识别应用1

The Painful Face–Pain Expression Recognition Using

Active Appearance Models

Ahmed Bilal Ashraf?bilal@https://www.360docs.net/doc/369044640.html,

Simon Lucey?

slucey@https://www.360docs.net/doc/369044640.html,

Jeffrey F.Cohn??

jeffcohn@https://www.360docs.net/doc/369044640.html,

Tsuhan Chen?tsuhan@https://www.360docs.net/doc/369044640.html,

Zara Ambadar?ambadar@https://www.360docs.net/doc/369044640.html,

Ken Prkachin?kmprk@unbc.ca

Patty Solomon§

solomon@mcmaster.ca

Barry-John Theobald?

b.theobald@uea.a

https://www.360docs.net/doc/369044640.html,

ABSTRACT

Pain is typically assessed by patient self-report.Self-reported

pain,however,is di?cult to interpret and may be impaired

or not even possible,as in young children or the severely

ill.Behavioral scientists have identi?ed reliable and valid

facial indicators of pain.Until now they required manual

measurement by highly skilled observers.We developed an

approach that automatically recognizes acute pain.Adult

patients with rotator cu?injury were video-recorded while

a physiotherapist manipulated their a?ected and una?ected

shoulder.Skilled observers rated pain expression from the

video on a5-point Likert-type scale.From these ratings,

sequences were categorized as no-pain(rating of0),pain

(rating of3,4,or5),and indeterminate(rating of1or2).

We explored machine learning approaches for pain-no pain

classi?cation.Active Appearance Models(AAM)were used

to decouple shape and appearance parameters from the dig-

itized face images.Support vector machines(SVM)were

used with several representations from the https://www.360docs.net/doc/369044640.html,ing a

leave-one-out procedure,we achieved an equal error rate of

19%(hit rate=81%)using canonical appearance and shape

features.These?ndings suggest the feasibility of automatic

pain detection from video.

e

07

(a)

(b)

(c)

(d)

Figure1:Examples of temporally subsampled sequences.(a)and(c):Pain;(b)and(d):No Pain

expressions related to emotion[16,17].While much of this e?ort has used simulated emotion with little or no head mo-tion,several systems have reported success in facial action recognition in real-world facial behavior,such as people ly-ing or telling the truth,watching movie clips intended to elicit emotion,or engaging in social interaction[3,5,18].In real-world applications and especially in patients experienc-ing acute pain,out-of-plane head motion and rapid changes in head motion and expression are particularly challenging. Extending the approach of[14],we applied machine learn-ing to the task of automatic pain detection in a real-world clinical setting involving patients undergoing assessment for pain.

In machine learning,the choice of representation is known to in?uence recognition performance[10].Both appear-ance and shape representations have been investigated.Ex-amples of appearance based representations are raw pixels and Gabor?lters[1,2].A drawback of appearance based approaches is that they lack shape registration,and thus cannot locate vital expression indicators,such as the eyes, brows,eyelids,and mouth.

Shape-based representations,which include Active Shape Models[6]and Active Appearance Models(AAM)[6,15]ad-dress this concern.They decouple shape and appearance and perform well in the task of expression recognition,es-pecially in the context of non-rigid head motion[19].In our previous work[14],we explored various representations derived from AAMs and concluded that this decoupling be-tween shape and appearance was indeed bene?cial for action unit recognition.In this paper we extend our work based on AAM representations to pain expression recognition.2.IMAGE DATA

Image data were from the UNBC-McMaster Shoulder Pain Expression Archive,which includes video clips for129sub-jects(63male,66female).Each subject was seen in“active”and“passive”conditions.In the active condition,subjects initiated shoulder rotation on their own;in passive,a phys-iotherapist was responsible for the movement.Camera angle for active tests was approximately frontal to start;camera angle for passive tests was approximately70degrees to start. Following each movement,subjects completed a10cm Vi-sual Analog Scale to indicate their level of subjective pain. The scale was presented on paper,with anchors of“no pain”and“worst pain imaginable”.Video of each trial was then rated by an observer with considerable training in the iden-ti?cation of pain expression,using a0(no pain)–5(strong pain)Likert-type scale.Reliability of coding was estab-lished with a second coder,pro?cient in Facial Action Cod-ing System(F ACS)[11].The Pearson correlation between the observers’ratings on210randomly selected tests was 0.80.Correlation between observer rating and subject self-reported pain on VAS was0.74,for the tests used for recog-nition of pain from no pain.This correlation suggests mod-erate to high concurrent validity for pain intensity.For the current study,we included subjects in the active condition who had one or more pain ratings of both pain(0)and no-pain(3,4,or5).Fifty eight subjects met this initial cri-terion.Of these58,31were excluded for reasons including face out of frame,glasses,facial hair,bad image quality,oc-clusion,and hair in face.The?nal sample consisted of21 subjects.

Videos were captured at a resolution of320x240,out of which the face area spanned an average of approximately

140x200(28000)pixels.Sample pain sequences are shown in Figure1.

3.AAM S

In this section we brie?y describe Active Appearance Mod-els(AAMs).The key dividend of AAMs is that they provide a decoupling between shape and appearance of a face image. Given a pre-de?ned linear shape model with linear appear-ance variation,AAMs have been demonstrated to produce excellent alignment of the shape model to an unseen im-age containing the object of interest.In general,AAMs?t their shape and appearance components through a gradient descent search,although other optimization methods have been employed with similar results[6].Keyframes within each video sequence were manually labeled,while the re-maining frames were automatically aligned using a gradient-descent AAM?t described in[15].

3.1AAM Derived Representations

The shape s of an AAM[6]is described by a2D trian-gulated mesh.In particular,the coordinates of the mesh vertices de?ne the shape s(see row1,column(a),of Fig-ure2for examples of this mesh).These vertex locations correspond to a source appearance image,from which the shape was aligned(see row2,column(a),of Figure2).Since AAMs allow linear shape variation,the shape s can be ex-pressed as a base shape s0plus a linear combination of m shape vectors s i:

s=s0+

m

i=1

p i s i(1)

where the coe?cients p=(p1,...,p m)T are the shape pa-rameters.These shape parameters can typically be divided into similarity parameters p s and object-speci?c parame-ters p o,such that p T=[p T s,p T o].Similarity parameters are associated with the geometric similarity transform(i.e., translation,rotation and scale).The object-speci?c parame-ters,are the residual parameters representing geometric vari-ations associated with the actual object shape(e.g.,mouth opening,eyes shutting,etc.).Procrustes alignment[6]is employed to estimate the base shape s0.

Once we have estimated the base shape and shape pa-rameters,we can normalize for various variables to achieve di?erent representations as outlined in the following subsec-tions.

3.1.1Similarity Normalized Shape,s n

As the name suggests,this representation gives the vertex locations after all similarity variation(translation,rotation and scale)has been removed.The similarity normalized shape s n can be obtained by synthesizing a shape instance of s,using Equation1,that ignores the similarity parameters of p.An example of this similarity normalized mesh can be seen in row1,column(b),of Figure2.

3.1.2Similarity Normalized Appearance,a n

This representation contains appearance from which sim-ilarity variation has been removed.Once we have similarity normalized shape s n,as computed in section3.1.1,a sim-ilarity normalized appearance a n can then be synthesized by employing a piece-wise a?ne warp on each triangle patch appearance in the source image(see row2,column(b),of Figure2)so the appearance contained within s now aligns with the similarity normalized shape s n.

3.1.3Shape Normalized Appearance,a0

If we can remove all shape variation from an appearance, we’ll get a representation that can be called as shape nor-malized appearance,a0.a0can be synthesized in a similar fashion as a n was computed in section3.1.2,but instead ensuring the appearance contained within s now aligns with the base shape s0.We shall refer to this as the face’s canon-ical appearance(see row2,column(c),of Figure2for an example of this canonical appearance image)a0.

3.2Features

Based on the AAM derived representations in Section3.1 we de?ne three representations:

S-PTS:similarity normalized shape s n representation(see Equation1)of the face and its facial features.There

are68vertex points in s n for both x?and y?co-

ordinates,resulting in a raw136dimensional feature

vector.

S-APP:similarity normalized appearance a n representa-tion.Due to the number of pixels in a n varying from

image to image,we apply a mask based on s0so that

the same number of pixels(approximately27,000)are

in a n for each image.

C-APP:canonical appearance a0representation where all shape variation has been removed from the source

appearance except the base shape s0.This results in an

approximately27,000dimensional raw feature vector

based on the pixel values within s0.

The naming convention S-PTS,S-APP,and C-APP will be employed throughout the rest of this paper.

4.SVM CLASSIFIERS

Support vector machines(SVMs)have been proven useful in a number of pattern recognition tasks including face and facial action recognition.Because they are binary classi?ers, they are well suited to the task of Pain Vs No Pain classi?ca-tion.SVMs attempt to?nd the hyper-plane that maximizes the margin between positive and negative observations for a speci?ed class.A linear SVM classi?cation decision is made for an unlabeled test observation x?by,

w T x?

true

?

false

b(2)

where w is the vector normal to the separating hyperplane and b is the bias.Both w and b are estimated so that they minimize the structural risk of a train-set,thus avoiding the possibility of over?tting to the training data.Typically,w is not de?ned explicitly,but through a linear sum of support vectors.As a result SVMs o?er additional appeal as they allow for the employment of non-linear combination func-tions through the use of kernel functions,such as the radial basis function(RBF),polynomial and sigmoid kernels.A linear kernel was used in our experiments due to its ability to generalize well to unseen data in many pattern recogni-tion tasks[13].Please refer to[13]for additional information on SVM estimation and kernel selection.

Figure 2:Example of AAM Derived Representations (a)Top row :input shape(s),Bottom row :input image,(b)Top row:Similarity Normalized Shape(s n ),Bottom Row:Similarity Normalized Appearance(a n ),(c)Top Row:Base Shape(s 0),Bottom Row:Shape Normalized Appearance(a 0)

Frame # 10 Frame # 20 Frame # 29 Frame # 150 Frame # 300

(a)

0.9

11.11.21.3(b)

Figure 3:Example of Video Sequence Prediction (a)Sample frames from a pain-video sequence with their

frame indices,(b)Scores for individual frames.Points corresponding to the frames shown in (a)are high-lighted.For the example sequence shown,a cumulative score D sequence =

T i =1d i =195was computed and compared to the derived equal error threshold of ?3(as explained in Section 5.2)to yield an output decision of ‘Pain’

5.EXPERIMENTS

5.1Pain Model Learning

To ascertain the utility of various AAM representations, di?erent classi?ers were trained by using features of Sec-tion3.2in the following combinations:

S-PTS:similarity normalized shape s n

S-APP:similarity normalized appearance a n

C-APP+S-PTS:canonical appearance a0combined with the similarity normalized shape s n

To check for subject generalization,a leave-one-subject-out strategy was employed for cross validation.Thus,there was no overlap of subjects between the training and test-ing set.The number of training frames from all the video sequences was prohibitively large to train an SVM,as the training time complexity for SVM is O(m3),where m is the number of training examples.In order to make the step of model learning practical,while making the best use of training data,each video sequence was?rst clustered into a preset number of clusters.Standard K-Means clustering algorithm was used,with K set to a value that reduces the training set to a size manageable by SVM.

Linear SVM training models were learned by by itera-tively leaving one subject out,which gives rise to N number of models,where N is the number of subjects.Since the ground truth was available at the level of an entire video sequence,all the clusters belonging to a pain containing se-quence were considered as positive(pain)examples,while clusters belonging to‘no pain’sequence were counted as neg-ative(no pain)training examples.

5.2Video Sequence Prediction

While learning was done on clustered video frames,testing was carried out on individual frames.The output for every frame was a score proportional to the distance of test-point from the separating hyperplane.

In order to predict a video as a pain sequence or not,the output scores of individual frames were summed together to give a cumulative score for the entire sequence:

D sequence=

T

i=1

d i(3)

where d i is the output score for the i th frame and T is the total number of frames in the sequence.

Having computed the sequence level cumulative score in Equation3,we seek a decision rule of the form:

D sequence

pain

?

no pain

T hreshold(4)

Using this decision rule,a threshold was set such that false accept rate equaled false reject rate(i.e.,equal error rate point was computed).Output scores for a sample se-quence along with the implementation of decision rule is shown in Figure3.The score values track the pain expres-sion,with a peak response corresponding to frame29shown in Figure3(a).

Features Hit Rate

0.2899

S-APP0.4655

0.1879

Table1:Results of experiments performed in sec-tion 5.Column1indicates the features used for training,Columns2and3represent the correspond-ing Equal-Error and Hit Rates respectively

6.RESULTS

Table1shows equal-error rates(EER)using each of the representations.It is intuitively satisfying that the results highlight the importance of shape features for pain expres-sion.The best results(EER=0.1879,Hit Rate:0.8121) are for canonical appearance combined with similarity nor-malized shape(C-APP+S-PTS).This result is consistent with our previous work[14],in which we used AAMs for facial action unit recognition.

It is surprising,however,that similarity normalized appear-ance features(S-APP)performed at close-to-chance levels despite the fact that this representation can be fully derived from canonical appearance and similarity normalized shape. S-PTS combined with C-APP may add additional dimen-sions that aid in?nding an optimal separating hyperplane between two classes.

7.DISCUSSION

In this paper,we have explored various face representa-tions derived from AAMs for recognizing facial expression of pain.We have demonstrated the utility of AAM represen-tations for the task of pain-no pain classi?cation.We have also presented a method to handle large training data when learning SVM models.Some conclusions of our experiments are:

?Use of concatenated similarity normalized shape and

shape normalized appearance(S-PTS+C-APP)is su-

perior to either similarity normalized shape(S-PTS)or

similarity normalized appearance(S-APP)alone.

?Shape features have an important role to play in ex-

pression recognition generally,and pain detection par-

ticularly.

?Automatic pain detection through video appears to

be a feasible task.This?nding suggests an oppor-

tunity to build interactive systems to detect pain in

diverse populations,including infants and speech im-

paired adults.Additional applications for system de-

velopment include pain-triggered automatic drug dis-

pensation and discriminating between feigned and real

pain.

?Two limitations may be noted.One was the exclu-

sion of subjects wearing glasses or having facial hair,

which limits generalizability.A second limitation was

the availability of ground-truth at the level of video

recorded tests instead of the level of individual frames.

Not all frames in a pain sequence actually correspond

to pain.Providing a frame-level ground-truth could

assist the model-learning step and thus improve recog-

nition performance.This limitation can be overcome

either by expert labeling of frames or by automatic re-?nement of ground-truth by exploiting the information embedded in no-pain video sequences.Incorporating temporal information is also expected to positively in-?uence the performance.Based on our initial?ndings, further improvements on above lines can pave way to-wards developing automatic pain detection tools for clinical use.

8.ACKNOWLEDGMENTS

This research was supported by CIHR grant MOP77799 and NIMH grant MH51435

9.REFERENCES

[1]M.Bartlett,G.Littlewort,https://www.360docs.net/doc/369044640.html,inscesk,I.Fasel,and

J.Movellan.Machine learning methods for fully

automatic recognition of facial expressions and facial

actions.IEEE International Conference on Systems,

Man and Cybernetics,pages592–597,October2004.

[2]M.S.Bartlett,G.Littlewort,M.Frank,https://www.360docs.net/doc/369044640.html,inscesk,

I.Fasel,and J.Movellan.Recognizing facial

expression:Machine learning and application to

spontaneous behavior.IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2:568–573,

June2005.

[3]M.S.Bartlett,G.Littlewort,M.Frank,https://www.360docs.net/doc/369044640.html,inscsek,

I.Fasel,and J.Movellan.Fully automatic facial action

recognition in spontaneous behavior.Proceedings of

the IEEE International Conference on Automatic Face and Gesture Recognition,pages223–228,2006.

[4]J.F.Cohn,Z.Ambadar,and P.Ekman.

Observer-based measurement of facial expression with the facial action coding system.In J.A.Coan and

J.B.Allen,editors,The handbook of emotion

elicitation and assessment.Oxford University Press

Series in A?ective Science,pages203–221.Oxford

University Press,New York,NY,2007.

[5]J.F.Cohn and K.L.Schmidt.The timing of facial

motion in posed and spontaneous smiles.International Journal of Wavelets,Multiresolution and Information Processing,2:1–12,2004.

[6]T.Cootes,G.Edwards,and C.Taylor.Active

appearance models.PAMI,23(6):681–685,2001. [7]R.R.Cornelius.The science of emotion.Prentice

Hall,Upper Saddler River,New Jersey,1996.

[8]K.D.Craig,K.M.Prkachin,and R.V.E.Grunau.

The facial expression of pain.In D.C.Turk and

R.M.,editors,Handbook of pain assessment.Guilford, New York,2nd edition,2001.

[9]A.C.d.C.Williams,H.T.O.Davies,and

Y.Chadury.Simple pain rating scales hide complex

idiosyncratic meanings.Pain,85:457–463.

[10]R.O.Duda,P.E.Hart,and D.G.Stork.Pattern

Classi?cation.John Wiley and Sons,Inc.,New York, NY,USA,2nd edition,2001.

[11]P.Ekman,W.V.Friesen,and J.C.hager.Facial

action coding system:Research https://www.360docs.net/doc/369044640.html,work

Research Information,Salt Lake City,UT,2002. [12]T.Hadjistavropoulos and K.D.Craig.Social

in?uences and the communication of pain.In Pain:

Psychological perspectives,pages87–112.Erlbaum,

New York,2004.

[13]C.W.Hsu,C.C.Chang,and C.J.Lin.A practical

guide to support vector classi?cation.Technical

Report,2005.

[14]S.Lucey,A.B.Ashraf,and J.Cohn.Investigating

spontaneous facial action recognition through AAM

representations of the face.In K.Kurihara,editor,

Face Recognition Book.Pro Literatur Verlag,

Mammendorf,Germany,April2007.

[15]I.Matthews and S.Baker.Active appearance models

revisited.IJCV,60(2):135–164,2004.

[16]M.Pantic,A.Pentland,A.Niholt,and T.S.Huang.

Human computing and machine understanding of

human behavior:A survey.Proceedings of the ACM

International Conference on Multimodal Interfaces,

2006.

[17]Y.Tian,J.F.Cohn,and T.Kanade.Facial expression

analysis.In S.Z.Li and A.K.Jain,editors,Handbook of face recognition,pages247–276.Springer,New

York,NY,2005.

[18]M.F.Valstar,M.Pantic,Z.Ambadar,and J.F.

Cohn.Spontaneous vs.posed facial behavior:

Automatic analysis of brow actions.Proceedings of the ACM International Conference on Multimodal

Interfaces,pages162–170,November2006.

[19]J.Xiao,S.Baker,I.Matthews,and T.Kanade.(In

press).2d vs.3d deformable face models:

Representational power,construction,and real-time

?tting.International Journal of Computer Vision,

Springer Science.

人脸识别文献综述

文献综述 1 引言 在计算机视觉和模式识别领域,人脸识别技术(Face Recognition Technology,简称FRT)是极具挑战性的课题之一。近年来,随着相关技术的飞速发展和实际需求的日益增长,它已逐渐引起越来越多研究人员的关注。人脸识别在许多领域有实际的和潜在的应用,在诸如证件检验、银行系统、军队安全、安全检查等方面都有相当广阔的应用前景。人脸识别技术用于司法领域,作为辅助手段,进行身份验证,罪犯识别等;用于商业领域,如银行信用卡的身份识别、安全识别系统等等。正是由于人脸识别有着广阔的应用前景,它才越来越成为当前模式识别和人工智能领域的一个研究热点。 虽然人类能够毫不费力的识别出人脸及其表情,但是人脸的机器自动识别仍然是一个高难度的课题。它牵涉到模式识别、图像处理及生理、心理等方面的诸多知识。与指纹、视网膜、虹膜、基因、声音等其他人体生物特征识别系统相比,人脸识别系统更加友好、直接,使用者也没有心理障碍。并且通过人脸的表情/姿态分析,还能获得其他识别系统难以获得的一些信息。 自动人脸识别可以表述为:对给定场景的静态或视频序列图像,利用人脸数据库验证、比对或指认校验场景中存在的人像,同时可以利用其他的间接信息,比如人种、年龄、性别、面部表情、语音等,以减小搜索范围提高识别效率。自上世纪90年代以来,人脸识别研究得到了长足发展,国内外许多知名的理工大学及TT公司都成立了专门的人脸识别研究组,相关的研究综述见文献[1-3]。 本文对近年来自动人脸识别研究进行了综述,分别从人脸识别涉及的理论,人脸检测与定位相关算法及人脸识别核心算法等方面进行了分类整理,并对具有典型意义的方法进行了较为详尽的分析对比。此外,本文还分析介绍了当前人脸识别的优势与困难。 2 人脸识别相关理论 图像是人们出生以来体验最丰富最重要的部分,图像可以以各种各样的形式出现,我们只有意识到不同种类图像的区别,才能更好的理解图像。要建立一套完整的人脸识别系统(Face Recognetion System,简称FRS),必然要综合运用以下几大学科领域的知识: 2.1 数字图像处理技术 数字图像处理又称为计算机图像处理,它是指将图像信号转换成数字信号并利用计算机

人脸识别技术的应用背景及研究现状

1.人脸识别技术的应用 随着社会的不断进步以及各方面对于快速有效的自动身份验证的迫切要求,生物特征识别技术在近几十年中得到了飞速的发展。作为人的一种内在属性,并且具有很强的自身稳定性及个体差异性,生物特征成为了自动身份验证的最理想依据。当前的生物特征识别技术主要包括有:指纹识别,视网膜识别,虹膜识别,步态识别,静脉识别,人脸识别等。与其他识别方法相比,人脸识别由于具有直接,友好,方便的特点,使用者无任何心理障碍,易于为用户所接受,从而得到了广泛的研究与应用。除此之外,我们还能够对人脸识别的结果作进一步的分析,得到有关人的性别,表情,年龄等诸多额外的丰富信息,扩展了人脸识别的应用前景。当前的人脸识别技术主要被应用到了以下几个方面:(1)刑侦破案公安部门在档案系统里存储有嫌疑犯的照片,当作案现场或通过其他途径获得某一嫌疑犯的照片或其面部特征的描述之后,可以从数据库中迅速查找确认,大大提高了刑侦破案的准确性和效率。 (2)证件验证在许多场合(如海口,机场,机密部门等)证件验证是检验某人身份的一种常用手段,而身份证,驾驶证等很多其他证件上都有照片,使用人脸识别技术,就可以由机器完成验证识别工作,从而实现自动化智能管理。 (3)视频监控在许多银行,公司,公共场所等处都设有24小时的视频监控。当有异常情况或有陌生人闯入时,需要实时跟踪,监控,识别和报警等。这需要对采集到的图像进行具体分析,且要用到人脸的检测,跟踪和识别技术。 (4)入口控制入口控制的范围很广,既包括了在楼宇,住宅等入口处的安全检查,也包括了在进入计算机系统或情报系统前的身份验证。 (5)表情分析根据人脸图像中的面部变化特征,识别和分析人的情感状态,如高兴,生气等。此外,人脸识别技术还在医学,档案管理,人脸动画,人脸建模,视频会议等方面也有着巨大的应用前景。 2.人脸识别技术在国外的研究现状 当前很多国家展开了有关人脸识别的研究,主要有美国,欧洲国家,日本等,著名的研究机构有美国MIT的Media lab,AI lab,CMU的Human-Computer I nterface Institute,Microsoft Research,英国的Department of Engineerin g in University of Cambridge等。综合有关文献,目前的方法主要集中在以下几个方面: (1)模板匹配 主要有两种方法,固定模板和变形模板。固定模板的方法是首先设计一个或几个参考模板,然后计算测试样本与参考模板之间的某种度量,以是否大于阈值来判断测试样本是否人脸。这种方法比较简单,在早期的系统中采用得比较

《微表情识别读脸读心》2019期末考试题与答案

《微表情识别读脸读心》2019期末考试题与答 案 一、单选题(题数:40,共40.0 分) 1安慰反应的形态意义哪一项描述是错误的?() A、视线转移,频繁眨眼,闭眼(视觉安慰);轻哼,吹口哨,吁气(听觉安慰) B、舔嘴唇,磨牙,咀嚼,吞咽,吸烟; (口部安慰) C、挠头皮,玩头发,搓脖子;摸脸、额头、鼻子、耳朵、嘴、下巴;捂住锁骨,拍胸口,按摩腹部; 松领带、领口,玩项链、耳环等;搓手,玩手指; 抖腿等(肌肤安慰) D、身体约束僵住 答案:D 2关于这场猜测锁匙位置的测试哪一项描述是错误的?() A、李博士将锁匙放在6墙-8行-8列却在卡片上写6墙-8行-9列是动用了反测试策略 B、这种反测试策略的核心就就是强化不真实遗忘真实

C、这种反测试策略属于意识转移类的精神反测试 D、李博士反测试没有获得成功 答案:D 3关于辨析情绪的意义哪一项描述是错误的?() A、排除了干扰因素才能锁定刺激与情绪反应的因果联系 B、行为痕迹特征不能与说谎直接划等号 C、科学识别应该是找到差异点 D、回应刺激时视线向左表示回忆,视线向右表示编造 答案:D 4关于松明猜测硬币藏匿手的测试哪一项描述是错误的?() A、王力宏上台即双手叉腰或抱胸是紧张的对抗反应 B、询问喜欢的颜色及血型的用意是找回答真实的基线反应 C、一般而言人们习惯于多用或首先使用顺手 D、使用顺手是不自信的表现 答案:D

5逃离反应的形态意义哪一项描述是错误的?() A、吓了一跳、后退、头、身体、脚转向一边 B、深吸气,脸色发白,全身发冷,腿发颤 C、视线转移,坐姿、站姿角度扭转 D、面孔、肢体靠近刺激源 答案:D 6关于表达者表达解析哪一项描述是正确的?() A、疏忽几个表情动作的观察不影响准确判断其真实内心 B、是准确认识表达者内心的基础和前提 C、只要盯着其眼动反应就能准确判断其真实内心 D、只要关注其情绪与事件性质是否一致就能准确判断其真实内心 答案:B 7微表情是指持续时间多长的表情?() A、1/2秒 B、不足1/5秒

人脸表情识别

图像处理与模式识别 ------人脸表情识别介绍摘要:人脸表情是我们进行交往和表达情绪的一种重要手段,不经过特殊训练,人类对其面部表情往往很难掩饰,所以,通过对人脸表情进行分析,可以获得重要的信息。人脸表情识别是人机交互的智能化实现的一个重要组成部分,也是模式识别、图像处理领域的一个重要研究课题,近几年来,受到了越来越多的科研人员的关注。 本文综述了国内外近年来人脸表情识别技术的最新发展状况,对人脸表情识别系统所涉及到的关键技术: 人脸表情特征提取,做了详细分析和归纳。 关键词:人脸定位;积分投影;人脸表情识别;流形学习;局部切空间排列Abstract:Facial expression is a kind of important means that we communicate and express the special training, People often difficult to conceal their facial , by the analyzing facial expression, we can obtain important information. Facial expression recognition is an important component that the implementation of human-computer interaction, and an important research topic in the field of pattern recognition, image processing, in recent years, more and more researchers focus on this topic. In this paper,we present the latest development of this area,and give a detailed analysisand summary for facial

面部表情识别实验报告分析

面部表情识别实验 实验报告 小组成员: 面部表情识别实验 西南大学重庆 400715

摘要:情绪认知是一种复杂的过程,它包含观察、分析、判断、推理等,是借助于许多线索,特别是借助面部那些活动性更大的肌肉群的运动而实现的。所以,情绪认知的准确度受多种因素的影响。 当我们与他人相互交往的时候,不管是不是面对面。我们都正在不断的表达着情绪,同时又正在观察,解释着的对方做出的表情,在人际交往过程中,情绪的表达和认知是十分的迅速和及时,那么人是借助于哪些表情来认知他人的情绪的呢?情绪识别实际上并不是针对表情本身的,而是针对这它背后的意义。例如:皱眉可能是一种情绪的表现,我们见到这种面部表情就试图解释潜在于它背后的情绪。尖锐,短促,声音嘶哑可能是一种情绪表现,我们听到这种语言表情就试图解释潜在于它背后的情绪捶胸,顿足可能是一种情绪的表现,我们见到这种动作表情就是试图解释潜在于它背后的情绪。对于这个复杂的问题,心理学家曾经做过许多的研究。 面部表情认知的研究可分为两个步骤:第一步是面部表情刺激物的制作或选择,这可以用专门拍摄(录像)或图示来描画,也可以用完全装扮出的活生生的表情或自发的表情等。第二步时对表情进行识别评定。也可以用多种方法,如自由评定法,即让被试自由地对表情给出情绪词汇;或限制评定法,即向被试提供各种提供各种情绪词汇或情绪情境,要求被试只能根据所提供的情绪词汇或者情绪情境进行分类或者匹配等;或参照自由评定法,即向被试提供参考线索(如情境,人格特征等),让其说出所表达的情绪的词汇等。 关键词:情绪表情认知线索

1 前言 传统心理学把情绪列为心理现象的三大方面之一。情绪也是心理学理论体系中一个不可缺少的研究环节。情绪(emotion)是体验,又是反应;是冲动,又是行为;它是有机体的一种复合状态。情绪的表现有和缓的和激动的,细微的和强烈的,轻松的和紧张的等诸多形式,广泛地同其他心理过程相联系。自古以来,科学家们十分注意探讨情绪之奥妙,但与情绪的重要性不相适应的是,长期以来情绪研究一直是心理学尤其是实验心理学研究中的一个薄弱环节。造成这一现象的最主要原因是情绪所特有的复杂性以及由此衍生出来的情绪研究方法学上的困难。我国心理学家孟昭兰(1987)将理论认为面部表情是传递具体信息的外显行为面部表情是提供人们在感情上互相了解的鲜明标记。情绪过程既包括情绪体验,也包括情绪表现,而表情既是情绪的外部表现,也是情绪体验的发生机制;既是最敏锐的情绪发生器,也是最有效的情绪显示器。这就从机制上说明了以面部肌肉运动模式作为情绪标志的根据。 面部表情(facial expression_r)的发生是有其客观的物质基础的:表情按面部不同部位的肌肉运动而模式化,面部反应模式携带着心理学的意义,那就是或快乐、或悲伤等具体情绪。但是,对表情进行测量的原则在于:所要测量的是面孔各部位的肌肉运动本身,而不是面部所给予观察者的情绪信息。该实验将14名被试分为两组进行表情认知的实验,实验目的在于通过实验了解面部表情认知的基本

人脸检测和识别技术的文献综述

人脸识别技术综述 摘要:在阅读关于人脸检测识别技术方面文献后,本文主要讨论了人脸识别技术的基本介绍、研究历史,人脸检测和人脸识别的主要研究方法,人脸识别技术的应用前景,并且总结了人脸识别技术的优越性和当下研究存在的困难。 关键词:人脸识别;人脸检测;几何特征方法;模板匹配方法;神经网络方法;统计方法;模板匹配;基于外观方法; 随着社会的发展,信息化程度的不断提高,人们对身份鉴别的准确性和实用性提出了更高的要求,传统的身份识别方式已经不能满足这些要求。人脸识别技术(FRT)是当今模式识别和人工智能领域的一个重要研究方向.虽然人脸识别的研究已有很长的历史,各种人脸识别的技术也很多,但由于人脸属于复杂模式而且容易受表情、肤色和衣着的影响,目前还没有一种人脸识别技术是公认快速有效的[1]基于生物特征的身份认证技术是一项新兴的安全技术,也是本世纪最有发展潜力的技术之一[2]。 1. 人脸识别技术基本介绍 人脸识别技术是基于人的脸部特征,一个完整的人脸识别过程一般包括人脸检测和人脸识别两大部分,人脸检测是指计算机在包含有人脸的图像中检测出人脸,并给出人脸所在区域的位置和大小等信息的过程[3],人脸识别就是将待识别的人脸与已知人脸进行比较,得

出相似程度的相关信息。 计算机人脸识别技术也就是利用计算机分析人脸图象, 进而从中出有效的识别信息, 用来“辨认”身份的一门技术.人脸自动识别系统包括三个主要技术环节[4]。首先是图像预处理,由于实际成像系统多少存在不完善的地方以及外界光照条件等因素的影响,在一定程度上增加了图像的噪声,使图像变得模糊、对比度低、区域灰度不平衡等。为了提高图像的质量,保证提取特征的有有效性,进而提高识别系统的识别率,在提取特征之前,有必要对图像进行预处理操作;人脸的检测和定位,即从输入图像中找出人脸及人脸所在的位置,并将人脸从背景中分割出来,对库中所有的人脸图像大小和各器官的位置归一化;最后是对归一化的人脸图像应用人脸识别技术进行特征提取与识别。 2. 人脸识别技术的研究历史 国内关于人脸自动识别的研究始于二十世纪80年代,由于人脸识别系统和视频解码的大量运用,人脸检测的研究才得到了新的发展利用运动、颜色和综合信息等更具有鲁棒性的方法被提出来变形模板,弹性曲线等在特征提取方面的许多进展使得人脸特征的定位变得更为准确。 人脸识别的研究大致可分为四个阶段。第一个阶段以Bertillon,Allen和Parke为代表,主要研究人脸识别所需要的面部特征;第二个阶段是人机交互识别阶段;第三个阶段是真正的机器自动识别阶段;第四个阶段是鲁棒的人脸识别技术的研究阶段。目前,国外多所

人脸识别技术的应用背景及研究现状

人脸识别技术的应用背景及研究现状 1.人脸识别技术的应用 随着社会的不断进步以及各方面对于快速有效的自动身份验证的迫切要求,生物特征识别技术在近几十年中得到了飞速的发展。作为人的一种内在属性,并且具有很强的自身稳定性及个体差异性,生物特征成为了自动身份验证的最理想依据。当前的生物特征识别技术主要包括有:指纹识别,视网膜识别,虹膜识别,步态识别,静脉识别,人脸识别等。与其他识别方法相比,人脸识别由于具有直接,友好,方便的特点,使用者无任何心理障碍,易于为用户所接受,从而得到了广泛的研究与应用。除此之外,我们还能够对人脸识别的结果作进一步的分析,得到有关人的性别,表情,年龄等诸多额外的丰富信息,扩展了人脸识别的应用前景。当前的人脸识别技术主要被应用到了以下几个方面:(1)刑侦破案公安部门在档案系统里存储有嫌疑犯的照片,当作案现场或通过其他途径获得某一嫌疑犯的照片或其面部特征的描述之后,可以从数据库中迅速查找确认,大大提高了刑侦破案的准确性和效率。 (2)证件验证在许多场合(如海口,机场,机密部门等)证件验证是检验某人身份的一种常用手段,而身份证,驾驶证等很多其他证件上都有照片,使用人脸识别技术,就可以由机器完成验证识别工作,从而实现自动化智能管理。 (3)视频监控在许多银行,公司,公共场所等处都设有24小时的视频监控。当有异常情况或有陌生人闯入时,需要实时跟踪,监控,识别和报警等。这需要对采集到的图像进行具体分析,且要用到人脸的检测,跟踪和识别技术。 (4)入口控制入口控制的范围很广,既包括了在楼宇,住宅等入口处的安全检查,也包括了在进入计算机系统或情报系统前的身份验证。 (5)表情分析根据人脸图像中的面部变化特征,识别和分析人的情感状态,如高兴,生气等。此外,人脸识别技术还在医学,档案管理,人脸动画,人脸建模,视频会议等方面也有着巨大的应用前景。 2.人脸识别技术在国外的研究现状 当前很多国家展开了有关人脸识别的研究,主要有美国,欧洲国家,日本等,著名的研究机构有美国MIT的Media lab,AI lab,CMU的Human-Computer I nterface Institute,Microsoft Research,英国的Department of Engineerin g in University of Cambridge等。综合有关文献,目前的方法主要集中在以下几个方面:

自发表情识别方法综述

收稿日期:2015-04-03;修回日期:2015-05-26 基金项目:国家自然科学基金资助项目(61463034) 作者简介:何俊(1969-),男,江西东乡人,副教授,硕导,博士,主要研究方向为人机交互技术、模式识别等(boxhejun@tom.com);何忠文(1986-),男,江西九江人,硕士研究生,主要研究方向为人机交互技术、模式识别等;蔡建峰(1990-),男,河北人,硕士研究生,主要研究方向为人机交互;房灵芝(1988-),女,山东人,硕士研究生,主要研究方向为人机交互. 自发表情识别方法综述* 何 俊,何忠文,蔡建峰,房灵芝 (南昌大学信息工程学院,南昌330031) 摘 要:介绍了目前自发表情识别研究的现状与发展水平,详细阐述了自发表情识别研究的内容和方法,以及自发表情识别研究的关键技术,旨在引起研究者对此新兴研究方向的关注与兴趣,从而积极参与对自发表情识别问题的研究,并推动与此相关问题的进展。关键词:表情识别;自发表情;特征提取 中图分类号:TP391.41 文献标志码:A 文章编号:1001-3695(2016)01-0012-05doi:10.3969/j.issn.1001-3695.2016.01.003 Surveyofspontaneousfacialexpressionrecognition HeJun,HeZhongwen,CaiJianfeng,FangLingzhi (Information&EngineeringCollege,NanchangUniversity,Nanchang330031,China) Abstract:Thispaperintroducedtheactualityandthedevelopinglevelofspontaneousfacialexpressionrecognitionatthe presenttime,andpaidparticularattentiontothekeytechnologyontheresearchofspontaneousfacialexpressionrecognition.Thispaperaimedtoarouseresearchers’attentionandinterestsintothisnewfield,toparticipateinthestudyofthespontane-ousfacialexpressionrecognitionproblemsactively,andtoachievemoresuccessescorrelatedtothisproblem.Keywords:facialexpressionrecognition;spontaneousfacialexpression;featureextraction 表情识别被视为未来情感人机交互的重要技术[1] ,吸引了国内众多高校和科研机构的参与和研究[2~6]。但目前国内 外研究中比较常用的表情数据库中的人脸表情大都固定为正面,任务仅限于识别Ekma提出的六种基本表情(愤怒、高兴、悲伤、惊讶、厌恶和恐惧)。这不仅与实际表情不相符,而且忽视了真实表情中特有的脸部肌肉形变与头部运动之间的时空相关性。谷歌申请的新一代表情识别专利,挤眉弄眼方可解锁手机;荷兰开发的诺达斯(Noldus)面部表情分析系统是世界上第一个商业化开发的面部表情自动分析工具,用户使用该系统能够客观地评估个人的情绪变化,可以跟踪人的表情变化。但二者均要求测试者的头姿基本保持不动,实时连续头姿估计阻碍了其在手机等智能终端领域的应用。因此,面向实际应用的 非正面表情识别研究在国内外日益受到重视[7,8] 。 近十几年来,开展自发表情识别研究的机构主要有美国的加利福尼亚大学、卡耐基梅隆大学机器人研究所、匹兹堡大学心理学系,伊利诺伊大学、沃森研究中心、贝克曼研究所、伦斯勒理工学院、麻省理工大学媒体实验室、丹佛大学、德克萨斯大学计算机视觉研究中心、新泽西技术学院、芬兰的奥卢大学计算机科学与工程系机器视觉组、荷兰的阿姆斯特丹大学信息学院、澳大利亚的昆士兰科技大学科学与工程学院、加拿大的麦吉尔大学、日本的庆应义塾大学、爱尔兰的爱尔兰国立大学计算机视觉和成像实验室,中国的清华大学和中国科学技术大学等已经有人做了大量工作。目前该领域比较重要的国际会议包括计算机视觉与模式识别会议(InternationalConferenceonComputerVisionandPatternRecognition,CVPR)、模式识别会议 (InternationalConferenceonPatternRecognition,ICPR)、人脸与姿态自动识别会议(InternationalConferenceonAutomaticFaceGestureRecognition,FGR)。关于非正面表情识别的研究文章 逐年增多,但国内还只是刚开始涉足该领域的研究[9] ,一些非 正面表情识别中的关键技术尚有待突破。但总的来说,对目前自发表情识别的研究和探索还处于初级阶段,对自发表情识别的研究还需要研究人员共同的努力。本文介绍了常用的自发表情数据库以及自发表情识别关键技术研究进展。 1 自发表情数据库 1)USTC-NVIE数据库 USTC-NVIE(naturalvisibleandinfraredfacialexpressions) 数据库[10] 是由中国科学技术大学安徽省计算与通讯软件重点 实验室建立的一个大规模的视频诱发的集自发表情和人为表情的可见光和红外自发表情数据库。其中自发表情库由自发的表情序列和夸张帧组成,人为表情库仅由中性帧和夸张帧组成。该表情数据库包含年龄在17~31周岁的215名被试者的自发和人为的六种表情。 2)VAM数据库 VAM数据库[11] 采用的是以参加电视访谈节目(TVtalk show)的方式诱发的自发表情数据库,记录了节目中年龄在16~69周岁的6位男嘉宾和14位女嘉宾总共20位嘉宾的面部表情和语音信息。该数据集由834名评估者使用两种方式进行评估:a)采用Ekman的六种基本表情类别进行标注;b) 第33卷第1期2016年1月 计算机应用研究 ApplicationResearchofComputersVol.33No.1Jan.2016

表情识别技术综述

表情识别技术综述 摘要:表情识别作为一种人机交互的方式,成为研究的热点。基于对表情识别的基本分析,文章重点介绍了面部表情识别的国内外研究情况和面部表情特征的提取方法。 关键词:表情识别;特征提取;表情分类。 前言:进入21世纪,随着计算机技术和人工智能技术及其相关学科的迅猛发展,整个社会的自动化程度不断提高,人们对类似于人和人交流方式的人机交互的需求日益强烈。计算机和机器人如果能够像人类那样具有理解和表达情感的能力,将从根本上改变人与计算机之间的关系,使计算机能够更好地为人类服务。表情识别是情感理解的基础,是计算机理解人们情感的前提,也是人们探索和理解智能的有效途径。如果实现计算机对人脸表情的理解与识别将从根本上改变人与计算机的关系,这将对未来人机交互领域产生重大的意义。 正文:一、面部表情识别的国内外研究情况 面部表情识别技术是近几十年来才逐渐发展起来的,由于面部表情的多样性和复杂性,并且涉及生理学及心理学,表情识别具有较大的难度,因此,与其它生物识别技术如指纹识别、虹膜识别、人脸识别等相比,发展相对较慢,应用还不广泛。但是表情识别对于人机交互却有重要的价值,因此国内外很多研究机构及学者致力于这方面的研究,并己经取得了一定的成果。 进入90年代,对面部表情识别的研究变得非常活跃,吸引了大量的研究人员和基金支持。美国、日本、英国、德国、荷兰、法国等经济发达国家和印度、新加坡都有专门的研究组进行这方面的研究。其中MIT的多媒体实验室的感知计算组、CMu、Ma州大学的计算机视觉实验室、Standford大学、日本城蹊大学、大阪大学、ArR研究所的贡献尤为突出。 国内的清华大学、哈尔滨工业大学、中科院、中国科技大学、南京理工大学、北方交通大学等都有专业人员从事人脸表情识别的研究,并取得了一定的成绩。在1999年的国家自然科学基金中的“和谐人机环境中情感计算理论研究”被列为了重点项目。同时中国科学院自动化所、心理所以及国内众多高校也在这方面取得了一定的进展。2003年,在北京举行了第一届中国情感计算与智能交互学术会议,会议期间集中展示了国内各研究机构近几年来从认知、心理、模式识别、系统集成等多种角度在情感计算领域取得的研究成果,一定程度上弥补了我国这方面的空白。国家“863”计划、“973”项目、国家自然科学基金等也都对人脸表情识别技术的研究提供了项目资助。 二、面部表情特征的提取方法 表情特征提取是表情识别系统中最重要的部分,有效的表情特征提取工作将使识别的性能大大提高,当前的研究工作也大部分是针对表情特征的提取。 目前为止的人脸面部表情特征提取方法大都是从人脸识别的特征提取方法别演变而来,所用到的识别特征主要有:灰度特征、运动特征和频率特征三种阎。灰度特征是从表情图像的灰度值上来处理,利用不同表情有不同灰度值来得到识别的依据。运动特征利用了不同表情情况下人脸的主要表情点的运动信息来进行识别。频域特征主要是利用了表情图像在不同的频率分解下的差别,速度快是其显著特点。在具体的表情识别方法上,分类方向主要有三个:整体识别法和局部识别法、形变提取法和运动提取法、几何特征法和容貌特征法。 整体识别法中,无论是从脸部的变形出发还是从脸部的运动出发,都是将表情人脸作为一个整体来分析,找出各种表情下的图像差别。其中典型的方法有:基于特征脸的主成分分析(prineipalComponentAnalysis,pCA)法、独立分量分析法(Indendent ComPonent Analysis,ICA)、Fisher线性判别法(Fisher’s Linear Discriminants,FLD)、局部特征分析(LoealFeatureAnalysis,LFA)、Fishe诞动法(Fisher^ctions)、隐马尔科夫模型法(HideMarkovModel,HMM)和聚类分析法。

面部表情识别与面孔身份识别的独立加工与交互作用机制_汪亚珉

心理科学进展 2005,13(4):497~516 Advances in Psychological Science 面部表情识别与面孔身份识别的 独立加工与交互作用机制* 汪亚珉1,2 傅小兰1 (1中国科学院心理研究所,脑与认知国家重点实验室,北京 100101)(2中国科学院研究生院,北京 100039) 摘 要面孔识别功能模型认为,面部表情识别与面孔身份识别是两条独立的并行路径。以往诸多研究者都认可并遵循二者分离的原则。但近期研究表明,面部表情识别与面孔身份识别存在交互作用。首先总结和分析已有的面部表情识别的研究成果,评述神经心理学与认知神经科学研究中的论争,然后介绍人脸知觉的分布式神经机制以及相关的实验证据,最后提出面部表情识别与面孔身份识别的多级整合模型,并展望研究前景。 关键词面孔身份识别,面部表情识别,面孔识别功能模型,人脸知觉的分布式神经模型,多级整合模型。分类号 B842 面孔识别一直备受研究者关注。20世纪70年代,Ekman和Frisen系统地研究了人脸基本表情的文化普遍性,并从解剖学角度提出了6种基本的面部表情[1]。20世纪80年代,Bruce和Young系统地研究了人对面孔的识别及其影响因素,提出了经典的面孔识别功能模型[2]。自此,面孔识别成为认知科学研究领域中的热点问题之一。 人能轻易地从不同表情中识别出同一个人的面孔(即面孔身份识别,facial identity recognition),也能从不同人的面孔上识别出同一种表情(即面部表情识别,facial expression recognition),识别得如此精巧,以至众多研究者相信,识别面孔与识别表情 收稿日期:2005-04-24 * 本研究得到中国科技部973项目(2002CB312103)、国家自然科学基金重点项目(60433030)和面上项目 (30270466)、中国科学院心理研究所创新重点项目 (0302037)经费支持。 通讯作者:傅小兰,E-mail: fuxl@https://www.360docs.net/doc/369044640.html, 两者相互独立,互不干扰[2~7]。那么,这种分离识别究竟是如何实现的?面孔身份识别与面部表情识别究竟是彼此独立的还是相互作用的?这已成为认知科学(尤其是计算机视觉)面孔识别研究领域中亟待解决的一个重要问题。 在过去开展的大量研究中,对面孔身份识别问题的探讨相对比较深入,而对面部表情识别的研究则囿于经典功能模型,并未能取得实质性进展。近年来随着脑认知研究技术的发展,面部表情识别的研究也在不断深入,研究者对面部表情识别与面孔身份识别间的关系也提出了新的阐释。本文在综述已有研究的基础上,试图进一步探讨面部表情识别与面孔身份识别之间的独立加工与交互作用机制。首先,基于经典面孔识别功能模型,分析传统的面孔身份识别与面部表情识别的并行分离加工观点,以及行为学、神经心理学与认知神经科学的研究发现;其

2019最新版微表情识别·读脸读心答案

1.1 微表情涵义·由来 1 【单选题】微表情是指持续时间多长的表情?()B ?A、1/2秒 ?B、不足1/5秒 ?C、5秒 ?D、以上都不对 2 【多选题】下面哪些描述符合微表情的特征?()ABCD ?A、时间不足1/5秒 ?B、受到有效刺激后的反应 ?C、不由自主地表现出来 ?D、表达内心的真实情感 3 【判断题】表情是表现在面部或姿态上的情感信息。()正确 1.2 保罗·埃克曼的贡献 1 【单选题】保罗·埃克曼研究的微表情主要在哪个领域?()C ?A、身体动作 ?B、副语言 ?C、面部表情 ?D、以上都不对 2 【多选题】保罗·埃克曼研究微表情的主要贡献有哪些?()ABCD ?A、完成面部表情编码 ?B、编撰并发布FACS—AU教程 ?C、研发微表情训练工具(Meet) ?D、人际欺骗研究 3

【判断题】独立发现并深入研究微表情的学者是保罗·埃克曼。()错误 1.3 国内·应用研究概况 1 【单选题】 国内探索微表情应用研究的实战机构不包括哪些?()D ?A、公安机构 ?B、检察机构 ?C、安全机构 ?D、环保机构 2 【判断题】 受到lie to me 传播的影响国内业界开始关注并研究微表情。()正确 3 【判断题】 国内研究微表情的专业团队主要有中科院心理研究所傅小兰团队、中国人民政法大学姜振宇团队和上海政法学院范海鹰团队。()正确 1.4 教学模式·教学环节 1 【单选题】微表情识别读脸读心课程宜采用哪种教学模式?()D ?A、理论讲授式 ?B、实操训练式 ?C、案例观摩式 ?D、A+B+C 2 【多选题】微表情识别读脸读心课程的教学模式包括哪些教学环节?()ABC

人脸表情识别综述

人脸表情识别综述 一、人脸表情识别技术目前主要的应用领域包括人机交互、安全、机器人制造、医疗、通信和汽车领域等 二、1971年,心理学家Ekman与Friesen的研究最早提出人类有六种主要情感,每种情感以唯一的表情来反映人的一种独特的心理活动。这六种情感被称为基本情感,由愤怒(anger)、高兴(happiness)、悲伤(sadness)、惊讶(surprise)、厌恶(disgust)和恐惧(fear)组成 人脸面部表情运动的描述方法---人脸运动编码系统FACS (Facial Action Coding System),根据面部肌肉的类型和运动特征定义了基本形变单元AU(Action Unit),人脸面部的各种表情最终能分解对应到各个AU上来,分析表情特征信息,就是分析面部AU的变化情况 FACS有两个主要弱点:1.运动单元是纯粹的局部化的空间模板;2.没有时间描述信息,只是一个启发式信息 三、人脸表情识别的过程和方法 1、表情库的建立:目前,研究中比较常用的表情库主要有:美国CMU机器人研究所和心理学系共同建立的 Cohn-Kanade AU-Coded Facial Expression Image Database(简称CKACFEID)人脸表情数据库;日本ATR 建立的日本女性表情数据库(JAFFE),它是研究亚洲人表情的重要测试库 2、表情识别: (1)图像获取:通过摄像头等图像捕捉工具获取静态图像或动态图像序列。 (2)图像预处理:图像的大小和灰度的归一化,头部姿态的矫正,图像分割等。 →目的:改善图像质量,消除噪声,统一图像灰度值及尺寸,为后序特征提取和分类识别打好基础 主要工作→人脸表情识别子区域的分割以及表情图像的归一化处理(尺度归一和灰度归一) (3)特征提取:将点阵转化成更高级别图像表述—如形状、运动、颜色、纹理、空间结构等,在尽可能保证稳定性和识别率的前提下,对庞大的图像数据进行降维处理。 →特征提取的主要方法有:提取几何特征、统计特征、频率域特征和运动特征等 1)采用几何特征进行特征提取主要是对人脸表情的显著特征,如眼睛、眉毛、嘴巴等的位置变化进行定位、测量,确定其大小、距离、形状及相互比例等特征,进行表情识别 优点:减少了输入数据量 缺点:丢失了一些重要的识别和分类信息,结果的精确性不高

表情识别技术综述分析

------------------------------------------------------------精品文档-------------------------------------------------------- 人类表情识别技术 CENTRAL SOUTH UNIVERSITY 《脑与认知科学》调研报告 人类表情识别技术目题

学生姓名何伟峰 0918140119 学号 1401 智能科学与技术专业班级 2015/10/27 完成时间 人类表情识别技术 目录人类表情识别技术 一.摘要: (3) 二前言: (3) 三表情识别 (3) 人脸检测与定位 (3) 图像预处理 (4) 面部表情特征的提取方

法 (4) 表情分类与识别 (5) 四应用前景 (5) 五面部表情识别的国内外研究情况 (5) 六目前存在的难点和问题 (6) 参考文献: (6) 人类表情识别技术 人脸表情识别技术综述一.摘要:一直以来,表情是人类引以 为傲的东西,这是我们和机器的一种本质上的区别。随着计算机的发展,我们更期盼人机之间的沟通交流,尤其是一种带有感情的沟通交流。计算机在情感方面的成长经历也类似于我们每个人的成长过程——以观察和辨别情感作为最终自然,亲切,生动的交互的开始。 在物联网技术发展的今天,面部识别已经不是什么太大的技术性问题,而对于人类表情识别来说,仍旧是一片空白。我们希望有一天机器可以读懂我们的语言、知悉我们的表情,更好的为我们服务,或许这才是真正的物联网时代。表情识别作为一种人机交互的方式,成为研究的热点。基于对表情识别的基本分析,文章重点介绍了面部表情识别的国内外研究情况和面部表情特征的提取方法和他的应用前景。 关键词:表情识别;特征提取;表情分类;应用前景。 二前言: 进入21世纪,随着计算机技术和人工智能技术及其相关学科的迅猛发展,整个社会 的自动化程度不断提高,人们对类似于人和人交流方式的人机交互的需求日益强烈。计算机和机器人如果能够像人类那样具有理解和表达情感的能力,将从根本上改变人与计算机之间的关系,使计算机能够更好地为人类服务。表情识别是情感理解的基础,是计算机理解人们情感的前提,也是人们探索和理解智能的有效途径。如果实现计算机对人脸表情的理解与识别将从根本上改变人与计算机的关系,这将对未来人机交互领域产生重大的意义。 三表情识别 人脸表情识别系统主要包括人脸检测与定位、图像预处理、人脸表情特征提取和人脸表情分类识别。

实验心理学实验设计方案-表情识别

不同面部表情的识别速度与识别准确性差异研究 一、引言速度—准确性权衡是关系到一切反应时实验信度的基本问题,下面我们将尝试通过一个简单的生活化的实验来展示任务速度和任务准确性之间普遍的权衡关系。在反应时实验中,当被试追求较快的速度时,必然要以牺牲准确性为代价。同样,当被试力求高的准确性时,也必然要以放慢速度为代价。在具体的实验中,被试究竟会如何权衡二者的关系,取决于很多因素。本实验主要探讨不同面部表情(痛苦、微笑、悲哀、快乐)识别速度与准确率是否存在显著差异。 实验假设:不同面部表情的识别速度与识别准确性存在差异 二、实验目的通过实验证明不同面部表情(痛苦、微笑、悲哀、快乐)的识别速度与识别准确性存在差异,本实验旨在研究不同面部表情的识别速度与识别准确性存在差异,通过自编的e-prime 实验程序对四十名被试进行施测。 三、实验仪器与材料 痛苦、微笑、悲哀、快乐的图片(均选自于标准的实验图片库)、电脑、e-prime 程序 四、实验设计 采用单因素完全随机化设计

自变量为不同面部表情、区分为(痛苦、微笑、悲哀、快乐)四种。每个小组只接受一种实验处理,只对一种表情做出反应。 因变量为反应时、准确率,分别是识别的准确率、以及被试对不同面部表情识别的反应时。 五、实验程序 (一)被试构成 采用简单随机抽样,在弘德楼随机选取了几个自习室,共选取了 40 个被试。男女各半,年龄为18-23 岁,随机分为四个小组。 (二)研究工具 在计算机上自编好e-prime 实验程序 (三)实验过程 (1)正式实验前被试要先进行几次类似练习,以熟悉按键反应。 (2)被试坐在电脑前,接受相同的指导语。其指导语为:“在接下 来的一段时间里你将继续进行此类题目的正式作答,请用心作答”。被试按键确认后即开始正式实验、期间不再中断休息。 (3)使用主试自编计算机视觉搜索程序,每帧呈现一副面部表情图 片,每幅图片呈现的间隔时间一致,随机播放图片。每种表情的图片都有10 张,每张呈现2 次,共呈现20 次,所有表情图片共呈现80 次。痛苦按 “1 ”键、微笑按“2”键、悲哀按“3”键、快乐按“4 ”键。 其中第1 小组只对痛苦做反应、2 小组只对微笑做反应、3 小组只对悲哀做反应、4 小组只对快乐做反应。每出现一幅图要求被试按对应的反应键,计算机自动记录反应时间和正确率。

2019年微表情识别-读脸读心考试答案

2019年微表情识别-读脸读心最新满分考试答案 一、单选题(题数:40,共分) 1.愉悦的识别要点包括的表情形态和意义,以下错误的是()A A.瞪眼 B.咧嘴 C.嘴角上扬 D.超乎预期的满足和开心 2. 微表情是指持续时间多长的表情() B A、1/2秒 B、不足1/5秒 C、5秒 D、以上都不对 3. 关于猜测选放的墙的测试哪一项描述是错误的()B A、李博士回应天蝎座,b型血、警号3867问题时目光低视,摇头说我不知道是控制的对抗反应 B、在听到十八岁那年考上了海洋大学出现快速眨眼,点头是思考比对时的真实反应 C、在听到这成为了您神探之路的起点时出现连连点头是高度认同的下意识反应 D、人在接受有效刺激时也能完全控制自己的情绪反应 4. 冻结反应的形态意义哪一项描述是错误的()D A、面部的惊讶 B、肢体的约束 C、呼吸的控制 D、肢体冰冷 5. 有意控制的动作的形态意义哪一项描述是错误的()D A、可以出现在面部表情 B、可以出现在身体动作 C、可以出现在站姿或坐姿 D、可以控制出汗或面部颜色 6. 国内探索微表情应用研究的实战机构不包括哪些()D A、公安机构 B、检察机构 C、安全机构 D、环保机构 7. 反应性行为的形态意义哪一项描述是错误的() D

A、包括副语言行为 B、包括头部反应 C、是难以自主控制的生理反应 D、是可以自主控制的生理反应 8. 关于表达者表达解析哪一项描述是正确的() B A、疏忽几个表情动作的观察不影响准确判断其真实内心 B、是准确认识表达者内心的基础和前提 C、只要盯着其眼动反应就能准确判断其真实内心 D、只要关注其情绪与事件性质是否一致就能准确判断其真实内心 9. 爱恨反应的形态意义哪一项描述是错误的() D A、爱的时候会主动亲近对方 B、恨的时候会主动拉开距离 C、身体间的距离,可以体现出人和人之间的心理距离 D、人的内心的喜爱与厌恶是不能从表情动作中表达出来的 10. 保罗·埃克曼研究的微表情主要在哪个领域() C A、身体动作 B、副语言 C、面部表情 D、以上都不对 11. 仰视反应的形态意义哪一项描述是错误的() D A、头和肢体向上是正仰视反应 B、头和肢体向下是负仰视反应 C、有身份地位差异的握手是正或负仰视反应的体现 D、头和肢体远离刺激源 12. 关于松明猜测硬币藏匿手的测试哪一项描述是错误的()D A、王力宏上台即双手叉腰或抱胸是紧张的对抗反应 B、询问喜欢的颜色及血型的用意是找回答真实的基线反应 C、一般而言人们习惯于多用或首先使用顺手 D、使用顺手是不自信的表现 13. 关于这场猜测锁匙位置的测试哪一项描述是错误的() D A、李博士将锁匙放在6墙-8行-8列却在卡片上写6墙-8行-9列是动用了反测试策略 B、这种反测试策略的核心就就是强化不真实遗忘真实 C、这种反测试策略属于意识转移类的精神反测试 D、李博士反测试没有获得成功 14. 关于情绪“干扰点”哪一项描述是错误的() D A、有意控制行为 B、经历带入反应

表情识别技术综述分析

CENTRAL SOUTH UNIVERSITY 《脑与认知科学》调研报告 题目人类表情识别技术 学生姓名何伟峰 学号0918140119 专业班级智能科学与技术1401 完成时间2015/10/27

目录人类表情识别技术 一.摘要: (3) 二前言: (3) 三表情识别 (3) 人脸检测与定位 (3) 图像预处理 (4) 面部表情特征的提取方法 (4) 表情分类与识别 (5) 四应用前景 (5) 五面部表情识别的国内外研究情况 (5) 六目前存在的难点和问题 (6) 参考文献: (6)

人脸表情识别技术综述 一.摘要: 一直以来,表情是人类引以为傲的东西,这是我们和机器的一种本质上的区别。随着计算机的发展,我们更期盼人机之间的沟通交流,尤其是一种带有感情的沟通交流。计算机在情感方面的成长经历也类似于我们每个人的成长过程——以观察和辨别情感作为最终自然,亲切,生动的交互的开始。 在物联网技术发展的今天,面部识别已经不是什么太大的技术性问题,而对于人类表情识别来说,仍旧是一片空白。我们希望有一天机器可以读懂我们的语言、知悉我们的表情,更好的为我们服务,或许这才是真正的物联网时代。表情识别作为一种人机交互的方式,成为研究的热点。基于对表情识别的基本分析,文章重点介绍了面部表情识别的国内外研究情况和面部表情特征的提取方法和他的应用前景。 关键词:表情识别;特征提取;表情分类;应用前景。 二 前言: 进入21世纪,随着计算机技术和人工智能技术及其相关学科的迅猛发展,整个社会 的自动化程度不断提高,人们对类似于人和人交流方式的人机交互的需求日益强烈。计算机和机器人如果能够像人类那样具有理解和表达情感的能力,将从根本上改变人与计算机之间的关系,使计算机能够更好地为人类服务。表情识别是情感理解的基础,是计算机理解人们情感的前提,也是人们探索和理解智能的有效途径。如果实现计算机对人脸表情的理解与识别将从根本上改变人与计算机的关系,这将对未来人机交互领域产生重大的意义。 三 表情识别 人脸表情识别系统主要包括人脸检测与定位、图像预处理、人脸表情特征提取和人脸表情分类识别。 人脸检测与定位 可以基于Haar 特征的特征提取方法和基于Adaboost 的分类方法进行人脸检测与定位 人脸检测与定位 图像预处理 表情特征提取 表情分类与 识别 人脸检测与定位

相关文档
最新文档