面部表情识别的即时加工过程
面部识别情绪技术原理

面部识别情绪技术原理面部识别情绪技术是一种通过分析人脸表情来推断情绪状态的技术。
它借助计算机视觉和模式识别的方法,通过对面部特征和表情进行分析,从而识别出人的情绪状态。
以下是面部识别情绪技术的原理解析。
1. 面部特征提取:面部识别情绪技术首先需要从人的面部图像中提取出有代表性的面部特征。
这些特征通常包括眼睛、眉毛、嘴唇和下巴等部位的形状和位置信息。
通过使用图像处理算法,如基于特征点的检测方法或基于深度学习的人脸特征提取模型,可以从面部图像中准确提取出这些特征。
2. 表情分类模型:在面部特征提取完成后,接下来需要建立一个表情分类模型。
通过使用机器学习算法,如支持向量机(SVM)或深度卷积神经网络(CNN),可以将提取的面部特征与预先标记的表情样本进行训练,以建立一个能够准确识别不同情绪的模型。
这个模型能够学习到不同面部特征与不同情绪之间的关联。
3. 情绪推断:当面部特征被提取并通过表情分类模型进行分类之后,识别系统将能够推断出人的实际情绪状态。
通过将面部特征与已知情绪标签进行匹配,识别系统能够给出对应的情绪标签,如快乐、悲伤、愤怒等。
这个过程通常需要考虑到不同文化和个体之间对于特定表情的理解差异。
4. 模型优化和可靠性:面部识别情绪技术在应用中还需要优化和验证,以提高识别准确性和可靠性。
这可能包括对数据集的进一步标注和扩充,对算法模型的调整和改进,以及对特定人群和场景的训练和适应等。
此外,在实际应用中,还需要考虑隐私和安全的问题,并制定相应的策略和措施。
总结而言,面部识别情绪技术利用面部特征提取和表情分类模型的方法,可以准确推断出人的情绪状态。
这项技术在人机交互、心理学研究、市场调查等领域具有广泛应用前景,并且我们可以通过不断的优化和改进来提高其准确性和可靠性。
人脸识别技术中图像处理的关键步骤分析

人脸识别技术中图像处理的关键步骤分析人脸识别技术是一种利用计算机视觉和模式识别技术来识别和验证人脸的技术。
它已经被广泛应用于各个领域,包括安全监控、人机交互、金融服务等。
而在人脸识别技术中,图像处理是实现准确识别的关键步骤之一。
本文将分析人脸识别技术中图像处理的关键步骤。
1. 图像灰度化人脸识别的第一步是将输入的彩色图像转换成灰度图像。
这是因为灰度图像只包含亮度信息,而不包含颜色信息。
相比于彩色图像,灰度图像在计算上更加简单,并且能够减小计算量,提高识别的效率。
通过将彩色图像的红、绿、蓝三个通道的像素值按照一定比例进行加权求和,可以得到灰度图像。
2. 图像对齐由于拍摄条件的不同,人脸图像可能存在旋转、倾斜等问题,这将影响人脸识别的准确性。
因此,图像对齐是人脸识别中的一项重要步骤。
图像对齐的主要目的是将输入的人脸图像进行旋转、平移和缩放等操作,使得人脸的位置和大小在整个图库中保持相对一致。
常见的方法包括通过检测人脸关键点进行对齐,或者使用基于几何变换的方法进行对齐。
通过图像对齐,可以保证在后续的特征提取和匹配过程中,人脸的位置和姿态保持一致,提高识别的准确率。
3. 人脸检测在人脸识别中,首先需要确定图像中是否存在人脸。
因此,人脸检测是人脸识别的关键步骤之一。
人脸检测算法通过分析图像中的像素值和纹理信息,识别出可能是人脸的区域。
常见的人脸检测算法包括基于特征的方法和基于机器学习的方法。
其中,基于特征的方法利用人脸的几何和纹理特征进行检测,而基于机器学习的方法通过训练大量的人脸和非人脸样本,构建分类器来进行人脸检测。
人脸检测的准确性和速度将直接影响到后续的人脸识别效果。
4. 人脸对齐在人脸检测的基础上,对检测到的人脸进行进一步处理,使得人脸在图像中的位置和姿态尽可能一致。
人脸对齐的目标是将图像中检测到的人脸对齐到一个标准位置和大小。
通过对检测到的人脸进行旋转、平移和缩放等操作,使得人脸的轮廓和关键点位置在整个图库中保持一致。
人脸识别技术的原理

人脸识别技术的原理人脸识别技术是一种通过计算机技术来识别并验证人脸信息的技术。
它利用图像处理技术和模式识别技术来实现。
下面我们来了解一下人脸识别技术的原理。
人脸识别技术的流程主要分为以下几个步骤:1.采集人脸图像:这是人脸识别的第一步,它通过摄像头或者其他设备采集人脸图像,然后将图像传输到计算机中进行处理。
2.人脸定位:在采集到的图像中需要检测和定位人脸的位置和大小,因为在实际采集中人脸的大小和位置都会发生变化,这个步骤是非常重要的。
3.特征提取:特征提取是所有人脸识别算法的核心,它可以对图像中的人脸进行数学建模和描述,创造出一个可以准确区分人脸的数学特征。
这个过程通常包含以下几个方面:灰度化、归一化、滤波、人脸图像标准化等。
4.人脸匹配:在完成特征提取之后,需要进行模式匹配搜索。
在此过程中,系统将摄取到的人脸图片与已存储的特征模板进行匹配,如果匹配成功,则可以实现对用户身份的识别。
5.判定与决策:通过人脸匹配完成用户识别以后,系统还需要根据识别结果判断用户是否存在于系统中,并作出相应决策。
通常我们认为人脸识别技术可以通过基于几何特征的方法、基于模型的方法和基于学习的方法进行。
第一种方法以脸部的尺寸、位置、角度等作为特征进行处理,但它对于环境光线的影响比较强,误识别率较高。
第二种方法将人脸图像分解为一组基本的人脸元素,并建立人脸的模型,对人脸进行识别。
这种方法在建立模型时对于人脸图像的要求比较高,且难度也比较大。
第三种方法则是基于机器学习的方法,它通过对大量的训练数据进行学习来识别人脸。
这种方法的优点是能够自动提取特征,但是需要有大量的训练数据,同时也有一定的学习难度与消耗。
人脸识别技术能够对人脸进行高精度的识别并验证;有着广泛的应用场景,比如身份认证、门禁系统等。
目前,人脸识别技术已经在社会上得到广泛应用,随着技术的不断进步,其应用场景也将更为丰富。
人脸识别技术的发展已经越来越成熟,在未来,我们可以期待更多更强大的应用场景。
基于深度学习的人脸表情识别与情感分析

基于深度学习的人脸表情识别与情感分析人类情感是人与人之间交流、表达内心感受的重要方式之一。
在日常的社交互动中,我们通常通过观察他人的面部表情来了解其所处的情绪状态,从而作出适当的反应。
然而,对于某些人来说,正确地解读他人的表情可能是一项挑战,尤其是对于阅读情感有障碍的人群,如自闭症患者。
因此,研究如何准确地识别和理解人脸表情对于改善人机交互、人际交往等方面具有重要意义。
近年来,深度学习技术的迅猛发展为人脸表情识别和情感分析提供了强大的工具。
深度学习是一种机器学习的方法论,通过多层神经网络的结构模拟人脑的工作原理,能够从大规模数据中自动学习特征表示,并基于学到的特征来进行分类和识别任务。
在人脸表情识别领域中,深度学习技术已经取得了令人瞩目的成就。
基于深度学习的人脸表情识别通常分为两个主要步骤:面部特征提取和情感分类。
在面部特征提取阶段,深度学习模型通过学习人脸图像中的关键特征,如眼睛、眉毛、嘴巴等部位的形状和位置信息,将人脸图像转化为一组数值表示。
这些数值可以被看作是对人脸表情的抽象表示,具有良好的鲁棒性和可学习性。
在情感分类阶段,深度学习模型将这些数值输入到分类器中,通过训练样本的标签来学习不同的情感类别之间的关系,从而实现对人脸表情的自动识别。
深度学习模型通常采用卷积神经网络(Convolutional Neural Network, CNN)或循环神经网络(Recurrent Neural Network, RNN)来处理人脸图像。
卷积神经网络在图像处理中表现出色,其通过卷积和池化等操作提取输入图像的局部和全局特征,在人脸表情识别中可以较好地保留面部表情的细节信息。
循环神经网络则能够处理序列数据,对于与时间相关的表情变化,如微笑的持续时间或愤怒的逐渐加深,循环神经网络能够更好地建模和理解。
除了人脸表情识别,深度学习技术还可应用于情感分析。
情感分析是对文本、语音和图像等数据进行情感分类和情感倾向性判断的任务。
人脸识别的基本方法

人脸识别的基本方法
一、人脸识别的基本原理
人脸识别(facial recognition)技术是一种生物识别技术,它可以
作为一种安全认证技术,通过通过对比个人的脸部特征和记录的脸部特征
进行鉴别的方式来确认个人身份,将真实的人脸和图像中的人脸进行对比
来达到鉴别此人的目的。
人脸识别技术的工作原理大致分为三个步骤:
1.特征提取:提取人脸图像的特征,这些特征包括脸型特征、眼睛特征、嘴巴特征、鼻子特征等;
2.特征向量化:将这些特征信息转换成特征向量,以便进行后续比对;
3.比对验证:把已经录入的特征向量和新输入的特征向量进行比较,
验证是否为同一个人的脸部特征。
1.基于模板的匹配方法
这是最常用的人脸识别方法,也是最常用的 biometric 系统之一、
这种方法的核心在于,在认证的过程中,将人脸信息预先存储在数据库中,然后将用户输入的人脸信息和数据库中已存储的信息进行匹配,通过比较
匹配度来确定这是否是同一个人,从而判断用户的身份。
2.基于深度学习的识别方法
在这种方法中,人脸识别系统首先会提取人脸信息,然后利用深度学
习技术,将提取的信息分析出脸部的特征数据,最后将这些特征进行比较,从而判断是否为同一个人。
人们对面部情绪的识别和加工是否受到加工时间的影响

人们对面部情绪的识别和加工是否受到加工时间的影响苗苗2013010851一、文献综述面部表情是指通过眼部肌肉、颜面肌肉和口部肌肉的变化来表现各种情绪状态。
达尔文在《人类和动物的情绪表情》一书中提出:不同的面部表情是天生的、固有的,并且能为全人类所理解。
即使是婴儿也能正确的识别和表现出愉悦、伤心、愤怒等表情。
识别他人情绪的能力对于种族的生存具有重要意义,能否正确的识别他人的情绪面孔并对其做出反应,在一定程度上反映了个体社会交往能力的发展情况,并关系到个体社会交往、沟通的成败。
因此,研究情绪面孔的识别有重要的意义。
情绪产生于对刺激情境或对事物的评价,情绪的产生受到环境事件、生理状况和认知过程三种因素的影响,其中认知过程是决定情绪性质的关键因素。
前人对此有许多不同理论。
美国心理学家阿诺德(M. R. Arnold)在20世纪50年代提出了情绪的评定-兴奋学说。
这种理论认为,刺激情景并不直接决定情绪的性质,从刺激出现到情绪的产生,要经过对刺激的估量和评价,情绪产生的基本过程是刺激情景——评估——情绪。
同一刺激情景,由于对它的评估不同,就会产生不同的情绪反应。
20世纪60年代初,美国心理学家沙赫特(S.Schachter)和辛格(J.Singer)提出,对于特定的情绪来说,有两个因素是必不可少的。
第一,个体必须体验到高度的生理唤醒,如心率加快、手出汗、胃收缩、呼吸急促等;第二,个体必须对生理状态的变化进行认知性的唤醒。
事实上,情绪状态是由认知过程(期望)、生理状态和环境因素在大脑皮层中整合的结果。
拉扎勒斯认为情绪是人和环境相互作用的产物,具体来讲,有三个层次的评价:初评价、次评价和再评价。
因此,就出现了两种对立的基本假设:1)情绪信息的加工是在基本感知觉信息加工完毕之后进行的,如果加工时间太短,则不能很好地识别情绪;2)情绪信息的识别是相当快速的,基本与知觉信息的加工同步,能够在极短的时间里识别。
二、提出假设不同加工时间下,被试都能正确识别出不同的情绪面孔,而且结果没有差异。
面部表情识别

面部表情识别面部表情是人类日常交流中十分重要的一种非语言沟通方式。
人们通过面部表情来传递情绪、意图和社交信号。
随着计算机视觉和人工智能的快速发展,面部表情识别技术逐渐成为研究热点和应用领域。
本文将介绍面部表情识别的原理、方法和应用。
一、面部表情识别的原理面部表情识别是指通过计算机技术和算法来自动识别和分析人脸上的表情。
其原理主要基于人脸特征提取和模式识别。
在面部表情识别的过程中,通常需要经过以下几个步骤:1. 人脸检测:首先需要使用人脸检测算法来定位图像或视频中的人脸位置,并进行人脸图像的裁剪和归一化处理。
2. 特征提取:通过提取人脸图像中的关键特征,如眼睛、嘴巴、眉毛等区域的形状、位置和运动信息,以及皱纹、凹凸等纹理信息,来表示面部表情。
3. 表情分类:将提取到的面部特征输入到机器学习或深度学习模型中,通过训练来判断面部表情所属的类别,如喜、怒、哀、乐等。
常用的分类算法包括支持向量机、卷积神经网络等。
二、面部表情识别的方法在面部表情识别领域,有很多种方法和算法被广泛应用。
以下是几种常见的方法:1. 基于几何特征的方法:通过测量人脸上不同区域的距离、角度等几何特征来表达面部表情。
这种方法简单直观,但对光照、角度等因素较为敏感。
2. 基于纹理特征的方法:利用人脸上的纹理信息,如灰度、纹理分布等特征来表示面部表情。
常用的纹理特征提取方法包括局部二值模式、光流法等。
3. 基于深度学习的方法:近年来,深度学习方法在面部表情识别中取得了显著的性能提升。
通过使用深度神经网络,如卷积神经网络、循环神经网络等,可以在大规模数据上进行端到端的训练和特征提取。
三、面部表情识别的应用面部表情识别技术在许多领域都有广泛的应用。
以下是几个常见的应用场景:1. 情绪分析:通过分析面部表情来判断人的情绪状态,可应用于市场调研、用户体验评估、心理疾病辅助诊断等。
2. 人机交互:将面部表情识别技术应用于智能设备和机器人,可以实现更自然、智能的人机交互方式,提升用户体验。
facefusion 编译

facefusion 编译FaceFusion 编译FaceFusion 是一种通过融合多个面部图像来创建新面孔的技术。
它利用先进的面部识别和合成算法,无缝地融合不同的面部特征,生成具有真实感和多样性的新面孔。
步骤 1:收集面部图像FaceFusion 编译的第一步是收集要融合的面部图像。
这些图像可以来自各种来源,例如照片、视频或网络。
确保图像清晰、光线充足,并且面部占据图像的大部分区域。
步骤 2:面部识别一旦收集了面部图像,FaceFusion 便使用面部识别算法来检测和识别图像中的面部。
该算法准确地定位面部特征,例如眼睛、鼻子和嘴巴,并提取它们的关键描述符。
步骤 3:特征提取特征提取阶段涉及分析每个面部特征的形状、大小和纹理。
FaceFusion 使用强大的机器学习模型从这些特征中提取独特的模式和信息,从而生成综合面孔的特征表示。
步骤 4:面部融合在面部融合阶段,FaceFusion 将从不同图像中提取的特征融合在一起。
该过程考虑每个特征的重要性,并在不引入伪影的情况下无缝地混合它们。
结果是一个具有综合特征的新面孔图像。
步骤 5:面部合成在最后一步中,FaceFusion 将融合的面部特征合成为一个新的逼真面孔。
它使用先进的合成技术生成一个具有高分辨率纹理、阴影和光影效果的面孔图像。
FaceFusion 的优点FaceFusion 提供了多种优势:创建多样化数据集:可用于训练机器学习模型、生成游戏角色或创建虚拟化身。
增强隐私:通过融合多张面孔,FaceFusion 可以帮助生成匿名图像,保护个人隐私。
创意内容:FaceFusion 可用于创建独特的头像、表情包或数字艺术,激发创造力。
使用 FaceFusionFaceFusion 可以通过以下方式使用:在线平台:有许多在线平台提供 FaceFusion 功能,用户只需上传图像即可生成融合的面孔。
软件工具:开发人员可以使用 FaceFusion 软件工具包在自己的应用程序中集成该技术。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
注视次数
1. 83 ±0. 66 2. 40 ±0. 84 3. 00 ±1. 16
注视点持 续时间 ( s) 0. 3107 ±0. 049 0. 3126 ±0. 058 0. 3172 ±0. 063
瞳孔直径 (像素 )
32. 85 ±5. 60 33. 46 ±4. 43 34. 22 ±4. 59
情识别过程中的眼动数据 ,来探讨面部表情识别的 重复测量实验设计 。自变量为表情性质 ,包括正性 、
即时加工过程 ,识别不同性质表情的眼动模式如何 , 中性和负性三个水平 。正性是指个体的愉快 、舒适 、
以及对面部不同部位信息的依赖程度如何 。在实验 满意等 ;中性是指个体的平静 、沉稳和沉思等 ;负性
和准确性不同 。在实验二中 ,利用遮蔽技术对实验 黑白色 ,亮度和对比度眼睛的作用与嘴和鼻 片 ,视角为 11. 77°。所有图片按照表情性质分成三
子的作用之间有什么差异 ,在不同部位信息缺乏的 组 ,每组各 20 张 ,图片人物性别比例一致 。正性表
心 理 学 报 2007, 39 (1) : 64~70 A cta Psych o log ica S in ica
面部表情识别的即时加工过程
隋 雪 任延涛
(辽宁师范大学心理学系 ,大连 116029)
摘 要 采用眼动记录技术探讨面部表情识别的即时加工过程 。基本的面部表情可以分为三种性质 :正性 、中性 和负性 ,实验一探讨大学生对这三种面部表情识别即时加工过程的基本模式 ;实验二采用遮蔽技术探讨面部不同 部位信息对面部表情识别的影响程度 。结果发现 : (1)被试对不同性质面部表情识别的即时加工过程存在共性 ,其 眼动轨迹呈“逆 V型 ”; (2)被试对不同性质面部表情的识别存在显著差异 ,在行为指标和眼动指标上都有体现 ; (3)对不同部位进行遮蔽 ,眼动模式发生了根本性改变 ,遮蔽影响面部表情识别的反应时和正确率 ; ( 4)面部表情 识别对面部不同部位信息依赖程度不同 ,眼部信息作用更大 。上述结果提示 ,个体对不同性质面部表情识别的即 时加工过程具有共性 ,但在不同性质面部表情识别上的心理能量消耗不同 ;并且表情识别对面部不同部位信息依 赖程度不同 ,对眼部信息依赖程度更大 。 关键词 面部表情 ,识别 ,即时加工过程 ,眼动 。 分类号 B842
生 , 5男 , 13女 ,年龄在 18~21 岁之间 ,平均年龄为 2~5分 ,每种性质男女各两张 ,共选取 12张图片作
19. 56岁 (SD = 0. 86) ,所有被试视力 (或矫正视力 ) 为正式实验材料 ,见表 1。
正常 ,且均为自愿参加 。
表 1 确定的 12张实验图片的评定均值
图片编号
Saito的研 究 发 现 性 格 与 面 孔 识 别 关 系 也 非 常 密 切 [ 7 ] 。而 Mogg等人研究发现焦虑患者对面部表情 的反应与正常人有本质区别 。他们会首先选择威胁 面孔 ( threat faces)或把眼睛更快地转移到威胁面孔 上 [ 8 ] 。M ullins等研究也发现情绪状态对表情识别 的影响 [ 9 ] 。此外 ,健康状况 [ 3 ] 、性别 [ 10 ]以及图片上 人物的性别 [ 11 ]等因素都影响面部表情的识别过程 , 特别是图片上人物的表情性质对面部表情识别具有 显著的影响 。此外 ,人脸上不同部位对识别的贡献 也不相同 ,如眼睛和嘴的重要程度大于鼻子 [ 12 ] 。这 说明面部不同部位信息对表情识别具有不同意义 。 那么 ,图片上人物表情的性质以及面部不同部位信 息是如何影响表情识别的呢 ? 它们在个体表情识别 的即时加工过程中如何起作用的呢 ? 这是本研究关 心的问题 。对于这些问题的探讨 ,眼动记录是一种 很好的技术 ,它可以考察面部表情识别的即时加工 过程 。有研究发现 ,在各种认知任务中对眼睛注视 的控制起着巨大的作用 ,注视的位置和注视的时间 与所进行的认知加工任务具有一定的锁时性 ( time2 locked) [ 13 ] 。在面部表情识别过程中 , 主体也是通 过眼睛的运动来完成对不同表情识别所需信息的搜 集 ,然后对这些信息进行加工进而完成识别 ,这个过 程是伴随信息搜集逐步完成的 ,也叫即时加工过程 。
2 实验一
5~5 分的 11 级评定 ,负数代表负性 ,正数代表正 性 ,靠近 0代表中性 。结果有效数据 143 份 。对结
2. 1 方法
果进行统计 ,按照如下标准选取实验图片 :负性图片
2. 1. 1 被试 随机选取辽宁师范大学 18 名本科 取 - 5~ - 2分 ,中性图片取 - 1 ~1 分 ,正性图片取
66
心 理 学 报
39卷
信息过程中 ,不是随机观看 ,而是有规律的 。
标进行统计 ,结果见表 2。
表 2 四个眼动指标结果 (M ±SD )
表情 性质 正性 中性 负性
总注视 时间 ( s) 0. 5760 ±0. 2582 0. 7373 ±0. 3851 0. 9677 ±0. 4592
图 1 实验流程图
图 2 面部表情识别的眼动轨迹
2. 2. 2 面部表情识别的反应时和正确率 对三种 性质面部表情识别的平均反应时及标准差分别为 , 正性 M RT = 0. 8744 s, SD = 0. 3486; 中 性 M RT = 111092 s, SD = 0. 4904; 负 性 M RT = 1. 3633 s, SD = 016458。单因素重复测量方差分析结果表明 ,面部 表情的性质对被试识别的反应时影响显著 , F ( 2, 34) = 26. 861, p < 0. 001。多重比较 (LSD )发现 ,正 性与中性 、负性 ,中性与负性差异都显著 。识别每种 图片的正确率都在 89%以上 ,不同性质表情图片之 间差异不显著 。 2. 2. 3 面部表情识别的眼动指标 对总注视时间 、 注视次数 、注视点持续时间和瞳孔直径四个眼动指
条件下 ,即时加工过程如何改变 ,并假设面部表情识 情组 (男 、女 各 10 张 ) 、中 性 表 情 组 (男 、女 各 10
别对面部不同部位信息依赖程度不同 ,面部不同部 张 ) 、负性表情组 (男 、女各 10张 ) 。把 60张图片随
位信息缺乏 ,眼动模式发生根本性改变 。
机排列 ,用 PowerPoint呈现 ,由 150名大学生进行 -
进入正式实验 。 正式实验过程 : ( 1 ) 呈现指导语 (同练习指导 语 ) ; (2)然后在屏幕中央呈现注视点 ,持续 2 s; ( 3) 注视点消失 ,接着呈现一张面部表情图片 ; ( 4)被试 对随机出现的正性 、中性 、负性图片进行识别 ; ( 5 ) 被试识别后 ,用右手的食指 、中指和无名指分别按键 盘光标键的左 、中 、右键 (被试之间左右键进行平 衡 )对图片进行正性 、中性 、负性判断 ,按键后 ,图片 自动消失 ,一次试验 ( trial)结束 。 接着重复步骤 (2) ~ (5)一直到整个实验结束 , 实验流程见图 1, 12张图片随机排列 。 2. 2 结果与分析 2. 2. 1 面部表情识别的眼动轨迹 本实验中 ,被试 识别不同性质表情图片的眼动轨迹呈“逆 V 型 ”者 达 83. 3% ,即倾向于从右侧眼眉开始向嘴部运动 , 而后向图片左侧的眼睛返回 ,完成表情识别 ,见图 2。这说明面部表情识别需要特定信息 ,被试在搜集
收稿日期 : 2006 - 04 - 04
通讯作者 :隋雪 , E2mail: suixue88@1631com
64
1期
隋 雪 等 :面部表情识别的即时加工过程
65
通过分析这一即时加工过程 ,可以更好地了解面部 表情识别过程的实质 。本研究通过记录被试面部表
2. 1. 2 设计与材料 采用“识别 - 判断 ”实验范式 考察面部表情识别的即时加工过程 。实验为单因素
1 引言
面部表情的研究始于 19世纪 ,自从达尔文在他 著名论著《人类和动物的表情 ( The Exp ression of the Emotions in Animals and M an, 1872) 》中阐述了人的 面部表情和动物的面部表情之间的联系和区别之 后 ,对于面部表情的含义一直说法不一 。情绪理论 家认为面部表情传达着有关主体情绪状态的信息 ; 行为生态学家则认为面部表情传达着主体的行为目 的和行为要求 。有人用研究证明了面部表情以传达 情绪状态为主 ,也含有感情 、意图和愿望 [ 1 ] 。在人 际交往中 ,面部表情起着重要作用 ,正确识别他人的 表情是保证顺利交往的条件 。对于人类个体如何确 定或识别他人面部表情的含义引起研究者们的极大 兴趣 [ 2~4 ] 。研究者们普遍认为一般的表情识别可以 用单一感官完成 ,也可以用多种感官相配合来完成 。 它是一个整体识别和特征识别共同作用的结果 。具 体说来 ,远处辨认人 ,主要是整体识别 ,而在近距离 面部表情识别中 ,特征部件识别则更重要 。此后人 们对影响面部表情识别的因素进行了大量研究 。 Lott等人研究发现 ,随着年龄增加 ,面孔识别能力下 降 ,这种能力下降与其空间视觉和认知能力有 关 [ 5 ] 。 Pfütze等人也发现面孔识别与年龄有关 [ 6 ] 。
1
6
10
12
14
17
22
26
28
30
39
41
均值
0. 29
3. 64
2. 49
- 0. 06 - 2. 28 - 2. 38 0. 20
- 2. 23 - 0. 08 3. 43
3. 24
- 2. 27
表情性质 中性
正性
正性
中性
负性
负性
中性
负性
中性
正性
正性
负性
2. 1. 3 实验仪器及程序 本实验由一台 Pentium Ⅳ 2. 8G计算机控制 ,刺激呈现在 19英寸彩色显示 器中 央 。屏 幕 分 辨 率 为 1024 ×768, 刷 新 频 率 为 100Hz。被试眼睛与屏幕中心的距离为 60cm。用 ASL504型眼动仪记录被试的眼动情况 ,数据采集频 率为 60Hz。眼睛在一个点停留 16m s记录为一个凝 视点 ( gaze point) ,眼睛在一个点停留 100m s记录为 一次注视 ( fixation) ,两次注视之间的眼动过程记录 为眼跳 ( saccade) 。用 gazetraker 3. 12软件运行实验 程序并同时记录被试的反应时 、正确率和眼动数据 。 整个实验程序分为练习和正式实验两个阶段 。 练习过程 ,首先向被试说明表情性质的判断标准 ,然 后呈现指导语 :“这是一个表情识别实验 ,当图片呈 现出来后 ,请您尽快判断图片上人物表情的性质 ,是 正性 、中性 ,还是负性 ,然后按键盘上的左 、中 、右光 标键 ,分别代表正性 、中性和负性 。如果清楚了 ,请 按空格键开始 。”经过练习被试掌握了判断方法后 ,