面孔表情识别的情境效应
面部识别情绪技术原理

面部识别情绪技术原理面部识别情绪技术是一种通过分析人脸表情来推断情绪状态的技术。
它借助计算机视觉和模式识别的方法,通过对面部特征和表情进行分析,从而识别出人的情绪状态。
以下是面部识别情绪技术的原理解析。
1. 面部特征提取:面部识别情绪技术首先需要从人的面部图像中提取出有代表性的面部特征。
这些特征通常包括眼睛、眉毛、嘴唇和下巴等部位的形状和位置信息。
通过使用图像处理算法,如基于特征点的检测方法或基于深度学习的人脸特征提取模型,可以从面部图像中准确提取出这些特征。
2. 表情分类模型:在面部特征提取完成后,接下来需要建立一个表情分类模型。
通过使用机器学习算法,如支持向量机(SVM)或深度卷积神经网络(CNN),可以将提取的面部特征与预先标记的表情样本进行训练,以建立一个能够准确识别不同情绪的模型。
这个模型能够学习到不同面部特征与不同情绪之间的关联。
3. 情绪推断:当面部特征被提取并通过表情分类模型进行分类之后,识别系统将能够推断出人的实际情绪状态。
通过将面部特征与已知情绪标签进行匹配,识别系统能够给出对应的情绪标签,如快乐、悲伤、愤怒等。
这个过程通常需要考虑到不同文化和个体之间对于特定表情的理解差异。
4. 模型优化和可靠性:面部识别情绪技术在应用中还需要优化和验证,以提高识别准确性和可靠性。
这可能包括对数据集的进一步标注和扩充,对算法模型的调整和改进,以及对特定人群和场景的训练和适应等。
此外,在实际应用中,还需要考虑隐私和安全的问题,并制定相应的策略和措施。
总结而言,面部识别情绪技术利用面部特征提取和表情分类模型的方法,可以准确推断出人的情绪状态。
这项技术在人机交互、心理学研究、市场调查等领域具有广泛应用前景,并且我们可以通过不断的优化和改进来提高其准确性和可靠性。
人脸情绪识别技术在心理学研究中的应用

人脸情绪识别技术在心理学研究中的应用1. 引言心理学是一门研究人类思维、情感和行为的科学。
随着信息技术的迅速发展,人脸情绪识别技术逐渐应用于心理学研究中。
人脸情绪识别技术能够通过分析人脸表情来推测被试者的情绪状态,为心理学研究提供了一种全新的工具和方法。
本文将分析人脸情绪识别技术在心理学研究中的应用,并探讨其潜在的优势和挑战。
2. 人脸情绪识别技术的原理人脸情绪识别技术是一种基于计算机视觉和机器学习的技术。
其原理是通过分析人脸图像中的特征和模式来识别人脸的情绪状态。
常用的方法包括面部表情特征提取、情感分类算法和模型训练等。
通过这些技术手段,计算机可以理解和解读人脸表情,判断被试者当前的情绪状态。
3. 人脸情绪识别技术在心理学实验中的应用人脸情绪识别技术在心理学实验中有广泛的应用。
首先,它可以被用于情绪感知的研究。
通过人脸情绪识别技术,研究人员能够测量和分析被试者在特定刺激下的情绪反应,例如,看到令人愉快或者令人厌恶的图像。
其次,人脸情绪识别技术也广泛应用于情绪调节研究中。
研究人员可以通过对被试者的面部表情进行实时监测,来了解情绪调节策略(如微笑、哭泣等)对情绪的影响。
最后,人脸情绪识别技术也可以在团体研究中发挥作用,通过分析多个人的情绪表情,研究人员可以探索情绪传递、情绪共有和情绪表达等问题。
4. 人脸情绪识别技术的优势人脸情绪识别技术在心理学研究中具有多个优势。
首先,它能够客观地测量被试者的情绪状态,避免了主观评估的偏差。
其次,人脸情绪识别技术可以实时监测和记录被试者的情绪反应,提供更准确和精细的数据支持。
此外,人脸情绪识别技术还具备高效性和可重复性,能够快速分析大量的数据并进行统计分析。
5. 人脸情绪识别技术的挑战虽然人脸情绪识别技术在心理学研究中有许多潜在的应用,但仍然存在一些挑战。
首先,人脸情绪识别技术对于不同人群、不同文化背景和不同年龄段的人的适应性有待提高。
其次,人脸情绪识别技术可能受到环境因素的影响,例如光线、摄像头角度等。
人类脸部表情识别的科学原理

人类脸部表情识别的科学原理人类是一种具有高度情感表达能力的生物,脸部表情是我们最基本的情感表达方式。
从古至今,人们一直试图了解人类脸部表情背后的科学原理,而现代科技发展给我们提供了新的手段和视角来探寻这个问题。
1. 神经解剖学与脸部表情人类对表情的认知,首先得从神经解剖学考虑。
一般而言,我们在看到脸部表情时,信息进入大脑后首先被传递到右侧颞叶(右脑)进行初步处理,识别出表情类型(如喜怒哀乐等)。
之后,信息会被传递到两侧颞叶的下颞顶区,进行表情的具体分析,判断表情的含义以及情感的强度等等。
最后,这些信息会被传递到右侧背外侧前额叶皮层(右脑)以及左右运动皮层进行反应产生。
这些信息的传递路径,是通过人类大脑内的神经网络来实现。
2. 生化学与脸部表情脸部肌肉的收缩,是产生脸部表情的生物学过程。
这个过程是由神经讯息的传递引发的,其中乳头梦幻肌和眼轮匝肌是常常发生收缩的肌肉。
生化学上考虑,这个过程与肌肉组织中的神经递质,以及肌肉蛋白和糖原等物质有关。
神经递质是一种化学物质,可以传递神经信号,介导肌肉组织的收缩和松弛,从而实现表情的产生。
3. 计算机视觉与脸部表情近年来,计算机视觉技术的发展,给我们提供了一种新的方法来研究人类脸部表情。
计算机视觉的目标是基于对物体、场景或人等的图像或视频进行自动化处理或理解,从而提取出图像中的特定信息。
在脸部表情识别方面,计算机视觉领域常常使用机器学习(ML)技术来实现。
这个过程,包括对照片和视频中的人脸进行检测和定位、分析和提取面部特征和关键点、学习和建模姿态和动态表情的模式等环节。
总结:人类的脸部表情识别机制,是通过神经解剖、生化学、计算机视觉等多个层面的学科知识结合起来实现的。
这个机制的研究,不仅有助于我们更深入地认识人类的情感表达和沟通方式,还为计算机科学等其他学科提供了新的研究方向和技术手段。
互动情景下他人面孔表情对自我决策的影响

互动情景下他人面孔表情对自我决策的影响人类是一个群居动物,我们常常需要在互动情景下做出自我决策。
而他人的面孔表情对我们的决策影响深远。
在本文中,我将讨论他人面孔表情对自我决策的影响,并给出五个具体的例子来证明这一点。
第一个例子是关于评定餐馆菜品质量的。
一项实验发现,当受试者看到服务员露出微笑的面孔时,他们会更加倾向于认为餐馆中的菜品质量更好。
相反,当服务员不露出微笑的面孔时,受试者不太相信餐馆中的菜品质量。
这个例子展示了人们对于面孔表情的敏感程度,以及他们如何根据这些表情做出自我决策。
第二个例子是关于捐赠的。
一项实验表明,当受试者看到一位募捐者露出微笑的面孔时,他们更倾向于进行捐款。
相反,当募捐者不露出微笑的面孔时,受试者不太相信他们是否应该捐款。
这个例子揭示了面孔表情如何影响人们的决策,以及如何鼓励他们做出积极的决策。
第三个例子是关于招聘的。
一项实验表明,当受试者看到一位面试者露出微笑的面孔时,他们更有可能为这位面试者提供一个工作机会。
相反,当面试者不露出微笑的面孔时,受试者可能会考虑其他候选人。
这个例子说明了面孔表情如何影响人们的招聘决策,以及如何帮助他们做出更好的选择。
第四个例子是关于购物的。
一项实验表明,当受试者看到一位销售人员露出微笑的面孔时,他们更可能购买产品。
相反,当销售人员不露出微笑的面孔时,受试者可能会考虑其他购物渠道。
这个例子阐述了面孔表情如何影响消费者的购物决策,以及如何让销售员和企业从中受益。
最后,第五个例子是关于谈判的。
一项实验表明,当受试者看到一位谈判人员露出微笑的面孔时,他们更有可能同意谈判的建议。
相反,当谈判人员不露出微笑的面孔时,受试者可能会持有更加强硬的立场。
这个例子说明了面孔表情如何影响谈判过程,以及如何让谈判人员更加成功地完成目标。
以上所有例子都说明了一个共同的道理,即他人面孔表情在影响自我决策中扮演着非常重要的角色。
我们人类是社会动物,我们需要沟通和交流,以做出最好的决策。
人脸表情识别及情绪分析技术研究

人脸表情识别及情绪分析技术研究随着科技的不断发展,人脸表情识别及情绪分析技术也逐渐成为了研究的热点。
这项技术能够对人脸进行分析和识别,从而准确地判断出人的情感状态、情绪变化等。
在日常生活中,这种技术被广泛运用在人机交互、智能家居、心理健康等领域,成为了人们生活中不可或缺的一部分。
技术原理人脸表情识别及情绪分析技术是基于人脸识别技术和图像识别技术的基础上发展而来的。
它通过对人脸特征的提取和分析,来判断出人的表情和情感状态。
在技术的实现中,需要对人脸进行图像采集和处理,然后利用人工智能算法和计算机视觉技术进行分析和识别。
识别的过程是通过模式匹配和人工智能算法进行的,可以对人的面部表情进行准确的识别和分析。
应用领域人脸表情识别及情绪分析技术在日常生活中有着广泛的应用,主要包括以下几个方面:1.智能家居智能家居系统可以根据居住者的情感状态来改变环境气氛和色彩,比如可以自动调节灯光、音乐、气氛等,让人们在家中的感觉更加舒适和惬意。
2.心理健康人脸表情识别及情绪分析技术可以帮助医生和心理医师更准确地判断患者的情感状态和心理异常,从而更好地进行治疗和干预。
3.交通安全人脸表情识别及情绪分析技术可以帮助交通管理部门更好地识别和管理交通违规者,从而提高交通安全水平。
4.营销推广人脸表情识别及情绪分析技术可以帮助企业更好地了解用户对产品和服务的情感和反应,从而更好地制定营销策略和推广策略。
发展前景人脸表情识别及情绪分析技术是一项新兴的技术,其未来的发展前景十分广泛。
首先,在智能家居、智能城市等领域的应用前景非常广阔,越来越多的人开始重视智能家居、智能城市的建设和发展,人脸表情识别及情绪分析技术的普及和应用也会越来越广泛。
其次,在医疗、心理健康等领域的应用也将越来越重要,人们的心理健康问题越来越受到关注,这种技术可以帮助医生更好地了解患者的心理状况,更好地进行治疗。
最后,在人工智能和智能机器人等领域的应用也将越来越广泛,越来越多的机器人开始拥有类似于人类的表情和情感,这种技术可以帮助机器人更好地了解人类,更好地服务人类。
惊讶面孔表情加工的情景效应——来自事情相关电位的研究证据

The effect of context on the processing of surprised faces: evidence fromevent-related potentialsAbstractFacial expressions play a critical role in the social communication as they express abundant information about individuals’ emotions and social intentions. However, facial expressions are often perceived in specific contexts in our daily life. If we want to understand and recognize the facial expressions of others accurately, it is necessary to combine emotional faces with contextual information. Facial expression of surprise is a typical example. Specifically, people usually label surprised faces that presented in positive context as more pleasant, while surprised faces in negative contexts are rated more negative. What is worth reflecting on is how contextual information influences the perception of surprised faces. What is the neural mechanisms that underlie the context effect? Based on this background, the present study intend to explore the effects of context on the processing of surprised faces with a high time-resolution EPR technique.The aim of experiment 1 was to investigate the impact of emotional context on the processing of surprised faces. Happy, neutral, and fearful expressions projected in the eye regions were presented to serve as contextual information. Participants were asked to judge the valence of surprised face that had been preceded by a picture of an eye region. Behavioral results showed that the affective rating of surprised faces were context-dependent. ERP results showed that the amplitude of P1 was enhanced by preceding neutral eyes compared with fearful and happy eyes. N170 amplitudes in neutral and fearful eye contexts were significantly larger when compared with the happy context. The LPP component indicated enhanced brain activity in response to surprised faces preceded by happy and fearful eyes compared with neutral eyes.On the basis of experiment 1, the experiment 2 increased the complexity of the situational clues and aimed to investigate the effect of contextual sentences that including affective valence (positive, neutral, negative) and self-reference (self-related, other-related) cues on the perception of surprised faces. Participants viewed surprised faces preceded by positive, neutral, and negative sentences that addressed directly to the participants or others. Behavioral results showed that surprised faces in a self-relevant positive context were rated as more positive as compared to faces in other-relevant context, surprised faces in a self-relevant negative context were rated as more negative, whereas faces in other-relevant neutral context were rated as more positive as compared to faces in self-relevant context. ERP results showed that surprised faces in neutral context elicited enhanced P1 amplitude when compared with fearful context. N170 for faces in negative context compared to that in neutral and happy contexts were larger. An interactive effect of affective valence and self-reference occurred onthe EPN component, with self-related neutral context information leading to more significant EPN than other-related neutral context, whereas other-related negative context leading to more pronounced EPN than self-related negative context. A modulation of self-reference appeared on the LPP, with enhanced LPP response to surprised faces in self-related context.Taken together, the following conclusions were obtained:1.The perception of surprised faces was context-dependent, in particular, affective context modulated the valence interpretation of surprised faces.plex context that including affective and self-reference cues could impact the perception of surprised faces in an interactive pattern.3.The influence of context on the processing of surprised faces was a successive process (P1, N170, EPN, LPP), and the top-down strategic process had a modulation effect.Key Words: context effect; surprised faces; emotional eye region; self-reference目 录摘要 (I)Abstract (II)引言 (1)1文献综述 (2)1.1单独的面孔表情加工 (2)1.1.1面孔表情加工中的类别优势效应 (2)1.1.2 面孔表情加工中的眼部加工优势 (3)1.1.3 面孔表情加工的认知神经机制 (4)1.2 情境中的面孔表情加工 (6)1.2.1 情绪性情境对面孔表情加工的影响 (7)1.2.2 自我参照性情境对面孔表情加工的影响 (9)2 问题提出 (11)2.1 已有研究的不足 (11)2.2 研究思路 (12)2.3 研究假设 (12)2.4 研究意义 (13)3 实验一情绪性眼区对惊讶面孔表情加工影响的ERP研究 (14)3.1 实验目的 (14)3.2 实验方法 (14)3.2.1 实验设计 (14)3.2.2 被试 (14)3.2.3 实验材料 (14)3.2.4 实验程序 (15)3.2.5 ERP记录 (16)3.2.6 数据处理与统计分析 (16)3.3 实验结果 (17)3.3.1 行为结果 (17)3.3.2 ERP结果 (17)3.4 讨论 (20)3.4.1 情绪性眼区的早期视觉加工 (21)3.4.2 情绪性眼区对惊讶面孔表情加工的影响 (22)3.5 结论 (23)4 实验二情绪和自我参照线索对惊讶面孔表情加工影响的ERP研究 (24)4.1 实验目的 (24)4.2 实验方法 (24)4.2.1 实验设计 (24)4.2.2 被试 (24)4.2.3 实验材料 (24)4.2.4 实验程序 (26)4.2.5 ERP记录 (27)4.2.6 数据处理与统计分析 (27)4.3 实验结果 (28)4.3.1 行为结果 (28)4.3.2 ERP结果 (28)4.4 讨论 (33)4.4.1 情绪性情境在早期面孔加工中的自动化加工 (33)4.4.2 情绪性与自我参照性情境间的交互作用 (34)4.4.3 自我参照性情境在晚期面孔加工中的优势效应 (35)4.5 结论 (35)5 总讨论 (37)5.1 情境对惊讶面孔表情加工行为结果的影响 (37)5.2 情境对惊讶面孔表情加工神经活动上的影响 (37)5.3 研究不足与展望 (40)总结论 (41)参考文献 (42)攻读硕士学位期间发表学术论文情况 (50)致谢 (51)引 言情绪作为人类心理过程的一个重要方面,既伴随着认知过程产生,又对认知过程产生重要影响。
面部表情识别技术在虚拟现实中的应用

面部表情识别技术在虚拟现实中的应用虚拟现实(Virtual Reality,简称VR)作为一种新兴的技术,近年来受到了广泛的关注。
它通过模拟现实场景,让用户沉浸其中,达到身临其境的感觉。
而面部表情识别技术则是虚拟现实中重要的一环,它能够准确地识别用户的面部表情,从而实现更加真实、交互性更强的虚拟现实体验。
首先,面部表情识别技术在虚拟现实中的应用可以提升用户体验。
传统的虚拟现实技术主要依靠用户的手柄或者头盔来进行操作,而面部表情识别技术则能够更加自然地与用户进行交互。
通过面部表情识别,虚拟现实系统可以根据用户的表情变化做出相应的反馈,使用户感受到更加真实的互动体验。
比如,在一个虚拟游戏中,当用户面露笑容时,系统可以自动调整游戏场景的色彩和音效,营造出更加愉悦的氛围,从而提升用户的参与感和满足感。
其次,面部表情识别技术在虚拟现实中的应用还可以用于心理疾病治疗。
面部表情是人类情感的重要表达方式之一,通过分析用户的面部表情,可以了解到用户的情绪状态。
在心理疾病治疗中,面部表情识别技术可以帮助医生更加准确地判断患者的情绪变化,从而制定更加科学有效的治疗方案。
同时,虚拟现实技术可以提供一个安全、舒适的环境,让患者在虚拟现实中进行心理疾病的治疗。
通过面部表情识别技术,系统可以根据患者的表情变化,调整虚拟场景的内容和氛围,帮助患者更好地放松心情,减轻痛苦。
此外,面部表情识别技术在虚拟现实中的应用还可以用于教育领域。
在传统的教育中,教师很难准确地了解到每个学生的学习状态和情绪变化。
而通过面部表情识别技术,教师可以实时监测学生的面部表情,了解到学生的学习状态和情绪变化,从而更好地调整教学内容和方式,提高教学效果。
同时,虚拟现实技术可以提供一个沉浸式的学习环境,让学生更加专注,提高学习效率。
通过面部表情识别技术,系统可以根据学生的面部表情,及时调整教学内容和难度,帮助学生更好地理解和掌握知识。
然而,面部表情识别技术在虚拟现实中的应用也存在一些挑战和问题。
面孔表情识别的机制及其影响因素

Advances in Psychology 心理学进展, 2021, 11(3), 817-824Published Online March 2021 in Hans. /journal/aphttps:///10.12677/ap.2021.113094面孔表情识别的机制及其影响因素蒲玥湖北大学教育学院心理学系,湖北武汉收稿日期:2021年2月26日;录用日期:2021年3月22日;发布日期:2021年3月30日摘要面孔表情识别,即对个体的表情进行判断,是一项重要的社会功能。
社会类别通过评价联结路径和刻板印象路径作用于面孔表情识别。
面孔表情识别的影响因素主要分为情境因素和个体因素。
情境因素有语言信息、自然场景、身体动作、颜色和温度;个体因素中最重要的就是性别因素,除此之外还有个人特质、经济地位以及特殊病症。
未来研究要继续深入探讨面孔表情识别的影响机制,还要优化表情库、丰富实验范式,广纳实验技术。
关键词面孔表情识别,作用机制,影响因素,性别,情境The Mechanism and Influencing Factors ofFacial Expression RecognitionYue PuDepartment of Psychology, Institute of Education, Hubei University, Wuhan HubeiReceived: Feb. 26th, 2021; accepted: Mar. 22nd, 2021; published: Mar. 30th, 2021AbstractFacial expression recognition, which is to judge the expression of an individual, is an important social function. Social category is applied to facial expression recognition through evaluation con-nection path and stereotype path. The influencing factors of facial expression recognition are mainly divided into situational factors and individual factors. Situational factors include language information, natural scenes, body movements, color and temperature; the most important indi-蒲玥vidual factor is gender, in addition to personal characteristics, economic status and special dis-eases. The future research should continue to explore the influence mechanism of facial expres-sion recognition, optimize the expression database, enrich the experimental paradigm, and broa-den the experimental technology.KeywordsFacial Expression Recognition, Mechanism, Influencing Factors, Gender, Context Array Copyright © 2021 by author(s) and Hans Publishers Inc.This work is licensed under the Creative Commons Attribution International License (CC BY 4.0)./licenses/by/4.0/1. 引言面孔是一种自然、多维且复杂程度高的特殊视觉刺激(秦速励,沈政,2001)。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
[23]吴丹,陆柳杏.移动阅读工具对大学生学术文献阅读效率的影响研究[J].数据分析与知识发现,2017,1(1):64⁃72.[24]Chen G,Cheng W,Chang TW,et al.A comparison of reading comprehension across paper,computer screens,and tablets:does tablet familiarity matter?[J].J ComputEduc,2014,1(2⁃3):213⁃225.[25]Korat O,Haglili S.Maternal evaluations of children′s emergent literacy level,maternal mediation in book reading,and chil⁃dren′s emergent literacy level:acomparison between SES groups[J].J Liter Res,2007,39(2):249⁃276.[26]Eshet⁃Alkalai Y,Geri N.Does the medium affect the message?The influence of text representation format on critical thinking[J].Hum Syst Manag,2007,26(4):269⁃279.[27]蒋红.数字阅读能取代纸质阅读吗———基于36篇有关信息载体对阅读效果影响研究论文的元分析[J].上海教育科研,2017,37(9):17⁃22.[28]Gill K,Mao A,Powell AM,et al.Digital reader vs print media:the role of digital technology in reading accuracy in age⁃relatedmacular degeneration[J].Eye,2013,27(5):639⁃643.[29]贺平,余胜泉.1∶1数字化学习对小学生阅读理解水平的影响研究[J].中国电化教育,2013(5):99⁃105.[30]曹东云,邱婷,谢云,等.文本呈现方式、认知风格、自我感受对大学生电脑屏幕阅读成绩的影响研究[J].电化教育研究,2013,34(1):81⁃85.[31]Hahnel C,Goldhammer F,Naumann J,et al.Effects of linear reading,basic computer skills,evaluating online information,and navigation on reading digital text[J].Comput Hum Behav,2016,55:486⁃500.(收稿日期:2018⁃08⁃02)面孔表情识别的情境效应李笑笑张承凤作为一个高度社会化的物种,人类理解和解释他人的情绪、意图和行为具有重要意义。
非言语线索,如面部表情、身体姿势和手势,以及情绪韵律构成社会信号的丰富来源[1]。
解码这些信号的能力有助于社会交往的成功。
长期以来,大多数研究者认为个体是直接通过面部表情来识别情绪的,并且是孤立呈现的面孔,然而在现实生活中,面孔的出现总是伴随一定的情境。
例如,悲伤的面孔伴随着低头等姿势,厌恶的面孔出现在垃圾场等场景,恐惧的面孔伴随着尖叫等情境。
可见,情境在面孔情绪识别中确实起一定作用。
从全面的角度来看,面孔表情的识别确实具有情境效应[2]。
1躯体表情的影响从非语言线索解码社会信号在社会合群动物(如人类)的社会交往中起着至关重要的作用。
因为来自面部和躯体的非语言情绪信号通常是一起出现的,所以研究从这两个来源整合情绪信号的机制是很重要的。
并且躯体表情同面部表情一样,同样能提供性别,情绪等信息。
身体表情是指身体所表现出的情绪和一系列协调有意义的动作(de Gelder)[3],也可称为情绪躯体语言(emotional body language,EBL)、躯体表情或姿态表情。
最早提及身体表情是Darwin《人类和动物的表情》,该领域系统的研究始于2005年Meeren等[4],采用愤怒与恐惧情绪匹配面孔和身体动作,结果发现个体仍然更倾向于忽略身体动作而将面孔进行正确分类,认为面孔表情的识别不受身体的影响。
但Aviezer,Hassin等[5]则认为先前研究并未考虑情绪间感知相似性的影响,该研究选取厌恶与悲伤(低相似)、厌恶与恐惧(中相似)、厌恶与愤怒(高相似)、厌恶与厌恶(一致)的试验材料,结果发现面部表情的识别受身体表情的影响很大,并且面孔表情与身体动作间的情绪越相似,身体动作对面孔表情识别的影响程度就越强。
随后Aviezer,Trope,Todorov[6]探究了完整人的视觉加工,通过使用复合面部任务的变体(即面孔和身体的组合分为准确定位和错位2种条件),来判断身体与面孔的情绪是否一致,结果发现这种错位的处理降低了身体背景的影响程度,表明面孔和身体通常被作为一个单元看待。
来自眼动实验的结果同样发现,当面孔表情与身体动作的情绪不一致时,对面孔表情的注视模式会受到身体动作所表达的情绪的影响。
Aviezer等[7]采用愤怒面孔与厌恶身体动作的复合图片时,不仅发现注视模式变化,而且该变化是不受意识控制的,自动化发生的。
可见,情绪躯体表情确实能够影响情绪面孔的识别。
van den Stock,Righart,de Gelder[8]将面孔表情与身体表情相结合,采用模糊处理,结果发现当面部表情处于高兴、恐惧(表情模糊)2种情绪之间时,身体姿势对面部表情的识别率的影响最大。
因此,有的研究者认为躯体姿势相对于面孔情绪来说有独特的优势,似乎更可靠。
不仅躯体表情会影响面部表情,面部表情也会影响躯体表情。
Hillel Aviezer,Yaacov,Trope[9]使用面孔-身体复合刺激进行考察,结果显示面孔表情识别受复合刺激一致性的影响,即面孔表情和身体表情存在交互作用。
除此之外,躯体表情还与面孔的加工共享着许多认知与DOI:10.19521/ki.1673⁃1662.2019.01.018作者单位:450001郑州大学教育学院脑活动。
有研究者采用事件相关电位(ERP)技术和功能性磁共振成像(functional magnetic resonance imaging,fMRI)技术研究面孔表情和身体表情,研究发现,情绪身体姿势与情绪面孔一致,也可以诱发P1成分N170和VPP成分以及P3成分;面孔表情识别和身体表情识别会同时激活相同区域(梭状回和杏仁核)。
也有一些研究者认为在面孔表情和身体表情同时出现时,相对于面孔表情,身体表情会传递更多的情绪信息。
躯体姿势除了可以像面部表情一样表达个体的心理状态,还与运动行为信息相联系。
De Gelder等[10]研究恐惧和中性身体表情的识别,研究结果显示,恐惧身体表情识别激活了在面部表情识别中未激活的区域(尾状核和壳核)。
综上所述,躯体知觉和面孔知觉的认知加工机制之间,的确存在某些一致性和差异性。
2情绪语音的影响除了视觉通道的影响之外,来自听觉通道的信息也会影响面部表情的识别。
人际交往涉及多模态情绪线索的加工处理,特别是面部表情(视觉模态)和情感语音韵律(听觉模态),在信息处理过程中可以相互作用。
相对于躯体表情而言,语调表情较多地与面部表情结合进行研究。
跨通道的情绪信息整合[11]指除视觉通道以外的其他通道,如听觉、嗅觉,作为具有情绪意义背景时能够影响对面部表情的识别。
研究发现,当声音刺激与面孔的情绪效价一致时,会促进对面孔表情的识别。
Müller等[12]采用正性、负性以及中性的语音与面孔同时呈现的方法,要求被试判断面孔的情绪,结果发现伴随尖叫的恐惧和中性面孔被评估为更恐惧。
采用眼动追踪技术考察,发现有语音伴随的面孔识别任务中,面孔的注视模式发生了变化。
Rigoulot和Pell[13]采用再认任务,同时给被试呈现面孔以及声音,之后要求被试判断面孔是否在刚才呈现过。
结果发现,被试会更长时间,更频繁地在注视声音与面部情绪类型相一致的面孔,这种效果往往是带有情绪特异性(在恐惧情绪中效果最大)。
声音韵律对面部视觉注意的影响随着时间的推移而持续,并且可以在听觉信息不再呈现之后长时间被检测到。
这些数据也意味着情感韵律在信息交流过程中被自动处理,并且这些线索在人类如何回应环境中的相关视觉线索(例如面部表情)中起着关键作用。
听觉通道情绪识别对视觉通道面部表情的影响也体现在神经机制方面。
Liu等[14]采用ERP技术,选取中性、快乐、愤怒的情绪给被试同时呈现面孔以及声音,结果发现,声音与面孔情绪的影响,两者的整合加工出现在刺激呈现后200ms (P200峰值潜伏期)左右,这种效应主要分布在额叶中央区域。
Müller等[15]采用fMRI技术,呈现面部的同时呈现尖叫、笑声以及中性(打哈欠声)要求被试判断面孔的情绪,结果发现,面部和声音之间的情绪效价的不一致导致在中央扣带回皮层、右额上皮质、右辅助运动区以及右颞顶交界处的激活增加。
3自然场景的影响在日常生活中,我们通常会把一个人的面部反应视为周围环境的一部分,其中自然场景对面部情绪的影响是不容忽视的。
Righart和de Gelder[16]将面孔表情(害怕、高兴)与自然场景(害怕、高兴以及中性)进行匹配,采用迫选任务,要求被试判断面孔的情绪是害怕还是高兴。
结果发现自然场景提供的情绪信息确实能影响面部表情的加工,即使再增加面孔任务负荷,这种影响依然很强,说明对面孔和自然场景的整合加工不需要占用认知资源,是自动化加工的,并且是在加工的早期阶段。
进一步ERP的研究发现,与面部在快乐和中性场景相比,个体在观看处于害怕中的面孔会引发较大幅度的N170。
关键的是,与恐惧的面孔在快乐的场景相比,恐惧的面孔在恐惧的场景下的N170振幅显著增加,并表示在左枕颞头皮地形的差异。
结果表明,在面部处理的早期阶段,面部表情所提供的信息与情景信息是相结合相影响的。
自然场景对面孔表情识别的影响,即使再增加其他情境线索信息的影响时,依然很强。
白鹭等[17]考察自然场景与身体动作对面孔表情识别的影响,以情绪间感知相似性较低的厌恶、恐惧消极面孔表情为材料,以面孔的表情识别和自然场景的再认成绩为任务。
结果发现,自然场景对面孔表情识别的影响更大,但身体动作也会在一定程度上干扰自然场景对对情绪面孔的表情识别的影响。
4其他情绪线索的影响在视觉范围内,除了自然场景的影响之外,社会性背景(即周围面孔的影响)也发现了情绪一致性效应。