一种可以超越传统方法捕捉微小的面部表情,并更好的测量人类情绪的机器学习模型

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

一种可以超越传统方法捕捉微小的面部表情,并更好的测量人类情绪的机器

学习模型

在情感计算发展的过程中,机器人和计算机逐渐发展出分析人类面部表情、识别情绪并基于此进行应答的能力。相关的应用除了检测个体的健康状态和学生的注意力外,也在帮助医生更好的捕捉疾病的信号、让机器人成为我们更好的陪伴。

但目前的技术对于复杂多变的人类情绪表达还面临着一系列复杂的问题。除了如文化、性别、年龄等通常的差别外、还包括更细粒度的差异,包括:所处的时刻、睡眠状态、甚至是对话对象间的熟悉程度都会微妙地影响着我们对于情绪状态的表达。这些对于机器来说千头万绪的问题于人类大脑来看却是本能的反应。近年来深度学习技术逐渐学会了捕捉人类面部微妙表情的能力,但精确性和跨人群的适应性需要很长的路要走。

为了解决情感计算中面临的问题,来自麻省理工媒体实验室情感计算研究组提出了一种可以超越传统方法捕捉微小的面部表情,并更好的测量人类情绪的机器学习模型。除此之外,通过额外的小规模数据可以将模型高效的迁移到不同的人群中去,在保持精度效率的同时提高了模型的适应性。

精准的个性化情绪识别

传统的情感计算模型利用一刀切的思想来训练模型,将在某一数据集上训练描绘不同表情的优化特征作为通用特征用于整个全新的新数据集。与过去较为单一的方式不同的是,MIT的研究人员提出了一种模型个性化技术,称为"混合专家(mixture of experts MoE)"的模型。这种模型可以从个体中发掘出更为细粒度的表情数据。

上图是研究中提出的模型架构,其中研究人员首先利用Faster R-CNN从视频帧中提取出面部区域,随后利用ResNet-50学习出面部的深度特征,并将这些特征馈入个性化专家网络(personalized expert network PEN)中,用于自动估计主体的预约和兴奋程度。同时还

相关文档
最新文档