人脸朝向识别 3
人脸识别中人脸对齐的使用注意事项

人脸识别中人脸对齐的使用注意事项人脸识别技术在现代社会得到了广泛应用,它为安全监控、人脸验证和人脸分析等任务提供了强大的工具。
其中,人脸对齐是人脸识别中一项重要的预处理步骤。
本文将介绍人脸对齐的概念、作用以及在使用过程中需要注意的事项。
首先,我们来了解一下人脸对齐的概念。
人脸对齐指的是通过调整图像中人脸的位置和朝向,使得人脸在图像中的位置一致,并且眼睛、鼻子、嘴巴等特定位置对齐。
这种对齐操作可以有效地减小人脸识别算法受到的传感器、装置等因素的影响,提高人脸识别的准确率和鲁棒性。
人脸对齐在人脸识别中起到了关键的作用。
它可以解决人脸图像中的尺度变化、旋转变化和姿态变化等问题,减小了因为这些因素引起的特征点位置偏移,进而提高了人脸识别的准确度。
此外,人脸对齐还可以减小人脸识别算法对于光照变化和表情变化的敏感性,使得算法更加稳定和可靠。
在使用人脸对齐技术时,有一些注意事项需要我们要考虑到。
首先,由于人脸对齐需要用到人脸特征点的定位,因此要确保特征点的准确性和鲁棒性。
人脸特征点的定位准确性和鲁棒性直接影响到人脸对齐的效果,因此,在使用人脸对齐技术时,需要选择准确率较高的人脸特征点定位算法。
其次,人脸对齐的效果还与对齐算法的选择和参数的设定有关。
近年来,随着深度学习的发展,基于深度学习的人脸对齐算法取得了较好的效果。
在选择对齐算法时,要综合考虑算法的准确度、鲁棒性、计算效率等因素。
并且,对于不同的应用场景,可能需要设定不同的参数,以获得最佳的对齐效果。
另外,人脸对齐时需要考虑到人脸图像的质量和清晰度。
人脸图像的质量和清晰度会影响到对齐算法的效果。
因此,在进行人脸对齐时,务必选择质量较高、清晰度较好的人脸图像,以免对齐结果受到不良图像质量的影响。
此外,人脸对齐还需要考虑到隐私保护的问题。
在进行人脸对齐操作时,需要注意保护个人隐私和信息安全。
比如,在使用公共摄像头进行人脸对齐时,应该确保摄像头不会捕捉到其他人的隐私信息,并将个人信息保密和安全进行。
人脸朝向识别检测

人脸朝向识别检测人脸识别技术(FRT)是当今模式识别和人工智能领域的一个重要研究方向。
虽然人脸识别的研究已有很长的历史,各种人脸的识别技术也很多,但由于人脸属于复杂模式而且容易受表情、肤色和衣着的影响,目前还没有一种人脸识别技术是公认快速有效的。
人脸朝向识别是一个复杂的模式识别问题,当人脸朝向不同的方向时,眼睛在图像中的位置差别较大。
本文将图片中描述眼睛位置的特征信息通过Sobel边缘算子提取出来作为LVQ神经网络的输入,人脸朝向作为神经网络的输出,利用Matlab工具箱通过对训练集的图片进行训练,得到具有预测识别功能的网络,从而可以对任意给出的人脸图像进行判断和识别。
学习向量量化LVQ(Learning Vector Quantization)神经网络,属于前向神经网络类型,在模式识别和优化领域有着广泛的的应用,其网络结构图如图所示。
LVQ神经网络由三层组成,即输入层、隐含层和输出层,网络在输入层与隐含层间为完全连接,而在隐含层与输出层间为部分连接,每个输出层神经元与隐含层神经元的不同组相连接。
隐含层和输出层神经元之间的连接权值固定为1。
输入层和隐含层神经元间连接的权值建立参考矢量的分量(对每个隐含神经元指定一个参考矢量)。
在网络训练过程中,这些权值被修改。
隐含层神经元(又称为Kohnen神经元)和输出神经元都具有二进制输出值。
当某个输入模式被送至网络时,参考矢量最接近输入模式的隐含神经元因获得激发而赢得竞争,因而允许它产生一个“1”,而其它隐含层神经元都被迫产生“0”。
与包含获胜神经元的隐含层神经元组相连接的输出神经元也发出“1”,而其它输出神经元均发出“0”。
产生“1”的输出神经元给出输入模式的类,由此可见,每个输出】经元被用于表示不同的类。
(3)Sobel算子进行边缘检测Sobel算子是一组方向算子,从不同的方向检测边缘。
Sobel算子不是简单求平均再差分,而是加强了中心像素上下左右4个方向像素的权重,运算结果是一幅边缘图像。
人脸识别技术中的姿态估计方法详解

人脸识别技术中的姿态估计方法详解近年来,随着人工智能技术的迅猛发展,人脸识别技术成为了热门的研究领域。
而在人脸识别技术中,姿态估计方法的应用越来越受到重视。
姿态估计方法可以帮助识别系统更准确地识别人脸,提高识别的准确性和鲁棒性。
本文将详细介绍人脸识别技术中的姿态估计方法。
姿态估计方法是指通过分析人脸的姿态信息,包括头部的旋转角度、俯仰角度和侧倾角度等,来判断人脸的朝向。
这对于人脸识别技术来说至关重要,因为人脸在不同的朝向下会有不同的表情和外貌特征,如果识别系统无法准确判断人脸的朝向,就会影响识别的准确性。
在人脸识别技术中,姿态估计方法主要有两种:基于特征点的方法和基于深度学习的方法。
基于特征点的方法是指通过提取人脸图像中的特征点,然后根据特征点的位置关系来估计人脸的姿态。
这种方法需要先进行人脸检测,然后再提取特征点。
常用的特征点包括眼睛、鼻子、嘴巴等部位。
通过计算特征点之间的距离和角度,可以得到人脸的姿态信息。
这种方法的优点是计算简单,速度快,但是对于复杂的姿态变化和遮挡情况下的人脸识别效果较差。
基于深度学习的方法是指利用深度神经网络来直接学习人脸的姿态信息。
这种方法通过训练大量的人脸图像数据,使得网络能够自动学习到人脸的姿态特征。
常用的深度学习模型包括卷积神经网络和循环神经网络等。
这种方法的优点是能够处理复杂的姿态变化和遮挡情况下的人脸识别问题,但是需要大量的训练数据和计算资源。
除了基于特征点和深度学习的方法,还有一些其他的姿态估计方法被广泛应用于人脸识别技术中。
例如,基于模型的方法是指通过建立数学模型来描述人脸的姿态变化规律。
这种方法通过建立数学模型,可以根据人脸图像的特征来估计人脸的姿态。
另外,基于纹理的方法是指通过分析人脸图像中的纹理信息,来估计人脸的姿态。
这种方法通过分析人脸图像的纹理特征,可以得到人脸的姿态信息。
总的来说,姿态估计方法在人脸识别技术中起到了重要的作用。
通过准确地估计人脸的姿态,可以提高人脸识别系统的准确性和鲁棒性。
人脸朝向识别

人脸朝向识别——数模论文一.问题重述人脸朝向识别是人脸应用研究中重要的一步,在众多研究领域中,人脸朝向识别是一个无法回避的问题。
现有10 个人的人脸照片,每人5 幅共计50 张。
每个人5 张照片的人脸朝向分别为:右方、右前方、前方、左前方和左方。
我们需要利用现有图像,建立人脸朝向识别数学模型,实现人脸朝向识别功能。
二.问题分析每张图片由一定的像素确定,每张不同图片互相区分则需要对这些像素进行观察找出其区别于其他图片的典型特征。
我们知道一张图像的像素维数十分庞大,如何实现降维处理并找出其特征点是一个关键。
我们采用了PCA(主成分分析法)降维处理并提取了特征值。
取40 张图片作为训练样本,把40 张图片的特征向量组成一矩阵并归一化处理得到了待训练的特征向量矩阵,这能够减小运算量和加快运算速度。
为了实现对图像的识别,则需要通过对样本的处理来实现对每个方向进行分类,BP 神经网络能够很好的解决这一问题。
输入训练样本后,不断地修改网络参数,即是不断调整权值,阈值使实际输出与目标输出的误差逐渐减小以至趋于零。
这样在一定的误差允许范围内可以得到一个比较准确的分类结果。
然后再选择新的图片按照相同的方法提取特征向量去检验系统的准确率。
三.基本假设1.假设每张图片各点的灰度值是都小于256 的;2.假设每张图片清晰可见,无污迹;3.假设每张图片的人脸方向均是标准的,偏差十分小。
4.假设照片中人物的肤色相同;5.假设照片拍摄过程中,人物所受光照强度相同;6.假设照片拍摄时刻,人物没有过于明显的表情;四.符号说明1. R :相关系数矩阵;2. λi (i = 1, 2,..., p ) :相关系数矩阵的特征值;3. ui(i = 1, 2,..., m) : 特征值对应的特征向量;4. xij : 像素矩阵的第i 行第j 列的灰度值;5. lij (i = j = 1, 2,..., p ) :各主成分载荷;。
人脸识别技术的原理与实现方法

人脸识别技术的原理与实现方法人脸识别技术是一种通过计算机对人脸图像进行处理和分析,来实现自动识别和辨认人脸身份的技术。
它广泛应用于安防领域、人脸解锁设备、身份验证、社交媒体过滤和人脸表情分析等方面。
本文将介绍人脸识别技术的原理和实现方法。
一、人脸识别技术的原理1. 人脸采集人脸识别系统首先需要获取人脸图像或视频。
常见的人脸采集方式包括摄像头捕捉、视频录制和图像输入等方式。
采集到的图像经过预处理后,可以用于进一步的特征提取和人脸匹配。
2. 预处理预处理阶段主要包括图像裁剪、图像旋转和图像增强等处理。
图像裁剪是为了将人脸从原始图像中分离出来,消除不必要的背景信息。
图像旋转是为了使人脸图像朝向一致,便于后续处理。
图像增强可以提升图像质量,增强关键信息的可见度。
3. 特征提取特征提取是人脸识别技术的核心环节。
常见的特征提取方法包括局部二值模式(Local Binary Pattern, LBP)、主成分分析(Principal Component Analysis, PCA)和线性判别分析(Linear Discriminant Analysis, LDA)等。
这些方法能够从图像中提取出具有辨别力的特征向量,用于人脸识别的分类和匹配。
4. 人脸匹配人脸匹配是通过计算机算法将输入的人脸特征与数据库中存储的人脸特征进行比对,从而确定人脸的身份。
常用的匹配算法包括欧氏距离、马氏距离和余弦相似度等。
匹配结果可以得出与输入人脸最相似的人脸或身份。
5. 决策阶段决策阶段是根据匹配结果判断人脸识别的最终结果。
当匹配得分超过一定阈值时,判定为认证通过,否则判定为认证失败。
二、人脸识别技术的实现方法1. 基于2D人脸识别方法2D人脸识别方法使用的是人脸图像或视频的信息。
该方法对图像的质量和角度要求较高。
基于2D人脸识别的方法包括基于特征提取的方法和基于神经网络的方法。
其中,基于特征提取的方法一般使用LBP、PCA或LDA等算法提取人脸特征,并进行匹配。
人脸90度翻转纠正算法

人脸90度翻转纠正算法1.引言1.1 概述概述部分的内容旨在介绍本篇文章的主题并提供一些背景信息。
具体内容如下:人脸识别技术在近年来得到了广泛的应用,从安全领域到人工智能领域,都离不开人脸识别技术的支持。
然而,在实际应用中,人脸图像的质量和角度问题是一个常见的挑战。
尤其当人脸图像处于90度翻转的情况下,会严重影响人脸识别的准确性和效率。
为了解决人脸图像90度翻转的问题,本篇文章将介绍一种人脸90度翻转纠正算法。
该算法基于深度学习的技术原理,通过对人脸图像进行角度翻转的纠正,可以将90度翻转的人脸图像恢复为正常的姿态,并提高人脸识别的精准度。
本文将首先介绍人脸识别中存在的问题,重点讨论人脸角度翻转给人脸识别带来的挑战。
然后,我们将详细探讨该算法的原理和实现方法,以及其在人脸识别领域的应用前景。
最后,通过本文的研究和分析,我们希望能够为解决人脸90度翻转问题提供一种有效的解决方案,进一步推动人脸识别技术的发展和应用。
希望本文的内容能够为相关领域的研究者和开发者提供一些有价值的参考和启发。
1.2文章结构文章结构:本文将从以下几个方面对人脸90度翻转纠正算法进行深入探讨。
首先,在引言部分,我们会对本文的概述进行介绍,同时给出文章的目的以及整体结构。
接下来,在正文部分,我们将讨论人脸识别中存在的问题,并详细探讨人脸角度翻转所面临的挑战。
最后,在结论部分,我们将对算法原理进行总结,并对算法的应用前景进行展望。
通过对这些内容的探讨,本文希望能够更好地理解人脸90度翻转纠正算法,并为其未来的发展提供一些思路和建议。
在正文的部分,我们将深入探讨人脸识别中存在的问题。
我们将首先介绍人脸识别技术的背景,并对其在各个领域的应用进行介绍。
接下来,我们会详细讨论人脸角度翻转所面临的挑战,包括光线的影响、姿态变化以及表情变化等因素对人脸翻转纠正的影响。
通过对这些问题的分析,我们可以更好地理解人脸角度翻转纠正算法所面临的困难和挑战。
人脸识别技术的使用技巧

人脸识别技术的使用技巧人脸识别技术是一种通过分析和比对人脸特征进行身份验证的先进技术。
随着技术的不断进步,人脸识别技术已经广泛应用于各个领域,如门禁系统、手机解锁、人证比对等。
为了更好地应用人脸识别技术,以下是几个使用技巧。
第一,保持合适的距离。
在进行人脸识别时,首先要确保与摄像头之间的距离合适。
一般推荐距离为0.5米至2米之间。
如果距离太近或太远,可能会导致识别失败或识别准确率降低。
因此,在使用人脸识别设备时要注意保持合适的距离。
第二,保持正脸。
人脸识别技术对于正脸的识别准确率较高,因此,在进行人脸识别时要尽量保持正脸朝向摄像头。
避免侧脸、低头或仰头等姿势,以免影响识别效果。
同时,要保持面部表情自然,不要做出夸张的表情,以提高识别准确率。
第三,注意光线条件。
光线条件的好坏直接影响人脸识别技术的效果。
在光线暗的环境下,可能会导致图像模糊、细节不清晰,从而影响识别准确率。
因此,在使用人脸识别设备时,要选择光线充足的环境,避免直接面对强光源,以获得更好的识别效果。
第四,定期更新人脸库。
人脸库是人脸识别技术的重要组成部分,包含了需要识别和比对的人脸信息。
为了提高识别准确率,定期更新人脸库非常重要。
随着时间的推移,人脸可能会发生变化,如年龄增长、发型改变等,如果不及时更新人脸库,可能导致无法识别的情况发生。
因此,要定期检测和更新人脸库,确保人脸信息的及时、准确。
第五,合理设置识别阈值。
识别阈值是人脸识别系统中的一个重要参数,用来控制识别的容错率和准确率。
阈值越高,识别的容错率越低,准确率越高;阈值越低,识别的容错率越高,准确率越低。
在使用人脸识别技术时,要根据实际需求和场景,合理设置识别阈值,确保满足安全性和便利性的要求。
第六,保护用户隐私。
在使用人脸识别技术时,保护用户的个人隐私是非常重要的。
要确保人脸识别系统的安全性,防止人脸数据被非法获取和滥用。
同时,在收集和使用人脸数据时,要遵循相关法律法规,取得用户的明确同意,严格限制数据的使用范围,加强数据保护措施,以保护用户的个人隐私权益。
人脸朝向识别

基于BP网络的人脸朝向识别模型问题重述:人脸朝向识别是人脸应用研究中重要的一步,在众多研究领域中,人脸朝向识别是一个无法回避的问题。
现有一组人脸朝向不同角度时的图像数据,图像来自不同的10个人(详见附件),每人五幅图像,人脸的朝向分别为:左方、左前方、前方、右前方和右方,如图1所示。
图1 人脸图像试建立人脸朝向识别模型,对人脸的朝向进行识别。
1.问题的背景:人脸识别特指利用分析比较人脸视觉特征信息进行身份鉴别的计算机技术。
广义的人脸识别实际包括构建人脸识别系统的一系列相关技术,如人脸图像采集、人脸定位、人脸识别预处理、身份确认及身份查找等; 而狭义的人脸识别特指通过人脸进行身份确认或者身份查找的技术或系统。
人工神经网络对人脸识别的研究也越来越广泛。
人工神经网络是一个非线性的有向图, 图中含有可以通过改变权大小来存放模式的加权边,并且可以从不完整的或未知的输入找到模式。
人工神经网络系统自诞生以来, 由于它固有的自学习、自适应、自组织和大规模并行处理能力, 以及具有信息的分布存储、并行处理意见自学能力等优点, 已经在信息处理、模式识别、智能控制、系统建模、系统辨识及优化等领域得到越来越广泛的应用。
尤其是基于误差反向传播算法的多层前馈网络(简称BP网络) , 可以以任意精度逼近任意的连续函数, 所以广泛应用于非线性建模、函数逼近、模式分类等方面。
可以说, BP 网络是人工神经网络中前向网络的核心内容, 体现了人工神经网络精华的部分。
一个具有r个输入和一个隐含层的神经网络模型结构如图3所示。
图3 具有一个隐含层的神经网络模型结构图BP网络的产生归功于BP算法的获得。
BP算法属于δ算法,是一种监督式的学习算法。
其主要思想为:对于q个输入学习样本:P1,P2,……P q,已知与其对应的输出样本为:T1,T2,……T q。
学习的目的是用网络的实际输出A1,A2,……A q,与目标矢量T1,T2,……T q,之间的误差来修改其权值,使A l,(l=l,2…,q)与期望的T l尽可能地接近;即:使网络输出层的误差平方和达到最小。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
人脸朝向识别摘 要本文针对人脸五个朝向的识别问题,将抽象的人脸图像转化为具体的数值进行分析,建立了人脸朝向识别模型,简单有效的实现对人脸朝向的识别,正确率达到100%。
首先利用Matlab 软件将人脸图像变成灰度矩阵,并以图像的左上角为O 点,以图像的纵边为x 轴,横边为y 轴,建立直角坐标系。
而后对眼睛的位置进行粗定位,经观察得到眼睛的位置总处于x (60,150),y (40,380)∈∈区域中。
因灰度值越小的点颜色越黑【1】,矩阵中灰度值最小的点即可代表眼点的位置,得到一个眼点坐标11(,)A x y 。
后在排除此点周围30个单位以内所有点的修改矩阵中,重新寻找灰度值最小的点,得到另一个眼点坐标22(,)B x y 。
根据两眼点与中轴线的位置关系,得出两眼点均在人脸中轴左边12(,210)y y <,人脸朝向为左方;两眼点分别位于中轴两边,但中点位置靠左12(200)2y y +<,人脸朝向为左前方;两眼点分别位于中轴两边,且与中轴的距离相差不大12(200220)2y y+<<,人脸朝向为前方;两眼点分别位于中轴两边,但中点位置靠右12(220)2y y +>,人脸朝向为右前方;两眼点均在中轴右边12(,210)y y >,人脸朝向为右方。
最后,对该问题进行了进一步探讨,不仅解决了题中所给人脸图像(图像中轴线与人体中轴线重合)朝向识别问题,还进一步对图像中轴线与人体中轴线不重合的一般性问题提出解答思路。
关键词:人脸朝向、灰度矩阵、眼睛定位1.问题重述人脸朝向识别是人脸应用研究中重要的一步,在众多研究领域中,人脸朝向识别是一个无法回避的问题。
现有一组人脸朝向不同角度时的图像数据,图像来自不同的10个人(详见附件),每人五幅图像,人脸的朝向分别为:左方、左前方、前方、右前方和右方,如图1所示。
图1 人脸图像试建立人脸朝向识别模型,通过对人体脸部的分析确定人脸的朝向。
2.模型的假设与符号说明2.1 模型的假设(1)人体脸部没有太大黑斑(2)人的中轴基本与照片中轴重合。
(3)照片中人脸大但又不超出照片范围。
2.23.模型的分析和建立3.1模型的分析题目要求从图像中判别人脸的朝向,需要将抽象的图像转化成具体的数字进行讨论。
利用Matlab 软件将人脸图像转变为灰度矩阵,以灰度值代替人脸图像特征。
而由于眼睛颜色较黑,其相应的灰度值较小容易查找,并且眼睛可以近似成点,可将眼睛的位置作为脸部朝向的判断标准。
故在图像上建立坐标系,通过寻求眼睛的位置,求取其坐标值,明确其位置关系,判断脸部朝向。
首先得到图像上各点灰度值的矩阵。
其次粗定位眼睛区域,通过人眼与人脸的几何位置关系初步定位出人眼区域。
再精确定位左、右眼的中心点位置及坐标。
根据眼睛与图像中轴线的位置关系得出朝向判断标准,确定判断规律。
其分析过程图如下:3.2将人脸图像转变成灰度矩阵通过Matlab 编程,将原人脸图像转换成420 ⨯420的灰度矩阵D 。
并以图像的左上角为O 点,以图像的纵边为x 轴,横边为y 轴,建立直角坐标系。
则矩阵中的灰度值对应坐标中相应点所代表的值,即点(,)i j x y 所代表值为ij d 。
3.3寻求灰度值最小的点,即为眼睛所在点由文献【1】可知,灰度值越小表示其所对应位置颜色越黑,灰度值为0时其对应颜色为纯黑,灰度值为255时其对应的颜色为白色【1】,可将灰度值较小的点表示眼睛所在点。
而由于眉毛、头发等脸部特征与眼部的色彩相近,均为黑色,在选取眼睛所在位置时容易混淆。
故不在全部人脸范围内寻求灰度值最小点,只在以眼睛颜色为最黑的区域进行筛选,得到的灰度值最小点即为眼睛所在点。
粗定位眼睛区域,通过人眼与人脸的几何位置关系初步定位出人眼区域。
正常情况下,眼部位于头部上方1/5到2/5的位置,我们在坐标系中取x (60,150),y (40,380)∈∈这块区域M 作为人眼区域。
如下图1,从原图1-1、2-2、3-3三个不同人不同方向的图像中可以发现区域M 均能覆盖人眼位置。
图1 粗定位眼睛区域图在第一次筛选后可以得到最小灰度值b ,min()ij b d =若只存在一个最小灰度值,就认为其对应点为人体其中一只眼睛所在的位置;若最小灰度值对应于两个不同的点,任取其中一个作为眼睛所在点;若最小灰度值对应于三个不同以上的点,取其中距离较近点中的任意一点作为眼睛所在点;并得到其坐标A 11(,)x y 。
为不受已找出眼睛所在点的影响,寻出另一只眼睛的位置,将离点A 距离30单位点的灰度值赋为255,排除此眼点对寻找另一眼点的影响,得到修改后的灰度值矩阵G 。
再在矩阵G 中寻求最小灰度值e ,min()ij e g =,同样得到其坐标B 22(,)x y 。
3.4确定眼睛坐标位置以图1-1人脸图像为例,计算眼睛坐标位置。
通过编程得到其420 ⨯420的灰度矩阵D ,如下表1。
表1 初始灰度值矩阵部分表其中数值在一百以上的表明其所在位置颜色较白,数值在几十或十几时表明其所在位置相对较黑。
得到初始矩阵D 中灰度值最小值为18,其最小灰度值对应的坐标点(95,15)。
将离点A 距离30单位点的灰度值赋为255,得到修改后的灰度值矩阵E ,如下表2。
表2 修改后灰度值矩阵部分表得到修改后矩阵灰度值最小值为19,其最小灰度值对应的坐标为(90,58)。
同理可以通过Matlab编程(见附录程序一),可以得到其它各图中两眼的坐标值,如下表3。
表3 各图像眼睛坐标值3.5确定朝向判断标准若以图像中轴线为边线,通过对原图像观察发现,见下图2。
图2 两眼位置与中轴线关系图①两眼点均在人脸中轴左边,人脸朝向为左方;②两眼点分别位于中轴两边,但中点位置靠左,人脸朝向为左前方;③两眼点分别位于中轴两边,且与中轴的距离相差不大,人脸朝向为前方; ④两眼点分别位于中轴两边,但中点位置靠右,人脸朝向为右前方; ⑤两眼点均在中轴右边,人脸朝向为右方。
而又根据3.2,3.3可以得出, ① 当1221002100y y -<-<且时,1k =1221002100y y -<-<且表示两眼点均在人脸中轴线左边,人脸朝向左方,即1k =。
② 当1212(210)(210)0,2002y y y y +-⨯-<<时, 2k =12(210)(210)0y y -⨯-<则1(210)y -与 2(210)y -异号,说明眼点A 与眼点B 分别为位于中轴线两侧,122002y y +<说明两眼点中心靠左,此时人脸朝向为左前方,即2k =。
③当1212(210)(210)0,2002202y y y y +-⨯-<<<时, 3k =12(210)(210)0y y -⨯-<则1(210)y -与 2(210)y -异号,说明眼点A 与眼点B 分别为位于中轴线两侧,122002202y y +<<说明两眼点距中轴线的距离相差不大,此时人脸朝向为前方,即3k =。
④ 当1212(210)(210)0,2202y y y y +-⨯-<>时, 4k =12(210)(210)0y y -⨯-<则1(210)y -与 2(210)y -异号,说明眼点A 与眼点B 分别为位于中轴线两侧,122202y y +>说明两眼点中心靠左,此时人脸朝向为左前方,即4k =。
⑤ 当122100,2100y y ->->时,5k =122100,2100y y ->->表示两眼点均在中轴线右边,人脸朝向为右方,即5k =。
4.模型结果的分析与检验根据上述得到的2至10号人不同图像中眼睛坐标位置,利用所得判断标准对其进行检验,其检验结果见表4。
表4 2号检验结果向一致,正确率为100%,见附表1—8。
5.模型的推广与改进方向可以推广到照片中轴线与人体中轴线不重合的情况,只需在定位人嘴的坐标,这需要给出彩色图片,利用Matlab 得到RPG 矩阵,R 矩阵中数值最大的一点为最红的一点,可以将其视为人嘴的坐标。
在图1中标示出人嘴的位置,得到人脸的特征三角形(如图2),根据这一特征三角形就可以判断人脸朝向。
图2 人脸特征三角形与中轴线关系图6.模型的优缺点6.1模型优点1、 模型简单高效,正确率到达100%;2、 将抽象的图像转化为具体的数值,便于之后问题的数值计算;3、对一般性问题提出了解答思路;4、解题思路清晰明了,易于理解。
6.2模型缺点1、本模型只解决了题中图像(图像中轴线与人体中轴线重合)的人脸朝向问题;2、对于一些特殊人群(脸上有大面积明显斑点)未作考虑。
参考文献[1] 朱玉华,段晓东,刘宏.一种基于特征三角形的驾驶员头部朝向分析方法[J][2] 韩中庚.数学建模竞赛—获奖论文精选与点评[M].北京:科学出版社,2007[3] 姜启源.数学模型[M].北京:高等教育出版社,1999.[4] 贺兴化,周媛媛,王继阳,周晖等. MATLAB7.x图像处理.人民邮电出版社.137-1387.附录附表2 4号检验结果附表3 5号检验结果附表5 7号检验结果附表8 10号检验结果程序一:a=imread('mwf1.bmp');%将图转变为灰度值矩阵b=1000;e=1000;c=zeros(1,1);d=zeros(2,1);%从灰度值矩阵中找出最小的灰度值b。
for i=60:150for j=40:380if a(i,j)<bb=a(i,j);endendend%得到灰度值为b的坐标,并将以其为中心长宽各30单位的矩阵的灰度赋值为一个较大的数255,得到修改后的灰度值矩阵for i=60:150for j=40:380if a(i,j)==bc(1,1)=i;c(2,1)=j;for i1=i-30:i+30for j1=j-30:j+30a(i1,j1)=255;endendendendend%从修改后的灰度值矩阵中找出最小的灰度值e。
for i=60:150for j=40:380if a(i,j)<e&&a(i,j)~=be=a(i,j);endendend%得到灰度值为e对应的坐标for i=60:150for j=40:380if a(i,j)==ed(1,1)=i;d(2,1)=j;endendend%所以c(1,1)c(2,1)和d(1,1)d(2,1)分别为两只眼睛的纵横坐标。
程序二:w=zeros(50,1);for i=1:50if q(i,1)<210&&q(i,2)<210%两眼点均在中轴左边w(i,1)=1;elseif q(i,1)>210&&q(i,2)>210%两眼点均在中轴右边w(i,1)=5;elseif (q(i,1)+q(i,2))/2>200&&(q(i,1)+q(i,2))/2<220%两眼点分别位于中轴两边,且与中轴的距离相差不大w(i,1)=3;elseif (q(i,1)+q(i,2))/2<210%两眼点分别位于中轴两边,但中点位置靠左w(i,1)=2;elseif (q(i,1)+q(i,2))/2>210%两眼点分别位于中轴两边,但中点位置靠右w(i,1)=4;endend。