人脸识别实验报告
人脸考勤客户端实验报告

一、实验背景随着科技的不断发展,人脸识别技术逐渐应用于各个领域,其中人脸考勤系统因其便捷、高效的特点,受到越来越多企业的青睐。
本实验旨在通过人脸考勤客户端,实现对员工考勤的智能化管理。
二、实验目的1. 掌握人脸考勤客户端的基本操作流程;2. 熟悉人脸识别技术在实际应用中的实现方法;3. 了解人脸考勤系统在企业管理中的作用。
三、实验环境1. 操作系统:Windows 102. 开发工具:Qt Creator 5.14.23. 库:OpenCV4.5.14. 硬件:摄像头、计算机四、实验步骤1. 初始化人脸识别模型(1)导入OpenCV库,并设置相应的参数;(2)加载预训练的人脸识别模型;(3)设置人脸识别阈值,以便区分识别成功与失败。
2. 捕获摄像头图像(1)打开摄像头,获取实时视频流;(2)对视频流进行帧处理,提取每一帧图像;(3)将提取的图像转换为灰度图,以便进行人脸检测。
3. 人脸检测(1)使用Haar cascades进行人脸检测;(2)将检测到的人脸区域进行标记,以便后续的人脸识别。
4. 人脸识别(1)将检测到的人脸区域进行预处理,如缩放、裁剪等;(2)使用加载的人脸识别模型进行人脸识别;(3)将识别结果与数据库中的人脸信息进行匹配,判断是否为注册用户。
5. 考勤打卡(1)根据识别结果,判断是否为注册用户;(2)若为注册用户,则记录考勤信息,如打卡时间、打卡地点等;(3)若为非注册用户,则提示非法打卡。
6. 显示考勤信息(1)在客户端界面显示考勤信息,包括员工姓名、打卡时间、打卡地点等;(2)支持查询、导出等操作。
五、实验结果与分析1. 实验结果通过实验,成功实现了人脸考勤客户端的基本功能,包括人脸识别、考勤打卡、考勤信息显示等。
实验过程中,识别准确率达到95%以上,满足实际应用需求。
2. 实验分析(1)人脸识别技术在实际应用中具有较高的准确率和稳定性;(2)客户端界面简洁明了,操作方便;(3)考勤信息记录完整,便于企业管理;(4)系统运行稳定,未出现卡顿、崩溃等现象。
人脸识别嵌入式实训报告

一、引言随着人工智能技术的飞速发展,人脸识别技术作为生物识别技术的一种,因其高准确性、非接触性和易用性等优点,在安防、金融、医疗、教育等领域得到了广泛应用。
为了深入了解人脸识别技术,我们进行了人脸识别嵌入式实训,通过实际操作,掌握了人脸识别系统的设计与实现方法。
二、实训目的1. 熟悉人脸识别技术的原理和流程。
2. 掌握人脸识别嵌入式系统的设计与实现方法。
3. 培养动手能力和团队协作精神。
三、实训内容1. 人脸检测人脸检测是人脸识别系统的第一步,主要目的是从图像中检测出人脸区域。
实训中,我们使用了OpenCV库中的人脸检测算法,通过Haar级联分类器进行人脸检测。
2. 人脸特征提取人脸特征提取是将人脸图像转换为可用于识别的特征向量。
实训中,我们使用了Local Binary Patterns Histograms (LBPH) 算法进行人脸特征提取。
3. 人脸识别人脸识别是将提取的特征向量与数据库中的人脸特征进行比较,从而识别出目标人脸。
实训中,我们使用了Nearest Neighbor (NN) 算法进行人脸识别。
4. 嵌入式系统设计我们选择了STM32微控制器作为嵌入式系统平台,利用其丰富的片上资源,实现了人脸识别系统的硬件设计。
主要包括以下模块:- 图像采集模块:采用OV7670摄像头模块进行图像采集。
- 图像处理模块:使用STM32的片上资源进行图像预处理、人脸检测和特征提取。
- 存储模块:使用SD卡存储人脸特征数据库。
- 显示模块:使用TFT LCD显示屏显示识别结果。
5. 软件设计软件设计主要包括以下部分:- 图像处理程序:使用OpenCV库进行图像处理,包括人脸检测和特征提取。
- 识别程序:使用NN算法进行人脸识别。
- 用户界面程序:使用Qt库开发跨平台用户界面,实现系统功能。
四、实训结果通过实训,我们成功设计并实现了一个基于STM32的人脸识别嵌入式系统。
系统能够实时检测人脸、提取特征并进行识别,识别准确率达到90%以上。
基于matlab的人脸识别系统实验报告

基于MATLAB的人脸识别系统小组成员:徐艺达、莫子韬邹明宇、罗远挥、周宁基于MATLAB的人脸识别系统第一部分绪论如图一个人的指纹一样,人脸也具有唯一性,也可用来鉴别一个人的身份。
现在已有实用的计算机自动指纹识别系统面试,并在安检部门得到了相应的应用。
人脸图像的自动识别较之于指纹识别系统、DNA鉴定等具有更加方便的性能,其取样方便,可不接触目标进行识别,从而具有更大意义的开发效应。
然而,与指纹成像技术不同的是,人脸图像受很多因素的干扰:人脸表情的多样性,以及外在成像过程中的关照、图像尺寸、旋转、姿势变化等方面,使得同一个人在不同的环境下拍摄所得到的人脸图像不同,有时往往会有很大的差别,给识别带来了很大的难度。
因此,人脸识别也更具有挑战性。
除了具有重大的理论价值及极富挑战性外,人脸识别还具有很多潜在的应用前景,利用人脸图像进行身份验证,可以不与目标接触就取得样本图像,而使用其他的身份手段,如指纹、眼睛虹膜等必须通过与目标接触或相当接近来取得样本,因此此类识别手段也具有很多不便之处。
本文通过使用PCA和NMF两种算法及MATLAB软件对所取图像进行预处理与识别,应用该工具箱对图像进行了经典图像处理,进而应用与人脸识别系统。
主要涉及到图像选取、脸部定位、特征提取及图像处理识别几个过程。
第二部分基于NMF算法的人脸识别系统一、摘要作为一种基于人的脸部特征信息进行身份识别的一种生物识别技术,人脸识别逐渐成为了计算机视觉领域的一个热门研究课题。
NMF就是其中一种主流算法,但由于人脸识别所存在光照、角度、遮挡等问题仍未解决,因此NMF算法仍存在局限性,该算法没有引入任何对空间的位置的约束,所以最小化目标函数很难产生揭示数据X的局部特征的因子分解。
本文以NMF算法为基础,结合LNMF算法来求解人脸问题。
二、实验目的运用NMF算法对数据库中的数据进行人脸识别分析三、实验原理 1.非负矩阵分解法NMF 1.1NMF 定义非负矩阵分解定义为:找到非负矩阵W 与H 得到下式 V ≈WH (1-1)在计算中等式两者很难完全相等。
人脸识别实训报告

一、实训背景随着计算机视觉和人工智能技术的飞速发展,人脸识别技术已经广泛应用于安防、支付、门禁等领域。
为了提高学生对人脸识别技术的理解与应用能力,我们开展了为期一个月的人脸识别实训课程。
本次实训旨在让学生了解人脸识别的基本原理、常用算法,并能够将人脸识别技术应用于实际项目中。
二、实训内容1. 人脸识别技术概述首先,我们对人脸识别技术进行了简要的介绍,包括人脸识别的发展历程、基本分类以及应用领域。
人脸识别技术主要包括人脸检测、人脸特征提取和人脸比对三个环节。
2. 人脸检测人脸检测是人脸识别的基础,其目的是从图像中定位人脸的位置。
在实训中,我们学习了基于Haar特征的Adaboost算法和基于深度学习的卷积神经网络(CNN)进行人脸检测。
通过实验,掌握了使用OpenCV库进行人脸检测的方法。
3. 人脸特征提取人脸特征提取是将人脸图像转化为可以用于识别的特征向量。
在实训中,我们学习了基于局部二值模式(LBP)特征、局部二值模式直方图(LBPH)特征以及深度学习(如VGGFace)提取人脸特征的方法。
通过实验,掌握了不同特征提取方法的应用。
4. 人脸比对人脸比对是将待识别的人脸与数据库中的人脸进行相似度比较,从而实现人脸识别。
在实训中,我们学习了基于距离度量(如欧氏距离、余弦相似度)的人脸比对方法。
通过实验,掌握了OpenCV库中的人脸比对函数的使用。
5. 人脸识别项目实战为了让学生更好地将所学知识应用于实际项目,我们选择了一个人脸识别门禁系统项目进行实战。
在项目中,我们需要完成以下任务:(1)采集人脸图像数据:从网上下载公开的人脸数据集,并进行预处理,如归一化、裁剪等。
(2)训练人脸识别模型:使用训练集数据训练人脸识别模型,包括人脸检测、特征提取和人脸比对。
(3)测试模型性能:使用测试集数据评估人脸识别模型的准确率、召回率等指标。
(4)构建门禁系统:使用训练好的模型构建门禁系统,实现人脸识别、权限控制等功能。
面部表情识别实验报告

面部表情识别实验报告一、实验背景面部表情是人类情感和心理状态的重要外在表现形式。
准确识别面部表情对于理解他人的情绪、改善人际交往、以及在医疗、教育、娱乐等多个领域都具有重要的意义。
在本次实验中,我们旨在探索有效的面部表情识别方法和技术。
二、实验目的本次实验的主要目的是:1、研究不同面部表情的特征和模式。
2、比较和评估现有的面部表情识别算法和模型。
3、提高面部表情识别的准确率和可靠性。
三、实验设备与材料1、高性能计算机:用于运行面部表情识别算法和处理大量的数据。
2、摄像头:用于采集实验参与者的面部图像。
3、面部表情数据库:包含了各种不同表情的图片和视频,如开心、悲伤、愤怒、惊讶、恐惧等。
四、实验方法1、数据采集招募了_____名志愿者作为实验参与者,年龄范围在_____岁至_____岁之间,涵盖了不同的性别和种族。
要求参与者在摄像头前做出一系列指定的面部表情,每个表情持续_____秒,并采集了大量的面部图像。
2、数据预处理对采集到的面部图像进行了裁剪、旋转、缩放等操作,以确保图像的一致性和规范性。
对面部图像进行了灰度化和归一化处理,以便于后续的特征提取和分析。
3、特征提取采用了多种特征提取方法,包括基于几何形状的特征(如眼睛、嘴巴的形状和位置)、基于纹理的特征(如局部二值模式 LBP)以及基于深度学习的特征(如卷积神经网络 CNN 提取的特征)。
4、模型训练使用了常见的机器学习算法,如支持向量机 SVM、决策树 DT 以及深度学习中的卷积神经网络 CNN 等。
将预处理后的数据集分为训练集、验证集和测试集,比例分别为_____、_____和_____。
5、模型评估使用准确率、召回率、F1 值等指标来评估不同模型的性能。
五、实验结果与分析1、不同特征提取方法的比较基于几何形状的特征提取方法在简单表情(如开心、悲伤)的识别上表现较好,但对于复杂表情(如惊讶、恐惧)的识别准确率较低。
基于纹理的特征提取方法在不同表情的识别上表现较为均衡,但整体准确率不如基于深度学习的特征提取方法。
人脸识别系统-开放实验报告范文

开放性实验报告《人脸识别系统》小组成员:姓名李宏利学号 *********指导老师:*** 2011 年12 月【实验名称】人脸识别系统【实验目的】 1.对人脸识别系统的图像预处理有一定的掌握;2.对后续操作只简单了解;3.通过功能模块实现人脸识别系统。
【实验内容】 1.系统需求分析;2.系统设计;3.系统实现。
【实验步骤】一、系统需求分析1、目的与背景当前社会上频繁出现的入室偷盗、抢劫、伤人等案件的不断发生,鉴于此种原因,防盗门开始走进千家万户,给家庭带来安宁;然而,随着社会的发展,技术的进步,生活节奏的加速,消费水平的提高,人们对于家居的期望也越来越高,对便捷的要求也越来越迫切,基于传统的纯粹机械设计的防盗门,除了坚固耐用外,很难快速满足这些新兴的需求:便捷,开门记录等功能。
广义的人脸识别实际包括构建人脸识别系统的一系列相关技术,包括人脸图像采集、人脸定位、人脸识别预处理、身份确认以及身份查找等;而狭义的人脸识别特指通过人脸进行身份确认或者身份查找的技术或系统。
人脸识别生物特征识别技术所研究的生物特征包括脸、指纹、手掌纹、虹膜、视网膜、声音(语音)、体形、个人习惯(例如敲击键盘的力度和频率、签字)等,相应的识别技术就有人脸识别、指纹识别、掌纹识别、虹膜识别、视网膜识别、语音识别(用语音识别可以进行身份识别,也可以进行语音内容的识别,只有前者属于生物特征识别技术)、体形识别、键盘敲击识别、签字识别等。
人脸识别主要用于身份识别。
由于视频监控正在快速普及,众多的视频监控应用迫切需要一种远距离、用户非配合状态下的快速身份识别技术,以求远距离快速确认人员身份,实现智能预警。
人脸识别技术无疑是最佳的选择,采用快速人脸检测技术可以从监控视频图象中实时查找人脸,并与人脸数据库进行实时比对,从而实现快速身份识别二.系统设计1)理论知识fisher概念引出在应用统计方法解决模式识别问题时,为了解决“维数灾难”的问题,压缩特征空间的维数非常必要。
基于神经网络的人脸识别实验报告
基于神经网络的人脸识实验报告别一、 实验要求采用三层前馈BP 神经网络实现标准人脸YALE 数据库的识别。
二、BP 神经网络的结构和学习算法实验中建议采用如下最简单的三层BP 神经网络,输入层为],,,[21n x x x X =,有n 个神经元节点,输出层具有m 个神经元,网络输出为],,,[21m y y y Y =,隐含层具有k 个神经元,采用BP 学习算法训练神经网络。
BP 神经网络的结构BP 网络在本质上是一种输入到输出的映射,它能够学习大量的输入与输出之间的映射关系,而不需要任何输入和输出之间的精确的数学表达式,只要用已知的模式对BP 网络加以训练,网络就具有输入输出对之间的映射能力。
BP 网络执行的是有教师训练,其样本集是由形如(输入向量,期望输出向量)的向量对构成的。
在开始训练前,所有的权值和阈值都应该用一些不同的小随机数进行初始化。
BP 算法主要包括两个阶段: (1) 向前传播阶段①从样本集中取一个样本(X p ,Y p ),将X p 输入网络,其中X p 为输入向量,Y p 为期望输出向量。
②计算相应的实际输出O p 。
在此阶段,信息从输入层经过逐级的变换,传送到输出层。
这个过程也是网络在完成训练后正常运行时执行的过程。
在此过程中,网络执行的是下列运算: (1)(2)()21(...((())...))n p n p O F F F X W W W =(2) 向后传播阶段①计算实际输出O p 与相应的理想输出Y p 的差; ②按极小化误差的方法调整权矩阵。
这两个阶段的工作一般应受到精度要求的控制,定义211()2mp pj pj j E y o ==-∑ (1)作为网络关于第p 个样本的误差测度(误差函数)。
而将网络关于整个样本集的误差测度定义为p E E =∑ (2)如前所述,将此阶段称为向后传播阶段,也称之为误差传播阶段。
为了更清楚地说明本文所使用的BP 网络的训练过程,首先假设输入层、中间层和输出层的单元数分别是N 、L 和M 。
面孔识别实验报告
面孔识别实验报告引言面孔识别是一项重要的生物特征识别技术。
随着人工智能的发展和应用场景的增多,面孔识别作为一种快速、准确且非侵入性的识别方法,被广泛应用于人脸解锁、身份验证、安全监控等方面。
本实验旨在了解面孔识别技术原理,并通过实践操作,探索面孔识别在图像处理中的应用。
实验过程实验材料准备在进行实验前,我们需要准备以下材料:1. 一台装有摄像头设备的电脑2. 图像处理软件或编程语言(如Python)3. 数据集(包含有正常人脸图片和干扰图片)实验步骤1. 数据集准备:准备好包含正常人脸图片和干扰图片的数据集。
正常人脸图片要求清晰、光照均匀;干扰图片可以包括印有文字或物体等较多噪音的图片。
2. 预处理:使用图像处理软件或编程语言对数据集进行预处理,包括人脸检测和剪裁。
常用的人脸检测算法有Viola-Jones算法和基于深度学习的人脸检测方法。
3. 特征提取:选择适合的特征提取方法,将人脸图像转化为向量形式。
常用的特征提取方法有主成分分析(PCA)和线性判别分析(LDA)等。
4. 训练模型:将提取得到的人脸特征向量作为输入,使用机器学习或深度学习方法进行模型训练。
常用的分类模型有支持向量机(SVM)、卷积神经网络(CNN)等。
5. 面孔识别:使用训练好的模型对新的人脸图像进行识别。
将新的人脸图像转化为特征向量后,与已有的人脸特征进行比对,根据匹配度判断是否是同一个人。
6. 性能评估:使用测试集对模型进行性能评估,包括准确率、召回率和F1值等指标的计算。
同时,可以对实验结果进行可视化展示,如绘制ROC曲线和混淆矩阵等。
实验结果与分析我们基于以上实验步骤进行了一系列实验,并得到以下结果与分析:1. 数据集预处理:对数据集进行了人脸检测和剪裁,去除了背景干扰因素,得到了清晰的人脸图像。
2. 特征提取:采用PCA方法将人脸图像转化为128维特征向量,保留了较多的有效信息。
3. 模型训练:使用支持向量机(SVM)进行模型训练,得到了较高的准确率和召回率。
基于深度学习的人脸识别算法性能评估与比较实验报告
基于深度学习的人脸识别算法性能评估与比较实验报告
摘要 人脸识别技术在许多领域具有广泛的应用前景,而深度学习作为当前最热门的技术之一,对于提高人脸识别算法的性能起着至关重要的作用。本实验报告旨在评估和比较基于深度学习的人脸识别算法在不同数据集上的性能,并分析其优缺点与应用潜力。通过实验结果,我们验证了深度学习在人脸识别中的优越性,并对未来发展方向提出了一些建议。
一、引言 随着科学技术的迅猛发展,人脸识别技术已经广泛应用于安全监控、人机交互等领域。而深度学习作为一种模仿人脑神经网络的技术手段,具有对复杂数据进行高效处理和学习的能力,受到了研究者们的广泛关注。本文主要通过实验评估和比较不同的基于深度学习的人脸识别算法,旨在为相关领域的研究者和开发者提供有价值的参考。
二、实验设计与数据集 (注意:由于没有提供具体的实验设计和数据集,以下部分只是一个示例,实际上需要根据具体情况进行填写。)
本次实验采用了三种基于深度学习的人脸识别算法进行性能评估和比较。首先,我们选择了One-shot网络作为对比算法,该算法通过训练一个能从一张人脸图像中提取出人物特征的神经网络来实现人脸识别。其次,我们选取了Siamese网络作为实验算法,该算法通过训练两个并行的卷积神经网络来实现人脸识别。最后,我们选择了FaceNet算法作为参考算法,该算法通过训练一个多层卷积神经网络来实现人脸识别。我们使用了CASIA-WebFace和LFW两个公开数据集进行实验,分别包含大量不同人物的人脸图像。
三、实验结果与分析 通过实验我们得到了每种算法在不同数据集上的性能指标,并进行了对比分析。在CASIA-WebFace数据集上,One-shot网络的准确率为92%,Siamese网络的准确率为95%,而FaceNet算法的准确率高达98%。这表明了基于深度学习的人脸识别算法在辨识率上具有明显的优势。
在LFW数据集上,One-shot网络的准确率为86%,Siamese网络的准确率为90%,FaceNet算法的准确率达到了94%。实验结果显示,基于深度学习的人脸识别算法在LFW数据集上的性能也相当不错。
二维人脸识别实验报告
实验报告课程名称人工智能实验名称二维人脸识别班级学号姓名成绩指导教师实验日期一.实验目的(1)通过本次人脸识别实验,进一步加深图像处理和基本算法的掌握,能利用已有的算法和程序去找出和识别人脸。
(2)通过本次人脸识别实验,进一步掌握和熟悉所学到的人工智能知识,能将所学知识和实际的生活联系起来,去解决一些比较复杂的问题。
(3)熟悉并且掌握人脸识别过程中各种算法的实现过程,能熟练的利用各种软件(VC++6.0,MATLAB 等)去实现算法的编写。
(4)熟悉人脸识别的过程和原理,进一步巩固PCA+LDA 算法,掌握其本质,并能将其运用于其他类似模型中,去解决一些问题。
(5)通过实验进一步提高编程能力和解决问题的能力,能独立的思考和类比所学到的知识,进一步了解它们的本质,巩固实际用处。
二.实验原理基于PCA 人脸识别算法的实现原理主成分分析为一种统计学中特征提取方法,在实际中应用的非常广泛。
PCA 是通过提取原始数据的主元来减少数据的冗余,使数据在低维度的空间中被处理,同时它还能很好保持了原始数据的绝大部分信息,有效的解决了由于空间维数过高而导致的一系列问题。
如下将详细介绍如何使用PCA 算法进行人脸识别。
第一个环节:提取图像数据并处理1.读入人脸,并将图像变化为相应的灰度图像。
2.将变换后的二维人脸灰度图像变换为一维人脸向量矩阵一个大小为M*N 的二维人脸图像可以看成长度为MN 的人脸图像列向量。
为了将二维人脸图像变为以为列向量,我们采取的措施为:首先计算出人脸图像的大小,然后将人脸图像经行转置,最后按列依次取出取出所有灰度值形成大小为MN 的一维向量,其实整个阶段的效果相当于将图像的灰度值按行取出依次连接成一维图像向量。
本环节完成后将会产生由一维图像向量组成的矩阵T 。
第二个环节:计算特征脸1.对图像矩阵T 进行规范化首先计算出图像矩阵中一维列向量的平均值m ,然后对图像矩阵的每一列都减去平均值形成规范化的图像矩阵A 。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
人脸识别实验报告
PCA方法
PCA 方法是由Turk 和Pentlad 提出来的,它的基础就是Karhunen-Loeve 变换(简称
KL变换),是一种常用的正交变换。K_L 变换的实质是建立了一个新的坐标系,将一个物
体主轴沿特征矢量对齐的旋转变换,这个变换解除了原有数据向量的各个分量之间相关性,
从而有可能去掉那些带有较少信息的坐标系以达到降低特征空间维数的目的。完整的PCA
人脸识别的应用包括几个步骤:人脸图像预处理;读入人脸库,训练形成特征子空间;把训
练图像和测试图像投影到上一步骤中得到的子空间上;选择一定的距离函数进行识别。整个
过程如下:
1. 读入人脸库
归一化人脸库后,将库中的每人选择一定数量的图像构成训练集,其余构成测试集。设
归一化后的图像是n*m,按列相连就构成N=n*m 维矢量,可视为N 维空间中的一个点,可
以通过K-L 变换用一个低维子空间描述这个图像。
2. 计算 K- L 变换的生成矩阵
计算一张图片X在特征空间上的投影系数(也可以理解为X在空间U中的坐标)
3. 识别
首先把所有训练图片进行投影,然后对于测试图片也进行同样的投影,采用判别函数对
投影系数进行识别。
Eigenface算法
在利用PCA进行特征提取的算法中,特征脸方法(Eigenface)是其中的一个经典算法。
特征脸方法是从主成分分析导出的一种人脸识别和描述技术。特征脸方法就是将包含人脸的
图像区域看作是一种随机向量,因此可以采用K-L变换获得其正交K-L基底。对应其中较
大特征值的基底具有与人脸相似的形状,因此又称为特征脸。利用这些基底的线性组合可以
描述、表达和逼近人脸图像,因此可以进行人脸识别与合成。识别过程就是将人脸图像映射
到由特征脸构成的子空间上,比较其与己知人脸在特征空间中的位置,具体步骤如下:
(1)初始化,获得人脸图像的训练集并计算特征脸,定义为人脸空间,存储在模板库中,以
便系统进行识别;
(2)输入新的人脸图像,将其映射到特征脸空间,得到一组关于该人脸的特征数据;
(3)通过检查图像与人脸空间的距离判断它是否是人脸;
(4)若为人脸,根据权值模式判断它是否为数据库中的某个人,并做出具体的操作。
实验步骤
1 首先读入训练数据库,然后读入测试数据库
2 输入要测试的人脸序号
实验结果
得到测试图像和识别后匹配的人脸图像
人脸识别未来的发展
人脸识别是一个跨学科富挑战性的前沿课题,人脸图像中姿态、光照、表情、饰物、背景、
时间跨度等因素的变化对人脸识别算法的鲁棒性都有着负面的影响,单一的PCA方法识别
率不高,今后的发展方向可以与其他方法(如:支持向量机、小波变化等)相结合来弥补单一
方法的不足,让身份识别更准确。
参考文献
[1]R.O.Duda,P.E.Heart,and D.G.Stork Pattern Classification,Seconded John Wiley&Sons,2001
[2]Sami Romdhami Face Image Analysis using a Multiple Feature Fitting Strategy,Phd
thesis,University of Basel,Switzerland January 2005
[3] Kyong Chang, Kevin W.Bowyer, Patrick J.Flynn. Face recognition using 2D and 3D facial
data.