基于最大最小距离的人脸识别
基于对称最大间距准则的人脸识别方法

,… ,
]∈R 是 由最 优 鉴 别矢 量 ∈R 所 构
成 的投 影矩 阵 。设 和 分 别 表 示 经 过 Y= X 投 影 变换后 , 特征 空 间 中样 本 的类 间离 散 度矩 阵 和 类 内 离 散 度 矩 阵 。 L 【 提 出 的 最 大 间 距 准 则 i
第 1 2卷
第 4期
21 0 2年 2月
科
学
技
术
与
工
程
V0_1 No 4 Fe . 2 2 l 2 . b 01
17 — 11 (0 2 0 —8 90 6 1 85 2 1 )40 0 —4
S in e T c n lg n gn ei g c e c e h o o y a d En i e rn
镜像 变换 , 将人脸 图像 生成镜像 图像 。依据奇偶分 解原理 , 人脸 图像 分解 成镜像 奇、 对称 图像 。然后分 别对 奇偶对称 图 把 偶
像进行 最大间距准则 , 提取所 需的鉴别特 征。在 O L和 Y l 标 准人脸 库上 的实验 结果 表 明, 算法通过 利用镜像 变换扩 大 R a e 该
@
2 1 S iTc . n r. 0 2 c eh E gg .
基 于对 称 最 大 间距 准 则 的人 脸 识 别 方 法
程 国 刘 亚 亚 丁 正 生
( 商洛学 院数学与计算科学系 , 洛 7 6 0 西安科技大学理学院 , 商 20 0; 西安 70 5 ) 10 4
人脸识别主要算法原理

人脸识别主要算法原理主流的人脸识别技术基本上可以归结为三类,即:基于几何特征的方法、基于模板的方法和基于模型的方法。
1. 基于几何特征的方法是最早、最传统的方法,通常需要和其他算法结合才能有比较好的效果;2. 基于模板的方法可以分为基于相关匹配的方法、特征脸方法、线性判别分析方法、奇异值分解方法、神经网络方法、动态连接匹配方法等。
3. 基于模型的方法则有基于隐马尔柯夫模型,主动形状模型和主动外观模型的方法等。
1. 基于几何特征的方法人脸由眼睛、鼻子、嘴巴、下巴等部件构成,正因为这些部件的形状、大小和结构上的各种差异才使得世界上每个人脸千差万别,因此对这些部件的形状和结构关系的几何描述,可以做为人脸识别的重要特征。
几何特征最早是用于人脸侧面轮廓的描述与识别,首先根据侧面轮廓曲线确定若干显著点,并由这些显著点导出一组用于识别的特征度量如距离、角度等。
Jia 等由正面灰度图中线附近的积分投影模拟侧面轮廓图是一种很有新意的方法。
采用几何特征进行正面人脸识别一般是通过提取人眼、口、鼻等重要特征点的位置和眼睛等重要器官的几何形状作为分类特征,但Roder对几何特征提取的精确性进行了实验性的研究,结果不容乐观。
可变形模板法可以视为几何特征方法的一种改进,其基本思想是:设计一个参数可调的器官模型(即可变形模板),定义一个能量函数,通过调整模型参数使能量函数最小化,此时的模型参数即做为该器官的几何特征。
这种方法思想很好,但是存在两个问题,一是能量函数中各种代价的加权系数只能由经验确定,难以推广,二是能量函数优化过程十分耗时,难以实际应用。
基于参数的人脸表示可以实现对人脸显著特征的一个高效描述,但它需要大量的前处理和精细的参数选择。
同时,采用一般几何特征只描述了部件的基本形状与结构关系,忽略了局部细微特征,造成部分信息的丢失,更适合于做粗分类,而且目前已有的特征点检测技术在精确率上还远不能满足要求,计算量也较大。
2. 局部特征分析方法(Local Face Analysis)主元子空间的表示是紧凑的,特征维数大大降低,但它是非局部化的,其核函数的支集扩展在整个坐标空间中,同时它是非拓扑的,某个轴投影后临近的点与原图像空间中点的临近性没有任何关系,而局部性和拓扑性对模式分析和分割是理想的特性,似乎这更符合神经信息处理的机制,因此寻找具有这种特性的表达十分重要。
人脸识别技术的使用技巧

人脸识别技术的使用技巧人脸识别技术是一种通过分析和比对人脸特征进行身份验证的先进技术。
随着技术的不断进步,人脸识别技术已经广泛应用于各个领域,如门禁系统、手机解锁、人证比对等。
为了更好地应用人脸识别技术,以下是几个使用技巧。
第一,保持合适的距离。
在进行人脸识别时,首先要确保与摄像头之间的距离合适。
一般推荐距离为0.5米至2米之间。
如果距离太近或太远,可能会导致识别失败或识别准确率降低。
因此,在使用人脸识别设备时要注意保持合适的距离。
第二,保持正脸。
人脸识别技术对于正脸的识别准确率较高,因此,在进行人脸识别时要尽量保持正脸朝向摄像头。
避免侧脸、低头或仰头等姿势,以免影响识别效果。
同时,要保持面部表情自然,不要做出夸张的表情,以提高识别准确率。
第三,注意光线条件。
光线条件的好坏直接影响人脸识别技术的效果。
在光线暗的环境下,可能会导致图像模糊、细节不清晰,从而影响识别准确率。
因此,在使用人脸识别设备时,要选择光线充足的环境,避免直接面对强光源,以获得更好的识别效果。
第四,定期更新人脸库。
人脸库是人脸识别技术的重要组成部分,包含了需要识别和比对的人脸信息。
为了提高识别准确率,定期更新人脸库非常重要。
随着时间的推移,人脸可能会发生变化,如年龄增长、发型改变等,如果不及时更新人脸库,可能导致无法识别的情况发生。
因此,要定期检测和更新人脸库,确保人脸信息的及时、准确。
第五,合理设置识别阈值。
识别阈值是人脸识别系统中的一个重要参数,用来控制识别的容错率和准确率。
阈值越高,识别的容错率越低,准确率越高;阈值越低,识别的容错率越高,准确率越低。
在使用人脸识别技术时,要根据实际需求和场景,合理设置识别阈值,确保满足安全性和便利性的要求。
第六,保护用户隐私。
在使用人脸识别技术时,保护用户的个人隐私是非常重要的。
要确保人脸识别系统的安全性,防止人脸数据被非法获取和滥用。
同时,在收集和使用人脸数据时,要遵循相关法律法规,取得用户的明确同意,严格限制数据的使用范围,加强数据保护措施,以保护用户的个人隐私权益。
局部保持最大间距准则在人脸识别中的应用

实验 结 果 一 致证 明 了识 别效 果 的提 高
【 键 词 】 部保 持 最 大 间距 准 则 ; 征 提 取 ; 脸 识 别 关 局 特 人
O 概 述
远 则 A(J较 小 。换 言 之 , i ) 节 点 轧和 ≈上 的 处 理 。因 此 , 些 新 i) A( 是 √ 这 的权 重 矩 阵描 述 训 练 样 本 之 间 的局 部 结 构 和 邻 近关 系 。通 常 , 射 矩 仿
n
一
.
,
,= = 设 J L 一 则可以定义另一个 n ) 一 = 维对称 的, 单一特征( 而 全局 的或 局 部 的) 于 描 述 基 本 的真 实 结 构 可 能 不 够 D 二 W , , 一 , : W , 用
一
算 子 ( vreoea r , 此令 降低 维 数 和 分 类 更 加 简 便 。 i es p rt ) 由 n o 其 中 一 个 不 能 忽 视 的 事 实 是 ,现 实 世 界 数 据 的 结 构 通 常 是 复 杂
设 D 和 为 n维对角线矩阵 , 对角线元素 D = , )
基于主成分分析(PCA)的人脸识别技术

基于主成分分析(PCA)的⼈脸识别技术本科期间做的⼀个课程设计,觉得⽐较好玩,现将之记录下来,实验所⽤。
1、实验⽬的(1)学习主成分分析(PCA)的基础知识;(2)了解PCA在⼈脸识别与重建⽅⾯的应⽤;(3)认识数据降维操作在数据处理中的重要作⽤;(4)学习使⽤MATLAB软件实现PCA算法,进⾏⼈脸识别,加深其在数字图像处理中解决该类问题的应⽤流程。
2、实验简介(背景及理论分析)近年来,由于恐怖分⼦的破坏活动发⽣越发频繁,包括⼈脸识别在内的⽣物特征识别再度成为⼈们关注的热点,各国均纷纷增加了对该领域研究的投⼊。
同其他⽣物特征识别技术,如指纹识别、语⾳识别、虹膜识别、DNA识别等相⽐,⼈脸识别具有被动、友好、⽅便的特点。
该技术在公众场合监控、门禁系统、基于⽬击线索的⼈脸重构、嫌疑犯照⽚的识别匹配等领域均有⼴泛应⽤。
⼈脸识别技术是基于⼈的脸部特征,对输⼊的⼈脸图像或者视频流,⾸先判断其是否存在⼈脸。
如果存在⼈脸,则进⼀步的给出每个脸的位置、⼤⼩和各个主要⾯部器官的位置信息。
其次并依据这些信息,进⼀步提取每个⼈脸中所蕴涵的⾝份特征,并将其与已知的⼈脸进⾏对⽐,从⽽识别每个⼈脸的⾝份。
⼴义的⼈脸识别实际包括构建⼈脸识别系统的⼀系列相关技术,包括⼈脸图像采集、⼈脸定位、⼈脸识别预处理、⾝份确认以及⾝份查找等;⽽狭义的⼈脸识别特指通过⼈脸进⾏⾝份确认或者⾝份查找的技术或系统。
我们在处理有关数字图像处理⽅⾯的问题时,⽐如经常⽤到的图像查询问题:在⼀个⼏万或者⼏百万甚⾄更⼤的数据库中查询⼀幅相近的图像。
其中主成分分析(PCA)是⼀种⽤于数据降维的⽅法,其⽬标是将⾼维数据投影到较低维空间。
PCA形成了K-L变换的基础,主要⽤于数据的紧凑表⽰。
在数据挖掘的应⽤中,它主要应⽤于简化⼤维数的数据集合,减少特征空间维数,可以⽤较⼩的存储代价和计算复杂度获得较⾼的准确性。
PCA法降维分类原理如下图所⽰:如上图所⽰,其中五⾓星表⽰⼀类集合,⼩圆圈表⽰另⼀类集合。
一种改进的最大间距准则人脸识别方法

中图法分类号
T F 3 9 1 . 4 1 ;
文献标志码
A
人 脸识别 是模式 识别领 域 的一个研 究 热点。 特征 提取 是 人 脸 识 别 系 统 中 的重 要 步 骤 。线 性 判 别分 析 ( L i n e a r D i s t i n g u i s h A n a l y s i s , L D A) 是 一 种 经典 的特 征提 取技 术 ; 它 通 过 构 造样 本 的类 间 离散
度矩阵和类内离散度矩阵 , 在F i s h e r 准则下计 算鉴 别矢量 , 使高维人脸图像样本变换到低维 空间后有 更好的类可分性。然而在人脸识别 中, 由于存在小
样本 问题 而 使 得 类 内离 散 度 矩 阵 奇 异 。 针 对 该 问 题, 文献 [ 2 ] 提 出 了基 于 最 大 间 距 准 则 ( Ma x i mu m
类内散布矩 阵奇异而无法求解的问题 , 但M M C在
提 取特 征 时却 表 现 出如 下 的不 足 : ( 1 ) 类 间 散 度 矩
2 0 1 2 年l 1 月 9日收到 陕西省教育厅科研计划项 目( 1 1 J K 0 5 1 2 ) 、 陕西省教育科学“ 十二五” 规划课题 ( S G H 1 2 4 4 3 ) 、 商 洛学 院科研基金项 目( 1 1 S K Y 0 0 3 , 1 2 S K Y 0 1 0 ) 、
阵过 分地 强调 了类 间距离 大 的类 别 , 而 忽 视 了类 间 距离 小 的类别 , 导致 了该 算 法 得 到 的投 影 方 向可 以 很好 地分 开类 间距 离 较 大 的类 别 , 却 造 成 了类 间距
离小 的类别的大量重叠 _ 4 j 。( 2 ) 由于类间散度反映
(整理)PCA方法详解及人脸识别应用实例.

第一节主成分分析基本理论一、什么是主成分分析?主成分分析为Principle component analysis[10,11,12]的中文翻译,其英文简写为PCA。
它是一种非常流行和实用的数据分析技术,最重要的应用是对原有数据进行简化。
主成分分析可以有效的找出数据中最“主要”的元素和结构,去除噪声和冗余,将原有的复杂数据降维处理,揭示出隐藏在复杂数据背后的简单结构。
它的优点是简单,而且无参数限制,可以方便的应用与各个场合。
因此应用极其广泛,从神经科学到计算机图形学都有它的身影。
PCA被称为应用线形代数最有价值的结果之一。
本节下面的内容将开始讲解PCA的具体内容。
具体安排为:首先将从一个简单的例子开始说明PCA应用的场合以及想法的由来,进行一个比较直观的解释;然后加入数学的严格推导,引入线形代数,进行问题的求解。
随后将揭示PCA与SVD(Singular Value Decomposition)之间的联系以及如何将之应用于真实世界。
最后将分析PCA理论模型的假设条件以及针对这些条件可能进行的改进。
二、例子在实验科学中常常遇到的情况是,使用大量的变量代表可能变化的因素,例如光谱、电压、速度等等。
在实际中,由于实验环境和观测手段的限制,实验数据往往变得极其的复杂,混乱,而且数据存在很大的冗余。
如何对数据进行分析,取得隐藏在数据背后变量间的本质关系,是一个很困难的问题。
在神经科学、气象学、海洋学等等学科实验中,假设的变量个数往往非常之多,但是真正的影响因素以及它们之间的关系可能又是非常之简单的。
下面的例子取自一个我们都非常熟悉的物理学中的实验。
这个实验看上去似乎过于简单,但足以说明问题。
如图表 4.1所示,这是一个理想弹簧运动规律的测定实验。
假设球是连接在一个无质量无摩擦的弹簧之上,从平衡位置沿x 轴拉开一定的距离然后释放。
图4.1理想弹簧运动规律模型对于一个具有先验知识的实验者来说,这个实验是非常容易的。
人脸识别最好用的距离函数

人脸识别最好用的距离函数人脸识别技术已经成为了现代社会中不可或缺的一部分。
在人脸识别技术中,距离函数是非常重要的一个组成部分。
距离函数的作用是将两个人脸之间的相似度量化,从而判断它们是否属于同一个人。
在本文中,我们将探讨人脸识别最好用的距离函数。
首先,我们需要了解距离函数的基本概念。
距离函数是一种用于测量两个对象之间距离的函数。
在人脸识别中,距离函数的作用是将两个人脸之间的相似度量化。
距离函数的值越小,表示两个人脸越相似,反之则越不相似。
目前,人脸识别最常用的距离函数有欧氏距离、余弦相似度和曼哈顿距离等。
其中,欧氏距离是最常用的距离函数之一。
欧氏距离是指两个向量之间的距离,即两个向量之间的欧氏距离越小,表示它们越相似。
欧氏距离的计算公式为:d(x,y) = sqrt((x1-y1)^2 + (x2-y2)^2 + ... + (xn-yn)^2)其中,x和y分别表示两个向量,n表示向量的维度。
除了欧氏距离之外,余弦相似度也是人脸识别中常用的距离函数之一。
余弦相似度是指两个向量之间的夹角余弦值,即两个向量之间的余弦相似度越大,表示它们越相似。
余弦相似度的计算公式为:cos(x,y) = (x1y1 + x2y2 + ... + xnyn) / (sqrt(x1^2 + x2^2 + ... +xn^2) * sqrt(y1^2 + y2^2 + ... + yn^2))最后,曼哈顿距离也是人脸识别中常用的距离函数之一。
曼哈顿距离是指两个向量之间的曼哈顿距离,即两个向量之间的曼哈顿距离越小,表示它们越相似。
曼哈顿距离的计算公式为:d(x,y) = |x1-y1| + |x2-y2| + ... + |xn-yn|综上所述,欧氏距离、余弦相似度和曼哈顿距离都是人脸识别中常用的距离函数。
在实际应用中,我们需要根据具体的场景和需求选择最合适的距离函数。
例如,在需要考虑人脸姿态和光照变化等因素的情况下,余弦相似度可能更适合;而在需要考虑人脸形状和轮廓等因素的情况下,欧氏距离可能更适合。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
Neighbor Search with Global Geometry:A Minimax Message PassingAlgorithm基于全局数据集合结构的近邻搜索:极大极小信息传递算法人脸识别简介:人脸识别技术是基于人的脸部特征,对输入的人脸图象或者视频流 . 首先判断其是否存在人脸 , 如果存在人脸,则进一步的给出每个脸的位置、大小和各个主要面部器官的位置信息。
并依据这些信息,进一步提取每个人脸中所蕴涵的身份特征,并将其与已知的人脸进行对比,从而识别每个人脸的身份。
广义的人脸识别实际包括构建人脸识别系统的一系列相关技术,包括人脸图像采集、人脸定位、人脸识别预处理、身份确认以及身份查找等;而狭义的人脸识别特指通过人脸进行身份确认或者身份查找的技术或系统。
人脸识别技术中被广泛采用的区域特征分析算法,它融合了计算机图像处理技术与生物统计学原理于一体,利用计算机图像处理技术从视频中提取人像特征点,利用生物统计学的原理进行分析建立数学模型,即人脸特征模板。
利用已建成的人脸特征模板与被测者的人的面像进行特征分析,根据分析的结果来给出一个相似值。
通过这个值即可确定是否为同一人。
基本算法:1.基于人脸特征点的识别算法(Feature-based recognition algorithms )。
2.基于整幅人脸图像的识别算法(Appearance-based recognition algorithms )。
3.基于模板的识别算法(Template-based recognition algorithms )。
4.利用神经网络进行识别的算法(Recognition algorithms using neural network )。
5.利用线性回归进行识别的算法。
6.利用稀疏表示进行识别的算法。
我的课题是利用最小最大距离进行人脸识别的算法( Neighbor with Global Geometry :A Minimax Message Passing Algorithm )核心算法:1. k-Nearest Neighbor algorithm (k 邻近算法)K 最近邻(k-Nearest Neighbor ,KNN)分类算法,是一个理论上比较成熟的方法,也是最简单的机器学习算法之一。
该方法的思路是:如果一个样本在特征空间中的k 个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。
KNN 算法中,所选择的邻居都是已经正确分类的对象。
该方法在定类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。
KNN 方法虽然从原理上也依赖于极限定理,但在类别决策时,只与极少量的相邻样本有关。
由于KNN 方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN 方法较其他方法更为适合。
具体来说就是在N 个已知样本中,找出X 的k 个近邻。
设这N 个样本中,来自1w 类的样本有1N 个,来自2w 类的有2N 个,…,来自c w 类的有c N 个,若12,,...,c k k k 分别是k 个近邻中属于12,...,c w w w 类的样本数,则我们可以定义判别函数为:(),1,2,...,i i g x k i c ==决策规则为:若 ()max j i i g x k =则决策j x w ∈。
上图中,绿色圆要被决定赋予哪个类,是红色三角形还是蓝色四方形?如果K=3,由于红色三角形所占比例为2/3,绿色圆将被赋予红色三角形那个类,如果K=5,由于蓝色四方形比例为3/5,因此绿色圆被赋予蓝色四方形类。
2. minimum spanning tree (最小生成树)在一给定的无向图 G = (V, E) 中,(u, v) 代表连接顶点 u 与顶点 v 的边(即 ),而 w(u, v) 代表此边的权重,若存在 T 为 E 的子集(即 )且为无循环图,使得 w(T) 最小,则此 T 为 G 的最小生成树。
许多应用问题都是一个求无向连通图的最小生成树问题。
例如:在设计电子线路时,常常要把数个元件的引脚连接在一起,使其电位相同。
要是n 个引脚互相连通,可以使用n-1条连接线,每条连接线连接两个引脚。
在各种连接方案中,通常希望找出连接线最小的接法。
可以把这一接线问题模型化为一个无向连通图G=(V,E ),其中V 是引脚集合,E 是每对引脚之间可能互联的集合。
对图中每一条边,都有一个权值 , 表示 u 和 v 的代价(需要接线数目)。
我们希望找出一个无回路的子集 ,它连接了所有的顶点,且其权值之和:为最小。
因为T 无回路且连接所有的顶点,所以它必然是一棵树,称为生成树(spanning tree ),因为它“生成”了图G 。
把确定树T 的问题称为最小生成树。
3. 欧氏距离欧几里得度量定义欧几里得空间中,点 x = (x1,...,xn) 和 y = (y1,...,yn) 之间的距离为:(u,v)E ∈(,)w u v T E ⊆(,)()(,)u v Tw T w u v ∈=∑向量的自然长度,即该点到原点的距离为.它是一个纯数值。
在欧几里得度量下,两点之间直线最短。
欧氏距离变换在数字图像处理中的应用范围很广泛,尤其对于图像的骨架提取,是一个很好的参照。
论文分析:对于人脸识别来讲,我们需要将人脸的正面图片转换成为矩阵,通过数字矩阵来表征人脸,每张人脸图片都是一个1024*1的矩阵,在不同的光照和位置的环境下,每个人一共有10张不同的图片,即1024*10矩阵。
一共40个人,则会有一个1024*400矩阵。
我们要做的工作就是给定一个这40个中的一个人的人脸数据,对人脸数据进行鉴别分类,最后确定这张人脸是哪个人。
具体来讲,我们都会用kNN算法进行分类,用欧氏距离计算出测试样本到训练样本的距离,并对最近的距离进行排列,对k取值,例如取5,那么分析前5个中哪一类占比重大,如果一类有3个,那么将把测试样本归入1类中。
但是,利用欧氏距离进行kNN分类存在问题,尤其是在基于全局数据几何结构的邻近搜索中,见下图:对于(a)图来讲,用欧式距离结果是正确的,可以把黑星分类正确,但是对于(b)图来讲,用欧式距离会把黑星分类给蓝色的叉号一类,造成分类错误。
对于(c)图,绿线以上的黑点会分类到红圈中,绿线以下的黑点会分类到蓝叉中。
由此会发现欧式距离来对具有几何结构的数据进行分类会造成严重的误差。
然而,欧式距离更适用于具有球形分布结构的数据,人脸数据一般不满足这一条件,最大最小距离(minimax distance)基于数据的流型结构,是一种更适合人脸的度量方法。
下面介绍用构造最小生成树来计算距离然后进行分类。
用最小生成树得到一棵权值之和最小的树,由最小生成树的性质可知,从一个点到任何一个端点的路径是唯一的,那么我们定义每一个训练样本点a到测试样本点b的距离d为:d等于从a到b路径上所有点的两点之间的最大值。
然后记录下来这个距离,那么每个训练样本到测试样本点的距离都计算并保存起来,为了达到更加精确减小误差,我们在距离d的基础上加上(λ*欧式距离),得到最终的距离,根据kNN算法,对这些距离排序,根据k的取值不同,最后得到哪个类标所占的比重更大,就把测试样本分类过去。
几点需要注意的,1.要把所有的测试样本和训练样本加到一起来生成MST。
2.把测试样本加进去一起生成树的原因是能够较为准确的反应几何流线型。
结果的分析就是,例如,我们从400个样本中选取200个特征脸数据当做测试样本,另外200张脸当做训练样本,因为我们已知测试样本属于的类标,根据分类结果的样本类标分析结果,如果180个样本相符合,那么正确率就是180/200*100%=90%。
算法设计:1. 对1024*400的人脸数据建立全连接,即每张人脸数据到其他人脸数据的欧式距离,构造一个全连接。
2. 生成最小生成树MST。
3. 计算测试样本到训练样本的距离(A=MMD+0.01*ED;MMD是最小生成树计算得到的两点之间的距离,ED 是两点之间的欧式距离,加上欧式距离是因为太多点之间点的距离是相等的,使得最终距离之间产生区分)。
4. 从生成的距离矩阵中提取测试离样本,然后对每一个测试样本到所有训练样本的距离进行排序,用kNN算法取前k个距离最近的训练样本,比较所占比例最大的训练样本类,将测试样本分类到训练样本类中。
5. 最终根据测试样本分类正确的数目比上测试样本的总量得到精度accuracy。
精确度分析:影响精确度(accuracy)有以下几个方面:①样本维度。
②λ的取值大小。
③k的选取。
④测试样本和训练样本的比例(label_train的设置)。
⑤精确度的平均次数n。
结果如下:维度改变&k值改变λ=0.01/label_train>0/n=20k样本维度 1 2 3 4 5 6 7 8 ORL_32*32(1024*400) 85.1 77.03 75.34 68.74 63.31 57.48 55.76 52.77 data_test_JAFFE(191*213)98.78 97.73 97.73 98.17 97.82 96.12 95.98 94.54 data_test_ORL(88*400)84.83 76.55 72.78 68.07 63.04 56.35 55 52.21 k样本维度9 10 12 15 20 50 100ORL_32*32(1024*400) 49.04 44.34 36.07 30.75 25.01 7.81 2.23data_test_JAFFE(191*213)93.19 92.32 92.45 85.69 68.22 68.61data_test_ORL(88*400)48.96 45.8 36.68 29.63 24.07 7.1 2.16)λ改变(A=MMD+*ED维度=1024*400/k=3/label_train>0/n=20λ0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 (%) 73.68 73.71 72.53 73.7 72.83 75.04 72.25 71.78 λ0.09 0.1 0.12 0.14 0.18 0.2 0.5 0.9 (%) 73.4 72.73 73.62 72.4 72.91 71.31 71.35 71.34label_train改变(测试样本和训练样本的比例)维度=1024*400/λ=0.01/k=3/n=20label_train 0.01/0.99 0.02/0.98 0.03/0.97 0.05/0.95 0.08/0.92 0.1/0.9 0.2/0.8 (%) 93.11 91.62 94.15 91.26 91.19 90.34 87.1 label_train 0.3/0.7 0.4/0.6 0.5/0.5 0.6/0.4 0.7/0.3 0.8/0.2 0.9/0.1 (%) 83.09 78.51 73.42 67.2 52.71 39.89 21.05N(平均次数)改变维度=1024*400/λ=0.01/k=3/label_train>0N 1 2 3 4 5 6 7 8 9 10 (%) 75.14 74.2 73.9 75.09 75.5 75.28 75 73.34 71.24 75.46 N 11 12 13 14 15 16 17 18 19 20 (%) 73.79 74.3 74.8 73.76 73.5 73.22 73 72.02 72.57 73.41从上面表格的分析数据我们可以看出:1.精确度的平均次数n对精确度基本上没有影响。