SVD(奇异值分解)在人脸识别中的应用
基于HOG-SVD特征的人脸识别

基于HOG-SVD特征的人脸识别全雪峰【期刊名称】《软件》【年(卷),期】2016(037)005【摘要】为提高复杂环境下的人脸识别率,该文提出了一种基于方向梯度直方图-奇异值分解(HOG-SVD)的人脸识别方法。
首先提取整个人脸图像的 HOG 特征,通过奇异值分解形成图像的整体HOG-SVD 特征。
然后将人脸图像分成均匀子块,提取各子块的 HOG-SVD特征。
之后将整体HOG-SVD特征和局部HOG-SVD特征组合形成最终分类特征。
最后通过支持向量机分类器对其分类。
在Yale人脸库上的实验表明,该方法对表情、光照、姿态具有鲁棒性,具有较高的识别率。
%In order to improve the rate of face recognition in complex environments,this paper proposes a face recognition method based on histogram of oriented gradient and singular value decomposition(HOG-SVD). Firstly, the HOG features are extracted on the whole face image, and the global HOG-SVD features are formed through singular value decomposition. Then the face image is divided into homogeneous sub-blocks, and the HOG-SVD features of each sub block are extracted. The global HOG-SVD and local HOG-SVD features are combined to form the final classifica-tion features. Finally, the support vector machine is employed to classify the final features. Experimental results on Yale face database demonstrate that the proposed approach not only has high recognition rate but also has certain robustness to expression, light, and pose.【总页数】4页(P18-21)【作者】全雪峰【作者单位】南阳医学高等专科学校卫生管理系,河南南阳 473061【正文语种】中文【中图分类】TP391【相关文献】1.基于变换域特征提取和模拟退火法特征选择的人脸识别 [J], 李伟;孙云娟2.基于特征点统计特征的人脸识别优化算法 [J], 孙中悦;周天荟3.基于主分量特征与独立分量特征的人脸识别实验 [J], 徐勇;张重阳;杨静宇4.基于主分量特征与独立分量特征的人脸识别 [J], 贾莹;段玉波5.基于二维几何特征与深度特征的人脸识别技术研究 [J], 徐建亮;周明安;刘文军;方坤礼因版权原因,仅展示原文概要,查看原文内容请购买。
奇异值分解的应用及地位

奇异值分解的应用及地位奇异值分解(Singular Value Decomposition, SVD)是线性代数中一种非常重要且强大的矩阵分解方法,广泛应用于数据分析、图像处理、推荐系统等领域。
SVD的地位可以说是无可替代的,因为它在理论和实际应用中都具有重要的地位。
首先,奇异值分解能够提取矩阵的重要特征。
在SVD中,矩阵被分解为三个矩阵的乘积:A=UΣV^T,其中U和V是正交矩阵,Σ是对角矩阵。
这些矩阵中的特征向量和特征值提供了关于矩阵A的重要信息。
通过奇异值的大小顺序,我们可以确定哪些特征是最重要的,从而实现降维、压缩和去噪等操作。
例如,在图像处理中,我们可以利用奇异值分解来提取图像的主要特征,从而实现图像压缩和去噪。
其次,奇异值分解在数据分析和统计学中具有重要的应用。
在统计学中,我们可以利用奇异值分解来分析数据中的主成分。
通过分解数据矩阵,我们可以得到数据的主要变量,从而揭示数据背后的规律和结构。
SVD也可以用于矩阵的逆运算,从而解决线性方程组和最小二乘问题。
在数据分析中,奇异值分解还被广泛应用于推荐系统、信息检索、聚类分析等领域,可以帮助我们挖掘数据中的隐藏模式和关联规则。
此外,奇异值分解在图像处理和计算机视觉领域也具有重要的地位。
在图像处理中,我们可以利用奇异值分解来实现图像压缩、去噪和图像恢复等操作。
SVD能够将图像的信息分解成奇异值和特征向量,从而实现对图像进行分析和处理。
在计算机视觉中,奇异值分解被广泛应用于图像匹配、对象识别和特征提取等任务。
通过SVD,我们可以提取图像的关键特征,从而实现图像的自动识别和理解。
除了以上应用之外,奇异值分解还被广泛应用于其他领域。
在信号处理中,SVD 可以用于信号的降噪、滤波和信号恢复。
在语音处理中,奇异值分解可以用于语音的特征提取和语音识别。
在文本分析和自然语言处理中,奇异值分解可以用于文本的主题模型和情感分析。
在推荐系统和广告推荐中,SVD可以用于用户和物品之间的关联分析和推荐算法。
矩阵的奇异值分解

矩阵的奇异值分解(Singular Value Decomposition,SVD)是一种重要的矩阵分解方法,可以将一个复杂的矩阵分解为三个简单的矩阵相乘的形式。
SVD 可以应用于各种领域,如图像处理、语音识别、推荐系统等。
SVD 分解将一个m × n 的矩阵 M 分解为U × Σ × V^T 的形式,其中 U 是一个m × m 的酉矩阵(unitary matrix),Σ 是一个m × n 的矩阵,只有对角线上的元素大于等于 0,V^T 是一个n × n 的酉矩阵。
通常情况下,SVD 可以通过奇异值分解定理进行求解。
首先,我们需要计算矩阵M × M^T 和M^T × M 的特征向量和特征值。
设 M 是一个m × n 的矩阵,M^T 是它的转置矩阵,那么M × M^T 是一个m × m 的矩阵,M^T × M 是一个n × n 的矩阵。
我们可以通过特征值分解方法求解这两个矩阵的特征向量和特征值。
然后,我们可以将M × M^T 和M^T × M 的特征向量和特征值组成两个酉矩阵 U 和 V。
特征值的平方根构成了Σ 矩阵的对角线元素。
我们可以将 U 和V 按照特征值降序排列,以保证U × Σ × V^T 是一个矩阵。
最后,我们可以利用奇异值分解定理,将 M 分解为U × Σ × V^T 的形式。
这样的分解可以帮助我们理解原始矩阵的结构和特征,提取重要信息,并进行维度降低等操作。
在某些情况下,SVD 还可以作为矩阵的伪逆(pseudo-inverse),帮助我们解决线性方程组等问题。
SVD 分解在各个领域都有广泛的应用。
在图像处理中,SVD 可以用于图像压缩和降噪等操作。
在语音识别中,SVD 可以用于语音特征提取和模式匹配。
基于SVD和LDA的人脸识别方法

近些 年来 , 脸 识 别 技 术 在 诸 多 领 域 得 到 了广 泛 应 用 , 人 日
用 L A获得 降 低 维 数 的 最 佳 分 类 特 征 ; 后 将 降 维 后 的 特 征 D 最
渐成为计 算机视觉和模 式识别 领域 的研究热 点。人脸识 别 的 有效 性依赖 于特征表示 与特征 匹配 , 良好的特征应具有数据量 少且识别 率高的特 点。19 9 1年 z H n . o g提 出了基 于奇异 值分 解( V 的人脸 识 别 方法 , S D) 错误 识 别率 为 4 . 7 2 6 % 。文献 [ ] 出了一种基 于奇异值分解 和数据融 合的人脸识 别方 法 , 2提
ห้องสมุดไป่ตู้d mo sr t ta i h r c g i o a e c n b c iv d u ig l W d m n in lf au e v co n c iv d 9 % .T i meh d e n t e h th g e o n t n r t a e a h e e sn O i e s a e tr e tr a d a h e e 9 a i o hs to
Ab ta t T i p p rp o o e t o ffc e o n t n b s d o i g lrv l ed c mp st n a d i r v d L s r c : h s a e r p s d a meh d o e r c g i o a e n s ua au e o o i o n a i n i mp o e DA.F r t i — s
l efc iefatr oud beo ti e i i g l rv l ede omp st n,a d t e mpr v d LDA su e o n y t p e s y, fe tv e u e c l b an d usngsn u a a u c o ii o n h n i oe wa s d n to l ode r s te fa u e d me so fe t ey,bu lo t nh n h ici n tr o ro xr cedf aurs Fia l h e t r i n i n ef ci l v ta s o e a cet e ds rmi ao y p we fe ta t e t e . n ly,t e s o e tr h h r f au e t v co s s re n h s re e t e we e i p nt te a k prpa at n newo k fr r c g to . Ex rme a r u t e tr wa ot d a d t e o d faur s t r n uti o h b c — o g i t r o e o ni n o i pe i ntl es ls
奇异值分解和SVD的应用

奇异值分解和SVD的应用奇异值分解(Singular Value Decomposition,SVD)是一种常见的矩阵分解方法,常用于数据降维、信号处理、图像压缩以及推荐系统等领域。
在这篇文章中,我们将深入探讨奇异值分解和SVD的原理、应用以及相关的实现技巧。
一、奇异值分解的原理奇异值分解是将一个矩阵分解成三个矩阵的乘积的过程,即:A = UΣV^T其中,U和V是正交矩阵,Σ是对角矩阵。
U的列向量是AAT的特征向量,V的列向量是ATA的特征向量。
Σ的对角线上的元素为非负实数,称为奇异值,它们是AAT和ATA的特征值开方得到的。
奇异值分解的主要思想是将原始矩阵A投影到一个低维空间上,并尽可能保留原始数据的信息。
通过设定一个阈值,可以舍弃那些对信息损失较小的奇异值及其对应的特征向量,从而实现降维的效果。
二、奇异值分解的应用1. 数据降维数据降维是机器学习和数据挖掘中的一个重要技术。
降维的主要目的是减少特征数量,进而降低计算复杂度和避免过拟合。
奇异值分解可以将高维数据压缩到低维空间中,从而实现数据降维。
2. 图像压缩图像压缩是一种常见的数据压缩技术,通过减少图像中的冗余信息,可以减小图像文件大小,提高存储和传输效率。
奇异值分解可以将图像矩阵分解成三个矩阵的乘积,将大部分能量集中在奇异值较大的部分,从而实现图像压缩的效果。
3. 推荐系统推荐系统是一种利用用户历史行为和偏好等信息,为用户推荐个性化的商品或服务的智能系统。
奇异值分解在推荐系统中的应用主要是基于用户-物品之间的评分矩阵,将其分解成用户和物品的特征矩阵,并通过矩阵乘积得到预测评分值,从而实现推荐算法。
三、SVD的实现技巧1. 矩阵秩的估计在实际应用中,矩阵往往是大规模的、稀疏的。
如果直接对其进行完整的奇异值分解,将会产生巨大的计算量和存储空间。
因此,需要估计矩阵的秩,从而得到重要的奇异值和特征向量,通过这些信息来近似原始矩阵。
2. 基于随机矩阵的采样方法基于随机矩阵的采样方法是解决大规模矩阵SVD问题的一种有效方式。
k变换

K_L变换,SVD变换在图像处理中实际应用讨论一.K_L变换在人脸识别中的实际应用模式识别中一个最基本的问题就是特征抽取, 抽取有效的鉴别特征是解决识别问题的关键。
K-L 变换是特征抽取的最有效的方法之一。
基于K -L 变换的特征抽取有四种最为经典和常用的技术, 其中主分量分析( PCA, 或称以总体散布矩阵为产生矩阵的K-L 变换) 被广泛地应用在人脸等图像识别领域。
主分量分析在处理图像识别问题时, 其弱点也很明显: 首先, 将图像矩阵转化为图像向量后, 造成图像向量的维数一般较高, 比如, 图像的分辨率为100×100, 所得图像向量的维数高达10000, 在如此高维的图像向量上完成PCA 是非常耗时的。
尽管在PCA 中利用奇异值分解定理可加速总体散布矩阵的本征向量的求解速度, 但整个特征抽取过程所耗费的计算量相当可观; 其次, 主分量分析的训练是非监督的,即PCA 无法利用训练样本的类别信息。
另一种经典的K-L 变换方法, 即包含在类平均向量中判别信息的最优压缩技术, 其识别性能优于非监督的主分量分析方法。
受Hong代数特征抽取思想的启发, 本研究提出了一种直接基于图像矩阵的包含在类平均图像中判别信息的最优压缩方法——广义K-L 变换, 它克服了传统主分量分析的弱点。
在ORL 标准人脸库上的试验结果表明, 广义K-L变换方法不仅在识别性能上优于Eigenfaces 方法和Fisherfaces 方法, 且特征抽取的速度提高了近19 倍。
1. 1基本思想定义1: 设X 表示n 维列向量, 将m×n 的图像矩阵A 通过以下线性变换直接投影到X 上。
Y= A X ( 1)得到一个m 维列向量Y, X 为投影轴, Y 为图像A的投影特征向量。
设有C 个已知的模式类别, ni 表示第i 类的训练样本数, N 表示各类的训练样本总数。
第i 类的第j 个训练样本图像为m×n 的矩阵Aj ( i=1, 2, ⋯, C; j = 1, 2, ⋯, ni) 。
浅析矩阵分解的原理及其在人脸识别中的应用

浅析矩阵分解的原理及其在人脸识别中的应用摘要:矩阵分解方法有多种,本文首先对矩阵的分解方法做了简单的介绍,这些分解在数值代数和最优化问题的解决中都有着十分重要的角色以及在其它领域方面也起着必不可少的作用。
人脸识别是指采用机器对人脸图像进行分析,进而提取有效的识别信息从而达到身份辨认的目的。
近年来因其在安全、认证、人机交互、视频电话等方面的广泛应用前景而越来越成为计算机模式识别领域的热点。
本文在分析矩阵分解的原理后详细针对其在人脸识别中的应用做了一些初步认识的总结。
关键词:矩阵分解QR分解奇异值分解非负矩阵分解人脸识别矩阵是数学中最重要的基本概念之一,是代数学的一个主要研究对象,也是数学研究及应用的一个重要工具。
在近代数学、工程技术、信息处理、经济理论管理科学中,也大量涉及到矩阵理论的知识,矩阵分解是指根据一定的原理用某种算法将一个矩阵分解成若干个矩阵的乘积或者一些矩阵之和。
这些分解式的特殊形式,一是能明显地反映出原矩阵的某些特征;二是分解的方法与过程提供了某些有效的数值计算方法和理论分析依据。
人脸识别是指采用机器对人脸图像进行分析 ,进而提取有效的识别信息从而达到身份辨认的目的。
虽然人类能轻松地识别出人脸,但人脸的自动机器识别却是一个难度极大的课题,它涉及到图像处理、模式识别、计算机视觉和神经网络等学科,也和对人脑的认识程度紧密相关。
现在矩阵分解在人脸识别中应用很广泛,有不同的算法来实现,本文将对现有的算法做总结和比较。
1 矩阵的分解方法矩阵分解 (decomposition, factorization)是将矩阵拆解为数个矩阵的乘积,可分为三角分解、满秩分解、QR分解、Jordan分解和SVD(奇异值)分解等,常见的有三种:1)三角分解法 (Triangular Factorization),2)QR 分解法 (QR Factorization),3)奇异值分解法 (Singular Value Decomposition)。
人工智能开发技术的奇异值分解方法

人工智能开发技术的奇异值分解方法人工智能开发技术的奇异值分解(Singular Value Decomposition,SVD)是一种重要的数学方法,被广泛应用于模式识别、推荐系统、数据压缩等多个领域。
SVD的原理简单明了,但其在人工智能领域的应用却非常广泛,对于我们理解和应用人工智能技术具有重要意义。
一、SVD的基本原理和定义奇异值分解是一种线性代数的分解方法,将一个矩阵分解为三个矩阵的乘积。
对于一个m × n的实数或复数矩阵A,可以将其分解为以下形式:A = UΣV^T其中,U是一个m × m的酉矩阵,Σ是一个m × n的矩阵,它的主对角线上的元素称为奇异值,其余元素均为0,V^T是一个n × n的酉矩阵的转置。
SVD的优势在于,它充分利用了矩阵的信息,并且可以选择性地保留重要信息。
通过对原始矩阵进行SVD分解,我们能够更好地理解和处理数据。
二、SVD在模式识别中的应用在模式识别领域,SVD被广泛应用于降维和特征提取。
通过SVD分解,我们可以获得数据的主要特征,从而减少数据的维度和复杂度。
这对于处理大规模数据集和优化机器学习模型的训练速度非常重要。
以人脸识别为例,SVD可以提取人脸图像的主要特征,去除图像中的噪声和冗余信息。
这样一来,就能够更准确地识别人脸,提高人脸识别系统的准确性和鲁棒性。
三、SVD在推荐系统中的应用在推荐系统中,SVD被用于对用户和物品进行特征提取,从而进行个性化推荐。
通过对用户与物品评分矩阵进行SVD分解,可以得到用户和物品的隐含特征向量,进而进行推荐。
以书籍推荐系统为例,通过SVD分解评分矩阵,我们可以得到用户和书籍的特征向量。
当用户对某一本书籍评分时,可以通过特征向量计算出其他用户对该书籍的评分,从而进行个性化的推荐。
这种基于SVD的推荐系统在电商平台和音乐平台上被广泛应用。
四、SVD在数据压缩中的应用SVD还可以用于数据压缩和信号处理。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
+…+а
u v 1n 1 n
T
+а
u v 21 2 1
T
+…+а
u v 2u v m1 m 1
T
+…+а
u v mn m n
T
(2) 根据式(2)容易得出以下的定理 2。 【定理 2】对任意一个人脸图像 A∊Rm×n ,设 U∊Rm×m ,V∊Rn×n 分别是图像 A 奇异值分解 时对应的左右正交阵,则矩阵 u1 v1 T ,…,um vn T 是矩阵空间Rm×n 中的一组最大线性无关组
的大小为 112×92,该库包含了不同时间,不同视角,不同表情(闭眼、睁眼、微笑、吃惊、 生气、愤怒、高兴)和不同脸部细节(戴眼镜、没戴眼镜、有胡子、没胡子、不同发型)的条件 下拍摄的,数据库部分人脸图像如图 2 所示。
图 2 ORL 部分人脸图像
在 ORL 每类训练样本取 5,对应的测试样本分别取 5,训练样本和测试样本各为 200。 由于类别数为 40,Fisherface 与文中方法所能抽取的最大有效特征数为 39,文中抽取投影系 数矩阵左上角的区域参数 k=7。图 3 为采用传统 SVD(方法 1)、cheng[3](方法 2)、Liang(方法 3)、Fisherface(方法 4)和本文方法(方法 5)识别率随特征维数变化的曲线图。从实验结果可以 看出,方法 1 的识别率最低,其最高识别率仅为 63.5%(特征 39 维)。同时看出方法 2 的识 别率也较低,平均识别率维持在 66%左右,可见方法 2 在较大数据库识别率并不高。我们 认为这是由于方法 1、2 采用奇异值分解固有的缺陷造成的。方法 3 的在 ORL 库上的识别率 优于 Fisherface,但低于文中方法,这是由于文中方法较方法 3 有效地增加的类别信息。需 要指出的是方法 3 还可以抽取更高维的特征,但其识别率并没有显著增加,试验显示,当抽 取特征高达 17x17=289 时,方法 3 的识别率为 92%。方法 5 的识别率全面高于其它 4 种方 法,其最高识别率达 94.5%(特征 34 维),而且当特征维数为 10 时,识别率就达到 92%。
最小,而类间散布矩阵最大,能很好的体现样本的类别信息。 设样本Ai 。所属类别为ω1 ,ω2 … ωL 总类别数为 L,则样本的类内散布矩阵Sw ,类间散 布矩阵Sb 分别定义为式(4)与式(5)。 S w =L S b =L
1 1 L i=1 Li j j=1(A i J
− ������������ ) (Ai − ������������ )T
11
,а
12
, … ,а
mn
) 是人脸图像 A 在这个基空间 ( 坐
标系)下的坐标。根据人脸图像奇异值的定义知,人脸图像 A 的奇异值δi (i=1,2,…k)正是 图像 A 在这个坐标系下对应于基矩阵ui vi T (i=1,…n)的坐标分量。由奇异值分解定理知,基 空间u1 v1 T ,u1 v2 T …,um vn T 是由给定人脸图像本身决定的。因此,人脸图像的奇异值向量 所在的基空间(矩阵)是由图像本身决定的。 此外,在 ORL 图库上通过大量实验发现:无论交换非同类图像还是同类图像相互间的 奇异值向量,重构后的图像与原图像的类别一致;相反,如果交换非同类图像间的左右正交 阵,而奇异值不变,重构后的图像与原图像的类别不再一致,如图 1 所示。这表明,在不 同或相同类别中,一定存在具有相同奇异值向量的人脸图像,即对给定的奇异值向量,它的 类别具有不确定性。
矩阵,即Rm×n 中的一组基。其中ui ,vi (i=1,…m;j=1,…n)分别是矩阵 U 和 V 的第 i 列和第 j 列。 根据奇异值分解定理及定理 2 可得结论 1。 【结论 1】人脸图像的奇异值向量所在的基空间(矩阵)是由人脸图像本身决定的。 从定理 2 知,式(2)表明人脸图像 A∊Rm×n 可以准确地通过基矩阵u1 v1 T ,u1 v2 T … ,um vn T 的线性组合来表示, 其中 (а
4 结束语 奇异值分解是图像特征提取的重要方法, 但由于其本身固有的缺陷, 在人脸识别中识别 率较低。 本文提出了一种奇异值分解与线性鉴别分析相结合提取人脸有效特征, 有效地解决 的奇异值分解基空间不一致的问题, 同时也增加了特征的类别信息. 通过对基空间投影系数 的选择,也解决了 LDA 所面临的小样本问题。实验表明,与目前可利用的奇异值特征和 Fiherface 相比, 该特征在识别率上有明显的优势, 并且在较低维特征就包含了较多的有效识 别特征,同时对光照也有较强的鲁棒性。
j
(4) (5) =L
1
i
L i=1 Li (A i 1
− A) (Ai − A)T
L i=1 Li j Ai j=1 A i 为全体训练样本的均值, Li j j=1 A i 为第
式中:A = LL
i
i 类训练样本的均
值,Li 为第 i 训练样本的个数。LDA 分析方法的目的是寻找鉴别矢量集Φ1 ,Φ2 ,…,Φm 使 得如下 fisher 准则函数取最大值 J(φ )=
奇异值分解在人脸识别中的应用
姓名:王丹 学号:2120121142 学院:计算机科学与技术
奇异值分解在人脸识别中的应用
摘要:通过对人脸图像奇异值的分析,证实了图像奇异值是图像在特定基空间分解得到的, 这个基空间是由图像本身决定的。 进一步研究发现, 导致基于奇异值向量人脸识别算法识别 率低的根本原因是: 不同人脸图像对应的奇异值向量所在的基空间不一致、 奇异值向量与人 脸图像之间并不存在一一对应关系、奇异值向量具有不可分割性。本文提出一种新的 SVD 与 LDA 相结合的人脸特征提取方法.首先选用练训样本的均值图像作为标准图像,把训练 样本投影到标准图像经奇异值分解产生的基空间中, 其次提取投影系数矩阵左上角信息作为 初步特征,最后再采用 LDA 分析方法降维提取最终的特征.该方法解决了奇异值分解用于 人脸识别基空间不一致的固有缺陷,同时又增加的特征的类别信息,也避免了 LDA 的小样 本问题.在 ORL 人脸库的实验结果表明了该方法的有效性,同时对光照有一定的鲁棒性。 1.引言 奇异值分解 (SVD) 作为一种有效的代数特征提取方法, 因其很好的属性已在数据压缩、 信号处理和模式分析等许多领域中得到了广泛的应用。 奇异值分解首次应用于人脸识别是由 [1] hong 提出的, 并证明了奇异值向量具有稳定性、 旋转、 平移和镜像变换不变性等良好性质。 他将 SVD 与经典特征提取技术主成分分析(PCA)和 Fisher 判别分析(FLD)相结合,在 ORL 数据库上获得了不错的识别率。 基于此, 很多专家学者进行了大量的研究将奇异值向量作为 图像的一种有效的代数识别特征用于人脸识别中。但是,近年来大量实验结果表明,基于奇 异值向量特征的人脸识别算法的识别率普遍比较低。 主要是因为: 不同人脸图像对应的奇异 值向量所在的基空间不一致、 奇异值向量与人脸图像之间并不存在一一对应关系。 本文主要 介绍一种 SVD 与 LDA 相结合的人脸识别方法,该方法很好地解决了奇异值分解对于人脸识 别基空间的不一致的问题,同时也充分利用了样本的类别信息,并且巧妙地解决了 LDA 用 于人脸识别面临的小样本问题。 2.奇异值向量识别人脸的分析 2.1.人脸图像奇异值向量的分析 【定理 1】 设 A 为 m×n 的实矩阵, 且其秩为 Rank(A)=k,那么存在 m 阶正交矩阵 U 和 n 阶正 交矩阵 V 使得 A=U Δ 0 V H (1)成立, Δ =diag(δ1 , δ2 , … , δk ), 其中δi = λi (i=1,2,… k)称为 0 0 矩阵 A 的奇异值,且λ1 ⩾λ2 ⩾… ⩾ λk 对应于矩阵 AAT 与AT A 的非零特征值,矩阵 U 和 V 的列 向量ui 、vi (i=1,2…,k)分别是 AAT 与AT A的非零特征值λi 对应的特征向量。 如果用 A 代表任意一幅人脸图像,则它的奇异值向量定义为������ =(δ1 , δ2 , … , δk ) 。式 (1)展开可写成: A=δ1 u1 v1 T +…+δk uk vk T =а u v 11 1 1
图(1) 原图与重构后的图像
根据上述分析及奇异值分解定理,显然有以下: 两个结论: 【结论 2】 人脸图像与奇异值向量之间并不存一一对应关系。 【结论 3】 人脸图像的奇异值向量体现不出不同类别图像之间的差异,具有不可分割性。 2.2 SVD 与 LDA 相结合的人脸识别原理 式(1)可以写为以下投影形式 D=U T AV (3) 由式(3)可见图像 A 在正交阵 U 和 V 的投影即为图像奇异值构成的对角阵,因此把未知 图像投影到 U 和 V,得到的系数矩阵,其对角线的数据可以看成是图像奇异值的估计。根 据这一思想,Liang[2]提出了把所有训练样本的均值图像作为基图像,然后把训练样本与测试 样本投影到基图像经奇异值分解的正交矩阵构成的基空间,由于构成基空间的正交矩阵不 是样本本身的正交矩阵, 因此投影后的系数矩阵往往不再是对角阵, 最后从投影后系数矩阵 中提取对角数据或左上角的主元数据作为识别特征。该方法由于使用了全体样本均值图 像作为标准图像, 由标准图像产生了统一的基空间, 因此很好地解决了奇异值分解基空间不 一致的问题。但当所有训练样本都投影到统一的基空间,样本的类别信息被间接的消弱了, 这是限制 Liang 识别率进一步提高的原因, 用该方法我们在 ORL 库上得到的识别率最高为 92% (特征维数达 289)。那么如何在解决基空间一致的问题基础上,又能提取出充分体现类别信 息的特征呢?线性鉴别分析(LDA)则提供一组投影方向,使样本在该方向投影的类内散布矩阵
φ Sb φ φ Sw φ
(6)
式(6)对应的Φ1 ,Φ2 ,…,Φm 等价于形如式(7)特征方程的解 Sb φ =λSw φ (7) 采用 LDA 进行人脸识别即把人脸图像拉直成一维向量,然后把样本投影到Φ1 ,Φ2 ,… ,Φm 张成的子空间中,达到提取有效特征和降维的目的。LDA 遇到的一个基本难题是小样 本问题,人脸识中人脸向量的维数 N 一般远远大于训练样本的类别数,如一幅 100×100 的 图像,转换成一维向量维数高达 10000,实际中能提供的训练样本数远远小于 10000,从而 造成类内散布矩阵Sw 奇异。因此不能直接将 LDA 应用到人脸识别系统。通常的做法是先对 人脸向量进行降维,如著名的 Fisherface 实质就是先用 PCA 对图像向量进行降维,然后再应 用 LDA 进行二次特征提取。由于在 PCA 阶段需要求图像向量协方差矩阵的特征值,因此 Fisherface 用于人脸识耗时较大。 鉴于以上分析,文中提出 SVD 与 LDA 相结合的人脸识别算法。主要思想是:首先把样 本投影到一个统一基空间中, 文中选择所有训练样本的均值图像矩阵的基空间, 然后提取投 影系数矩阵左上角区域的值为初步的特征,最后利用 LDA 进行线性鉴别分析,得到最终的 识别特征。主要步骤如下。 训练阶段: (1)求所有训练样本的均值图像A,利用式(1)对其进行奇异值分解,得正交矩阵 U 和 V。 j j (2)利用式(3)把所有训练样本Ai ,投影到 U 和 V 构成的基空间中,得 Di 。 j j (3)设定区域 k,提取 Di 左上角 k×k 区域的数据,并拉直成一维向量xi 。 (4)利用式(4)、(5)求类内散布矩阵与类间散布矩阵,并用式(6)确定线性空间的投影方向 Φ1 ,Φ2 ,…,Φm 。 j (5)把所有训练样本投影到Φ1 ,Φ2 ,…,Φm ,得训练样本识别特征zi 。 测试阶段: (1)利用式(1)把测试样本 A 投影到 U 和 V 构成的基空间,得 D。 (2)提取 D 左上角 k×k 区域的数据并拉直成一维向量 x。 (3)把测试样本 X 投影到Φ1 ,Φ2 ,…,Φm ,得测试样本识别特征 z。 (4)采用最小距离分类器进行识别。 3.实验结果与分析 在 Pentium(R)4 CPU 2.4GHz,256M 内存,WindowsXP 操作系统,Matlab6.5 环境下进 行了仿真实验。分类器采用最小距离准则,距离为欧氏距离。在 ORL 人脸库上对进行了识 别率的测试。ORL 数据库包含了 40 个不同人脸,每人 10 幅图像,共 400 幅图像,每幅图像