PCA算法详解
pca 计算方法

pca 计算方法摘要:1.PCA计算方法概述2.数据预处理3.求解主成分4.结果评估与分析正文:一、PCA计算方法概述主成分分析(PCA,Principal Component Analysis)是一种常用的降维技术,通过对原始数据进行线性变换,将高维数据映射到低维空间,从而实现对数据的主要特征的提取。
PCA具有较强的理论基础和实际应用价值,广泛应用于数据挖掘、图像处理、生物信息学等领域。
二、数据预处理在进行PCA计算之前,首先需要对原始数据进行预处理。
主要包括以下几个方面:1.数据标准化:将原始数据减去均值,再除以标准差,使得每个特征的均值为0,方差为1。
2.消除多重共线性:如果数据中存在多重共线性现象,即某些特征之间的相关性较高,可以通过正则化方法(如岭回归、Lasso回归等)降低多重共线性,提高计算稳定性。
3.特征选择:根据数据特点和实际需求,筛选出对目标问题具有重要意义的特征,减小计算量和噪声影响。
三、求解主成分1.计算协方差矩阵:计算原始数据标准化后的协方差矩阵,表示特征之间的相关性。
2.计算特征值和特征向量:求解协方差矩阵的特征值和对应的特征向量。
3.选择主成分:根据特征值的大小,选取前k个最大特征值对应的特征向量作为主成分。
四、结果评估与分析1.解释度:计算主成分的解释度,即主成分所解释的方差占总方差的比例,评估降维效果。
2.可视化:将原始数据和降维后的数据进行可视化展示,观察数据在高维空间和低维空间中的分布情况。
3.模型评估:根据实际应用场景,选择合适的评估指标(如分类准确率、回归均方误差等),对降维后的模型性能进行评估。
通过以上步骤,我们可以完成PCA计算方法的实现。
需要注意的是,在实际应用中,PCA计算方法可能需要根据数据特点和问题需求进行相应的调整和优化。
PCA(主成分分析)降维算法详解和代码

PCA(主成分分析)降维算法详解和代码PCA的原理:1.中心化数据:对原始数据进行中心化处理,即将每个特征减去其均值,使得数据以原点为中心。
2.计算协方差矩阵:计算中心化后的数据的协方差矩阵。
协方差矩阵描述了不同特征之间的关系和相关性。
3.计算特征值和特征向量:对协方差矩阵进行特征值分解,得到特征值和对应的特征向量。
特征值代表每个特征的重要性,特征向量表示特征的方向。
4.选择主成分:根据特征值的大小,选择最大的k个特征值对应的特征向量作为主成分。
5.降维:将原始数据投影到所选主成分上,得到降维后的数据。
投影后的数据保留了最重要的特征,且维度减少。
PCA的代码实现:下面是一个基于Numpy库实现PCA算法的示例代码:```pythonimport numpy as npdef pca(X, k):#中心化数据X = X - np.mean(X, axis=0)#计算协方差矩阵cov = np.cov(X.T)#特征值分解eigvals, eigvecs = np.linalg.eig(cov)#选择主成分idx = np.argsort(eigvals)[::-1][:k]eigvecs = eigvecs[:, idx]#降维X_pca = np.dot(X, eigvecs)return X_pca#测试X = np.random.rand(100, 5) # 生成100个样本,每个样本有5个特征k=2#目标降维维度X_pca = pca(X, k)print(X_pca.shape) # 输出降维后的数据维度```在上述代码中,使用`numpy`库进行了主成分分析的各个步骤。
首先,通过计算均值,对原始数据进行中心化。
然后,使用`cov`函数计算协方差矩阵,并通过`numpy.linalg.eig`函数进行特征值分解。
接下来,通过`argsort`函数对特征值进行排序,选择前k个特征值对应的特征向量作为主成分。
PCA的原理及详细步骤

一、基本原理主成分分析是数学上对数据降维的一种方法.其基本思想是设法将原来众多的具有一定相关性的指标X1,X2,…,XP (比如p 个指标),重新组合成一组较少个数的互不相关的综合指标Fm 来代替原来指标.那么综合指标应该如何去提取,使其既能最大程度的反映原变量Xp 所代表的信息,又能保证新指标之间保持相互无关(信息不重叠)。
设F1表示原变量的第一个线性组合所形成的主成分指标,即11112121...p pF a X a X a X =+++,由数学知识可知,每一个主成分所提取的信息量可用其方差来度量,其方差Var(F1)越大,表示F1包含的信息越多。
常常希望第一主成分F1所含的信息量最大,因此在所有的线性组合中选取的F1应该是X1,X2,…,XP 的所有线性组合中方差最大的,故称F1为第一主成分。
如果第一主成分不足以代表原来p 个指标的信息,再考虑选取第二个主成分指标F2,为有效地反映原信息,F1已有的信息就不需要再出现在F2中,即F2与F1要保持独立、不相关,用数学语言表达就是其协方差Cov(F1, F2)=0,所以F2是与F1不相关的X1,X2,…,XP 的所有线性组合中方差最大的,故称F2为第二主成分,依此类推构造出的F1、F2、……、Fm 为原变量指标X1、X2……XP 第一、第二、……、第m 个主成分。
11111221221122221122...............p p p pm m m mp p F a X a X a X F a X a X a X F a X a X a X =+++⎧⎪=+++⎪⎨⎪⎪=+++⎩ 根据以上分析得知:(1) Fi 与Fj 互不相关,即Cov(Fi ,Fj) = 0,并有Var (Fi )=ai ’Σai,其中Σ为X 的协方差阵(2)F1是X1,X2,…,Xp 的一切线性组合(系数满足上述要求)中方差最大的,……,即Fm 是与F1,F2,……,Fm -1都不相关的X1,X2,…,XP 的所有线性组合中方差最大者。
主成分分析(PCA)原理详解

主成分分析(PCA)原理详解PCA的基本原理如下:1.数据标准化:对数据进行标准化处理,使得每个特征的均值为0,方差为1、这一步骤是为了保证不同特征的量纲一致,避免一些特征因数值过大而对分析结果造成影响。
2.计算协方差矩阵:协方差矩阵描述了数据特征之间的相关性。
通过计算标准化后的数据的协方差矩阵,可以得到不同特征之间的相关性信息。
3.计算特征值和特征向量:对协方差矩阵进行特征值分解,得到特征值和对应的特征向量。
特征向量表示了数据在各个方向上的投影情况,特征值则表示了各个特征向量的重要程度。
4.选择主成分:根据特征值的大小,选择最重要的K个特征向量作为主成分。
特征值越大,表示该特征向量所代表的特征在数据中的方差越大,所能解释的信息也越多。
5.构造降维后的数据集:将选取的K个特征向量组合成一个转换矩阵,将原始数据映射到新的K维空间中。
通过这个转换过程,可以实现降维并且保留较多的信息。
总结起来,PCA的主要思想是通过计算特征向量和特征值,找到数据中最重要的方向(主成分),然后通过投影到这些主成分上实现数据的降维。
PCA的应用包括数据可视化、特征选择、噪声过滤等。
例如,在数据可视化中,将高维数据降至二维或三维空间,有助于观察数据之间的分布情况。
在特征选择中,选择最能代表数据信息的主成分可以减少特征的数量,并且仍能保留较多的重要信息。
在噪声过滤中,提取数据中的主成分,滤除噪声成分,能够提高数据的质量和可靠性。
需要注意的是,PCA的有效性依赖于数据之间存在线性关系的假设。
对于非线性关系较强的数据,PCA不一定能够有效降维,这时可以采用核主成分分析等非线性降维方法。
以上是对PCA原理的详细解析。
通过PCA,我们能够将高维数据转换为一组更易理解和处理的低维特征,从而发现数据中的潜在结构、关系和模式,为后续分析和建模提供有益的信息。
PCA算法的原理及其示例

PCA算法的原理及其示例1.数据标准化:将原始数据进行标准化处理,使得其各个特征的方差相等,把数值数据按所有样本居中和缩放为单位的方差。
2.计算协方差矩阵:根据标准化后的数据计算协方差矩阵,该矩阵反映了样本中各个特征之间的相关性。
3.计算特征值和特征向量:对协方差矩阵进行特征值分解,得到所有特征值和相应的特征向量。
4.选择主成分:根据特征值的大小选择一定数量的主成分,将数据投影到这些主成分上,实现降维。
5.重构数据:将降维后的数据通过逆变换重新映射回原始特征空间,得到降维后的数据。
示例:假设有一个二维的数据集,其中每个样本有两个属性:身高和体重。
我们希望使用PCA算法将数据降维到一维。
步骤1:数据标准化在对数据进行降维之前,首先需要对数据进行标准化处理。
假设原始数据集为X,其中X=[x1, x2, ..., xn]是一个2xN的矩阵,每一列代表一个样本,行代表属性。
标准化后的数据集X'的计算方式为:X'=(X-μ)/σ,其中μ是每个属性的均值,σ是每个属性的标准差。
步骤2:计算协方差矩阵协方差矩阵C的计算方式为:C=X'*X'^T。
步骤3:计算特征值和特征向量对协方差矩阵C进行特征值分解,得到特征值矩阵D和特征向量矩阵V。
特征值矩阵D是一个对角矩阵,对角线上的元素代表每个特征值,特征向量矩阵V的每一列是对应的特征向量。
步骤4:选择主成分根据特征值的大小选择主成分。
假设我们希望降维到一维,那么选择特征值最大的特征向量作为主成分。
步骤5:重构数据将原始数据集X映射到选择的主成分上,得到降维后的数据。
降维后的数据集Y的计算方式为:Y=V^T*X'。
至此,我们完成了对数据的降维处理。
总结:PCA算法通过对数据进行标准化、计算协方差矩阵、特征值和特征向量的计算、选择主成分和数据重构等步骤,实现了对高维数据的降维。
通过降维,可以减少数据中的冗余信息,提取出最主要、最具代表性的特征。
PCA算法

2.1 PCA算法介绍2.1.1 PCA原理令x为表示环境的m维随机向量。
假设x均值为零,即:E[x]=O.令w表示为m维单位向量,x在其上投影。
这个投影被定义为向量x和w的内积,表示为:而主成分分析的目的就是寻找一个权值向量w使得表达式E[y2]的值最大化:根据线性代数的理论,可以知道满足式子值最大化的训应该满足下式:即使得上述式子最大化的w是矩阵Cx的最大特征值所对应的特征向量。
2.1.2 主成分的求解步骤在PCA中主要的是要求出使得方差最大的转化方向,其具体的求解步骤如下:(1)构建关联矩阵:Cx=E[x*xT],Cx∈Pn*n.在实际应用中,由于原始数据的数学期望不容易求解,我们可以利用下式来近似构造关联矩阵:(其中x1,x2,…,xN,是各个原始灰度图像所有象素点对应的向量,N是原始图像的个数)(2)先计算出Cx的各个特征值(3)把特征值按大小排序(4)计算出前m个特征值对应正交的特征向量构成w。
(5)将原始数据在特征向量w上进行投影,即可获得原始图像的主特征数据。
2.1.3 主成分的求解方法通过上面的分析我们可以知道,对于主成分分析的问题最后转化为求解协方差矩阵的特征值和特征向量的问题,主成分的正交化分解的算法或求XXT特征值问题的算法常用的有雅可比方法和NIPALS方法。
2.2 Eigenface算法在利用PCA进行特征提取的算法中,特征脸方法(Eigenface)是其中的一个经典算法。
特征脸方法是从主成分分析导出的一种人脸识别和描述技术。
特征脸方法就是将包含人脸的图像区域看作是一种随机向量,因此可以采用K-L变换获得其正交K-L基底。
对应其中较大特征值的基底具有与人脸相似的形状,因此又称为特征脸。
利用这些基底的线性组合可以描述、表达和逼近人脸图像,因此可以进行人脸识别与合成。
识别过程就是将人脸图像映射到由特征脸构成的子空间上,比较其与己知人脸在特征空间中的位置,具体步骤如下:(1)初始化,获得人脸图像的训练集并计算特征脸,定义为人脸空间,存储在模板库中,以便系统进行识别;(2)输入新的人脸图像,将其映射到特征脸空间,得到一组关于该人脸的特征数据;(3)通过检查图像与人脸空间的距离判断它是否是人脸;(4)若为人脸,根据权值模式判断它是否为数据库中的某个人,并做出具体的操作。
主成分分析(PCA)详解(附带详细公式推导)

主成分分析(PCA)详解(附带详细公式推导)1.假设有一个m维的数据集X,其中每个数据点有n个样本。
需要将其降维到k维,且k<m。
2. 首先需进行数据的中心化,即对每个维度的数据减去该维度的均值,即X' = X - mean(X)。
3.然后计算协方差矩阵C=(1/n)*X'*X'^T,其中X'^T表示X'的转置。
4.对协方差矩阵C进行特征值分解,得到特征值和对应的特征向量。
5.接下来,将特征值按从大到小的顺序排列,选取前k个最大的特征值及其对应的特征向量。
6. 最后,将选取的k个特征向量组成一个投影矩阵W =[e1,e2,...,ek],其中ei表示第i个特征向量。
7.对中心化的数据集进行降维,Y=W*X',其中Y即为降维后的数据。
上述推导过程中,协方差矩阵C的特征值代表了数据的方差,特征向量则代表了数据的主成分。
选取最大的k个特征值和对应的特征向量,即实现了数据的降维。
PCA的应用包括但不限于以下几个方面:1.数据可视化:PCA能够将高维度的数据映射到二维或三维空间,从而方便数据的可视化展示。
2.数据预处理:PCA能够降低数据的维度,从而减少噪声和冗余信息,提升后续模型的精度和效率。
3.特征提取:PCA能够提取数据中最重要的特征,从而辅助后续建模和特征工程。
4.噪声过滤:PCA能够降低数据的维度,从而过滤掉一些无关的噪声信息。
需要注意的是,PCA只能应用于线性数据,并且假设数据的方差和协方差是固定的。
同时,PCA对于数据中非线性关系的捕捉能力较弱,因此在处理非线性数据时,需考虑使用其他非线性降维方法,如核主成分分析(Kernel PCA)等。
综上所述,PCA是一种常用的多变量数据降维技术,在数据分析和机器学习领域有着广泛的应用。
通过线性变换,PCA将高维度的数据投影到低维空间中,从而减少数据的维度,并保留了数据中的主要信息。
pca算法的基本原理

pca算法的基本原理
PCA全称为Principal Component Analysis,翻译成中文就是主成分分析。
它是一种数据降维的方法,可以将高维度的数据转换为低维度的数据,同时保留大部分原始数据的特征。
PCA算法的基本原理如下:
1. 特征提取:对于给定的数据集,首先需要找到其中最重要的特征,即数据集中的主成分。
主成分是指与原始数据最为相关的特征向量,或者说是最能代表原始数据特征的线性组合。
这些特征向量就是数据中的主轴方向,通过它们能够最大程度地解释整个数据集的方差。
通常情况下,只需要选择前几个主成分,就能够保留大部分数据特征。
2. 降维处理:在得到数据集的主成分之后,可以使用这些主成分将原始数据降维到一个低维度的空间。
在这个低维度空间中,数据点之间的距离和分布与原始数据点之间的距离和分布相似。
降维后的数据集可以更容易处理,从而加快了数据分析的速度。
3. 矩阵运算:PCA算法的核心是矩阵运算。
一般来说,PCA算法的实现需要计算数据集的协方差矩阵,通过对协方差矩阵进行SVD分解,即奇异值分解,得到主成分和对应的特征向量。
这些特征向量决定了数据的最主要的方向,可以用来降低数据的维度。
4. 可视化:通过PCA算法得到的降维数据可以进行可视化,便于数据分析和展
示。
在可视化过程中,考虑到主成分中的权重差异,需要进行合适的权重调整才能得到更好的可视化效果。
总之,PCA算法是一种重要的数据降维算法,在数据分析中有着广泛的应用。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
主成分分析法主成分分析(Principal Component Analysis,简称PCA)方法是目前应用很广泛的一种代数特征提取方法,可以说是常用的一种基于变量协方差矩阵对样本中的信息进行处理、压缩和抽提的有效方法,主要通过K-L(Karhunen-Loeve)变换展开式从人脸数据库中提取人脸的主要特征[i],构成特征脸空间,在识别时将待测试的人脸图像投影到特征脸空间,得到一组投影系数,与数据库中各个人脸图像进行比对识别。
这种方法保留了原向量在与其协方差矩阵最大特征值相对应的特征向量方向上的投影,即主分量(Principal Components),因此被称为主成分分析。
由于PCA方法在进行降维处理和人脸特征提取方面的有效性,在人脸识别领域得到了广泛的应用。
它的核心思想是:利用较少数据的特征对样本进行描述以达到降低特征空间维数的目的,根据样本点在多维空间的位置分布,以样本点在空间中变化最大方向,即方差最大方向,作为差别矢量来实现数据的特征提取。
利用K-L变换抽取人脸的主要成分,利用特征脸法进行人脸识别的过程由训练阶段和识别阶段两个阶段组成。
3.1.1 K-L变换概述K-L变换是Karhunen-Loeve变换的简称,是一种特殊的正交变换。
它是建立在统计特性基础上的一种变换,它的突出优点是它能去相关性,而且是均方误差(Mean Square Error,MSE)意义下的最佳变换。
K-L变换的基本思想是在一个新的特征空间中将样本数据沿其特征矢量用对齐的方式进行旋转变换。
这个变换有效地克服了样本数据向量间的相关性,从而去除那些只带有较少信息的数据以达到降低特征空间维数的目的。
经过以上K-L 变换得到的特征是原图像向量的正交分解,其图像信息的总能量不变,不损失任何信息。
在这个互相正交、可测量的特征空间中进行图像的特征提取可以有效地利用图像之间的差异,提取有效信息。
K-L特征空间中,较大特征值所对应的特征向量体现原图像的总体趋势以及低频分量,较小特征值所对应特征向量体现原图像的细节变化以及高频分量所以人们用PCA法提取图像总体特征,其目的是用较少数量的特征对样本进行描述,同时又能保留所需要的识别信息。
在人脸图像上的表现就是人脸的外形轮廓和灰度变化,以此作为人脸特征。
对于随机向量X ∈R n,它的均值向量m x 及协方差矩阵c x 定义为:}{X E mx= {()()}T E X X C m m x x x =-- (3-1) X 是n 维的向量,()()T x x X X m m -- 是n ×n 阶矩阵。
c x 的元素c ii 是总体向量中X 向量的第i 个分量的方差,c x 的元素ij C 是向量元素x i 和x j 的协方差。
并且矩阵c x 是实对称的。
如果元素x i 和x j 无关,则它们的协方差为零,则有c ij =c ji =0。
对于从随机总体中取样的k 个向量,均值向量可以通过样本估计:∑==Kk k XX mK 11 (3-2) 协方差矩阵可通过样本进行估计,如式(3-3)所示:c x =m m X X xk k Txkk T k -∑-11 (3.1-3)K-L 变换定义了一正交变换A ∈R n n ⨯,将X ∈R n 的向量映射到用Y ∈R n 代表的向量,并且使Y 向量中各分量间不相关:)(m x X A Y-= (3-4)则随机向量Y 协方差矩阵C Y 应为对角矩阵:CY=⎥⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎢⎣⎡λλλn 0021(3-5)其中{(Y )(Y )}Y y y C E m m =--,{y}y m E =为向量Y 的均值向量。
因有T Y x C AC A =,这相当于对C X 对角化,K-L 变换将A 的每一行取为C X 的特征向量,并且将这些特征向量按对应的特征值大小进行降序排序,使最大特征值对应的特征向量在A 的第一行,而最小特征值对应的特征向量在A 的最后一行。
并且因y C 为实对称的,因此总能找到n 个标准正交特征向量组成A 。
经过A 变换后,因Y 各分量不相关,相当于对X 去相关操作。
并且根据矩阵理论,C Y 对角线处λj ,也正是C X 的特征值,同样也是C Y 的特征值,也就是说C X与C Y有相同特征值,并且它们的特征向量也相同。
K-L 变换不仅能去相关,而且能简单的由Y 恢复X 。
因为A 的各行是正交向量,则有A 1-=A T ,任何向量X 能够通过相应的Y 利用下式恢复:T x X YA m =+ (3-6)若选择C X 的最大K 个特征值对应的K 个特征向量,组成k ⨯n 的转换矩阵A K ,则变换后Y 降为K 维的,则由Y 对X 的恢复公式如下:^TK x X A Y m =+ (3-7) X 与Xˆ间的均方误差可以由下式表示: e ms=∑=n j j1λ-∑=k j j1λ=∑+=nk j j1λ(3-8)如果k=n(即所有特征向量用于变换),则误差为零。
因为λj 递减,并且式(3-8) 也表明可以通过选择k 个具有最大特征值的特征向量来降低误差。
因此,从可以将向量X 和它的近似值X ˆ之间的均方误差降至最小这方面来说,K-L 变换是最佳变换。
并且由于使用最大特征值对应的特征向量,所以又称为主成分分析(PCA)。
3.1.2 主成分分析(PCA)特征提取方法在二十世纪九十年代初,Kirby 和Sirovich 开始讨论利用PCA 技术进行人脸图像的最优表示问题。
并且由M .Turk 和A .Pentland 将此技术用于人脸识别中,并称为特征脸方法。
M .Turk 和A .Pentland 将m ×n 的人脸图像,重新排列为m n *维的列向量。
则所有的训练图像经此变换后得到一组列向量:{x i },x i ∈R n m *,i=1,..,N ,其中N 代表训练样本集中图像的个数。
将图像看成一随机列向量,并通过训练样本对其均值向量和协方差矩阵进行估计。
均值向量μ通过下式估计: ∑==Ni i x N 11μ (3-9)协方差矩阵S T 通过下式估计:)x ,...,())((11n Ni T TiiT x X XX S x x ==--=∑=μμ (3-10)则将投影变换矩阵A 取为S T 的前k 个最大特征值对应的特征向量。
利用以下变换式对原图像进行去相关并降维:AX y K)(μ-= (3-11)因是通过N 个训练样本计算出的,虽然S T 是)(n m *×)(n m *维的矩阵,但是其秩最大为N-1,即只有N-1个非零特征值。
按照K-L 变换中,在均方误差意义下,去掉零特征值对应的特征向量不会影响对向量x 的重构。
所以A 最大只需取S T 前N 一1个非零特征值对应的特征向量,即k 最大只需为N-1,就能通过y 在均方意义下对x 完全重构。
M .Turk 和A .Pentland 将通过对S T 的特征向量进行还原为图像矩阵后,发现竟然是一张标准化的人脸。
因此指出进行PCA 的本质就是将每幅人脸通过标准人脸的线性叠加来近似。
并将这些线性表示系数作为人脸的特征,利用这些特征对其进行分类。
M .Turk 和A .Pentland 将这些对应于每个特征向量的标准人脸称为特征脸(Eigenface),并将这种利用PCA 技术进行人脸分类的方法称为特征脸法。
PCA 算法具体步骤如下:1.将m ×n 的训练图像重新排列为m *n 维的列向量,如图像矩阵为⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡987654321 ,则排列后的列向量为⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣⎡963852741。
计算均值向量,并利用均值向量将所有样本中心化。
2.利用中心化后的样本向量,根据式(3-10)计算其协方差矩阵;对其特征值分解,并将特征向量按其对应的特征值大小进行降序排列。
3.选取第2步所得的k ≤N-1个最大特征值对应的特征向量组成投影矩阵A ,将每幅已中心化的训练图像(x 1,...,x n )向矩阵A 投影,得到每幅训练图像的降维表示(y 1,…,y n)。
4.对测试图像中心化,并投影到矩阵A ,得到测试图像的降维表示。
5.选择合适的分类器,对测试图像进行分类。
在人脸识别中,将图像重排为列向量,维数较高。
例如若处理的图像数据为112×92,变为列向量则为119×92=10304维,则S T 为10304×10304矩阵。
往往难于直接计算协方差矩阵S T 的特征值及特征向量。
下面介绍间接求解方法:因XX S T T = (X=([x x n ,...,1]),其中x i ∈R n m *,X ∈R N n m ⨯*)(,N 为训练样本数量,m*n 为图像转换为列向量的维数,往往m*n>>N 。
而XX T RNN ⨯∈比S T =XX T∈R n m n m )()(*⨯*小的多,对其进行特征值分解较简单。
对XX T 进行特征值分解:v i i i T v XX δ= (3-12)若上式两边同时左乘X ,则:(X X )(X )T i i i X ν=δν (3-13)X (X )(X )Ti i i X ν=δν 而对XX TT =δ特征分解:u u XX iiiTλ= (3-14)则可以得知v u i i X =,δλii=。
因此可以利用求XX T的特征值及特征向量来推算XXS TT =的特征值和特征向量。