PCA主成分分析应用举例剖析
主成分分析案例范文

主成分分析案例范文假设我们有一个包含多个汽车特征的数据集,每个汽车被表示为一个m维向量。
我们想要对数据进行降维,以便更好地理解和可视化数据。
我们可以利用主成分分析,将高维数据转换为低维数据,然后选择其中的几个主成分进行分析。
首先,我们需要对数据进行标准化处理,即使得每个维度的均值为0,方差为1、这是因为PCA是一种基于协方差矩阵的方法,对于不同单位和尺度的变量,会导致主成分的不准确。
接下来,我们计算数据的协方差矩阵。
协方差矩阵描述了数据之间的线性关系,其中每个元素表示两个变量之间的协方差。
对于m维数据,其协方差矩阵为一个大小为mxm的矩阵。
然后,我们计算协方差矩阵的特征向量和特征值。
特征向量描述了协方差矩阵的主要方向,特征值表示了数据在特征向量方向的方差。
特征向量按照对应特征值的大小进行排序,最大的特征值对应的特征向量即为第一主成分,第二大的特征值对应的特征向量即为第二主成分,以此类推。
我们可以选择前k个主成分进行降维,其中k可以根据需求进行选择。
最后,我们将数据投影到所选择的前k个主成分上。
具体做法是将数据与特征向量构成的转换矩阵相乘,得到数据在新的低维空间中的表示。
通过PCA降维,我们可以减少数据的维度,并保留了大部分的方差信息。
这有助于数据可视化和分析。
下面以一个具体的例子说明PCA的应用。
假设我们有一个汽车数据集,其中包含汽车的各种特征,如车速、发动机功率、车重、燃油消耗等。
我们的目标是将这些特征进行降维,并查看是否可以找到一些有趣的模式。
首先,我们对数据进行标准化处理,确保每个特征的均值为0,方差为1然后,我们计算数据的协方差矩阵,找到其特征向量和特征值。
接下来,我们选择前两个特征值最大的特征向量作为第一和第二主成分。
这两个主成分分别表示数据的主要方向。
我们可以将数据投影到这两个主成分上,得到一个二维的表示。
最后,我们可以在二维空间中绘制投影后的数据,并观察数据之间的分布。
如果在二维空间中存在一些有趣的模式,我们可以进一步探索这些模式,并进行更深入的分析。
主成分分析法例子之一

x7 0.79 0.009 -0.93 -0.046 0.672 0.658 1 -0.03 0.89
x8 0.156 -0.078 -0.109 -0.031 0.098 0.222 -0.03 1
0.29
x9 0.744 0.094 -0.924 0.073 0.747 0.707 0.89 0.29
降维是用较少的几个综合指标代替原来较多 的变量指标,而且使这些较少的综合指标既 能尽量多地反映原来较多变量指标所反映的 信息,同时它们之间又是彼此独立的。
定 为 z2义,原:…变记,量xz1m指,(x标zz2m1,2,≤…pz,)ll1121x,为1xPx11
l12x2 l22x2
l1p xp l2p xp
特征值 4.661 2.089 1.043 0.507 0.315 0.193 0.114 0.0453 0.0315
贡献率(%) 51.791 23.216 11.589 5.638 3.502 2.14 1.271 0.504 0.35
累积贡献率(%) 51.791 75.007 86.596 92.234 95.736 97.876 99.147 99.65 100
3 100.7 1.067
4 143.74 1.336
5 131.41 1.623
x 3:森 林覆盖 率(%)
16.101
x 4:农 民人均 纯收入 (元/人)
192.11
x 5:人 均粮食 产量 (kg/
人)
295.34
x 6:经济 作物占农 作物播面 比例(%)
26.724
x 7:耕地 占土地面 积比率
对于特征值=4.6610,=2.0890, =1.0430分别求出其特征向量l1,l2, l3。
PCA主成分分析(Principalcomponentsanalysis)

PCA主成分分析(Principalcomponentsanalysis)问题1、⽐如拿到⼀个汽车的样本,⾥⾯既有以“千⽶/每⼩时”度量的最⼤速度特征,也有“英⾥/⼩时”的最⼤速度特征,显然这两个特征有⼀个多余。
2、拿到⼀个数学系的本科⽣期末考试成绩单,⾥⾯有三列,⼀列是对数学的兴趣程度,⼀列是复习时间,还有⼀列是考试成绩。
我们知道要学好数学,需要有浓厚的兴趣,所以第⼆项与第⼀项强相关,第三项和第⼆项也是强相关。
那是不是可以合并第⼀项和第⼆项呢?3、拿到⼀个样本,特征⾮常多,⽽样例特别少,这样⽤回归去直接拟合⾮常困难,容易过度拟合。
⽐如北京的房价:假设房⼦的特征是(⼤⼩、位置、朝向、是否学区房、建造年代、是否⼆⼿、层数、所在层数),搞了这么多特征,结果只有不到⼗个房⼦的样例。
要拟合房⼦特征‐>房价的这么多特征,就会造成过度拟合。
4、这个与第⼆个有点类似,假设在 IR 中我们建⽴的⽂档‐词项矩阵中,有两个词项为 “learn”和“study” ,在传统的向量空间模型中,认为两者独⽴。
然⽽从语义的⾓度来讲,两者是相似的,⽽且两者出现频率也类似,是不是可以合成为⼀个特征呢?5、在信号传输过程中,由于信道不是理想的,信道另⼀端收到的信号会有噪⾳扰动,那么怎么滤去这些噪⾳呢?剔除和类标签⽆关的特征,⽐如“学⽣的名字”就和他的“成绩”⽆关,使⽤的是互信息的⽅法。
剔除和类标签有关的,但⾥⾯存在噪声或者冗余的特征。
在这种情况下,需要⼀种特征降维的⽅法来减少特征数,减少噪⾳和冗余,减少过度拟合的可能性。
备注:互信息——指两个事件集合之间的相关性。
两个事件X和Y的互信息定义为:I(X,Y) = H(X) + H(Y) - H(X,Y) 其中 H(X,Y) 是联合熵(Joint Entropy),其定义为:H(X,Y) = - ∑ p(x,y)logp(x,y) 特征降维——去掉可分性不强和冗余的特征PCA 的思想 将 n维特征映射到 k 维上(k<n),这 k 维是全新的正交特征。
主成分分析法实例

主成分分析法实例PCA的基本思想是将原始数据在坐标系下进行变换,使得各个坐标轴之间的相关性最小化。
在变换后的坐标系中,第一个主成分表示数据中方差最大的方向,第二个主成分表示与第一个主成分正交且方差次大的方向,以此类推。
因此,保留前k个主成分就可以达到降维的目的。
下面我们通过一个实例来详细介绍PCA的应用过程。
假设我们有一个二维数据集,其中包含了500个样本点,每个样本点具有两个特征。
我们首先需要对数据进行标准化处理,即对每个特征进行零均值化和单位方差化,这可以通过下面的公式实现:\[x_j' = \frac{x_j - \overline{x_j}}{\sigma_j}\]其中,\(x_j\)表示第j个特征的原始值,\(\overline{x_j}\)表示第j个特征的均值,\(\sigma_j\)表示第j个特征的标准差。
通过标准化处理后,我们可以得到一个均值为0,方差为1的数据集。
接下来,我们计算数据集的协方差矩阵。
协方差矩阵可以帮助我们衡量变量之间的相关性,它的第i行第j列的元素表示第i个特征与第j个特征的协方差。
\[Cov(X) = \frac{1}{n-1}(X - \overline{X})^T(X -\overline{X})\]其中,X是一个n行m列的矩阵,表示数据集,\(\overline{X}\)是一个n行m列的矩阵,表示X的每一列的均值。
协方差矩阵可以通过求解数据集的散布矩阵来得到,散布矩阵的定义如下:\[Scatter(X) = (X - \overline{X})^T(X - \overline{X})\]我们将协方差矩阵的特征值和特征向量求解出来,特征值表示每个特征方向上的方差,特征向量表示每个特征方向上的权重。
我们将特征值按照从大到小的顺序排序,选择前k个特征值对应的特征向量作为主成分。
最后,我们将数据集投影到选取的主成分上,得到降维后的数据集。
投影的过程可以通过下面的公式实现:\[y=XW\]其中,X是一个n行m列的矩阵,表示数据集,W是一个m行k列的矩阵,表示主成分。
PCA主成分分析原理及应用

主元分析(PCA)理论分析及应用什么是PCA?PCA是Principal component analysis的缩写,中文翻译为主元分析/主成分分析。
它是一种对数据进行分析的技术,最重要的应用是对原有数据进行简化。
正如它的名字:主元分析,这种方法可以有效的找出数据中最“主要”的元素和结构,去除噪音和冗余,将原有的复杂数据降维,揭示隐藏在复杂数据背后的简单结构。
它的优点是简单,而且无参数限制,可以方便的应用与各个场合。
因此应用极其广泛,从神经科学到计算机图形学都有它的用武之地。
被誉为应用线形代数最价值的结果之一。
在以下的章节中,不仅有对PCA的比较直观的解释,同时也配有较为深入的分析。
首先将从一个简单的例子开始说明PCA应用的场合以及想法的由来,进行一个比较直观的解释;然后加入数学的严格推导,引入线形代数,进行问题的求解。
随后将揭示PCA与SVD(Singular Value Decomposition)之间的联系以及如何将之应用于真实世界。
最后将分析PCA理论模型的假设条件以及针对这些条件可能进行的改进。
一个简单的模型在实验科学中我常遇到的情况是,使用大量的变量代表可能变化的因素,例如光谱、电压、速度等等。
但是由于实验环境和观测手段的限制,实验数据往往变得极其的复杂、混乱和冗余的。
如何对数据进行分析,取得隐藏在数据背后的变量关系,是一个很困难的问题。
在神经科学、气象学、海洋学等等学科实验中,假设的变量个数可能非常之多,但是真正的影响因素以及它们之间的关系可能又是非常之简单的。
下面的模型取自一个物理学中的实验。
它看上去比较简单,但足以说明问题。
如图表 1所示。
这是一个理想弹簧运动规律的测定实验。
假设球是连接在一个无质量无摩擦的弹簧之上,从平衡位置沿轴拉开一定的距离然后释放。
图表1对于一个具有先验知识的实验者来说,这个实验是非常容易的。
球的运动只是在x轴向上发生,只需要记录下轴向上的运动序列并加以分析即可。
pca应用实例

PCA应用实例介绍主成分分析(Principal Component Analysis,PCA)是一种常用的统计学方法,主要用于降维和数据可视化,通过线性变换将原始数据映射到新的坐标系中。
PCA通过找到数据中的主要方差贡献方向,实现数据的降维,同时保留了原始数据的主要信息。
本文将通过多个实例,详细讨论PCA在实际问题中的应用,并介绍其原理和优缺点。
实例一:图像处理1.1 问题描述在图像处理中,图像通常由二维矩阵表示,每个像素点包含了RGB三个通道的数值。
然而,某些图像数据维度非常大,每个像素点可能包含多个通道,这对于后续的处理和分析来说是一个挑战。
1.2 基于PCA的解决方案通过应用PCA,我们可以将高维图像数据降低至低维表示,同时保留了图像数据的主要信息。
具体步骤如下:1.将图像数据转化为矩阵形式。
2.对矩阵进行中心化处理,即将每个像素点的数值减去其所在通道的均值。
3.计算协方差矩阵。
4.对协方差矩阵进行特征值分解,得到特征值和特征向量。
5.根据特征值的大小,选择主成分个数。
6.将原始图像数据投影到所选择的主成分上,得到新的低维表示。
1.3 优缺点分析优点:•可以降低图像数据的维度,减少计算量。
•可以去除图像数据中的冗余信息,强调关键特征。
•可以提高图像处理的效果和速度。
缺点:•可能会损失部分图像细节信息。
•在特征值较小时,协方差矩阵的估计误差较大。
实例二:金融风险管理2.1 问题描述在金融风险管理中,需要对大量的金融指标进行分析,以便确定投资组合的风险情况。
然而,不同的金融指标之间可能存在相关性,导致数据具有高度的冗余。
2.2 基于PCA的解决方案通过应用PCA,我们可以将多个相关的金融指标转化为一组无关的主要成分,从而降低数据的维度,减少冗余度。
具体步骤如下:1.收集金融数据并进行预处理,包括缺失值处理和数据标准化。
2.计算协方差矩阵。
3.对协方差矩阵进行特征值分解,得到特征值和特征向量。
主成分分析PCA(含有详细推导过程以和案例分析matlab版)
主成分分析法(PCA)在实际问题中.我们经常会遇到研究多个变量的问题.而且在多数情况下.多个变量之间常常存在一定的相关性。
由于变量个数较多再加上变量之间的相关性.势必增加了分析问题的复杂性。
如何从多个变量中综合为少数几个代表性变量.既能够代表原始变量的绝大多数信息.又互不相关.并且在新的综合变量基础上.可以进一步的统计分析.这时就需要进行主成分分析。
I. 主成分分析法(PCA)模型(一)主成分分析的基本思想主成分分析是采取一种数学降维的方法.找出几个综合变量来代替原来众多的变量.使这些综合变量能尽可能地代表原来变量的信息量.而且彼此之间互不相关。
这种将把多个变量化为少数几个互相无关的综合变量的统计分析方法就叫做主成分分析或主分量分析。
主成分分析所要做的就是设法将原来众多具有一定相关性的变量.重新组合为一组新的相互无关的综合变量来代替原来变量。
通常.数学上的处理方法就是将原来的变量做线性组合.作为新的综合变量.但是这种组合如果不加以限制.则可以有很多.应该如何选择呢?如果将选取的第一个线性组合即第一个综合变量记为1F .自然希望它尽可能多地反映原来变量的信息.这里“信息”用方差来测量.即希望)(1F Var 越大.表示1F 包含的信息越多。
因此在所有的线性组合中所选取的1F 应该是方差最大的.故称1F 为第一主成分。
如果第一主成分不足以代表原来p 个变量的信息.再考虑选取2F 即第二个线性组合.为了有效地反映原来信息.1F 已有的信息就不需要再出现在2F 中.用数学语言表达就是要求0),(21 F F Cov .称2F 为第二主成分.依此类推可以构造出第三、四……第p 个主成分。
(二)主成分分析的数学模型 对于一个样本资料.观测p 个变量p x x x ,,21.n 个样品的数据资料阵为:⎪⎪⎪⎪⎪⎭⎫⎝⎛=np n n p p x x x x x x x x x X 212222111211()p x x x ,,21=其中:p j x x x x nj j j j ,2,1,21=⎪⎪⎪⎪⎪⎭⎫ ⎝⎛=主成分分析就是将p 个观测变量综合成为p 个新的变量(综合变量).即⎪⎪⎩⎪⎪⎨⎧+++=+++=+++=ppp p p p pp p p x a x a x a F x a x a x a F x a x a x a F 22112222121212121111 简写为:p jp j j j x x x F ααα+++= 2211p j ,,2,1 =要求模型满足以下条件:①j i F F ,互不相关(j i ≠.p j i ,,2,1, =) ②1F 的方差大于2F 的方差大于3F 的方差.依次类推 ③.,2,1122221p k a a a kp k k ==+++于是.称1F 为第一主成分.2F 为第二主成分.依此类推.有第p 个主成分。
pca在农业科学中的应用
pca在农业科学中的应用
PCA(主成分分析)在农业科学中有广泛的应用,主要用于数据降维和特征提取。
以下是一些具体的例子:
1. 品种分类和鉴定:PCA可以将多个品种的多个性状降维,突出品种间的
差异,有助于品种的分类和鉴定。
例如,可以通过PCA对小麦品种的农艺
性状进行降维,从而更好地理解和比较不同品种的特性。
2. 农作物的生长预测和监测:PCA可以通过分析影响农作物生长的各种环
境因素和生理指标,预测农作物的生长状况。
同时,也可以通过遥感技术获取的大规模农作物生长数据,利用PCA进行监测和分析,了解农作物生长
的趋势和异常。
3. 农产品品质评价:PCA可以用于对农产品品质进行评价。
例如,对于水果,可以通过PCA分析其糖度、酸度、颜色等多个品质指标,找出最能代
表品质的特征,从而更准确地评价其品质。
4. 农业决策支持系统:PCA可以帮助农业决策者更好地理解和分析问题,
从而做出更好的决策。
例如,PCA可以用于分析影响农业产量的各种因素,从而找出提高产量的关键因素。
5. 农业生态系统的分析和模拟:PCA可以用于农业生态系统的分析和模拟。
例如,通过对土壤、气候、植被等多个生态因素的PCA分析,可以更好地
了解农业生态系统的结构和功能。
6. 农业灾害评估和预防:PCA可以用于农业灾害的评估和预防。
例如,通过PCA分析气候、土壤、植被等多个因素,可以预测和评估农业灾害的风险,从而采取有效的预防措施。
总的来说,PCA在农业科学中具有广泛的应用前景,有助于提高农业生产的效率和质量。
主成分分析法案例
主成分分析法案例主成分分析(Principal Component Analysis,PCA)是一种常用的降维技术,可以将高维数据映射到低维空间,同时保持数据信息最大化。
本文将介绍一个应用主成分分析法的案例,以展示其在实际问题中的应用价值。
假设我们有一个销售数据集,包含100个样本和10个特征。
我们希望通过主成分分析法来降低数据的维度,以便更好地理解和解释数据。
第一步是标准化数据。
由于每个特征的单位和范围可能不同,我们需要将其缩放到相同的尺度。
这样可以避免某些特征对主成分分析结果的影响过大。
通过减去特征均值并除以标准差,我们可以将数据的均值调整为0,方差调整为1。
第二步是计算特征的协方差矩阵。
协方差矩阵可以衡量不同特征之间的关系。
通过计算特征之间的协方差,我们可以得到一个10×10的协方差矩阵。
第三步是计算协方差矩阵的特征值和特征向量。
特征值可以衡量每个特征的重要性,特征向量则表示数据在这些特征方向上的投影。
第四步是选择主成分。
我们可以通过特征值的大小来选择主成分的数量。
特征值越大,说明对应特征向量的信息量越大。
在这个案例中,我们选择前三个特征值最大的特征向量作为主成分。
第五步是计算主成分得分。
我们可以将原始数据映射到选定的主成分上,从而得到主成分得分。
主成分得分是原始数据在主成分上的投影。
最后,我们可以通过对主成分进行可视化和解释来理解数据。
在这个案例中,我们可以绘制主成分之间的散点图,观察样本之间的分布情况。
同时,我们还可以计算主成分与原始特征的相关系数,以评估特征在主成分中的重要性。
总之,主成分分析法是一种强大的降维技术,可以帮助我们更好地理解和解释数据。
通过选择主成分,计算主成分得分以及解释主成分,我们可以在高维数据中寻找关键的信息。
主成分分析例题详解
主成分分析例题详解主成分分析(Principal Component Analysis,简称PCA)是一种常用的数据降维技术,用于发现数据中的主要模式和结构。
本文将通过一个例题详细介绍主成分分析的原理和应用。
1. 问题描述假设我们有一个包含10个变量的数据集,每个变量都与某个特定的因素相关。
我们希望通过主成分分析来降低数据的维度,并找出对总体方差贡献最大的主成分。
2. 数据预处理在进行主成分分析之前,我们需要对数据进行预处理。
首先,我们需要对数据进行标准化,使得每个变量具有相同的尺度。
这样可以避免某些变量的值对主成分分析结果造成过大的影响。
其次,我们计算数据的协方差矩阵。
协方差矩阵描述了各个变量之间的线性关系。
通过计算协方差矩阵,我们可以得到数据中的主要结构和模式。
3. 特征值分解在得到协方差矩阵之后,我们对其进行特征值分解。
特征值分解可以将协方差矩阵分解为特征值和特征向量的乘积。
特征值表示了每个特征向量对应的主成分解释的方差。
特征向量则表示了每个主成分的权重。
对于该例题,我们得到了10个特征值和10个特征向量。
我们可以通过排序特征值的大小,找出贡献最大的主成分。
4. 主成分的选择通常情况下,我们选择前k个特征值对应的特征向量作为主成分。
这样可以保留数据中大部分的结构和模式。
在该例题中,假设前3个特征值分别为λ1、λ2和λ3,并对应的特征向量分别为v1、v2和v3。
我们选择前3个特征值对应的特征向量作为主成分。
5. 降维和重构通过选择主成分,我们可以将数据从原先的10维降到3维。
其中,每个样本在新的3维空间中的坐标可以通过与主成分的内积计算得到。
此外,我们还可以通过主成分将数据从降维空间重新投影回原始空间。
这样可以保留主成分中所包含的结构和模式。
6. 结论通过主成分分析,我们成功地降低了数据的维度,并找到了对总体方差贡献最大的主成分。
这样的降维操作可以减少特征空间的维度,并提取出数据中的重要信息。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
PRINCOMP过程由相关阵出发进行主成分分析. 由相关阵的特征值可以看出,第一主成分的贡 献率已高达88.53%;且前二个主成分的累计贡献 率已达96.36%.因此只须用两个主成分就能很好 地概括这组数据. 另由第三和四个特征值近似为0,可以得出这4 个标准化后的身体指标变量(Xi*,i=1,2,3,4)有近 似的线性关系(即所谓共线性),如 0.505747 X1* -0.690844 X2* +0.461488 X3* -0.232343 X4*≈c(常数).
> #### 作主成分分析 > student.pr<-princomp(student, cor=TRUE) > > #### 并显示分析结果 summary(student.pr, loadings=TRUE)
Importance of components: Comp.1 Comp.2 Comp.3 Comp.4 Standard deviation 1.8817805 0.55980636 0.28179594 0.25711844 Proportion of Variance 0.8852745 0.07834579 0.01985224 0.01652747 Cumulative Proportion 0.8852745 0.96362029 0.98347253 1.00000000 Loadings: Comp.1 Comp.2 Comp.3 Comp.4 X1 -0.497 0.543 -0.450 0.506 X2 -0.515 -0.210 -0.462 -0.691 X3 -0.481 -0.725 0.175 0.461 X4 -0.507 0.368 0.744 -0.232
30名中学生的四项身体指标
#### 用数据框形式输入数据 student<-data.frame( X1=c(148, 139, 160, 149, 159, 142, 153, 150, 151, 139, 140, 161, 158, 140, 137, 152, 149, 145, 160, 156, 151, 147, 157, 147, 157, 151, 144, 141, 139, 148), X2=c(41, 34, 49, 36, 45, 31, 43, 43, 42, 31, 29, 47, 49, 33, 31, 35, 47, 35, 47, 44, 42, 38, 39, 30, 48, 36, 36, 30, 32, 38), X3=c(72, 71, 77, 67, 80, 66, 76, 77, 77, 68, 64, 78, 78, 67, 66, 73, 82, 70, 74, 78, 73, 73, 68, 65, 80, 74, 68, 67, 68, 70), X4=c(78, 76, 86, 79, 86, 76, 83, 79, 80, 74, 74, 84, 83, 77, 73, 79, 79, 77, 87, 85, 82, 78, 80, 75, 88, 80, 76, 76, 73, 78))
由最大的两个特征值对应的特征向量可以写出第 一和第二主成分: Z1=-0.4970 X1*-0.5146 X2*-0.4809 X3* -0.5069 X4* Z2=0.5432 X1* -0.2102 X2*-0.7246 X3*+0.3683X4* 第一和第二主成分都是标准化后变Xi*(i=1,2,3,4) 的线性组合,且组合系数就是特征向量的分量.
s=matrix(a,ncol=9) S为样本方差阵
求方差阵S的特征值和特征向量
Байду номын сангаас
c=eigen(s) c
样本前3个主成分的系数是:
rho=diag(1/(sqrt(diag(s))))%*%s%*%diag(1/(sqrt(diag(s)))) rho
例2
学生身体各指标的主成分分析.随机抽取30名某年级中学生,测 量其身高(X1)、体重(X2)、胸围(X3)和坐高(X4)。 试对中学 生身体指标数据做主成分分析.
> cor(student) X1 X2 X3 X4 X1 1.0000000 0.8631621 0.7321119 0.9204624 X2 0.8631621 1.0000000 0.8965058 0.8827313 X3 0.7321119 0.8965058 1.0000000 0.7828827 X4 0.9204624 0.8827313 0.7828827 1.0000000 > eigen(cor(student)) $values [1] 3.54109800 0.31338316 0.07940895 0.06610989 $vectors [,1] [,2] [,3] [,4] [1,] -0.4969661 0.5432128 -0.4496271 0.5057471 [2,] -0.5145705 -0.2102455 -0.4623300 -0.6908436 [3,] -0.4809007 -0.7246214 0.1751765 0.4614884 [4,] -0.5069285 0.3682941 0.7439083 -0.2323433
PCA主成分分析 应用举例
例1
a=c(177,179 , 95 , 96 , 53 , 32 , -7 ,-4 , -3 ,179,419 , 245 , 131 , 181 , 127 , -2 , 1 , 4 , 95 ,245 , 302 , 60 , 109 , 142 , 4 , 4 , 11 ,96 ,131 , 60 , 153 , 102 , 42 , 4 , 3 , 2 , 53 ,181 , 109 , 102 , 137 , 96 , 4 , 5 , 6 , 32 ,127 , 142 , 42 , 96 , 128 , 2 , 2 , 8 , -7 , -2 , 4 , 4 , 4 , 2 , 34 ,31 , 33 , -4 , 1 , 4 , 3 , 5 , 2 , 31 ,39 , 39 ,-3 , 4 , 11 , 2 , 6 , 8 , 33 ,39 , 48)