线性判别分析LDA

线性判别分析LDA
线性判别分析LDA

LDA 算法入门

一.LDA 算法概述:

线性判别式分析(Linear Discriminant Analysis , LDA),也叫做Fisher 线性判别(Fisher Linear Discriminant ,FLD),是模式识别的经典算法,它是在1996年由Belhumeur 引入模式识别和人工智能领域的。线性鉴别分析的基本思想是将高维的模式样本投影到最佳鉴别矢量空间,以达到抽取分类信息和压缩特征空间维数的效果,投影后保证模式样本在新的子空间有最大的类间距离和最小的类内距离,即模式在该空间中有最佳的可分离性。因此,它是一种有效的特征抽取方法。使用这种方法能够使投影后模式样本的类间散布矩阵最大,并且同时类内散布矩阵最小。就是说,它能够保证投影后模式样本在新的空间中有最小的类内距离和最大的类间距离,即模式在该空间中有最佳的可分离性。

二. LDA 假设以及符号说明:

假设对于一个n

R 空间有m 个样本分别为12,,m x x x ,即每个x 是一个n 行的

矩阵,其中

i

n 表示属第

i

类的样本个数,假设一共有

c 个类,则

12i c n n n n m ++++=。

b S : 类间离散度矩阵 w S :类内离散度矩阵

i n :属于i 类的样本个数 i x :第i 个样本 u :所有样本的均值

i u :类i 的样本均值

三. 公式推导,算法形式化描述

根据符号说明可得类i 的样本均值为:

1

i x classi

i

u x n ∈=

∑ (1.1)

同理我们也可以得到总体样本均值:

1

1m

i i u x m ==∑

(1.2)

根据类间离散度矩阵和类内离散度矩阵定义,可以得到如下式子:

()()

1

c

T

b i i i i S n u u u u ==--∑

(1.3)

()()

1k c

T

w i k i k i x classi

S u x u x =∈=--∑

∑ (1.4)

当然还有另一种类间类内的离散度矩阵表达方式:

()()()

1

c

T

b i i i S P i u u u u ==--∑ (1.5)

()()()(){

}

11

(i)(i)E |k c

T

w i k i k i x classi

i c

T

i i i P S u x u x n P u x u x x classi

=∈==--=--∈∑

∑∑ (1.6)

其中()P i 是指i 类样本的先验概率,即样本中属于i 类的概率()i

n P i m

=,把

()P i 代入第二组式子中,我们可以发现第一组式子只是比第二组式子都少乘了1m ,我们将在稍后进行讨论,其实对于乘不乘该1m

,对于算法本身并没有影响,现在我们分析一下算法的思想, 我们可以知道矩阵()()

T

i i u u u u --的实际意义是一个协方差矩阵,这个矩阵

所刻画的是该类与样本总体之间的关系,其中该矩阵对角线上的函数所代表的是该类相对样本总体的方差(即分散度),而非对角线上的元素所代表是该类样本总体均值的协方差(即该类和总体样本的相关联度或称冗余度),所以根据公式(1.3)可知(1.3)式即把所有样本中各个样本根据自己所属的类计算出样本与总体的协方差矩阵的总和,这从宏观上描述了所有类和总体之间的离散冗余程度。同理可以的得出(1.4)式中为分类内各个样本和所属类之间的协方差矩阵之和,它所刻画的是从总体来看类内各个样本与类之间(这里所刻画的类特性是由是类

内各个样本的平均值矩阵构成)离散度,其实从中可以看出不管是类内的样本期望矩阵还是总体样本期望矩阵,它们都只是充当一个媒介作用,不管是类内还是类间离散度矩阵都是从宏观上刻画出类与类之间的样本的离散度和类内样本和样本之间的离散度。

LDA 做为一个分类的算法,我们当然希望它所分的类之间耦合度低,类内的聚合度高,即类内离散度矩阵的中的数值要小,而类间离散度矩阵中的数值要大,这样的分类的效果才好。

这里我们引入Fisher 鉴别准则表达式:

()T b fisher T

w S J S ??

???

= (1.7)

其中?为任一n 维列矢量。F isher 线性鉴别分析就是选取使得()fisher

J ?达到最

大值的矢量?作为投影方向,其物理意义就是投影后的样本具有最大的类间离散度和最小的类内离散度。

我们把公式(1.4)和公式(1.3)代入公式(1.7)得到:

()()()()()11k c

T

T

i i i i fisher c

T

T i k i k i x classi

n u u u u J u x u x ?????

==∈--=

--∑∑∑

(1.8)

我们可以设矩阵

()T i R u u ?=-其中?可以看成是一个空间,也就是说

()

T i u u ?-是

()

i u u -构成的低维空间(超平面)的投影。

()()T

T i i u u u u ??--也可表示为T R R ,而当样本为列向量时,T RR 即表示

()i u u -在?空间的几何距离的平方。

所以可以推出Fisher 线性鉴别分析表达式的分子即为样本在投影?空间下的类间几何距离的平方和,同理也可推出分母为样本在投影?空间下的类内几何距离的平方差,所以分类问题就转化到找一个低维空间使得样本投影到该空间下时,投影下来的类间距离平方和与类内距离平方和之比最大,即最佳分类效果。

所以根据上述思想,即通过最优化下面的准则函数找到有一组最优鉴别矢量构成

的投影矩阵opt W (这里我们也可以看出

1

m

可以通过分子分母约掉,所以前面所提到的第一组公式和第二组公式所表达的效果是一样的)。

[]12arg max

,,T b opt n T

w W S W W w w w W S W

==

(1.9)

可以证明,当w S 为非奇异(一般在实现LDA 算法时,都会对样本做一次PCA 算法的降维,消除样本的冗余度,从而保证w S 是非奇异阵,当然即使w S 为奇异阵也是可以解的,可以把w S 或b S 对角化,这里不做讨论,假设都是非奇异的情况)时,最佳投影矩阵opt W 的列向量恰为下来广义特征方程

b w S S ?λ?=

(1.10)

的d 个最大的特征值所对应的特征向量(矩阵1

w b S S -的特征向量),

且最优投影轴的个数1d

c ≤- 。

根据(1.10)式可以推出 b i w i S S ?λ?=

(1.11)

又由于[]12,,,d W

???=

下面给出验证:把(1.10)式代入(1.9)式可得:

1

1111

111max T T b w b w T T b d

d w d d b d

d d w d T T T i b i i i w i i i w i i

T

T

T

i w i

i w i

i w i

S S S S S S S S S S S S S S ?λ????λ??λ????λ????λ?λ??λ??????===?

=

==?=

=

=

= (1.12)

根据公式的意义来看,要使得max 最大则只要取i λ 即可。所以根据公式(1.9)可得出结论:投影矩阵opt W 的列向量为d (自取)个最大特征值所对应的特征向量,其中1d c ≤- 。

四.算法的物理意义和思考

4.1 用一个例子阐述LDA算法在空间上的意义

下面我们利用LDA进行一个分类的问题:假设一个产品有两个参数来衡量它是否合格,

我们假设两个参数分别为:

参数A参数B是否合格

2.95 6.63合格

2.537.79合格

3.57 5.65合格

3.16 5.47合格

2.58 4.46不合格

2.16 6.22不合格

3.27 3.52不合格

实验数据来源:

所以我们可以根据上图表格把样本分为两类,一类是合格的,一类是不合格的,所以我们可以创建两个数据集类:

cls1_data =

2.9500 6.6300

2.5300 7.7900

3.5700 5.6500

3.1600 5.4700

cls2_data =

2.5800 4.4600

2.1600 6.2200

3.2700 3.5200

其中cls1_data为合格样本,cls2_data为不合格的样本,我们根据公式(1.1),(1.2)可以算出合格的样本的期望值,不合格类样本的合格的值,以及总样本

期望:

E_cls1 =

3.0525 6.3850

E_cls2 =

2.6700 4.7333

E_all =

2.8886 5.6771

我们可以做出现在各个样本点的位置:

图一

其中蓝色‘*’的点代表不合格的样本,而红色实点代表合格的样本,天蓝色的倒三角是代表总期望,蓝色三角形代表不合格样本的期望,红色三角形代表合格样本的期望。从x,y轴的坐标方向上可以看出,合格和不合格样本区分度不佳。我们在可以根据表达式(1.3),(1.4)可以计算出类间离散度矩阵和类内离散度矩阵:

Sb =

0.0358 0.1547

0.1547 0.6681 Sw =

0.5909 -1.3338 -1.3338 3.5596

我们可以根据公式(1.10),(1.11)算出1

w b S S 特征值以及对应的特征向量:

L =

0.0000 0 0 2.8837

对角线上为特征值,第一个特征值太小被计算机约为0了 与他对应的特征向量为 V =

-0.9742 -0.9230 0.2256 -0.3848

根据取最大特征值对应的特征向量:(-0.9230,-0.3848),该向量即为我们要求的子空间,我们可以把原来样本投影到该向量后 所得到新的空间(2维投影到1维,应该为一个数字) new_cls1_data = -5.2741 -5.3328 -5.4693 -5.0216

为合格样本投影后的样本值 new_cls2_data = -4.0976 -4.3872 -4.3727

为不合格样本投影后的样本值,我们发现投影后,分类效果比较明显,类和类之间聚合度很高,我们再次作图以便更直观看分类效果

图二

蓝色的线为特征值较小所对应的特征向量,天蓝色的为特征值较大的特征向量,其中蓝色的圈点为不合格样本在该特征向量投影下来的位置,二红色的‘*’符号的合格样本投影后的数据集,从中个可以看出分类效果比较好(当然由于x,y轴单位的问题投影不那么直观)。

我们再利用所得到的特征向量,来对其他样本进行判断看看它所属的类型,我们取样本点

(2.81,5.46),

我们把它投影到特征向量后得到:result = -4.6947 所以它应该属于不合格样本。

4.2 LDA算法与PCA算法

在传统特征脸方法的基础上,研究者注意到特征值打的特征向量(即特征脸)并一定是分类性能最好的方向,而且对K-L变换而言,外在因素带来的图像的差异和人脸本身带来的差异是无法区分的,特征脸在很大程度上反映了光照等的差异。研究表明,特征脸,特征脸方法随着光线,角度和人脸尺寸等因素的引入,识别率急剧下降,因此特征脸方法用于人脸识别还存在理论的缺陷。线性判别式分析提取的特征向量集,强调的是不同人脸的差异而不是人脸表情、照明条件等条件

的变化,从而有助于提高识别效果。

第8章-线性判别分析--机器学习与应用第二版

第8章线性判别分析 主成分分析的目标是向量在低维空间中的投影能很好的近似代替原始向量,但这种投影对分类不一定合适。由于是无监督的学习,没有利用样本标签信息,不同类型样本的特征向量在这个空间中的投影可能很相近。本章要介绍的线性判别分析也是一种子空间投影技术,但是它的目的是用来做分类,让投影后的向量对于分类任务有很好的区分度。 8.1用投影进行分类 线性判别分析(Linear discriminant analysis,简称LDA)[1][2]的基本思想是通过线性投影来最小化同类样本间的差异,最大化不同类样本间的差异。具体做法是寻找一个向低维空间的投影矩阵W,样本的特征向量x经过投影之后得到新向量: y Wx = 同一类样本投影后的结果向量差异尽可能小,不同类的样本差异尽可能大。直观来看,就是经过这个投影之后同一类的样本尽量聚集在一起,不同类的样本尽可能离得远。下图8.1是这种投影的示意图: 图8.1最佳投影方向 上图中特征向量是二维的,我们向一维空间即直线投影,投影后这些点位于直线上。在上图中有两类样本,通过向右上方的直线投影,两类样本被有效的分开了。绿色的样本投影之后位于直线的下半部分,红色的样本投影之后位于直线的上半部分。由于是向一维空间投影,这相当于用一个向量w和特征向量x做内积,得到一个标量: T y=w x

8.2寻找投影矩阵 8.2.1一维的情况 问题的关键是如何找到最佳投影矩阵。下面先考虑最简单的情况,把向量映射到一维空间。假设有n 个样本,它们的特征向量为i x ,属于两个不同的类。属于类1C 的样本集为1D ,有1n 个样本;属于类2C 的样本集为2D ,有2n 个样本。有一个向量w ,所有向量对该向量做投影可以得到一个标量: T y =w x 投影运算产生了n 个标量,分属于与1C 和2C 相对应的两个集合1Y 和2Y 。我们希望投影后两个类内部的各个样本差异最小化,类之间的差异最大化。类间差异可以用投影之后两类样本均值的差来衡量。投影之前每类样本的均值为: x 1m i i D i n ∈= ∑x 投影后的均值为: T T x 1m i i i D i n ∈==∑w x w m 它等价于样本均值在w 上的投影。投影后两类样本均值差的绝对值为: ()T 1212 -=-m m w m m 类内的差异大小可以用方差来衡量。定义类别i C 的类内散布为: ()2 2i i i y Y s y m ∈=-∑ 这是一个标量,和方差相差一个倍数,衡量了某一类的所有样本与该类中心的距离。()() 22121/n s s + 是全体样本的方差,2212s s + 称为总类内散布。我们要寻找的最佳投影需要使下面的目标函数最大化: () ()2 122212m m w L s s -=+ 即让类间的均值差最大化(分子),类内的差异最小化(分母)。为了把这个目标函数写成w 的函数,定义类内散布矩阵为: ()() T x S x m x m i i i i D ∈= --∑总类内散布矩阵为:12S S S W =+

SPSS操作方法:判别分析例题

为研究1991年中国城镇居民月平均收入状况,按标准化欧氏平方距离、离差平方和聚类方法将30个省、市、自治区.分为三种类型。试建立判别函数,判定广东、西藏分别属于哪个收入类型。判别指标及原始数据见表9-4。 1991年30个省、市、自治区城镇居民月平均收人数据表 单位:元/人 x1:人均生活费收入 x6:人均各种奖金、超额工资(国有+集体) x2:人均国有经济单位职工工资 x7:人均各种津贴(国有+集体) x3:人均来源于国有经济单位标准工资 x8:人均从工作单位得到的其他收入 x4:人均集体所有制工资收入 x9:个体劳动者收入 5

贝叶斯判别的SPSS操作方法: 1. 建立数据文件 2.单击Analyze→ Classify→ Discriminant,打开Discriminant Analysis 判别分析对话框如图1所示: 图1 Discriminant Analysis判别分析对话框 3.从对话框左侧的变量列表中选中进行判别分析的有关变量x1~x9进入Independents 框,作为判别分析的基础数据变量。 从对话框左侧的变量列表中选分组变量Group进入Grouping Variable 框,并点击Define Range...钮,在打开的Discriminant Analysis: Define Range对话框中,定义判别原始数据的类别数,由于原始数据分为3类,则在Minimum(最小值)处输入1,在Maximum(最大值)处输入3(见图2)。。 选择后点击Continue按钮返回Discriminant Analysis主对话框。 图2 Define Range对话框 4、选择分析方法 Enter independent together 所有变量全部参与判别分析(系统默 认)。本例选择此项。 Use stepwise method 采用逐步判别法自动筛选变量。

线性判别分析使用说明工具产生背景

线性判别分析使用说明 一、工具产生背景 在实际应用中,我们经常会遇到考察对象的分类结果是已知的情况。例如,某商业银行根据信用卡等级评分模型将其划分为3个类别:信用等级高、信用等级中以及信用等级低。判别分析是用来处理这种在已知分类结果的情况下对新数据集的归类。它与聚类分析相反,因为在进行聚类分析之前,所考察对象可以分为哪几类是未知的。判别分析可以通过训练数据集学习每个类别的特征,然后对新的数据集进行分类处理。 从统计学的角度看,判别分析可描述为:已知有k个总体G1,G2,…,Gk,现有样本y,要根据这k个总体和当前样本的特征,判定该样本y属于哪一个总体。其主要工作是根据对已知总体的理解,建立判别规则(判别函数),然后根据该判别规则对新的样本属于那个总体做出判断。 常用的判别分析主要是线性判别分析和二次判别分析,二者拥有类似的算法特征,区别仅在于:当不同分类样本的协方差(描述维度间关系的指标Cov(X,Y)=E{[ X-E(X)][Y-E(Y) ]})矩阵相同时,使用线性判别分析;当不同分类样本的协方差矩阵不同时,则应该使用二次判别分析。本文讲解线性判别分析,这也是最常用的判别分析方法。 二、功能按钮说明 软件打开后界面如下: 接下来具体介绍功能的使用: 1、选择训练数据集 选择用于训练模型的数据集。需满足以下条件: 1)首行是字段,且至少有两个字段; 2)必须包含一个分类字段; 3)除了分类字段,其它字段均为数值型。 如下:

其中”Type”为分类字段。 增加训练数据集,可提高模型的预测效果。 2、分类字段 分类字段是必不可少。当选择好训练数据集后会自动将所有字段添加到“分类字段”后的下拉框中,默认首个字段为当前选中的分类字段。 3、选择测试数据集 测试数据集就是待分类的新的数据集。需满足以下条件: 1)首行是字段; 2)每个字段均为数值型; 3)不包含分类字段。 4、优化算法: 指定求解最优化问题的算法,默认为奇异值分解(svd)。 1)奇异值分解(svd) 2)最小平方差(lsqr) 3)特征分解(eigen) 5、先验概率 默认为None,表示每一个分类的先验概率是等可能的。而有时候我们事先知道每个分类可能出现的概率,这时候也可以自定义。此时各分类概率之间需用英文逗号隔开。比如: ”0.2,0.3,0.4,0.1” 表示四个分类的概率分别为0.2,0.3,0.4,0.1且四个概率之和为1,如果概率和不为1则会对概率自动伸缩。而这四个分类分别为“分类字段”指定的按照先后顺序出现的四个唯一值。 6、最小容差 判别类别可以收敛的最小容差,默认为0.0001,一般不需要改动。 7、输出判别结果 输出测试数据集的判别结果。判别结果包含一个判定结果字段,和每条观测属于不同分类的概率。各分类的概率之和为1,判别结果为概率最高的一个分类。 三、生成图表解释 1、权值向量,如下:

判别分析-四种方法

第六章 判别分析 §6.1 什么是判别分析 判别分析是判别样品所属类型的一种统计方法,其应用之广可与回归分析媲美。 在生产、科研和日常生活中经常需要根据观测到的数据资料,对所研究的对象进行分类。例如在经济学中,根据人均国民收入、人均工农业产值、人均消费水平等多种指标来判定一个国家的经济发展程度所属类型;在市场预测中,根据以往调查所得的种种指标,判别下季度产品是畅销、平常或滞销;在地质勘探中,根据岩石标本的多种特性来判别地层的地质年代,由采样分析出的多种成份来判别此地是有矿或无矿,是铜矿或铁矿等;在油田开发中,根据钻井的电测或化验数据,判别是否遇到油层、水层、干层或油水混合层;在农林害虫预报中,根据以往的虫情、多种气象因子来判别一个月后的虫情是大发生、中发生或正常; 在体育运动中,判别某游泳运动员的“苗子”是适合练蛙泳、仰泳、还是自由泳等;在医疗诊断中,根据某人多种体验指标(如体温、血压、白血球等)来判别此人是有病还是无病。总之,在实际问题中需要判别的问题几乎到处可见。 判别分析与聚类分析不同。判别分析是在已知研究对象分成若干类型(或组别)并已取得各种类型的一批已知样品的观测数据,在此基础上根据某些准则建立判别式,然后对未知类型的样品进行判别分类。对于聚类分析来说,一批给定样品要划分的类型事先并不知道,正需要通过聚类分析来给以确定类型的。 正因为如此,判别分析和聚类分析往往联合起来使用,例如判别分析是要求先知道各类总体情况才能判断新样品的归类,当总体分类不清楚时,可先用聚类分析对原来的一批样品进行分类,然后再用判别分析建立判别式以对新样品进行判别。 判别分析内容很丰富,方法很多。判别分析按判别的组数来区分,有两组判别分析和多组判别分析;按区分不同总体的所用的数学模型来分,有线性判别和非线性判别;按判别时所处理的变量方法不同,有逐步判别和序贯判别等。判别分析可以从不同角度提出的问题,因此有不同的判别准则,如马氏距离最小准则、Fisher 准则、平均损失最小准则、最小平方准则、最大似然准则、最大概率准则等等,按判别准则的不同又提出多种判别方法。本章仅介绍四种常用的判别方法即距离判别法、Fisher 判别法、Bayes 判别法和逐步判别法。 §6.2 距离判别法 基本思想:首先根据已知分类的数据,分别计算各类的重心即分组(类)的均值,判别准则是对任给的一次观测,若它与第i 类的重心距离最近,就认为它来自第i 类。 距离判别法,对各类(或总体)的分布,并无特定的要求。 1 两个总体的距离判别法 设有两个总体(或称两类)G 1、G 2,从第一个总体中抽取n 1个样品,从第二个总体中抽取n 2个样品,每个样品测量p 个指标如下页表。 今任取一个样品,实测指标值为),,(1'=p x x X ,问X 应判归为哪一类? 首先计算X 到G 1、G 2总体的距离,分别记为),(1G X D 和),(2G X D ,按距离最近准则

spss进行判别分析步骤

spss进行判别分析步骤1.Discriminant Analysis判别分析主对话框 图1-1 Discriminant Analysis 主对话框

(1)选择分类变量及其范围 在主对话框中左面的矩形框中选择表明已知的观测量所属类别的变量(一定是离散变量), 按上面的一个向右的箭头按钮,使该变量名移到右面的Grouping Variable 框中。 此时矩形框下面的Define Range 按钮加亮,按该按钮屏幕显示一个小对话框如图1-2 所示,供指定该分类变量的数值范围。 图1-2 Define Range 对话框 在Minimum 框中输入该分类变量的最小值在Maximum 框中输入该分类变量的最大值。按Continue 按钮返回主对话框。 (2)指定判别分析的自变量 图1-3 展开Selection Variable 对话框的主对话框 在主对话框的左面的变量表中选择表明观测量特征的变量,按下面箭头按钮。

把选中的变量移到Independents 矩形框中,作为参与判别分析的变量。(3)选择观测量 图1-4 Set Value 子对话框 如果希望使用一部分观测量进行判别函数的推导而且有一个变量的某个值可以作为这些观测量的标识, 则用Select 功能进行选择,操作方法是单击Select 按钮展开Selection Variable。选择框如图1-3 所示。 并从变量列表框中选择变量移入该框中再单击Selection Variable 选择框右侧的Value按钮, 展开Set Value(子对话框)对话框,如图1-4 所示,键入标识参与分析的观测量所具有的该变量值, 一般均使用数据文件中的所有合法观测量此步骤可以省略。 (4)选择分析方法

线性判别分析LDA

LDA 算法入门 一.LDA 算法概述: 线性判别式分析(Linear Discriminant Analysis , LDA),也叫做Fisher 线性判别(Fisher Linear Discriminant ,FLD),是模式识别的经典算法,它是在1996年由Belhumeur 引入模式识别和人工智能领域的。线性鉴别分析的基本思想是将高维的模式样本投影到最佳鉴别矢量空间,以达到抽取分类信息和压缩特征空间维数的效果,投影后保证模式样本在新的子空间有最大的类间距离和最小的类内距离,即模式在该空间中有最佳的可分离性。因此,它是一种有效的特征抽取方法。使用这种方法能够使投影后模式样本的类间散布矩阵最大,并且同时类内散布矩阵最小。就是说,它能够保证投影后模式样本在新的空间中有最小的类内距离和最大的类间距离,即模式在该空间中有最佳的可分离性。 二. LDA 假设以及符号说明: 假设对于一个n R 空间有m 个样本分别为12,,m x x x ,即每个x 是一个n 行的矩阵,其中 i n 表示属第 i 类的样本个数,假设一共有 c 个类,则 12i c n n n n m ++++= 。 b S : 类间离散度矩阵 w S :类内离散度矩阵 i n :属于i 类的样本个数 i x :第i 个样本 u :所有样本的均值 i u :类i 的样本均值 三. 公式推导,算法形式化描述 根据符号说明可得类i 的样本均值为: 1 i x classi i u x n ∈= ∑ (1.1)

同理我们也可以得到总体样本均值: 1 1m i i u x m ==∑ (1.2) 根据类间离散度矩阵和类内离散度矩阵定义,可以得到如下式子: ()() 1c T b i i i i S n u u u u ==--∑ (1.3) ()() 1k c T w i k i k i x classi S u x u x =∈=--∑ ∑ (1.4) 当然还有另一种类间类内的离散度矩阵表达方式: ()()() 1 c T b i i i S P i u u u u ==--∑ (1.5) ()()()(){ } 11 (i)(i)E |k c T w i k i k i x classi i c T i i i P S u x u x n P u x u x x classi =∈==--=--∈∑ ∑∑ (1.6) 其中()P i 是指i 类样本的先验概率,即样本中属于i 类的概率()i n P i m =,把 ()P i 代入第二组式子中,我们可以发现第一组式子只是比第二组式子都少乘了1m ,我们将在稍后进行讨论,其实对于乘不乘该1m ,对于算法本身并没有影响,现在我们分析一下算法的思想, 我们可以知道矩阵 ()() T i i u u u u --的实际意义是一个协方差矩阵,这个矩阵 所刻画的是该类与样本总体之间的关系,其中该矩阵对角线上的函数所代表的是该类相对样本总体的方差(即分散度),而非对角线上的元素所代表是该类样本总体均值的协方差(即该类和总体样本的相关联度或称冗余度),所以根据公式(1.3)可知(1.3)式即把所有样本中各个样本根据自己所属的类计算出样本与总体的协方差矩阵的总和,这从宏观上描述了所有类和总体之间的离散冗余程度。同理可以的得出(1.4)式中为分类内各个样本和所属类之间的协方差矩阵之和,它所刻画的是从总体来看类内各个样本与类之间(这里所刻画的类特性是由是类

Fisher线性判别分析实验(模式识别与人工智能原理实验1)

实验1 Fisher 线性判别分析实验 一、摘要 Fisher 线性判别分析的基本思想:通过寻找一个投影方向(线性变换,线性组合),将高维问题降低到一维问题来解决,并且要求变换后的一维数据具有如下性质:同类样本尽可能聚集在一起,不同类的样本尽可能地远。 Fisher 线性判别分析,就是通过给定的训练数据,确定投影方向W 和阈值y0,即确定线性判别函数,然后根据这个线性判别函数,对测试数据进行测试,得到测试数据的类别。 二、算法的基本原理及流程图 1 基本原理 (1)W 的确定 各类样本均值向量mi 样本类内离散度矩阵i S 和总类内离散度矩阵w S 12w S S S =+ 样本类间离散度矩阵b S 在投影后的一维空间中,各类样本均值T i i m '= W m 。样本类内离散度和总类内离散度 T T i i w w S ' = W S W S ' = W S W 。样本类间离散度T b b S ' = W S W 。 Fisher 准则函数满足两个性质: ·投影后,各类样本内部尽可能密集,即总类内离散度越小越好。 ·投影后,各类样本尽可能离得远,即样本类间离散度越大越好。 根据这个性质确定准则函数,根据使准则函数取得最大值,可求出W : -1w 12W = S (m - m ) 。 (2)阈值的确定 实验中采取的方法:012y = (m ' + m ') / 2。 (3)Fisher 线性判别的决策规则 对于某一个未知类别的样本向量x ,如果y=W T ·x>y0,则x ∈w1;否则x ∈w2。 x 1 m x, 1,2 i i X i i N ∈= =∑T x S (x m )(x m ), 1,2 i i i i X i ∈= --=∑T 1212S (m m )(m m )b =--

判别分析三种方法

作业一: 为研究1991年中国城镇居民月平均收入状况,按标准化欧氏平方距离、离差平方和聚类方法将30个省、市、自治区.分为两种类型。试建立判别函数,判定广东、西藏分别属于哪个收入类型。判别指标及原始数据见表9-4。 1991年30个省、市、自治区城镇居民月平均收人数据表 单位:元/人 x1:人均生活费收入 x6:人均各种奖金、超额工资(国有+集体) x2:人均国有经济单位职工工资 x7:人均各种津贴(国有+集体) x3:人均来源于国有经济单位标准工资 x8:人均从工作单位得到的其他收入 x4:人均集体所有制工资收入 x9:个体劳动者收入 x5:人均集体所有制职工标准工资

一、距离判别法 解:变量个数p=9,两类总体各有11个样品,即n1=n2=11 ,有2个待判样品,假定两总体协差阵相等。由spss可计算出:协方差和平均值

合计x1 123.2881 23.27817 22 22.000 x2 80.4895 22.04796 22 22.000 x3 50.8709 6.14867 22 22.000 x4 10.1450 3.11887 22 22.000 x5 6.0659 2.72297 22 22.000 x6 14.6060 6.73264 22 22.000 x7 15.7215 6.64603 22 22.000 x8 8.7895 3.02700 22 22.000 x9 1.5291 1.31496 22 22.000 知道了均值和协方差可利用matlab计算线性判别函数W(x)的判别系数a和判别常数。程序如下: v=[1.000,0.217,0.299,0.045,-0.054,0.688,0.212,0.121,-0.245;.217,1,.102,-.234,-.211,. 136,-.052,.116,.154;.299,.102,1,-.296,-.062,.091,-.017,-.607,-.034;.045,-.234,-.296,1,. 762,-.172,-.297,.103,-.554;-.054,-.211,-.062,.762,1,-.156,-.342,.022,-.654;.688,.136,.0 91,-.172,-.156,1,.235,.384,-.098;.212,-.052,-.017,-.297,-.342,.235,1,-.040,.424;.121,.1 16,-.607,.103,.022,.384,-.040,1,-.071;-.245,.154,-.034,-.554,-.654,-.098,.424,-.071,1]; >> m1=[139.2664;93.0918;53.9882;11.2073;6.7645;17.9345;17,8327;11.0018;1.6736];m 2=[107.3099;67.8873;47.7536;9.0827;5.3673;11.2775;13.6102;6.5773;1.3845]; >> m=(m1+m2)/2; >> arfa=inv(v)*(m1-m2);

专题2:线性判别分析、诊断的敏感度、特异度及ROC曲线的绘制

专题2:线性判别分析、诊断的敏感度、特异度及ROC曲线的绘制 一、判别分析 判别分析是利用已知类别的样本建立判别模型,对未知类别的样本判别的一种统计方法。进行判别分析必须已知观测对象的分类和若干表明观测对象特征的变量值。判别分析从中筛选出能提供较多信息的变量并建立判别函数,使得利用推导出的判别函数对观测量判别其所属类别时的错判率最小。 判别函数一般形式是:Y = a1X1+a2X2+a3X3...+a n X n 其中: Y 为判别分数(判别值);X1,X2,X3:?X n 为反映研究对象特征的变量,a1、a2、 a3?a n 为各变量的系数,也称判别系数。SPSS 对于分为m类的研究对象,建立m-1个线性判别函数。对于每个个体进行判别时,把测试的各变量值代入判别函数,得出判别分数,从而确定该个体属于哪一类。或者计算属于各类的概率,从而判断该个体属于哪—类。 例如:脂肪肝与健康人的判别分析 SPSS中的操作:分析——分类——判别,在判别分析对话框中将是否患有脂肪肝选入“分类变量”点击定义范围最小值输入0,最大值输入1。之后将所有质量数变量选入“自变量”,选择“使用步进方法进入”(根据自变量对判别贡献的大小进行逐步选择)点击“分类”按钮,在输出选择“不考虑该个案的分类”进行互交式检验。点击“保存”按钮,选择“判别得分”,方可画出ROC曲线。其他选项默认即可。

输出结果如下: 输入的/删除的变量a,b,c,d 步骤 输入的Wilks 的Lambda 统计量 精确 F 统计量df1 df2 Sig. 1 v55 .935 1 1 896.000 62.707 1 896.000 .000 2 v59 .898 2 1 896.000 51.005 2 895.000 .000 3 v42 .862 3 1 896.000 47.685 3 894.000 .000 4 v33 .844 4 1 896.000 41.144 4 893.000 .000 5 v89 .827 5 1 896.000 37.440 5 892.000 .000 6 v11 7 .819 6 1 896.000 32.81 8 6 891.000 .000 7 v86 .811 7 1 896.000 29.707 7 890.000 .000 8 v112 .806 8 1 896.000 26.819 8 889.000 .000 9 v23 .802 9 1 896.000 24.419 9 888.000 .000 在每个步骤中,输入了最小化整体Wilk 的Lambda 的变量。 a. 步骤的最大数目是200。 b. 要输入的最小偏F 是3.84。 c. 要删除的最大偏F 是2.71。 d. F 级、容差或VIN 不足以进行进一步计算。

判别分析-四种方法

第六章 判别分析 § 什么是判别分析 判别分析是判别样品所属类型的一种统计方法,其应用之广可与回归分析媲美。 在生产、科研和日常生活中经常需要根据观测到的数据资料,对所研究的对象进行分类。例如在经济学中,根据人均国民收入、人均工农业产值、人均消费水平等多种指标来判定一个国家的经济发展程度所属类型;在市场预测中,根据以往调查所得的种种指标,判别下季度产品是畅销、平常或滞销;在地质勘探中,根据岩石标本的多种特性来判别地层的地质年代,由采样分析出的多种成份来判别此地是有矿或无矿,是铜矿或铁矿等;在油田开发中,根据钻井的电测或化验数据,判别是否遇到油层、水层、干层或油水混合层;在农林害虫预报中,根据以往的虫情、多种气象因子来判别一个月后的虫情是大发生、中发生或正常; 在体育运动中,判别某游泳运动员的“苗子”是适合练蛙泳、仰泳、还是自由泳等;在医疗诊断中,根据某人多种体验指标(如体温、血压、白血球等)来判别此人是有病还是无病。总之,在实际问题中需要判别的问题几乎到处可见。 判别分析与聚类分析不同。判别分析是在已知研究对象分成若干类型(或组别)并已取得各种类型的一批已知样品的观测数据,在此基础上根据某些准则建立判别式,然后对未知类型的样品进行判别分类。对于聚类分析来说,一批给定样品要划分的类型事先并不知道,正需要通过聚类分析来给以确定类型的。 正因为如此,判别分析和聚类分析往往联合起来使用,例如判别分析是要求先知道各类总体情况才能判断新样品的归类,当总体分类不清楚时,可先用聚类分析对原来的一批样品进行分类,然后再用判别分析建立判别式以对新样品进行判别。 判别分析内容很丰富,方法很多。判别分析按判别的组数来区分,有两组判别分析和多组判别分析;按区分不同总体的所用的数学模型来分,有线性判别和非线性判别;按判别时所处理的变量方法不同,有逐步判别和序贯判别等。判别分析可以从不同角度提出的问题,因此有不同的判别准则,如马氏距离最小准则、Fisher 准则、平均损失最小准则、最小平方准则、最大似然准则、最大概率准则等等,按判别准则的不同又提出多种判别方法。本章仅介绍四种常用的判别方法即距离判别法、Fisher 判别法、Bayes 判别法和逐步判别法。 § 距离判别法 基本思想:首先根据已知分类的数据,分别计算各类的重心即分组(类)的均值,判别准则是对任给的一次观测,若它与第i 类的重心距离最近,就认为它来自第i 类。 距离判别法,对各类(或总体)的分布,并无特定的要求。 1 两个总体的距离判别法 设有两个总体(或称两类)G 1、G 2,从第一个总体中抽取n 1个样品,从第二个总体中抽取n 2个样品,每个样品测量p 个指标如下页表。 今任取一个样品,实测指标值为),,(1'=p x x X ,问X 应判归为哪一类 首先计算X 到G 1、G 2总体的距离,分别记为),(1G X D 和),(2G X D ,按距离最近准则

FISHER线性判别MATLAB实现

Fisher 线性判别上机实验报告 班级: 学号: 姓名: 一.算法描述 Fisher 线性判别分析的基本思想:选择一个投影方向(线性变换,线性组合),将高维问题降低到一维问题来解决,同时变换后的一维数据满足每一类内部的样本尽可能聚集在一起,不同类的样本相隔尽可能地远。 Fisher 线性判别分析,就就是通过给定的训练数据,确定投影方向W 与阈值w0, 即确定线性判别函数,然后根据这个线性判别函数,对测试数据进行测试,得到测试数据的类别。 线性判别函数的一般形式可表示成0)(w X W X g T += 其中 ????? ??=d x x X Λ1 ?????? ? ??=d w w w W Λ21 Fisher 选择投影方向W 的原则,即使原样本向量在该方向上的投影能兼顾类间分布尽可能分开,类内样本投影尽可能密集的要求。 如下为具体步骤: (1)W 的确定

样本类间离散度矩阵b S 在投影后的一维空间中,各类样本均值T i i m '= W m 样本类内离散度与总类内离散度 T T i i w w S ' = W S W S ' = W S W 样本类间离散度T b b S ' = W S W Fisher 准则函数为 max 22 212 21 ~~)~~()(S S m m W J F +-= (2)阈值的确定 w 0 就是个常数,称为阈值权,对于两类问题的线性分类器可以采用下属决策规 则: 令) ()()(2 1 x x x g g g -=则: 如果g(x)>0,则决策w x 1∈;如果g(x)<0,则决策w x 2∈;如果g(x)=0,则可将x 任意分到某一类,或拒绝。 (3)Fisher 线性判别的决策规则 Fisher 准则函数满足两个性质: 1、投影后,各类样本内部尽可能密集,即总类内离散度越小越好。 2、投影后,各类样本尽可能离得远,即样本类间离散度越大越好。 根据这个性质确定准则函数,根据使准则函数取得最大值,可求出 W :-1 w 12W = S (m - m ) 。 这就就是Fisher 判别准则下的最优投影方向。 最后得到决策规则 T 1212S (m m )(m m ) b =--

spss进行判别分析步骤

spss进行判别分析步骤 1.Discriminant Analysis判别分析主对话框 如图1-1 所示 图1-1 Discriminant Analysis 主对话框 (1)选择分类变量及其范围 在主对话框中左面的矩形框中选择表明已知的观测量所属类别的变量(一定是离散变量),

按上面的一个向右的箭头按钮,使该变量名移到右面的Grouping Variable 框中。 此时矩形框下面的Define Range 按钮加亮,按该按钮屏幕显示一个小对话框如图1-2 所示,供指定该分类变量的数值范围。 图1-2 Define Range 对话框 在Minimum 框中输入该分类变量的最小值在Maximum 框中输入该分类变量的最大值。按Continue 按钮返回主对话框。 (2)指定判别分析的自变量

图1-3 展开Selection Variable 对话框的主对话框 在主对话框的左面的变量表中选择表明观测量特征的变量,按下面一个箭头按钮。 把选中的变量移到Independents 矩形框中,作为参与判别分析的变量。 (3)选择观测量 图1-4 Set Value 子对话框

如果希望使用一部分观测量进行判别函数的推导而且有一 个变量的某个值可以作为这些观测量的标识, 则用Select 功能进行选择,操作方法是单击Select 按钮展开Selection Variable。选择框如图1-3 所示。 并从变量列表框中选择变量移入该框中再单击Selection Variable 选择框右侧的Value按钮, 展开Set Value(子对话框)对话框,如图1-4 所示,键入标识参与分析的观测量所具有的该变量值, 一般均使用数据文件中的所有合法观测量此步骤可以省略。(4)选择分析方法 在主对话框中自变量矩形框下面有两个选择项,被选中的方法前面的圆圈中加有黑点。这两个选择项是用于选择判别分

二维线性判别分析

二维线性判别分析 摘要 线性判别分析(LDA)是一个常用的进行特征提取和降维的方法。在许多涉及到高维数据,如人脸识别和图像检索的应用中被广泛使用。经典的LDA方法固有的限制就是所谓的奇异性问题,即当所有的散列矩阵是奇异的时,它就不再适用了。比较有名的解决奇异性问题的方法是在使用LDA方法之前先用主成分分析(PCA)对数据进行降维。这个方法就叫做PCA+LDA,在人脸识别领域被广泛应用。然而,由于涉及到散列矩阵的特征值分解,这个方法在时间和空间上都需要很高的成本。 在本文中,我们提出了一种新的LDA算法,叫做2D-LDA,即二维线性判别分析方法。2D-LDA方法彻底解决了奇异性问题,并且具有很高的效率。2D-LDA和经典LDA之间主要的区别在于数据表示模型。经典LDA采用矢量表示数据,而2D-LDA使用矩阵表示数据。我们对2D-LDA+LDA,即如何结合2D-LDA和经典LDA,在经典LDA之前使用2D-LDA进一步降维的问题进行了研究。将本文提出的算法应用于人脸识别,并与PCA+LDA进行了比较。实验表明:2D-LDA+LDA的方法识别更精确,并且效率更高。 1概述 线性判别分析[2][4]是一个著名的特征提取和降维的方法。已经被广泛应用于人脸识别[1]、图像检索[6]、微列阵数据分类[3]等应用中。经典的LDA算法就是将数据投影到低维的向量空间,使类间距离和类内距离的比值最大化,从而得到最佳的分类效果。最佳的投影方向可以通过散列矩阵的特征值分解计算得到。经典LDA算法的一个限制是其目标函数的散列矩阵必须是奇异的。对于许多应用了,如人脸识别,所有散列矩阵的问题都可以是奇异的,因为其数据都是高维的,并且通常矩阵的尺寸超过了数据点的额数目。这就是所谓的“欠采样或奇异性问题[5]”。 近年来,许多用于解决这种高维、欠采样问题的方法被提出,包括伪逆LDA、PCA+LDA和正则LDA。在文献[5]中可以了解更多细节。在这些LDA的扩展方法中,PCA+LDA受到了广泛的关注,尤其实在人脸识别领域[1]。这个方法包括两个阶段,其中一个阶段就是在LDA方法之前使用PCA对数据进行降维。以前

判别分析中Fisher判别法的应用教材

1 绪论 1.1课题背景 随着社会经济不断发展,科学技术的不断进步,人们已经进入了信息时代,要在大量的信息中获得有科学价值的结果,从而统计方法越来越成为人们必不可少的工具和手段。多元统计分析是近年来发展迅速的统计分析方法之一,应用于自然科学和社会各个领域,成为探索多元世界强有力的工具。 判别分析是统计分析中的典型代表,判别分析的主要目的是识别一个个体所属类别的情况下有着广泛的应用。潜在的应用包括预测一个公司是否成功;决定一个学生是否录取;在医疗诊断中,根据病人的多种检查指标判断此病人是否有某种疾病等等。它是在已知观测对象的分类结果和若干表明观测对象特征的变量值的情况下,建立一定的判别准则,使得利用判别准则对新的观测对象的类别进行判断时,出错的概率很小。而Fisher判别方法是多元统计分析中判别分析方法的常用方法之一,能在各领域得到应用。通常用来判别某观测量是属于哪种类型。在方法的具体实现上,采用国内广泛使用的统计软件SPSS (Statistical Product and Service Solutions),它也是美国SPSS公司在20世纪80年代初开发的国际上最流行的视窗统计软件包之一 1.2 Fisher判别法的概述 根据判别标准不同,可以分为距离判别、Fisher判别、Bayes判别法等。Fisher 判别法是判别分析中的一种,其思想是投影,Fisher判别的基本思路就是投影,针对P维空间中的某点x=(x1,x2,x3,…,xp)寻找一个能使它降为一维数值的线性函数y(x):()j j x y = x∑ C 然后应用这个线性函数把P维空间中的已知类别总体以及求知类别归属的样本都变换为一维数据,再根据其间的亲疏程度把未知归属的样本点判定其归属。这个线性函数应该能够在把P维空间中的所有点转化为一维数值之后,既能最大限度地缩小同类中各个样本点之间的差异,又能最大限度地扩大不同类别中各个样本点之间的差异,这样才可能获得较高的判别效率。在这里借用了一元方差分析的思想,即依据组间均方差与组内均方差之比最大的原则来进行判别。 1.3 算法优缺点分析

Fisher线性判别分析实验报告

Fisher 线性判别分析实验报告 一、摘要 Fisher 线性判别分析的基本思想:通过寻找一个投影方向(线性变换,线性组合),将高维问题降低到一维问题来解决,并且要求变换后的一维数据具有性质:同类样本尽可能聚集在一起,不同类样本尽可能地远。 Fisher 线性判别分析,就是通过给定的训练数据,确定投影方向w 和阈值y0,即确定线性判别函数,然后根据这个线性判别函数,对测试数据进行测试,得到测试数据的类别。 二、算法的基本原理及流程图 1 基本原理 (1) W 的确定 各类样本均值向量 mi 样本类内离散度矩阵i S 和总类内离散度矩阵 w S 12w S S S =+ 样本类间离散度矩阵 b S 在投影后的一维空间中, 各类样本均值 T i i m '= W m 样本类内离散度和总类内离散度 T T i i w w S ' = W S W S ' = W S W 样本类间离散度 T b b S ' = W S W Fisher 准则函数满足两个性质: 投影后,各类样本内部尽可能密集,即总类内离散度越小越好。 投影后,各类样本尽可能离得远,即样本类间离散度越大越好。 根据这个性质确定准则函数,根据使准则函数取得最大值,可求出w T x S (x m )(x m ), 1,2 i i i i X i ∈= --=∑T 1212S (m m )(m m )b =--

-1 w12 W = S(m - m) (2)阈值的确定 实验中采取的方法: 012 y = (m' + m') / 2 (3) Fisher线性判别的决策规则 对于某一个未知类别的样本向量 x,如果y = W T x >y0, 则x∈w1 否则x∈w2 2流程图 方差标准化(归一化处理) 一个样本集中,某一个特征的均值与方差为:归一化:

实验四6 判别分析

一、实验目的与要求 1.通过上机操作使学生掌握判别分析方法在SPSS软件中的实现,了解判别方法的分类、适用条件和结果验证方法; 2.要求学生熟悉判别分析的用途和操作,重点掌握对软件处理结果的解释(区域图、未标准化典型判别函数、Bayes判别函数)和如何使用分析结果对新样品进行分类; 3.要求学生阅读一定数量的文献资料,掌握判别分析方法在写作中的应用。 二、实验内容与步骤 判别分析和聚类分析有相似的作用,都是起到分类的作用。但是,判别分析是已知分类然后总结出判别准则,是一种有指导的学习;而聚类分析则是有了一批样本,不知道它们的分类,甚至连分成几类也不知道,希望用某种方法把观测进行合理的分类,使得同一类的观测比较接近,不同类的观测相差较多,这是无指导的学习。判别分析是用于判断个体所属类别的一种统计方法。根据已知观测对象的分类和若干表明观测对象特征的变量值,建立判别函数和判别准则,并使其错判率最小,对于一个未知分类的样本,将所测指标代入判别方程,从而判断它来自哪个总体。当然,这种准则在某种意义上是最优的,如错判概率最小或错判损失最小等。其前提是总体均值有显著差异,否则错分率大,判别分析无意义。例如,我们有了患胃炎的病人和健康人的一些化验指标,就可以从这些化验指标发现两类人的区别,把这种区别表示为判别公式,然后对怀疑患胃炎的人就可以根据其化验指标用判别公式诊断。 判别分析 SPSS 软件中的Analyze→ Classify→Discriminant,就进入了判到分析的对话框。作判别分析时,数据文件包含一个分组变量(grouping variable)。选择分组变量的范围,即分类数目。最小值为1,最大值是组数。然后选择判别变量,点击OK完成基本的判别分析。 另外,如果需要作更深入的分析,可选择其他项。统计量( statistics) 选项中可以选择描述统计量Mean, ANVOA, Box'M,函数可以选择Fisher 和非标准化函数,问时还可选择使用哪种矩阵。分类( c1assify) 选项中可以选择先验概率。子选项显示(display) 中可出选择每个个体的结果(casewise results) ,综合表(summery table) 和交叉确认的验证原则,还可以选择使用哪种协方差矩阵以及作图。保存(save) 选项中可以选择预测的分类、判别得分以及所属分类的概率。当然,变量较多时,还可以选择逐步判别的方法(method) 。

SAS学习系列36.-判别分析

36. 判别分析 (一)基本原理 判别分析,是用以判别个体所属类的一种统计方法。其原理是根据已掌握的一批分类明确的样品,建立一个较好的判别函数,使得用该判别函数进行判别时错判事例最少,进而能用此判别函数对给定的一个新样品判别它来自哪个总体。 判别分析方法通常要给出一个判别指标(判别函数),同时还要指定一种判别规则。 一、距离判别法 未知总体的样品x离哪个总体的距离最近,就判断它属于哪个总体。 1. 对于两个正态总体G1, G2 距离选用马氏(Mahalanobis)距离: d2(x, G1) = (x-μ1)T∑1-1(x-μ1) d2(x, G2) = (x-μ2)T∑2-1(x-μ2) 其中,μ1, μ2, ∑1, ∑2分别为总体G1, G22的均值和协差矩阵。令 W(x) = d2(x, G1) - d2(x, G2) 称为判别函数,若∑1=∑2时,W(x)是线性函数,此时称为线性判别;若∑1≠∑2,W(x)是二次函数。

2. 多总体情况 设有m个总体:G1, …, G m,其均值、协差阵分别为μi, ∑i. 对给定的样品x,按距离最近的准则对x进行判别归类: 首先计算样品x到m个总体的马氏距离d i2(x), 然后进行比较,把x判归距离最小的那个总体,即若d h2(x) = min{ d i2(x) | i = 1,…,m},则x∈G h. 二、Fisher线性函数判别法 为了方便使用,需要寻找尽量简单的判别函数,其中在Fisher 准则下的线性判别函数就是只利用总体的一、二阶矩就可求得的判别函数。 图1 Fisher线性判别分析示意图 下面以两个总体为例来说明Fisher判别的思想。 设有两个总体G1、G2,其均值分别为μ1和μ2,协方差阵分别∑1和∑2,并假定∑1 = ∑2 = ∑,考虑线性组合:y = L T x。通过寻求合适的L

相关文档
最新文档