计量经济学(第六讲共线性与主成分分析法的应用)
计量经济学讲义第六讲(共十讲)

第六讲 多重共线一、 FWL 定理及其应用考虑模型:112233i i i i i y a b x b x b x ε=++++ (1)假如我们只关注1ˆb,则通过如下步骤可以获得之。
第1步:把1x 对其他解释变量进行回归(请注意,截距所对应的解释变量为1),即有: 101223ˆˆˆˆi i i ix x x v βββ=+++ (2)第2步:把y 也对(2)中的解释变量进行回归,即有:01223ˆˆˆˆi i i i y x x w ϕϕϕ=+++ (3)第3步:把ˆw 对ˆv 进行回归(不含截距,当然你可以包含截距,但你会发现,截距的估计结果是零,这是因为ˆw 与ˆv 其均值都为零),即有模型:ˆˆi i i ve w η=+ (4) 则有:2ˆˆˆˆi i iw v v η=∑∑,可以验证,1ˆˆb η=,且残差ˆi e 等于初始的残差ˆi ε。
此即著名的FWL 定理(Frisch-Waugh-Lovell theorem )。
关于FWL 定理的一个简单证明见附录1。
思考题:利用关于“偏导数”的直觉,你能够理解1ˆˆb η=吗? 考察2ˆˆˆˆi i iw v v η=∑∑,把01223ˆˆˆˆi i i i y x x w ϕϕϕ=---代入,现在分子是:2012230123ˆˆˆˆ()ˆˆˆˆˆˆˆˆˆi i i i i i i ii i i v x i i y x x y v x v v v wv ϕϕϕϕϕϕ------∑∑∑==∑∑∑应该注意到,在进行第一步回归时,OLS 法保证了203ˆˆˆi i i i i v x x vv ===∑∑∑ 因此,22ˆˆˆˆˆˆi i i i i iw v y v v v η==∑∑∑∑ 显然,如果把y 对ˆv 直接进行无截距回归:*ˆiiiy v ης=+ (5)我们也可以得到:*122ˆˆˆˆˆˆˆi i i i i i y v w v b v vηη====∑∑∑∑。
主成分分析法及其应用

主成分分析法及其应用一、本文概述主成分分析法(Principal Component Analysis,简称PCA)是一种广泛应用于数据降维和特征提取的统计方法。
它通过正交变换将原始数据集中的多个变量转换为少数几个互不相关的主成分,这些主成分能够最大程度地保留原始数据集中的信息。
本文旨在全面介绍主成分分析法的基本原理、实现步骤以及在各个领域中的应用案例。
我们将详细阐述主成分分析法的数学基础和算法流程,包括协方差矩阵、特征值、特征向量等关键概念的计算方法。
然后,我们将通过实例演示如何使用主成分分析法进行数据降维和特征提取,以及如何通过可视化工具展示降维后的数据效果。
我们将探讨主成分分析法在机器学习、图像处理、生物信息学、社会科学等多个领域中的实际应用,展示其在数据分析和处理中的重要价值和潜力。
二、主成分分析法的基本原理主成分分析法(Principal Component Analysis,简称PCA)是一种在多个变量中找出主要影响因素,并通过降维技术把多个变量转化为少数几个互不相关的综合变量的统计方法。
这种方法在保持数据信息损失最小的原则下,通过正交变换将原始数据转化为一个新的坐标系统,使得在这个新的坐标系统中,任何数据的最大方差都投影在第一主成分上,第二大的方差都投影在第二主成分上,以此类推。
变量降维:在多数情况下,原始数据集中可能存在多个变量,这些变量之间可能存在相关性。
主成分分析通过构造新的变量(即主成分),这些新变量是原始变量的线性组合,并且新变量之间互不相关,从而将原始的高维数据空间降维到低维空间,实现数据的简化。
方差最大化:主成分分析的另一个重要原理是方差最大化。
这意味着,第一个主成分将捕获数据中的最大方差,第二个主成分捕获第二大方差,以此类推。
通过这种方式,主成分分析能够识别出数据中的主要变化方向和模式。
数据解释性:主成分分析生成的主成分是对原始数据的线性变换,因此,每个主成分都可以被解释为原始变量的某种组合。
主成分分析法及其应用PPT课件

x4 -0.34 0.644 0.07 1 0.383 0.069 -0.05 -0.031 0.073
x5 0.309 0.42 -0.74 0.383 1
0.734 0.672 0.098 0.747
x6 0.408 0.255 -0.755 0.069 0.734
1 0.658 0.222 0.707
演讲人:XXXXXX 时 间:XX年XX月XX日
荷的平方
三个主成分的
占方差的百分数
“占方差的百分
z1
z2
z3
(%)
数:各个主成分提 取了第i个指标的
x1
0.739
-0.532 -0.0061
82.918
“效率”之和, 它等于各个主成
x2
0.123
0.887 -0.0028
x3
-0.964 0.0096 0.0095
80.191 92.948
分在第i个指标上 的载荷的平方之
x 2:人 均耕地 面积
(ha)
0.352
2 141.5 1.684
3 100.7 1.067
4 143.74 1.336
5 131.41 1.623
x 3:森 林覆盖 率(%)
16.101
x 4:农 民人均 纯收入 (元/人)
192.11
x 5:人 均粮食 产量 (kg/
人)
295.34
x 6:经济 作物占农 作物播面 比例(%)
表3.5.1 相关系数矩阵
x1
x2
x3
x4
x5
x6
x7
x8
x9
x1
1 -0.327 -0.714 -0.336 0.309 0.408 0.79 0.156 0.744
主成分分析在经济学领域的应用研究

主成分分析在经济学领域的应用研究主成分分析(Principal Component Analysis,PCA)是一种常用的多变量数据降维技术,可以将高维数据转化为低维数据,以便更好地分析和解释数据的内在结构。
在经济学领域,主成分分析被广泛应用于数据降维、因子分析、经济变量的关联性研究等方面,为经济学研究提供了重要的工具和方法。
以下是主成分分析在经济学领域的应用研究内容:1. 数据降维与可视化分析主成分分析在经济学中最常见的应用是对多维经济数据进行降维处理,以便更好地进行数据分析和解释。
通过主成分分析,可以将大量经济指标或变量投影到几个主成分上,从而得到更少但信息含量丰富的综合指标,方便进一步的分析和处理。
同时,主成分分析还可以通过对数据的可视化分析,帮助经济学家更直观地理解数据的结构和特征。
通过绘制主成分分析得到的降维后的数据的散点图或者热力图,可以直观地观察不同经济变量之间的关系,发现潜在的经济规律和变量之间的相互作用。
2. 因子分析主成分分析在经济学中还被广泛应用于因子分析。
因子分析是一种统计方法,用于确定能够解释变量间方差共享的潜在因子。
通过主成分分析可以得到各个因子的权重系数,进而可以对经济变量进行综合性的评价和分析。
例如,在金融领域中,经济学家可以使用主成分分析来分析股票市场的规律和影响因素。
他们可以将股票市场的多个指标作为原始变量,然后应用主成分分析将这些指标转化为几个潜在的因子。
通过分析这些因子的权重和影响,可以更好地理解和解释股票市场涨跌的主要因素。
3. 经济变量关联性分析主成分分析还可以用于经济变量之间的关联性研究。
通过主成分分析,可以发现经济学中不同变量之间的相关性和相关程度。
这对于经济学研究非常重要,因为经济系统中的不同变量之间存在复杂的关系,如通货膨胀率、利率水平、国内生产总值等指标之间的相互影响。
通过主成分分析,经济学家可以将这些变量转化为少数几个主成分,从而更好地理解变量之间的关系和相互影响。
统计学中的共线性分析方法

统计学中的共线性分析方法统计学是一门研究数据收集、分析和解释的学科,它在各个领域中都扮演着重要的角色。
在统计学中,共线性分析是一种用于检测和解决变量之间相关性的方法。
本文将介绍共线性的概念、影响和常用的分析方法。
共线性是指在回归模型中,自变量之间存在高度相关性的情况。
当自变量之间存在共线性时,回归模型的结果可能会出现问题,例如系数估计的不准确性、模型解释力的下降等。
因此,共线性分析对于建立准确和可靠的回归模型非常重要。
在进行共线性分析之前,我们首先需要了解共线性的影响。
共线性可能导致方差膨胀因子(VIF)的增加,VIF是用来衡量变量之间相关性的指标。
当VIF的值大于10时,说明存在严重的共线性问题。
此外,共线性还可能导致系数估计的不稳定性,即小的变化可能导致系数估计发生较大的变化。
为了解决共线性问题,统计学家提出了一系列的方法。
其中,最常用的方法之一是方差膨胀因子(VIF)分析。
VIF分析通过计算每个自变量的VIF值来评估其与其他自变量之间的相关性。
如果某个自变量的VIF值大于10,则说明该自变量与其他自变量存在严重的共线性问题,需要进一步处理。
另一种常用的方法是主成分分析(PCA)。
主成分分析是一种降维技术,它通过将原始变量转换为新的无关变量,从而减少共线性的影响。
在主成分分析中,我们将原始变量进行线性组合,得到一组新的主成分。
这些主成分是原始变量的线性组合,且彼此之间无关。
通过保留主成分的前几个,我们可以显著降低共线性的影响。
此外,岭回归(Ridge Regression)也是一种常用的共线性分析方法。
岭回归通过对回归系数进行惩罚来解决共线性问题。
在岭回归中,我们引入一个惩罚项,通过调整惩罚项的大小来控制模型的复杂度。
通过增加惩罚项,岭回归可以有效地减少共线性对系数估计的影响。
最后,还有一种常用的方法是方差分解(Variance Inflation Decomposition)。
方差分解是一种将自变量的方差分解为共线性和非共线性部分的方法。
计量经济学第六讲vvv

第六讲 多重共线一、 数学准备:FWL 定理对于多元线性回归模型:112233i i i i i y a b x b x b x ε=++++ (1)在OLS 法下,各系数估计通过求解四个正规方程而获得。
事实上,如果只关注某一个斜率系数的估计结果,则通过构造一系列简单线性回归模型就能获得所关注的斜率系数的估计。
假设我们现在关注1ˆb ,那么构造系列简单线性回归模型的过程是:第一步:把1x 对其他解释变量进行回归(请注意,截距所对应的解释变量为1),即有:101223ˆˆˆˆi i i i x x x v βββ=+++ (2) 第二步:把y 也对(2)中的解释变量进行回归,即有:01223ˆˆˆˆi i i i y x x w ϕϕϕ=+++ (3)第三步:把ˆw 对ˆv 进行回归(因为ˆw 与ˆv 其均值都为零,所以该回归模型不必带有截距项),即有:ˆˆˆˆi i i v e w η=+ (4) 现在有两个结论,即,结论一:21ˆˆˆˆˆi i i wv v b η==∑∑;结论二:残差ˆi e 等于多元回归中的残差ˆi ε。
这两个结论就是著名的FWL 定理(Frisch-Waugh-Lovell theorem )。
关于FWL 定理的一个简单证明见附录1。
附录2涉及到该定理的应用。
笔记:1b 所反映的是,在控制其他因素后1x 对y 的影响(与“偏导数”概念对应)。
1x 与y 的相关关系可能是由于它们共同的“亲戚”—— 2x 与3x 所带来的。
在控制共同“亲戚”对1x 及其y 的影响后,我们所发现的1x 与y 的相关关系被称为偏相关关系。
在前述步骤中,第一步与第二步实际上是在剔除共同“亲戚”的影响。
练习:基于简单线性回归模型:i i i y a bx ε=++验证FWL 定理。
如果我们只需要结论一,则上述三步骤可以被简化为两步骤:首先把1x 对其他解释变量进行回归,得到残差ˆi v ,其次把y 对ˆv 进行回归:ˆˆ*ˆi i iv y ηξ=+ 可以验证:122ˆˆˆˆˆˆ*ˆˆi i i i i iy v wv b v v ηη====∑∑∑∑,但应该注意此时并不能保证ˆˆi i ξε=成立。
用主成分法解决多重共线性问题

用主成分法解决多重共线性问题一、多重共线性的表现线性回归模型中的解释变量之间由于存在精确相关关系或高度相关关系。
看似相互独立的指标本质上是相同的,是可以相互代替的,但是完全共线性的情况并不多见,一般出现的是在一定程度上的共线性,即近似共线性。
二、多重共线性的后果1.理论后果多重共线性是因为变量之间的相关程度比较高。
按布兰查德认为, 在计量经济学中, 多重共线性实质上是一个“微数缺测性”问题,就是说多重共线性其实是由样本容量太小所造成,当样本容量越小,多重共线性越严重。
多重共线性的理论主要后果:(1)完全共线性下参数估计量不存在;(2)近似共线性下OLS估计量非有效;(3)模型的预测功能失效;(4)参数估计量经济含义不合理2.现实后果(1)各个解释变量对指标最后结论影响很难精确鉴别;(2)置信区间比原本宽,使得接受假设的概率更大;(3)统计量不显著;(4)拟合优度的平方会很大;(5)OLS估计量及其标准误对数据微小的变化也会很敏感。
三、多重共线性产生的原因1.模型参数的选用不当,在我们建立模型时如果变量之间存在着高度的相关性2. 由于研究的经济变量随时间往往有共同的变化趋势,他们之间存在着共性。
例如当经济繁荣时,反映经济情况的指标有可能按着某种比例关系增长3. 滞后变量。
滞后变量的引入也会产生多重共线行,例如本期的消费水平除受本期的收入影响之外,还有可能受前期的收入影响,建立模型时,本期的收入水平就有可能和前期的收入水平存在着共线性。
四、多重共线性的识别1.方差扩大因子法( VIF)一般认为如果最大的VIF超过10,常常表示存在多重共线性。
2.容差容忍定法如果容差(tolerance)<=0.1,常常表示存在多重共线性。
3. 条件索引条件索引(condition index)>10,可以说明存在比较严重的共线性。
五、多重共线性的处理方法处理方法有多重增加样本容量、剔除因子法、PLS(偏最小二乘法)、岭回归法、主成分法。
主成分分析法案例

主成分分析法案例主成分分析法(Principal Component Analysis, PCA)是一种常用的多变量统计分析方法,它可以帮助我们发现数据中的主要特征和结构,从而简化数据集并减少信息丢失。
在本文中,我们将通过一个实际案例来介绍主成分分析法的应用。
案例背景。
假设我们有一个包含多个变量的数据集,我们希望通过主成分分析法来找出其中的主要特征,并将数据进行降维,以便更好地理解和解释数据。
数据准备。
首先,我们需要对数据进行预处理,包括数据清洗、缺失值处理、标准化等操作。
在这个案例中,我们假设数据已经经过了预处理,并且符合主成分分析的基本要求。
主成分分析。
接下来,我们将利用主成分分析法来分析数据。
主成分分析的基本思想是通过线性变换将原始变量转化为一组线性无关的新变量,这些新变量被称为主成分,它们能够最大程度地保留原始数据的信息。
在进行主成分分析之前,我们需要计算数据的协方差矩阵,并对其进行特征值分解。
通过特征值分解,我们可以得到数据的主成分和对应的特征值,从而找出数据中的主要特征。
案例分析。
假设我们得到了数据的前三个主成分,我们可以通过观察主成分的载荷(loadings)来理解数据中的结构。
载荷可以帮助我们理解每个主成分与原始变量之间的关系,从而解释数据的特点和规律。
通过主成分分析,我们可以发现数据中的主要特征和结构,从而更好地理解数据。
同时,我们还可以利用主成分分析的结果进行数据的降维,从而简化数据集并减少信息丢失。
结论。
通过以上案例分析,我们可以看到主成分分析法在多变量数据分析中的重要作用。
通过主成分分析,我们可以发现数据中的主要特征和结构,从而简化数据集并减少信息丢失。
同时,主成分分析还可以帮助我们更好地理解和解释数据,为后续的分析和应用提供有力支持。
总结。
在本文中,我们通过一个实际案例介绍了主成分分析法的基本原理和应用。
主成分分析是一种常用的多变量统计分析方法,它可以帮助我们发现数据中的主要特征和结构,从而简化数据集并减少信息丢失。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
则称 x1 , x2 ,...,xl 之间存在严格的共线性关系。 如果l个解释变量存在下列关系:
1 x1i 2 x2i ... l xli ei 0
i 1,2,..,n
则称 x1 , x2 ,..., xl 之间存在近似的共线性关系。
2015/12/26 3
第五讲 共线性与主成分分析的应用
n n n
2
将 x2i x1i 代入上式,则有:
ˆ ) Var ( 1
2 2 n 2 n
2
(x
i 1
n
1i
x1 ) 2
2
n 2 ( x1i x1 ) ( x1i x1 ) ( x1i x1 ) 2 i 1 i 1 i 1
2 n 1 (2k 5) ln Detr k
(k 1) Fi ~ F (k 1, n k ) 2 (1 Ri ) nk
2015/12/26
1
Ri2
t
rij x2 x3xk n k 2 1 r
2 ij x1x2 xk
~ t (n k 2)
2015/12/26 5
第五讲 共线性与主成分分析的应用
二、共线性产生的原因与后果 (二)共线性产生的后果 1、回归参数的估计量不能确定,或者虽然能够 确定,但对样本变化的敏感性极强。 考虑二元线性回归模型: yi 0 1 x1i 2 x2i i 假定存在严格的共线性,即有:x2i x1i 。 以第一个回归系数的OLS估计为例,得到:
对 X 1 , X 2 ,..., X p 作如下的线性组合:
y1 a1 X1 a2 X 2 ... a p X p aT X
现在的任务就是使上式的方差得到最大。
2015/12/26 18
第五讲 共线性与主成分分析的应用
四、主成分分析的应用 4、主成分的推导 T 1)求 y1 a1 X1 a2 X 2 ... a p X p a X 的方 差。得到: Var( y1 ) Var(aT X ) aTVar( X )a aT a
一、共线性问题的由来 关于共线性问题,需要注意以下几点: 1、共线性主要是对解释之间是否存在某种程 度的线性函数关系而言的,它不包括解释之间的非 线性关系。 2、构造计量分析模型时,一般总是假定解释变 量是确定型变量,并且还假定各个变量相互之间在 理论逻辑上不发生某种联系,故此共线性问题实质 上是因样本而引起的。 3、现象之间客观上总会发生这样或那样的联系, 如要坚持保证模型中各个解释变量保持相互独立. 共线性不是有或无的问题,关键是看它们的严 重程度。 2015/12/26 4
T a 在 a 1 的条件下,求上式的极大值。 通过 I a 0 构造拉格朗日函数,很容易得到: 该式具有非零解的充要条件是: I 0 。而 这时候的 恰为协差阵的特征根。
2015/12/26 19
第五讲 共线性与主成分分析的应用
四、主成分分析的应用 4、主成分的推导 总之,从协差阵出发,求出协差阵的特 征根,并按大小顺序进行排列,求出相应于 各特征根的单位化了的特征向量,于是便得 到各个主成分。
2015/12/26 10
第五讲 共线性与主成分分析的应用
三、共线性的诊断与处理 (一)共线性的诊断 2、0阶相关系数矩阵 假定模型中共有k个自变量,计算它们 两两之间的相关系数,然后根据相关系数绝 对值的大小来判定有无共线性问题。
r11 r12 r r22 21 Mr rk1 rk 2
2015/12/26
20
第五讲 共线性与主成分分析的应用
四、主成分分析的应用 5、应用举例:电力供应与需求模型 对于多元回归分析问题,由于涉及到的 解释变量比较多,各解释变量之间可能存在 “共线性”,对整个模型的估计和检验会产 生不利的影响,为此,需要进行变量的筛选 处理。通过主成分分析,能生成新的维数较 少的所谓“主成分”因素,从而有助于进行 统计回归估计。
n
2
(x
i 1
n
1i
x1 )( yi y )
2
2 ( x1i x1 ) 2 ( x1i x1 ) 2 2 ( x1i x1 ) 2 i 1 i 1 i 1
0 0
同样,我们可以验证在存在近似共线性的时候, 模型回归参数的估计不稳定。
2015/12/26 17
第五讲 共线性与主成分分析的应用
四、主成分分析的应用 3、数学模型
设原始数据阵为:
x11 x 21 X x n1
x12 x 22 xn 2
x1 p x2 p ( X , X ,..., X ) 1 2 p x np
2015/12/26 16
第五讲 共线性与主成分分析的应用
四、主成分分析的应用 2、主成分分析的基本思想 主成分分析就是设法将原来众多的、具 有一定相关性的若干个统计指标,通过某种 数学处理方法重新组合成一组新的相互无关 的综合指标。为了达到这一目的,统计上采 用的做法是,对原来的p个指标做线性组合, 并保证组合后的综合指标能够最大限度地反 映原来指标包含的统计信息。然后根据各个 新的综合指标的方差的大小,来判别主成分 的顺序。
yt yt 1 1 ( x1t x1(t 1) ) 2 ( x2t x2(t 1) ) ( t t 1 )
利用差分变换时一定要注意:( 1 )该方法仅 适应于时间序列资料,截面样本不能用这种方法来 处理。(2)差分变换虽然消除了共线性,但会引起 自相关关系。(3)差分变换会导致样本数目减少。
2015/12/26
r1k 1 r r2 k 21 rkk rk 1
r12 1 rk 2
r1k r2 k 1
11
第五讲 共线性与主成分分析的应用
三、共线性的诊断与处理 (一)共线性的诊断 3、法勒(V.Farrar)-格罗珀(G.Glauber) 检验。 法勒-格罗珀判断共线性的方法,主要是 通过一系列假设检验进行的。
12
第五讲 共线性与主成分分析的应用
三、共线性的诊断与处理 (二)共线性的处理 1、不作处理 对于下列情况,即使存在共线性问题也可不作处 理: (1)共线性不严重,不会从根本上给模型估计带 来灾难性后果。 (2)模型总体拟合优度系数大于任何一个自变量 对于其他自变量回归的拟合优度系数。 (3)在进行预测和估计时,样本中的共线性关 系只要始终存在也可对共线性问题不作处理。
2015/12/26 13
第五讲 共线性与主成分分析的应用
三、共线性的诊断与处理 (二)共线性的处理 2、增加补充资料 共线性多半是因样本缘故而引起的,因 此,在原来的资料中再增加一些不含共线性 特征的数据,可能会降低共线性的干扰。另 外,从一般的统计理论角度看,扩大样本观 察范围,肯定会减小模型中参数估计量的方 差。 3 、充分利用先验信息 2015/12/26 14
ˆ 1
(x
i 1
n
2i
x2 )
2
(x
i 1
n
1i
x1 )( yi y ) ( x1i x1 )(x2i x2 ) ( x2i x2 )( yi y )
i 1 i 1 n n 2
n
n
2 2 ( x x ) ( x x ) ( x x )( x x ) 1i 1 2i 2 1i 1 2i 2 i 1 i 1 i 1
2015/12/26 2
第五讲 共线性与主成分分析的应用
一、共线性问题的由来 yi 0 1x1i 2 x2i ... k xki i 对于多元线性回归模型: 其中涉及的解释变量共有k个,若有:
1 x1i 2 x2i ... l xli 0
i 1,2,..,n
2015/12/26 7
第五讲 共线性与主成分分析的应用
二、共线性产生的原因与后果 (二)共线性产生的后果 2、参数估计量的方差很大,甚至趋于无穷大。
ˆ ) Var( 1
2 ( x 2i x 2 ) 2
i 1
n
2 2 ( x x ) ( x x ) ( x x )( x x ) 1i 1 2i 2 1i 1 2i 2 i 1 i 1 i 1
2015/12/26
9
第五讲 共线性与主成分分析的应用
三、共线性的诊断与处理 (一)共线性的诊断 1、显著性比较法 根据定性分析,如果能够肯定某个自变 量对因变量的影响很大,但具体得到的样本 回归系数不那么显著,则说明样本资料中可 能存在着共线性问题。如果拟合优度系数R2的 值很大,但模型中却有部分参数未通过显著 性检验,这也意味着有共线性存在。
2015/12/26 15
第五讲 共线性与主成分分析的应用
四、主成分分析的应用 1、主成分分析的含义 将多个可能存在相互关系的统计指标, 设法转化为少数几个不相关但又能最大程度 地反映原来统计指标所含有的统计信息的统 计分析方法。 主成分分析的基本作用:一是对数据资 料进行必要的压缩,二是对数据本身蕴涵的 信息进行挖掘和解释。
n
2015/12/26
6
第五讲 共线性与主成分分析的应用
二、共线性产生的原因与后果 (二)共线性产生的后果 将 x2i x1i 作代入处理:
ˆ 12源自 (xi 1n
1i
x1 )
n
2
(x
i 1