多重共线性问题分析
经济统计学中的多重共线性问题

经济统计学中的多重共线性问题在经济统计学中,多重共线性是一个常见且重要的问题。
它指的是在经济模型中,解释变量之间存在高度相关性,导致模型的稳定性和可靠性受到影响。
本文将探讨多重共线性问题的原因、影响以及解决方法。
一、多重共线性问题的原因多重共线性问题的产生通常有两个主要原因。
首先,解释变量之间存在线性关系。
例如,在研究经济增长时,我们可能会使用国内生产总值(GDP)、人均收入和就业率等变量作为解释变量。
然而,这些变量之间可能存在高度相关性,比如GDP和人均收入之间往往呈正相关关系。
这种线性关系会导致多重共线性问题。
其次,数据的选择和收集方式也可能导致多重共线性问题。
在进行经济统计研究时,我们需要收集大量的数据,以支持我们的模型分析。
然而,由于数据的可获得性和可靠性等因素,我们可能只能选择一部分相关的变量进行研究。
这样一来,我们就有可能忽略了一些重要的解释变量,从而导致多重共线性问题的出现。
二、多重共线性问题的影响多重共线性问题对经济统计分析的结果产生了一系列的影响。
首先,它会导致模型的稳定性下降。
由于解释变量之间存在高度相关性,模型的回归系数估计值会变得不稳定。
这意味着即使微小的数据变动,也可能导致回归系数的巨大变化,从而影响对模型的解释和预测能力。
其次,多重共线性问题还会导致模型的可靠性下降。
由于解释变量之间存在高度相关性,模型的回归系数估计值可能变得不准确。
这意味着我们无法准确地判断解释变量对因变量的影响程度。
如果我们在政策制定或决策分析中依赖于这些模型结果,就可能导致错误的判断和决策。
三、解决多重共线性问题的方法针对多重共线性问题,经济统计学提出了一些解决方法。
首先,我们可以通过增加样本量来减轻多重共线性问题。
更大的样本量会提供更多的数据点,从而减少解释变量之间的相关性。
这样一来,模型的稳定性和可靠性都会有所提高。
其次,我们可以通过引入新的解释变量来解决多重共线性问题。
这些新的解释变量应该与原有的解释变量有一定的相关性,但又不会导致高度相关。
多元回归分析中的多重共线性及其解决方法

多元回归分析中的多重共线性及其解决方法在多元回归分析中,多重共线性是一个常见的问题,特别是在自变量之间存在高度相关性的情况下。
多重共线性指的是自变量之间存在线性相关性,这会造成回归模型的稳定性和可靠性下降,使得解释变量的效果难以准确估计。
本文将介绍多重共线性的原因及其解决方法。
一、多重共线性的原因多重共线性常常发生在自变量之间存在高度相关性的情况下,其主要原因有以下几点:1. 样本数据的问题:样本数据中可能存在过多的冗余信息,或者样本数据的分布不均匀,导致变量之间的相关性增加。
2. 选择自变量的问题:在构建回归模型时,选择了过多具有相似解释作用的自变量,这会增加自变量之间的相关性。
3. 数据采集的问题:数据采集过程中可能存在误差或者不完整数据,导致变量之间的相关性增加。
二、多重共线性的影响多重共线性会对多元回归模型的解释变量产生不良影响,主要表现在以下几个方面:1. 回归系数的不稳定性:多重共线性使得回归系数的估计不稳定,难以准确反映各个自变量对因变量的影响。
2. 系数估计值的无效性:多重共线性会导致回归系数估计偏离其真实值,使得对因变量的解释变得不可靠。
3. 预测的不准确性:多重共线性使得模型的解释能力下降,导致对未知数据的预测不准确。
三、多重共线性的解决方法针对多重共线性问题,我们可以采取以下几种方法来解决:1. 剔除相关变量:通过计算自变量之间的相关系数,发现高度相关的变量,选择其中一个作为代表,将其他相关变量剔除。
2. 主成分分析:主成分分析是一种降维技术,可以通过线性变换将原始自变量转化为一组互不相关的主成分,从而降低多重共线性造成的影响。
3. 岭回归:岭回归是一种改良的最小二乘法估计方法,通过在回归模型中加入一个惩罚项,使得回归系数的估计更加稳定。
4. 方差膨胀因子(VIF):VIF可以用来检测自变量之间的相关性程度,若某个自变量的VIF值大于10,则表明该自变量存在较高的共线性,需要进行处理。
多重共线性检验方法

多重共线性检验方法多重共线性是指自变量之间存在高度相关性,导致回归模型估计的不稳定性和不准确性。
在实际的数据分析中,多重共线性经常会对回归分析结果产生严重影响,因此需要采用适当的方法来检验和解决多重共线性问题。
本文将介绍几种常用的多重共线性检验方法,帮助读者更好地理解和处理多重共线性问题。
1. 方差膨胀因子(VIF)。
方差膨胀因子是一种常用的多重共线性检验方法,它通过计算自变量的方差膨胀因子来判断自变量之间是否存在多重共线性。
方差膨胀因子的计算公式为,VIF = 1 / (1 R^2),其中R^2是自变量对其他自变量的线性相关性的度量,VIF越大表示自变量之间的共线性越严重。
一般来说,如果自变量的VIF大于10,就可以认为存在严重的多重共线性问题。
2. 特征值和条件指数。
特征值和条件指数是另一种常用的多重共线性检验方法,它们是通过对自变量之间的相关矩阵进行特征值分解得到的。
特征值表示了自变量之间的共线性程度,而条件指数则可以用来判断自变量之间的共线性是否严重。
一般来说,特征值大于1或条件指数大于30就表示存在严重的多重共线性问题。
3. Tolerance(容忍度)。
容忍度是一种用来判断自变量之间共线性的指标,它是方差膨胀因子的倒数。
一般来说,如果自变量的容忍度小于0.1,就可以认为存在严重的多重共线性问题。
4. 相关系数和散点图。
除了上述的定量方法,我们还可以通过观察自变量之间的相关系数和绘制散点图来判断是否存在多重共线性。
如果自变量之间的相关系数接近1或-1,或者在散点图中存在明显的线性关系,就可能存在多重共线性问题。
5. 多重共线性的解决方法。
一旦发现存在多重共线性问题,我们可以采取一些方法来解决。
例如,可以通过删除相关性较强的自变量、合并相关性较强的自变量、使用主成分分析等方法来减轻多重共线性的影响。
此外,还可以使用岭回归、套索回归等方法来处理多重共线性问题。
总之,多重共线性是回归分析中常见的问题,需要及时进行检验和处理。
多重共线性问题

轿车拥有量y与人均可支配收入x1散点图
轿车拥有量y与全国城镇人口x2散点图
轿车拥有量y与全国汽车产量x3散点图
轿车拥有量y与全国公路长度x4散点图
多重共线性实例3-相关性分析
从上述图像可以看到,y与x1,x2呈非线性关系, 与x3,x4 近似呈线性关系。 x1,x2,x3和x4的相关系数矩阵如下 0.983 0.9585 0.9296 1 0.983 1 0.963 0 .959 R 0.9585 0.963 1 0.955 0 . 9296 0 .959 0 .955 1 x1,x2,x3 , x4两两之间的相关系数都超过0.9,说明 xi 与x j , i, j 1,2,3,4基本线性相关,x1,x2,x3 , x4之间 存在着多重共线性关系。
多重共线性实例2-相关矩阵
多重共线性实例2-x1与x3的回归系数
多重共线性实例2
x1 , x2与x3的相关系数矩阵为 0.033 0.987 1 R 0 . 033 1 0 . 036 1 0.987 0.036 x1与x3基本线性相关,x3关于x1的一元线性 回归方程为 x3 4.963 0.73x1 x1与x3之间存在着多重共线性 。
产生多重共线性的原因
许多经济变量之间存在着相关性有着共同的变化 趋势; 在回归模型中使用滞后因变量,也可能产生多重 共线性问题。 样本数据也会引起多重共线性问题。根据回归模 型的假设,自变量是非随机变量,由于收集的数 据过窄而造成某些自变量似乎有相同或相反的变 化趋势。也即自变量即使在总体上不存在线性关 系,其样本也可能是线性相关的。
职工平均工资 农民平均收入 银行利率 消费者物价指数(Consumer Price Index) 国债利率 货币发行量(商品流通中所需的实际货币量 = 商品价格总额 / 商品流通次数 ) 储蓄额 前期消费额等
多重共线性的四种检验方法

多重共线性的四种检验方法1. 协方差矩阵检验协方差矩阵检验是通过计算变量之间的协方差来检测变量之间是否存在多重共线性的一种方法。
当变量之间的协方差较大时,可以推断出变量之间存在多重共线性的可能。
另外,协方差矩阵检验还可以用来检测变量之间的相关性,以及变量之间的线性关系。
2. 因子分析检验因子分析检验是一种检验多重共线性的方法,它检验变量之间是否存在共同的共线性因子。
它通过对变量之间的相关性进行分析,以及对变量的因子负载度进行检验,来确定变量之间是否存在多重共线性。
因子分析检验可以帮助研究者识别变量之间的共同共线性因子,从而更好地理解数据的结构。
3. 相关系数检验相关系数检验是一种检验多重共线性的方法,它可以检测自变量之间的相关性。
它通过计算自变量之间的相关系数来检验,如果相关系数的绝对值较大,则可以认为存在多重共线性。
此外,相关系数检验还可以检测自变量与因变量之间的相关性,如果自变量与因变量之间的相关系数较大,则可以认为存在多重共线性。
方差分析检验:方差分析检验是一种检验多重共线性的有效方法,它可以用来检测自变量之间的关系。
它的思想是,如果自变量之间存在多重共线性,那么它们的方差应该会受到影响,而且这种影响会反映在回归系数上。
因此,方差分析检验的基本思想是,如果自变量之间存在多重共线性,那么它们的方差应该会受到影响,而且这种影响会反映在回归系数上。
为了检验这一点,可以使用方差分析检验,它可以用来检测自变量之间是否存在多重共线性。
5. 回归分析检验回归分析检验是一种用于检测多重共线性的方法,它可以用来确定变量之间是否存在多重共线性。
回归分析检验是通过比较模型的R-平方值和调整后的R-平方值来确定多重共线性存在的程度。
如果调整后的R-平方值明显低于R-平方值,则表明多重共线性存在。
另外,可以通过观察模型的拟合度来检测多重共线性。
如果拟合度较低,则可能存在多重共线性。
什么是多重共线性如何进行多重共线性的检验

什么是多重共线性如何进行多重共线性的检验多重共线性是指在统计模型中,独立变量之间存在高度相关性或者线性依赖关系,从而给模型的解释和结果带来不确定性。
在回归分析中,多重共线性可能导致系数估计不准确、标准误差过大、模型的解释变得复杂等问题。
因此,对于多重共线性的检验和处理是非常重要的。
一、多重共线性的检验多重共线性的检验可以通过以下几种方式进行:1. 相关系数矩阵:可以通过计算独立变量之间的相关系数,判断它们之间的关系强度。
当相关系数超过0.8或-0.8时,可以视为存在高度相关性,即可能存在多重共线性问题。
2. 方差扩大因子(VIF):VIF是用来检验自变量之间是否存在共线性的指标。
计算每一个自变量的VIF值,当VIF值大于10或者更高时,可以视为存在多重共线性。
3. 条件数(Condition index):条件数也是一种用来检验多重共线性的指标。
它度量了回归矩阵的奇异性或者相对不稳定性。
当条件数超过30时,可以视为存在多重共线性。
4. 特征值(Eigenvalues):通过计算特征值,可以判断回归矩阵的奇异性。
如果存在特征值接近于零的情况,可能存在多重共线性。
以上是常用的多重共线性检验方法,可以根据实际情况选择合适的方法进行检验。
二、多重共线性的处理在检测到存在多重共线性问题后,可以采取以下几种方式进行处理:1. 去除相关性强的变量:在存在高度相关变量的情况下,可以选择去除其中一个或多个相关性较强的变量。
2. 聚合相关变量:将相关性强的变量进行加权平均,得到一个新的变量来替代原来的变量。
3. 主成分分析(PCA):主成分分析是一种降维技术,可以将相关性强的多个变量合并成为一个或多个无关的主成分。
4. 岭回归(Ridge Regression):岭回归是一种缓解多重共线性的方法,通过加入一个正则化项,来使得共线性变量的系数估计更加稳定。
5. Lasso回归(Lasso Regression):Lasso回归也是一种缓解多重共线性的方法,通过对系数进行稀疏化,来选择重要的变量。
回归分析中的多重共线性问题及解决方法(七)

回归分析是统计学中常用的一种方法,它用于研究自变量和因变量之间的关系。
然而,在实际应用中,经常会遇到多重共线性的问题,这给回归分析带来了一定的困难。
本文将讨论回归分析中的多重共线性问题及解决方法。
多重共线性是指独立自变量之间存在高度相关性的情况。
在回归分析中,当自变量之间存在多重共线性时,会导致回归系数估计不准确,标准误差增大,对因变量的预测能力降低,模型的解释能力受到影响。
因此,多重共线性是回归分析中需要重点关注和解决的问题之一。
解决多重共线性问题的方法有很多种,下面将介绍几种常用的方法。
一、增加样本量增加样本量是解决多重共线性问题的一种方法。
当样本量足够大时,即使自变量之间存在一定的相关性,也能够得到较为稳健的回归系数估计。
因此,可以通过增加样本量来减轻多重共线性对回归分析的影响。
二、使用主成分回归分析主成分回归分析是一种常用的处理多重共线性问题的方法。
主成分回归分析通过将原始自变量进行线性变换,得到一组新的主成分变量,这些主成分变量之间不存在相关性,从而避免了多重共线性问题。
然后,利用这些主成分变量进行回归分析,可以得到更为准确稳健的回归系数估计。
三、岭回归岭回归是一种经典的解决多重共线性问题的方法。
岭回归通过对回归系数施加惩罚项,从而减小回归系数的估计值,进而降低多重共线性对回归分析的影响。
岭回归的思想是在最小二乘估计的基础上加上一个惩罚项,通过调节惩罚项的系数来平衡拟合优度和模型的复杂度,从而得到更为稳健的回归系数估计。
四、逐步回归逐步回归是一种逐步选择自变量的方法,可以用来解决多重共线性问题。
逐步回归可以通过逐步引入或剔除自变量的方式,来得到一组最优的自变量组合,从而避免了多重共线性对回归系数估计的影响。
以上所述的方法都可以用来解决回归分析中的多重共线性问题。
在实际应用中,应该根据具体的情况选择合适的方法来处理多重共线性问题,从而得到准确可靠的回归分析结果。
总之,多重共线性是回归分析中需要重点关注的问题,通过合适的方法来处理多重共线性问题,可以得到更为准确稳健的回归系数估计,从而提高回归分析的预测能力和解释能力。
多重共线性解决方法

多重共线性解决方法
多重共线性是指在回归模型中,自变量之间存在高度相关性的情况,这会导致模型的解释能力下降,系数估计不准确,模型的稳定性受到影响。
以下是一些解决多重共线性问题的方法:
1.增加样本量:通过增加样本量可以减少模型中的抽样误差,从而减轻多重共线性的影响。
2.删除冗余变量:通过剔除高度相关的自变量,可以降低共线性的程度。
可以使用相关性矩阵或者变量膨胀因子(VIF)来判断哪些自变量之间存在高相关性,并选择保留一个或几个相关性较为弱的变量。
3.主成分分析(PCA):主成分分析可以将高度相关的自变量转换成一组无关的主成分,从而降低共线性的影响。
可以选择保留其中的几个主成分作为新的自变量,代替原始的自变量。
4.岭回归(Ridge Regression):岭回归是在普通最小二乘法的基础上加入一个正则化项,通过缩小系数估计的幅度,减少共线性对系数估计的影响。
岭回归可以通过交叉验证选择合适的正则化参数。
5.套索回归(Lasso Regression):套索回归也是在普通最小二乘法的基础上加入一个正则化项,不同的是套索回归使用L1范数作为正则化项,可以将一些系
数估计缩减为零,从而实现变量选择的效果。
6.弹性网回归(Elastic Net Regression):弹性网回归是岭回归和套索回归的结合,同时使用L1和L2范数作为正则化项,可以在预测准确性和变量选择之间进行权衡。
以上方法可以根据具体问题的特点和需求选择合适的方法来解决多重共线性问题。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
与其余解释变量之间有严重的多重共线性,且这
种多重共线性可能会过度地影响最小二乘估计。
(4)直观判断法
①当增加或剔除一个解释变量,或者改变一
个观测值时,回归参数的估计值发生较大变 化,回归方程可能存在严重的多重共线性。 ②从定性分析认为,一些重要的解释变量的 回归系数的标准误差较大,在回归方程中没 有通过显著性检验时,可初步判断可能存在 严重的多重共线性。
例 如 :
年份 1978 1979 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000
C 1759.1 2005.4 2317.1 2604.1 2867.9 3182.5 3674.5 4589.0 5175.0 5961.2 7633.1 8523.5 9113.2 10315.9 12459.8 15682.4 20809.8 26944.5 32152.3 34854.6 36921.1 39334.4 42911.9
三、多重共线性的检验
多重共线性表现为解释变量之间具有相关关系,
所以用于多重共线性的检验方法主要是统计方法:
如判定系数检验法、逐步回归检验法等。 多重共线性检验的任务是: (1)检验多重共线性是否存在;
(2)估计多重共线性的范围,即判断哪些变量之
间存在共线性。
1、检验多重共线性是否存在
(1)对两个解释变量的模型,采用简单相关系数法
可以有效地消除原模型中的多重共线性。
一般而言,差分后变量之间的相关性要比
差分前弱得多,所以差分后的模型可能降
低出现共线性的可能性,此时可直接估计
差分方程。
问题:差分会丢失一些信息,差分模型的误差 项可能存在序列相关,可能会违背经典线性回 归模型的相关假设,在具体运用时要慎重。
表 4.3.2
中国 GDP 与居民消费 C 的总量与增量数据(亿元) Y 3605.6 4074.0 4551.3 4901.4 5489.2 6076.3 7164.4 8792.1 10132.8 11784.7 14704.0 16466.0 18319.5 21280.4 25863.7 34500.7 46690.7 58510.5 68330.4 74894.2 79003.3 82673.1 89112.5 C/Y 0.488 0.492 0.509 0.531 0.522 0.524 0.513 0.522 0.511 0.506 0.519 0.518 0.497 0.485 0.482 0.455 0.446 0.461 0.471 0.465 0.467 0.476 0.482 △C 246.3 311.7 287.0 263.8 314.6 492.0 914.5 586.0 786.2 1671.9 890.4 589.7 1202.7 2143.9 3222.6 5127.4 6134.7 5207.8 2702.3 2066.5 2413.3 3577.5 △Y 468.4 477.3 350.1 587.8 587.1 1088.1 1627.7 1340.7 1651.9 2919.3 1762.0 1853.5 2960.9 4583.3 8637.0 12190.0 11819.8 9819.9 6563.8 4109.1 3669.8 6439.4 △C/△Y 0.526 0.653 0.820 0.449 0.536 0.452 0.562 0.437 0.476 0.573 0.505 0.318 0.406 0.468 0.373 0.421 0.519 0.530 0.412 0.503 0.658 0.556
年份
如果某两个或多个解释变量之间出现了相 关性,则称为多重共线性(Multicollinearity)。
如果存在 c1X1i+c2X2i+…+ckXki=0
性(perfect multicollinearity)。
i=1,2,…,n
其中: ci不全为0,则称为解释变量间存在完全共线
如果存在
c1X1i+c2X2i+…+ckXki+vi=0 i=1,2,…,n 其中ci不全为0,vi为随机误差项,则称为 近似共线 性 ( approximate multicollinearity ) 或 交 互 相 关 (intercorrelated)。
③有些解释变量的回归系数所带正负号与定性分
析结果违背时,很可能存在多重共线性。
④解释变量的相关矩阵中,自变量之间的相关系
数较大时,可能会存在多重共线性问题。
四、克服多重共线性的方法
如果模型被检验证明存在多重共线性,则需要 发展新的方法估计模型,最常用的方法有三类。 1、第一类方法:排除引起共线性的变量
(2)滞后变量的引入 在经济计量模型中,往往需要引入滞 后经济变量来反映真实的经济关系。 例如,消费=f(当期收入, 前期收入) 显然,两期收入间有较强的线性相关
性。
(3)样本资料的限制
由于完全符合理论模型所要求的样本数据较 难收集,特定样本可能存在某种程度的多重共线 性。
一般经验:
时间序列数据样本:简单线性模型,往往存在 多重共线性。 截面数据样本:问题不那么严重,但多重共线 性仍然是存在的。源自2、判明存在多重共线性的范围
如果存在多重共线性,需进一步确定究竟由哪 些变量引起。 (1) 判定系数检验法 使模型中每一个解释变量分别以其余解释变量 为解释变量进行回归,并计算相应的拟合优度。 如果某一种回归
Xji=1X1i+2X2i+LXLi
的判定系数较大,说明Xj与其他X间存在共线性。
如果拟合优度变化显著,则说明新引入的变 量是一个独立解释变量;
如果拟合优度变化很不显著,则说明新引入 的变量与其它变量之间存在共线性关系。
(3)方差扩大(膨胀)因子法
ˆ 统计上可以证明,解释变量 X j 的参数估计式 β j 的方差可表示为
2 2 σ 1 σ ˆ )= Var( β = VIFj j 2 2 2 x j 1- Rj x j
其中的 VIFj 是变量 X j 的方差扩大因子 1 (Variance Inflation Factor),即 VIFj = 2 1R j 其中 R 2 是多个解释变量辅助回归的可决系数 j
经验规则
●方差膨胀因子越大,表明解释变量之间的多重共 性越严重。反过来,方差膨胀因子越接近于1,
多重共线性越弱。
注意: 完全共线性的情况并不多见,一般出现 的是在一定程度上的共线性,即近似共线 性。
二、实际经济问题中的多重共线性
一般地,产生多重共线性的主要原因有以下 三个方面:
(1)经济变量相关的共同趋势
时间序列样本:经济繁荣时期,各基本经济 变量(收入、消费、投资、价格)都趋于增长; 衰退时期,又同时趋于下降。 横截面数据:生产函数中,资本投入与劳动 力投入往往出现高度相关情况,大企业二者都大, 小企业都小。
②横截面数据与时序数据并用
首先利用横截面数据估计出部分参数,再利用
时序数据估计出另外的部分参数,最后得到整 个方程参数的估计。 注意:这里包含着假设,即参数的横截面估计和 从纯粹时间序列分析中得到的估计是一样的。
③变量变换
变量变换的主要方法:
(1)计算相对指标
(2)将名义数据转换为实际数据
(3)将小类指标合并成大类指标
找出引起多重共线性的解释变量,将它排除出 去。
以逐步回归法(stepwise)得到最广泛的应用。
•
注意:
这时,剩余解释变量参数的经济含义和数值都 发生了变化。
2、第二类方法:差分法
时间序列数据、线性模型:将原模型变换为 差分模型:
Yi=1 X1i+2 X2i++k Xki+ i
具体可进一步对上述回归方程作F检验:
构造如下F统计量
Fj R2 j . /( k 2) (1 R ) /(n k 1)
2 j.
~ F (k 2, n k 1)
式中:Rj•2为第j个解释变量对其他解释变量的回
归方程的决定系数,
若存在较强的共线性,则Rj•2较大且接近于1,这
( 3 )严重多重共线时 , 假设检验容易做出错误的 判断 ( 4 )当多重共线性严重时 , 可能造成可决系数 R2
较高经F检验的参数联合显著性也很高,但对各
个参数单独的 t检验却可能不显著,甚至可能使
估计的回归系数相反,得出完全错误的结论 。
变量的显著性检验失去意义
存在多重共线性时 参数估计值的方差与标准差变大
求出X1与X2的简单相关系数r,若|r|接近1,则说 明两变量存在较强的多重共线性。
(2)对多个解释变量的模型,采用综合统计检验法 若 在OLS法下:R2与F值较大,但t检验值较小, 说明各解释变量对Y的联合线性作用显著,但各解 释变量间存在共线性而使得它们对Y的独立作用不 能分辨,故t检验不显著。
由表中的比值可以直观地看到,增量的 线性关系弱于总量之间的线性关系。
进一步分析: Y与C(-1)之间的判定系数为0.9988, △Y与△C(-1)之间的判定系数为 0.9567
3、第三类方法:减小参数估计量的方差 多重共线性的主要后果是参数估计量具 有较大的方差,所以 采取适当方法减小参数估计量的方差, 虽然没有消除模型中的多重共线性,但确 能消除多重共线性造成的后果。 例如: ①增加样本容量,可使参数估计量的方 差减小。
二、多重共线性的后果
1、完全共线性情况下的后果 (1) 完全共线性下参数估计量不存在 (2) 参数估计量的方差无限大
2、不完全多重共线性产生的后果