多重共线性问题的几种解决方法
多元回归分析中的多重共线性及其解决方法

多元回归分析中的多重共线性及其解决方法在多元回归分析中,多重共线性是一个常见的问题,特别是在自变量之间存在高度相关性的情况下。
多重共线性指的是自变量之间存在线性相关性,这会造成回归模型的稳定性和可靠性下降,使得解释变量的效果难以准确估计。
本文将介绍多重共线性的原因及其解决方法。
一、多重共线性的原因多重共线性常常发生在自变量之间存在高度相关性的情况下,其主要原因有以下几点:1. 样本数据的问题:样本数据中可能存在过多的冗余信息,或者样本数据的分布不均匀,导致变量之间的相关性增加。
2. 选择自变量的问题:在构建回归模型时,选择了过多具有相似解释作用的自变量,这会增加自变量之间的相关性。
3. 数据采集的问题:数据采集过程中可能存在误差或者不完整数据,导致变量之间的相关性增加。
二、多重共线性的影响多重共线性会对多元回归模型的解释变量产生不良影响,主要表现在以下几个方面:1. 回归系数的不稳定性:多重共线性使得回归系数的估计不稳定,难以准确反映各个自变量对因变量的影响。
2. 系数估计值的无效性:多重共线性会导致回归系数估计偏离其真实值,使得对因变量的解释变得不可靠。
3. 预测的不准确性:多重共线性使得模型的解释能力下降,导致对未知数据的预测不准确。
三、多重共线性的解决方法针对多重共线性问题,我们可以采取以下几种方法来解决:1. 剔除相关变量:通过计算自变量之间的相关系数,发现高度相关的变量,选择其中一个作为代表,将其他相关变量剔除。
2. 主成分分析:主成分分析是一种降维技术,可以通过线性变换将原始自变量转化为一组互不相关的主成分,从而降低多重共线性造成的影响。
3. 岭回归:岭回归是一种改良的最小二乘法估计方法,通过在回归模型中加入一个惩罚项,使得回归系数的估计更加稳定。
4. 方差膨胀因子(VIF):VIF可以用来检测自变量之间的相关性程度,若某个自变量的VIF值大于10,则表明该自变量存在较高的共线性,需要进行处理。
§74消除多重共线性的方法

二、对如下一些情况,多重共线性可不作处理
1、当所有参数估计量皆显著或者t值皆远大于2时。
2、当因变量对所有自变量回归的拟合优度值大于缺
任何一个自变量对其余自变量回归的拟合优度
R
2 j
时,可对多重共线性不作处理。
3、如果样本回归方程仅用于预测的目的,那么只要 存在于给定样本中的共线现象在预测期保持不变 ,多重共线性不会影响预测结果。
九、逐步回归法(Frisch综合分析法)
步骤如下: 第一步 用被解释变量对每一个所考虑的解释变量做
简单回归。然后,根据统计检验的结果,选出最优 简单回归方程,称为基本回归方程。 第二步 将其余的解释变量逐步加入到基本回归方程 中,建立一系列回归方程,然后按下列标准来判断 加入的变量。
(1)若新加入的变量提高了可决系数,且回归参 数在经济理论上和统计检验上也合理,便认为此 变量是有利变量,予以接纳。
4、如果多重共线性并不严重影响参数估计值,以至 于我们不需要改进它时。
三. 利用非样本先验信息
通过经济理论分析能够得到某些参数之间 的关系,可以将这种关系作为约束条件, 将此约束条件和样本信息结合起来进行约 束最小二乘估计。
例如:生产函数中劳力和资本的弹性系数之 和为1.
四、 变换模型形式
有些经济模型并不要分析每个解释变量对 被解释变量的影响,因此可根据经济理论 或实际经验将原模型作某些变换会改变定 量形式,从而避免或减少共线性。
来估计β,这种估计参数的方法,称为岭回
归估计法,为岭回归系数。
• 在岭回归分析中关键问题是如何选择λ值, 迄今为止,已有十余种选择λ值的方法,但 没有一种方法被证明显著地优于其它方法。
• 岭回归方法是70年代以后发展起来的,在计 量经济学中还是新方法,无论方法本身还是 实际应用都还很不完善。
4.4 多重共线性的补救措施

• 如果模型出现了严重的多重共线性,就应采取 必要的措施进行补救。然而,由于经济系统的 复杂性,要将多重共线性消除干净几乎是不可 能的,只能选择合适的方法减弱多重共线性对 模型的影响。目前,常用的方法有以下几种: • 一、增加样本容量
• 在计量经济模型中,如果变量样本数据太少,很 容易产生多重共线性。在这种情况下,增加样本容量, 将有助于减弱,甚至消除多重共线性。
• 本章实例参见教材P85~P88.
8
3
三、逐步回归法
• 1.目的:寻找最优回归方程——使R2较 大,F显著;每个回归系数显著 • 2.种类 • (1)逐个剔除法 • (2)逐个引入法 • (3)有进有出法 • 3.准则:一次只能引入或剔除一个自变 量,直至模型中所有自变量均显著 4
• 4、基本做法:
将应变量 Y 的每一个解释变量Xi (i=1,2, …,k)分别进行回归,对每一个回归方程根据 经济理论和统计检验进行综合分析判断,从中挑出一 个最优的基本回归方程,在此基础上,再逐一引入其 它解释变量,重新作回归,逐步扩大模型的规模,直 至从综合情况看,出现最好的模型估计形式。 5、变量取舍标准:在引进新解释变量的回归方程中: (1)如果新解释变量在符合经济意义的前提下,能使 拟合优度R2有所提高,并且,每个参数统计检验显著, 则采纳改变量。 (2)如果新解释变量不能改善拟合优度,同时,对 其它参数无明显影响,则可舍弃该变量。 (3)如果新解释变量能使拟合优度有所改善, R2 有所提高,但对其它参数的符号和数值有明显影响, 统计检验也不显著,则可以断定新解两个变量中,舍去 对应变量影响较小,经济意义相对次要的一个,保留 影响较大,经济意义相对重要的一个。 5
五、将时间序列数据与界面数据相结合
多重共线性问题的几种解决方法

多重共线性问题的几种解决方法在多元线性回归模型经典假设中,其重要假定之一是回归模型的解释变量之间不存在线性关系,也就是说,解释变量X1,X2,……,X k中的任何一个都不能是其他解释变量的线性组合。
如果违背这一假定,即线性回归模型中某一个解释变量与其他解释变量间存在线性关系,就称线性回归模型中存在多重共线性。
多重共线性违背了解释变量间不相关的古典假设,将给普通最小二乘法带来严重后果。
这里,我们总结了8个处理多重共线性问题的可用方法,大家在遇到多重共线性问题时可作参考:1、保留重要解释变量,去掉次要或可替代解释变量2、用相对数变量替代绝对数变量3、差分法4、逐步回归分析5、主成份分析6、偏最小二乘回归7、岭回归8、增加样本容量这次我们主要研究逐步回归分析方法是如何处理多重共线性问题的。
逐步回归分析方法的基本思想是通过相关系数r、拟合优度R2和标准误差三个方面综合判断一系列回归方程的优劣,从而得到最优回归方程。
具体方法分为两步:第一步,先将被解释变量y对每个解释变量作简单回归:对每一个回归方程进行统计检验分析(相关系数r、拟合优度R2和标准误差),并结合经济理论分析选出最优回归方程,也称为基本回归方程。
第二步,将其他解释变量逐一引入到基本回归方程中,建立一系列回归方程,根据每个新加的解释变量的标准差和复相关系数来考察其对每个回归系数的影响,一般根据如下标准进行分类判别:1.如果新引进的解释变量使R2得到提高,而其他参数回归系数在统计上和经济理论上仍然合理,则认为这个新引入的变量对回归模型是有利的,可以作为解释变量予以保留。
2.如果新引进的解释变量对R2改进不明显,对其他回归系数也没有多大影响,则不必保留在回归模型中。
3.如果新引进的解释变量不仅改变了R2,而且对其他回归系数的数值或符号具有明显影响,则认为该解释变量为不利变量,引进后会使回归模型出现多重共线性问题。
不利变量未必是多余的,如果它可能对被解释变量是不可缺少的,则不能简单舍弃,而是应研究改善模型的形式,寻找更符合实际的模型,重新进行估计。
回归分析中的多重共线性问题及解决方法(七)

回归分析是统计学中常用的一种方法,它用于研究自变量和因变量之间的关系。
然而,在实际应用中,经常会遇到多重共线性的问题,这给回归分析带来了一定的困难。
本文将讨论回归分析中的多重共线性问题及解决方法。
多重共线性是指独立自变量之间存在高度相关性的情况。
在回归分析中,当自变量之间存在多重共线性时,会导致回归系数估计不准确,标准误差增大,对因变量的预测能力降低,模型的解释能力受到影响。
因此,多重共线性是回归分析中需要重点关注和解决的问题之一。
解决多重共线性问题的方法有很多种,下面将介绍几种常用的方法。
一、增加样本量增加样本量是解决多重共线性问题的一种方法。
当样本量足够大时,即使自变量之间存在一定的相关性,也能够得到较为稳健的回归系数估计。
因此,可以通过增加样本量来减轻多重共线性对回归分析的影响。
二、使用主成分回归分析主成分回归分析是一种常用的处理多重共线性问题的方法。
主成分回归分析通过将原始自变量进行线性变换,得到一组新的主成分变量,这些主成分变量之间不存在相关性,从而避免了多重共线性问题。
然后,利用这些主成分变量进行回归分析,可以得到更为准确稳健的回归系数估计。
三、岭回归岭回归是一种经典的解决多重共线性问题的方法。
岭回归通过对回归系数施加惩罚项,从而减小回归系数的估计值,进而降低多重共线性对回归分析的影响。
岭回归的思想是在最小二乘估计的基础上加上一个惩罚项,通过调节惩罚项的系数来平衡拟合优度和模型的复杂度,从而得到更为稳健的回归系数估计。
四、逐步回归逐步回归是一种逐步选择自变量的方法,可以用来解决多重共线性问题。
逐步回归可以通过逐步引入或剔除自变量的方式,来得到一组最优的自变量组合,从而避免了多重共线性对回归系数估计的影响。
以上所述的方法都可以用来解决回归分析中的多重共线性问题。
在实际应用中,应该根据具体的情况选择合适的方法来处理多重共线性问题,从而得到准确可靠的回归分析结果。
总之,多重共线性是回归分析中需要重点关注的问题,通过合适的方法来处理多重共线性问题,可以得到更为准确稳健的回归系数估计,从而提高回归分析的预测能力和解释能力。
多重共线性解决方法

多重共线性解决方法
多重共线性是指在回归模型中,自变量之间存在高度相关性的情况,这会导致模型的解释能力下降,系数估计不准确,模型的稳定性受到影响。
以下是一些解决多重共线性问题的方法:
1.增加样本量:通过增加样本量可以减少模型中的抽样误差,从而减轻多重共线性的影响。
2.删除冗余变量:通过剔除高度相关的自变量,可以降低共线性的程度。
可以使用相关性矩阵或者变量膨胀因子(VIF)来判断哪些自变量之间存在高相关性,并选择保留一个或几个相关性较为弱的变量。
3.主成分分析(PCA):主成分分析可以将高度相关的自变量转换成一组无关的主成分,从而降低共线性的影响。
可以选择保留其中的几个主成分作为新的自变量,代替原始的自变量。
4.岭回归(Ridge Regression):岭回归是在普通最小二乘法的基础上加入一个正则化项,通过缩小系数估计的幅度,减少共线性对系数估计的影响。
岭回归可以通过交叉验证选择合适的正则化参数。
5.套索回归(Lasso Regression):套索回归也是在普通最小二乘法的基础上加入一个正则化项,不同的是套索回归使用L1范数作为正则化项,可以将一些系
数估计缩减为零,从而实现变量选择的效果。
6.弹性网回归(Elastic Net Regression):弹性网回归是岭回归和套索回归的结合,同时使用L1和L2范数作为正则化项,可以在预测准确性和变量选择之间进行权衡。
以上方法可以根据具体问题的特点和需求选择合适的方法来解决多重共线性问题。
如何进行多重共线性的剔除变量和合并变量处理

如何进行多重共线性的剔除变量和合并变量处理在进行统计分析时,研究人员常常会面临多重共线性的问题。
多重共线性是指自变量之间存在高度相关性,这可能会导致回归模型的不准确性和不可靠性。
为了解决多重共线性问题,研究人员可以采取剔除变量和合并变量的处理方法。
1. 多重共线性的检测在进行多重共线性的处理之前,首先需要进行多重共线性的检测。
常用的方法包括计算变量间的相关系数矩阵、方差膨胀因子和特征值等。
当相关系数矩阵中存在高度相关的变量对,方差膨胀因子大于10或特征值接近于0时,便可以判断存在多重共线性的问题。
2. 剔除变量剔除变量是指在多重共线性问题较为严重的情况下,研究人员可以选择将相关性较高的变量从模型中剔除。
剔除变量的方法包括:(1)选择与因变量关系较弱的变量;(2)选择与其他自变量之间相关性较弱的变量;(3)通过逐步回归、岭回归等方法进行变量选择。
3. 合并变量合并变量是指将多个具有相关性的变量合并成一个新的变量。
合并变量的方法包括:(1)计算多个变量的平均值、加权平均值或标准化值作为新的变量;(2)进行主成分分析,提取主成分作为新的变量;(3)进行因子分析,提取公因子作为新的变量。
4. 多重共线性处理的注意事项在进行多重共线性处理时,还需要注意以下几点:(1)根据研究目的和背景知识选择要剔除或合并的变量;(2)确保剔除或合并后的变量仍能保持原有变量的信息;(3)在剔除或合并变量后重新评估回归模型的拟合程度和解释能力。
总结起来,解决多重共线性问题的方法包括剔除变量和合并变量。
通过合理选择要剔除或合并的变量,并进行适当的处理,可以提高回归模型的准确性和可靠性。
在实际应用中,根据研究目的和数据特点来选择合适的方法进行多重共线性处理,从而得到更可靠的统计分析结果。
第四章第四节 多重共线性的补救措施

其中, Yt 为商品的消费量, X 2t 为商品的价格,X3t 为消费者收入,若通过抽样调查得到截面数据从而
求得消费者收入的边际消费倾向估计量 ˆ3 ,则上式
变为:
Yt ˆ3 X3t 1 2 X2t ut
令 Yt* Yt ˆ3X3t ,则 Yt* 1 2 X 2t ut
如果原模型(4.4.13)式存在严重的多重共 线性,那么一般情况下,经过差分变换后 会对减轻或消除多重共线性。但是在对一 阶差分式的估计中极有可能会出现 ut 序 列相关的问题,将不满足高斯-马尔可夫 定理(古典假设)。所以,一般情况下, 差分形式应慎用。
五、逐步回归法
基本做法:1.将被解释变量Y对每一个解 释变量 Xi (i 1,2,, k) 分别进行回归,对每一个 回归方程根据经济理论和统计检验进行综合分 析判断,从中挑选出一个最优的基本回归方程。 2.在此基础上,再逐一引入其他解释变量,重 新作回归,逐步扩大模型的规模,直至从综合 情况看出现最好的模型估计形式。
但是劳动力的增长同资本的增长随时间的变换呈高
度相关。如果已知规模报酬不变,即 1 ,则 生产函数变为:
Qt
ALt
K
1 t
从而有:
ห้องสมุดไป่ตู้
Qt Kt
A( Lt ) Kt
Qt
Lt
其中 Kt 为资本产出率, Kt 为劳动对资本的
投入率。将上式两边去对数得:
ln( Qt ) ln A ln( Lt )
1
* 2
X 3t X 2t
ut
可回避原模型的多重共线性。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
多重共线性问题的几种解决方法
在多元线性回归模型经典假设中,其重要假定之一是回归模型的解释
变量之间不存在线性关系,也就是说,解释变量X
1,X
2
,……,X
k
中的任何一个
都不能是其他解释变量的线性组合。
如果违背这一假定,即线性回归模型中某一个解释变量与其他解释变量间存在线性关系,就称线性回归模型中存在多重共线性。
多重共线性违背了解释变量间不相关的古典假设,将给普通最小二乘法带来严重后果。
这里,我们总结了8个处理多重共线性问题的可用方法,大家在遇到多重共线性问题时可作参考:
1、保留重要解释变量,去掉次要或可替代解释变量
2、用相对数变量替代绝对数变量
3、差分法
4、逐步回归分析
5、主成份分析
6、偏最小二乘回归
7、岭回归
8、增加样本容量
这次我们主要研究逐步回归分析方法是如何处理多重共线性问题的。
逐步回归分析方法的基本思想是通过相关系数r、拟合优度R2和标准误差三个方面综合判断一系列回归方程的优劣,从而得到最优回归方程。
具体方法分为两步:
第一步,先将被解释变量y对每个解释变量作简单回归:
对每一个回归方程进行统计检验分析(相关系数r、拟合优度R2和标准误差),并结合经济理论分析选出最优回归方程,也称为基本回归方程。
第二步,将其他解释变量逐一引入到基本回归方程中,建立一系列回归方程,根据每个新加的解释变量的标准差和复相关系数来考察其对每个回归系数的影响,一般根据如下标准进行分类判别:
1.如果新引进的解释变量使R2得到提高,而其他参数回归系数在统计上和经济理论上仍然合理,则认为这个新引入的变量对回归模型是有利的,可以作为解释变量予以保留。
2.如果新引进的解释变量对R2改进不明显,对其他回归系数也没有多大影响,则不必保留在回归模型中。
3.如果新引进的解释变量不仅改变了R2,而且对其他回归系数的数值或符号具有明显影响,则认为该解释变量为不利变量,引进后会使回归模型出现多重共线性问题。
不利变量未必是多余的,如果它可能对被解释变量是不可缺少的,则不能简单舍弃,而是应研究改善模型的形式,寻找更符合实际的模型,重新进行估计。
如果通过检验证明回归模型存在明显线性相关的两个解释变量中的其中一个可以被另一个很好地解释,则可略去其中对被解释变量影响较小的那个变量,模型中保留影响较大的那个变量。
下边我们通过实例来说明逐步回归分析方法在解决多重共线性问题上的具体应用过程。
具体实例
例1设某地10年间有关服装消费、可支配收入、流动资产、服装类物价指数、总物价指数的调查数据如表1,请建立需求函数模型。
表1 服装消费及相关变量调查数据
1990 10.4 99.9 25.1 96 97 1991 11.4 105.3 29.0 94 97 1992 12.2 117.7 34.0 100 100 1993 14.2 131.0 40.0 101 101 1994 15.8 148.2 44.0 105 104 1995 17.9 161.8 49.0 112 109 1996 19.3 174.2 51.0 112 111 1997 20.8 184.7 53.0 112 111
(1)设对服装的需求函数为
用最小二乘法估计得估计模型:
模型的检验量得分,R2=0.998,D·W=3.383,F=626.4634
R2接近1,说明该回归模型与原始数据拟合得很好。
由
得出拒绝零假设,认为服装支出与解释变量间存在显著关系。
(2)求各解释变量的基本相关系数
上述基本相关系数表明解释变量间高度相关,也就是存在较严重的多重共线性。
(3)为检验多重共线性的影响,作如下简单回归:
各方程下边括号内的数字分别表示的是对应解释变量系数的t检验值。
观察以上四个方程,根据经济理论和统计检验(t检验值=41.937最大,拟合优度也最高),收入Y是最重要的解释变量,从而得出最优简单回归方程。
(4)将其余变量逐个引入,计算结果如下表2:
表2 服装消费模型的估计
结果分析:
①在最优简单回归方程中引入变量Pc,使R2由0.9955提高到
0.9957;根据经济理论分析,正号,负号是合理的。
然而t检验不显著(),而从经济理论分析,Pc应该是重要因素。
虽
然Y与Pc高度相关,但并不影响收入Y回归系数的显著性和稳定性。
依照第1条判别标准,Pc可能是“有利变量”,暂时给予保留。
②模型中引入变量L,R2由0.9957提高到0.9959,值略有提高。
一方面,
虽然Y与L,Pc与L均高度相关,但是L的引入对回归系数、的影响不大(其中的值由0.1257变为0.1387,值由-0.0361变为-0.0345,变化很小);另一方面,根据经济理论的分析,L与服装支出C之间应该是正相关关系,即
的符号应该为正号而非负号,依照第2条判别标准,解释变量L不必保留在模型中。
③舍去变量L,加入变量P0,使R2由0.9957提高到0.9980,R2值改进较
大。
、、均显著(这三个回归系数的t检验值绝对值均大于
),从经济意义上看也是合理的(服装支出C与Y,P0之间呈正相关,而与服装价格Pc之间呈负相关关系)。
根据判别标准第1条,可以认为Pc、P0皆为“有利变量”,给予保留。
④最后再引入变量L,此时R2=0.9980没有增加(或几乎没有增加),新引入变量对其他三个解释变量的参数系数也没有产生多大影响,可以确定L是多余变量,根据判别标准第2条,解释变量L不必保留在模型中。
因此我们得到如下结论:回归模型为最优模型。
通过以上案例的分析,我们从理论和实际问题两方面具体了解了逐步回归分析是如何对多重共线性问题进行处理的。
事实上,一般统计软件如SPSS,在回
归模型的窗口中都会提供变量逐步进入的选项,勾选后实际上就是选择了运用逐步回归的思想来构建回归模型。
运用SPSS软件不需要我们懂得其背后的运行规律,然而作为分析师,了解并理解模型背后的理论知识,将更有助于我们理解模型、解释结论背后的内在含义,从而达到更好地分析问题的目的。