优势分析:在多元回归中比较预测因子相对重要性的新方法-PPT课件
合集下载
优势分析:在多元回归中比较预测因子相对重要性的新方法共28页文档

在使用多元回归的过程中,研究者不仅要得 出一个包含多个自变量的回归等式,而且要 指出哪个自变量相对来说是最重要的,这样 的结果实际应用中才更有意义。
在理想的情况下,各个自变量之间没有相关
(或者相关极小),那么
,
因为各个回归系数都是标准化的,其相对重要 性就是标准化回归系数的平方。
大多数情况下,各个自变量之间存在着不可 忽略的相关,这个时候重要性的比较就不能 简单地从标准化回归系数得出。对此,不同
2、不同定义之间难以相容,无法比较、交流研 究结果,甚至根据不同的定义得出结论完全不 同。
3、很高的模型依赖性,在不同的子模型中得出 相对重要性的结论可能完全不一样,所以重要 性的检验应该在全模型和子模型中结论一致。
4、重要性的比较应该是“净”的,如果变量之 间高度相关,根本不可分,更无法比较分离出 的重要性,那么此时重要性的比较就没有任何 意义,所以应该首先区分可以比较和不能比较 相对重要性的模型。
3.2.3某自变量的重要性可量化为其与因变量的相 关的平方,由于自变量之间的相关,所以:
即把各自变量的标准化回归系数平方中与要考察 变量相关的部分提出来相加,即乘以其与要考 察自变量之间的相关系数。
上述方法的缺陷
1、对于重要性的定义过于狭窄、模糊甚至有问 题,限制过于严格,与人们实际应用相距太远。
表:样本中的相关矩阵和多元回归系数平方值的 向量。
表6呈现了三对预测变量相比较的95%渐进置信区间值。判断的标准是 如果某对相比较差值的置信区间的下限都为非负的,那么xi D xj ;如 果某对比较的置信区间的上限都为非正的,那么和 xj D xi ,如果某对 比较的置信区间跨过零点,那么它们的优势关系无法确定。
优势分析的质的定义 优势是成对的关系,如果全模型包括p个自
在理想的情况下,各个自变量之间没有相关
(或者相关极小),那么
,
因为各个回归系数都是标准化的,其相对重要 性就是标准化回归系数的平方。
大多数情况下,各个自变量之间存在着不可 忽略的相关,这个时候重要性的比较就不能 简单地从标准化回归系数得出。对此,不同
2、不同定义之间难以相容,无法比较、交流研 究结果,甚至根据不同的定义得出结论完全不 同。
3、很高的模型依赖性,在不同的子模型中得出 相对重要性的结论可能完全不一样,所以重要 性的检验应该在全模型和子模型中结论一致。
4、重要性的比较应该是“净”的,如果变量之 间高度相关,根本不可分,更无法比较分离出 的重要性,那么此时重要性的比较就没有任何 意义,所以应该首先区分可以比较和不能比较 相对重要性的模型。
3.2.3某自变量的重要性可量化为其与因变量的相 关的平方,由于自变量之间的相关,所以:
即把各自变量的标准化回归系数平方中与要考察 变量相关的部分提出来相加,即乘以其与要考 察自变量之间的相关系数。
上述方法的缺陷
1、对于重要性的定义过于狭窄、模糊甚至有问 题,限制过于严格,与人们实际应用相距太远。
表:样本中的相关矩阵和多元回归系数平方值的 向量。
表6呈现了三对预测变量相比较的95%渐进置信区间值。判断的标准是 如果某对相比较差值的置信区间的下限都为非负的,那么xi D xj ;如 果某对比较的置信区间的上限都为非正的,那么和 xj D xi ,如果某对 比较的置信区间跨过零点,那么它们的优势关系无法确定。
优势分析的质的定义 优势是成对的关系,如果全模型包括p个自
最新文档-第6讲 多元线性回归分析-PPT精品文档

1. 线性关系检验通过后,对各个回归系数有选择地 进行一次或多次检验
2. 究竟要对哪几个回归系数进行检验,通常需要在 建立模型之前作出决定
3. 对回归系数检验的个数进行限制,以避免犯过多 的第一类错误(弃真错误)
4. 对每一个自变量都要单独进行检验
5. 应用 t 检验统计量
模型的统计检验
我们研究的模型是:Y= 0+ 1X1+ 2X2+u 1.参数估计值的分布
(ii)计算 t 统计量
j=0
j=0,1,2
(iii)给定显著性水平 ,查自由度为n-3的t分布表, 得到临界值
t (n3) 2
(iv)判断:
t (a)若 | t | >
(n3)
2
则在1- 水平下拒绝原假设H0 ,即 j对应的变量xj是
显著的;
t (b)若 | t | <
(n3)
系数 。
(3)校正的判定系数即用自由度进行平均,用 “单位”拟合误差进行比较,从而提高了可比性。
(4)虽然非校正的判定系数总为正数,但校正 的判定系数可能为负数。
• 我们很容易可以得到 调整的R2 ,
• (1 – R2)(n – 1) / (n – k – 1), • 大部分的软件会同时给出 R2 和 调整的R2。 • 可以通过比较调整的R2 来比较两个模型(同一个
2 1 i
2 2 i 1 i 2 i2
1
2 ]
V( aˆr ) 1
x 2[
u
2
x x ( xx) 1 i
2
2 i
2 2 i1 i
2] 2 i
V( aˆr ) 2
x 2[
2. 究竟要对哪几个回归系数进行检验,通常需要在 建立模型之前作出决定
3. 对回归系数检验的个数进行限制,以避免犯过多 的第一类错误(弃真错误)
4. 对每一个自变量都要单独进行检验
5. 应用 t 检验统计量
模型的统计检验
我们研究的模型是:Y= 0+ 1X1+ 2X2+u 1.参数估计值的分布
(ii)计算 t 统计量
j=0
j=0,1,2
(iii)给定显著性水平 ,查自由度为n-3的t分布表, 得到临界值
t (n3) 2
(iv)判断:
t (a)若 | t | >
(n3)
2
则在1- 水平下拒绝原假设H0 ,即 j对应的变量xj是
显著的;
t (b)若 | t | <
(n3)
系数 。
(3)校正的判定系数即用自由度进行平均,用 “单位”拟合误差进行比较,从而提高了可比性。
(4)虽然非校正的判定系数总为正数,但校正 的判定系数可能为负数。
• 我们很容易可以得到 调整的R2 ,
• (1 – R2)(n – 1) / (n – k – 1), • 大部分的软件会同时给出 R2 和 调整的R2。 • 可以通过比较调整的R2 来比较两个模型(同一个
2 1 i
2 2 i 1 i 2 i2
1
2 ]
V( aˆr ) 1
x 2[
u
2
x x ( xx) 1 i
2
2 i
2 2 i1 i
2] 2 i
V( aˆr ) 2
x 2[
《多元回归》PPT课件 (2)

2
固定资产投资额x4
Stepwise(Criteria:Probability-ofF-to-enter<=.050,
a Dependent variable:不良贷款y
Probability-of-F-to-remove<=.100.
逐步回归
(例题分析—SPSS输出结果)
model 1
Model summary
1.8428
逐步回归
(例题分析—SPSS输出结果)
ANOVA c
model
Sum of Squares
df
Mean Square
F
Sig.
1 Regress 222.486 Residual 90.164 Total 312.650
1
222.486 56.754 .000a
23
3.920
24
2 Regress Residual Total
▪ b1,b2,,bk称为偏回归系数 ▪ bi 表示假定其他变量不变,当 xi 每变动一
个单位时,y 的平均变动值
二元回归方程的直观解释
二元线性回归模型
回归面
x1
y
y b0 b1x1 b2x2
(观察到的y)
b0
}i
x2
(x1,x2)
E( y) b0 b1x1 b2x2
6.3.2 多元回归模型的估计
▪ 估bˆ计0 值, bˆ1 , bˆ2 ,是 , bˆk
▪ 是 y 的估计值
yˆ
b0 , b1 , b2 ,, bk
参数的最小二乘法
1. 使因变量的观察值与估计值之间的离差平方和 达到最小来求得 bˆ0 , bˆ1 , bˆ2 ,, bˆk 。即
多元线性回归预测法ppt课件

三、多元回归模型的检验
1. 复相关系数检验 检验线性关系密切程度的指标称为相关系数,在多元回 归模型中,由于自变量在两个以上,所以称为复相关系数. 样本复相关系数的计算公式是
2 2 ˆ ˆ y y y y i R 1 i i 2 2 y y y y i i i
(4-32)
复相关系数检验的步骤为:
第一步,计算复相关系数
二元回归方程复相关系数的计算常用其简捷公式
ˆ y ˆ x ˆ x y y y R 1 y n y
2 i 1 i 2 2 i i 1i 2 3 i 2i
(4-33)
三元回归方程R计算常用其简捷公式
x x
i 1 i 1 n
n
x
i 1 n
i1 2 i1
x
n
i2
(4-25)
i1 i 2
x
n yi ni1 ˆ 1 xi1 yi 0 A i1 n xi 2 yi i1
xi1 x
i 1 i 1 n
n
x
i1
i 1 n
2 i1
2
。
第五步,判断。若
,则回归系数 ˆ j与零 |tj | t n p
2
有显著差异,必须保留 x j 在原回归方程中,否则应 去掉 x j 重新建立回归方程。
5.自相关检验—DW检验
(1)DW检验
DW
2 e e i i 1 i 1 n
e
i 1
n
2 i
(4-46)
定义一个校正R2,记为 R 2
2 ˆ y y /( n p ) i i 2 R 1 2 y y /( n 1 ) i
优势分析:在多元回归中比较预测因子相对重要性的新方法-PPT课件

优势分析的质的定义 优势是成对的关系,如果全模型包括p个自 变量,那么就有p(p-1)/2对优势的比较; 确定 和 优势关系的充分必要条件是:
பைடு நூலகம்
代表除要比较的两个自变量之外的 其他自变量所构成的任何子集(包括空 集)。
优势分析定义的变式:
一个变量比另一个变量重要即它在任何子模型 中对因变量的预测能力都大于另一个。
表4表示的是一个p=3的例子的计算。这个表呈现了向量p, 三个矩阵的比较, A12、A13和 A23,即分别比较了x1和 x2、x1和 x3 、x2和 x3 ,以及向量Δ 12 、Δ 13 、 Δ 23之间的不同。
对于小样本模型还没有很好的精简的推理方法,只有一个 近似的解决方法,即去“jacknife”那个估计值。这种方法大致过 程是:每次都忽略一个观测值,这样我们就可以得到n个对所有 相关的多元相关系数平方值的伪独立估计,通过对方差——协 方差矩阵的估计,我们就可以得到近似的置信区间。 对大样本进行优势分析,我们可以用一个例子来说明。我 们用社会经济地位(SES)、IQ和成就动机(nAch)来预测大学 的GPA成绩。如图:
即把各自变量的标准化回归系数平方中与要考察 变量相关的部分提出来相加,即乘以其与要考 察自变量之间的相关系数。
上述方法的缺陷 1、对于重要性的定义过于狭窄、模糊甚至有问 题,限制过于严格,与人们实际应用相距太远。 2、不同定义之间难以相容,无法比较、交流研 究结果,甚至根据不同的定义得出结论完全不 同。 3、很高的模型依赖性,在不同的子模型中得出 相对重要性的结论可能完全不一样,所以重要 性的检验应该在全模型和子模型中结论一致。 4、重要性的比较应该是“净”的,如果变量之 间高度相关,根本不可分,更无法比较分离出 的重要性,那么此时重要性的比较就没有任何 意义,所以应该首先区分可以比较和不能比较 相对重要性的模型。
第四讲多元回归分析(共72张PPT)

第四讲多元回归分析?多元线性回归分析逐步回归分析?逐步回归分析定性指标的相关分析?多对多的回归分析第一节多元线性回归分析?回归分析概论?回归分析的功能及涵义?回归分析的研究思路和步骤?回归分析的内容体系?多元线性回归模型?模型中参数的估计?回归方程以及回归系数的显著性检验?回归模型的变量子集合的选择回归变量的选择回归分析概论?回归分析的功能及涵义?回归分析是研究一个变量即应变量或多个变量对于一个或多个其他变量即解释变量的依存关系并用数学模型加以模拟目的在于根据已知的或在多次重复抽样中固定的解释变量之值估计预测因变量的总体平均值
引入或剔除变量的依据
• 依据是偏回归平方和 逐步回归分析是按照各自变量对因
变量作用显著程度大小来决定其是否引 入还是剔除。用于衡量各自变量对因变 量作用大小的量是它们对因变量的“贡 献”,即偏回归平方和。
逐步回归方程的矩阵变换计算法
计算量大,且由于某个因子的引入使变得不显著的其他因子仍然留在方程中。 “逐步引入法”(原理、局限性) 建立“最优”回归方程的方法 属于多元统计分析方法之一。 利用回归方程进行预测。 对回归方程、参数估计值进行显著性检验。 从一个因子开始,逐个引入回归方程,因子引入后概不剔除。 回归分析的研究思路和步骤 回归分析方法又称因素分析方法、经济计量模型方法。 利用回归方程进行预测。
回归模型的变量子集合的选择(回 归变量的选择)
第二节 逐步回归分析
• 逐步回归分析的原理 • 引入或剔除变量的依据 • 逐步回归方程的矩阵变换计算法 • 具体实例以及计算步骤 • 计算机软件应用举例
逐步回归分析的原理
“最优”回归方程的选择
所谓“最优”的含义:回归方程中包含所有对y影响比较显著 的变量,而不包括对y影响不显著的变量的回归方程。 必要性:用于预测、控制
引入或剔除变量的依据
• 依据是偏回归平方和 逐步回归分析是按照各自变量对因
变量作用显著程度大小来决定其是否引 入还是剔除。用于衡量各自变量对因变 量作用大小的量是它们对因变量的“贡 献”,即偏回归平方和。
逐步回归方程的矩阵变换计算法
计算量大,且由于某个因子的引入使变得不显著的其他因子仍然留在方程中。 “逐步引入法”(原理、局限性) 建立“最优”回归方程的方法 属于多元统计分析方法之一。 利用回归方程进行预测。 对回归方程、参数估计值进行显著性检验。 从一个因子开始,逐个引入回归方程,因子引入后概不剔除。 回归分析的研究思路和步骤 回归分析方法又称因素分析方法、经济计量模型方法。 利用回归方程进行预测。
回归模型的变量子集合的选择(回 归变量的选择)
第二节 逐步回归分析
• 逐步回归分析的原理 • 引入或剔除变量的依据 • 逐步回归方程的矩阵变换计算法 • 具体实例以及计算步骤 • 计算机软件应用举例
逐步回归分析的原理
“最优”回归方程的选择
所谓“最优”的含义:回归方程中包含所有对y影响比较显著 的变量,而不包括对y影响不显著的变量的回归方程。 必要性:用于预测、控制
多元线性回归分析(6)PPT课件

2020/11/13
第二章 多元线性回归分析
第一节 模型的假定
1
2020/11/13
准备知识:
❖ 矩阵的k阶子式 在mn矩阵A中 任取k行与k列(km kn) 位于这些行
列交叉处的k2个元素 不改变它们在A中所处的位置次 序而得的k阶行列式 称为矩阵A的k阶子式
A
1 2
1 1
2 1
1 1
4 2
2 3 1 1 2
3 6 9 7 9
D 13 1是1 A的 一个二阶子式
2
2020/11/13
矩阵的秩
设在矩阵A中有一个不等于0的r阶子式D 且所有r1阶子式(如果存在的 话)全等于0 那么D 称为矩阵A的最高阶非零子式 数r 称为矩阵A的秩 记作R(A) 并规定零矩阵的秩等于0
(1)若矩阵A中有某个s阶子式不为0 则R(A)s 若A中所有t阶子式全 为0 则R(A)t
多元线性回归中
Y ˆi=β ˆ1+β ˆ2X2i+β ˆ3X3i+ ...+β ˆkXki
决定系数可表示为
R2ESS (Y ˆi-Y)2TSS-RSS1- ei2
TSS (Yi-Y)2 TSS
yi2
32
决定系数的特点
如果模型中增加一个解释变量,决定系数往往是增大的。主要是因为
残差平方和RSS会随着解释变量个数的增加而减少。
(1 )( A T )T A ;
( 2 )( A B )T A T B T ;
( 3 )( kA )T kA T , k P ;
( 4 )( AB )T B T A T ;
( 5 )a 1
a 2 a n T
a1
a2
(
第二章 多元线性回归分析
第一节 模型的假定
1
2020/11/13
准备知识:
❖ 矩阵的k阶子式 在mn矩阵A中 任取k行与k列(km kn) 位于这些行
列交叉处的k2个元素 不改变它们在A中所处的位置次 序而得的k阶行列式 称为矩阵A的k阶子式
A
1 2
1 1
2 1
1 1
4 2
2 3 1 1 2
3 6 9 7 9
D 13 1是1 A的 一个二阶子式
2
2020/11/13
矩阵的秩
设在矩阵A中有一个不等于0的r阶子式D 且所有r1阶子式(如果存在的 话)全等于0 那么D 称为矩阵A的最高阶非零子式 数r 称为矩阵A的秩 记作R(A) 并规定零矩阵的秩等于0
(1)若矩阵A中有某个s阶子式不为0 则R(A)s 若A中所有t阶子式全 为0 则R(A)t
多元线性回归中
Y ˆi=β ˆ1+β ˆ2X2i+β ˆ3X3i+ ...+β ˆkXki
决定系数可表示为
R2ESS (Y ˆi-Y)2TSS-RSS1- ei2
TSS (Yi-Y)2 TSS
yi2
32
决定系数的特点
如果模型中增加一个解释变量,决定系数往往是增大的。主要是因为
残差平方和RSS会随着解释变量个数的增加而减少。
(1 )( A T )T A ;
( 2 )( A B )T A T B T ;
( 3 )( kA )T kA T , k P ;
( 4 )( AB )T B T A T ;
( 5 )a 1
a 2 a n T
a1
a2
(
回归分析法PPT课件

线性回归模型的参数估计
最小二乘法
通过最小化误差平方和的方法来估计 模型参数。
最大似然估计
通过最大化似然函数的方法来估计模 型参数。
参数估计的步骤
包括数据收集、模型设定、参数初值、 迭代计算等步骤。
参数估计的注意事项
包括异常值处理、多重共线性、自变 量间的交互作用等。
线性回归模型的假设检验
假设检验的基本原理
回归分析法的历史与发展
总结词
回归分析法自19世纪末诞生以来,经历 了多个发展阶段,不断完善和改进。
VS
详细描述
19世纪末,英国统计学家Francis Galton 在研究遗传学时提出了回归分析法的概念 。后来,统计学家R.A. Fisher对其进行了 改进和发展,提出了线性回归分析和方差 分析的方法。随着计算机技术的发展,回 归分析法的应用越来越广泛,并出现了多 种新的回归模型和技术,如多元回归、岭 回归、套索回归等。
回归分析法的应用场景
总结词
回归分析法广泛应用于各个领域,如经济学、金融学、生物学、医学等。
详细描述
在经济学中,回归分析法用于研究影响经济发展的各种因素,如GDP、消费、投资等;在金融学中,回归分析法 用于股票价格、收益率等金融变量的预测;在生物学和医学中,回归分析法用于研究疾病发生、药物疗效等因素 与结果之间的关系。
梯度下降法
基于目标函数对参数的偏导数, 通过不断更新参数值来最小化目 标函数,实现参数的迭代优化。
非线性回归模型的假设检验
1 2
模型检验
对非线性回归模型的适用性和有效性进行检验, 包括残差分析、正态性检验、异方差性检验等。
参数检验
通过t检验、z检验等方法对非线性回归模型的参 数进行假设检验,以验证参数的显著性和可信度。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
1、将自变量与因变量的零次相关 或平 方相关 作为评判自变量重要性的标准。 其对重要性的定义为一个自变量独特、 直接的预测能力,忽略模型中其他所有 的自变量。 2、由于不恰当地确定模型,无论是遗漏 了重要的自变量,或者将不重要的自变 量纳入到了模型中都会导致,模型的失 真,所以应该认为,能够纳入到一个恰 当模型中的所有自变量都是同等重要的。
数据实例:
BACK
计算和样本理论 根据优势方程的定义,对于要进行优势分析的每一对变量, 每一个变量都需要和其他许多偏模型进行多元相关系数平方的 比较。如果要包括所有的子模型,则一个变量要进行p(p-1)/2 个配对比较。因此,计算一次优势分析必须先计算出2p-1个 多元相关系数平方值。 让 p 表示所有子集的多元相关系数平方的(2p-1)× 1 向量,让 Aij 表示在进行 xi 和 xj 的对比时,与其有关进行对照 的2p-2个模型的(2p-2)×(2p -1)矩阵。 Δ ij= Aij p , Δ ij就是包括所有有关差异的一个(2p-1) × 1向量。
3、自变量的重要性应为某个自变量在控 制其他变量不变的情况下其对于完整模 型的贡献: 3.1增溢法:考察控制其他变量情况下, 某自变量变化一个单位,导致因变量变 化的比例。例如以某自变量的回归系数 与其数学期望乘积的绝对值作为检验标 准。形象的理解为自变量的弹性。
3.2方差法:在控制其他变量的情况下,比较 各自变量对于因变量方差贡献的大小 3.2.1由方差的可加性得:
优势分析:在多元回归中比较 预测因子相对重要性的新方法
在使用多元回归的过程中,研究者不仅要得 出一个包含多个自变量的回归等式,而且要 指出哪个自变量相对来说是最重要的,这样 的结果实际应用中才更有意义。 在理想的情况下,各个自变量之间没有相关 (或者相关极小),那么 , 因为各个回归系数都是标准化的,其相对重要 性就是标准化回归系数的平方。 大多数情况下,各个自变量之间存在着不可 忽略的相关,这个时候重要性的比较就不能 简单地从标准化回归系数得出。对此,不同
比较相对重要性应遵循的原则: 1、重要性应定义为自变量在预测因变量时 对于减少误差的贡献。 2、应该能够对自变量的相对重要性作直接 比较而非推断比较。 3、重要性应该能够反映直接效应(自变量 的单独效应)、总效应( 纳入其他所有 变量)、偏效应(纳入其他部分变量), 即要求重要性的结论在全模型与子模型 中保持一致。
即把各自变量的标准化回归系数平方中与要考察 变量相关的部分提出来相加,即乘以其与要考 察自变量之间的相关系数。
上述方法的缺陷 1、对于重要性的定义过于狭窄、模糊甚至有问 题,限制过于严格,与人们实际应用相距太远。 2、不同定义之间难以相容,无法比较、交流研 究结果,甚至根据不同的定义得出结论完全不 同。 3、很高的模型依赖性,在不同的子模型中得出 相对重要性的结论可能完全不一样,所以重要 性的检验应该在全模型和子模型中结论一致。 4、重要性的比较应该是“净”的,如果变量之 间高度相关,根本不可分,更无法比较分离出 的重要性,那么此时重要性的比较就没有任何 意义,所以应该首先区分可以比较和不能比较 相对重要性的模型。
优势分析的质的定义 优势是成对的关系,如果全模型包括p个自 变量,那么就有p(p-1)/2对优势的比较; 确定 和 优势关的 其他自变量所构成的任何子集(包括空 集)。
优势分析定义的变式:
一个变量比另一个变量重要即它在任何子模型 中对因变量的预测能力都大于另一个。
接着,我们再来看一个p=4的例子,用取得博士以后的年 限(x1) 、出版著作的多少(x2) 、性别(x3)和被引 用的频率(x4)来预测薪水(y) :
从表7和表8来看,我们可以得出:
由简单的相关系数我们可以得出:pyx1> pyx4 > pyx2 > pyx3 根据标准回归系数的排序我们可以得出: b1> b4 > b3 > b2 根据变量的有效性我们可以得出:U(x4)> U(x1)>U(x3)> U(x2)
表4表示的是一个p=3的例子的计算。这个表呈现了向量p, 三个矩阵的比较, A12、A13和 A23,即分别比较了x1和 x2、x1和 x3 、x2和 x3 ,以及向量Δ 12 、Δ 13 、 Δ 23之间的不同。
对于小样本模型还没有很好的精简的推理方法,只有一个 近似的解决方法,即去“jacknife”那个估计值。这种方法大致过 程是:每次都忽略一个观测值,这样我们就可以得到n个对所有 相关的多元相关系数平方值的伪独立估计,通过对方差——协 方差矩阵的估计,我们就可以得到近似的置信区间。 对大样本进行优势分析,我们可以用一个例子来说明。我 们用社会经济地位(SES)、IQ和成就动机(nAch)来预测大学 的GPA成绩。如图:
表:样本中的相关矩阵和多元回归系数平方值的 向量。
表6呈现了三对预测变量相比较的95%渐进置信区间值。判断的标准是 如果某对相比较差值的置信区间的下限都为非负的,那么xi D xj ;如 果某对比较的置信区间的上限都为非正的,那么和 xj D xi ,如果某对 比较的置信区间跨过零点,那么它们的优势关系无法确定。
即所有自变量对因变量的贡献可以分解为各个自 变量在控制其他自变量情况下对模型贡献,这 样的分解式有 个,而某个自变量的重要性即 为在 个分解式中它的贡献的平均值。 EG
3.2.2某自变量的重要性即为其它对因变量的直接 效应(与因变量的相关系数)与总效应(标准 回归系数)的乘积。
3.2.3某自变量的重要性可量化为其与因变量的相 关的平方,由于自变量之间的相关,所以:
优势分析的量化: 由两个自变量的比较推广到所有自变量的 同时比较时, 是除自身外的其他所有p1个变量构成的所有子集(包括空集),
表示在由k(0<=k<=p-1)个自变量构成 时,该自变量的单独贡献的平均值。将 其累加求平均数,即该自变量在所有子 模型下的贡献平均值。
EG:当有3个自变量时: