第八章SPSS线性回归

合集下载

SPSS多元线性回归分析实例操作步骤

SPSS多元线性回归分析实例操作步骤

SPSS多元线性回归分析实例操作步骤在数据分析领域,多元线性回归分析是一种强大且常用的工具,它能够帮助我们理解多个自变量与一个因变量之间的线性关系。

接下来,我将为您详细介绍使用 SPSS 进行多元线性回归分析的具体操作步骤。

首先,准备好您的数据。

数据应该以特定的格式整理,通常包括自变量和因变量的列。

确保数据的准确性和完整性,因为这将直接影响分析结果的可靠性。

打开 SPSS 软件,在菜单栏中选择“文件”,然后点击“打开”,找到您存放数据的文件并导入。

在导入数据后,点击“分析”菜单,选择“回归”,再点击“线性”。

这将打开多元线性回归的对话框。

在“线性回归”对话框中,将您的因变量拖放到“因变量”框中,将自变量拖放到“自变量”框中。

接下来,点击“统计”按钮。

在“统计”对话框中,您可以选择一些常用的统计量。

例如,勾选“估计”可以得到回归系数的估计值;勾选“置信区间”可以得到回归系数的置信区间;勾选“模型拟合度”可以评估模型的拟合效果等。

根据您的具体需求选择合适的统计量,然后点击“继续”。

再点击“图”按钮。

在这里,您可以选择生成一些有助于直观理解回归结果的图形。

比如,勾选“正态概率图”可以检查残差的正态性;勾选“残差图”可以观察残差的分布情况等。

选择完毕后点击“继续”。

然后点击“保存”按钮。

您可以选择保存预测值、残差等变量,以便后续进一步分析。

完成上述设置后,点击“确定”按钮,SPSS 将开始进行多元线性回归分析,并输出结果。

结果通常包括多个部分。

首先是模型摘要,它提供了一些关于模型拟合度的指标,如 R 方、调整 R 方等。

R 方表示自变量能够解释因变量变异的比例,越接近 1 说明模型拟合效果越好。

其次是方差分析表,用于检验整个回归模型是否显著。

如果对应的p 值小于给定的显著性水平(通常为 005),则说明模型是显著的。

最重要的是系数表,它给出了每个自变量的回归系数、标准误差、t 值和 p 值。

回归系数表示自变量对因变量的影响程度,p 值用于判断该系数是否显著不为 0。

线性回归—SPSS操作

线性回归—SPSS操作

线性回归(异方差的诊断、检验和修补)—SPSS操作首先拟合一般的线性回归模型,绘制残差散点图。

步骤和结果如下:为方便,只做简单的双变量回归模型,以当前工资作为因变量,初始工资作为自变量。

(你们自己做的时候可以考虑加入其他的自变量,比如受教育程度等等)Analyze——regression——linear将当前工资变量拉入dependent框,初始工资进入independent点击上图中的PLOTS,出现以下对话框:以标准化残差作为Y轴,标准化预测值作为X轴,点击continue,再点击OK第一个表格输出的是模型拟合优度2R,为。

调整后的拟合优度为.第二个是方差分析,可以说是模型整体的显着性检验。

F统计量为,P值远小于,故拒绝原假设,认为模型是显着的。

第三个是模型的系数,constant代表常数项,初始工资前的系数为,t检验的统计量为,通过P值,发现拒绝原假设,认为系数显着异于0。

以上是输出的残差对预测值的散点图,发现存在喇叭口形状,暗示着异方差的存在,故接下来进行诊断,一般需要诊断异方差是由哪个自变量引起的,由于这里我们只选用一个变量作为自变量,故认为异方差由唯一的自变量“初始工资”引起。

接下来做加权的最小二乘法,首先计算权数。

Analyze——regression——weight estimation再点击options,点击continue,再点击OK,输出如下结果:由于结果比较长,只贴出一部分,第二栏的值越大越好。

所以挑出来的权重变量的次数为。

得出最佳的权重侯,即可进行回归。

Analyze——regression——linear继续点击save,在上面两处打勾,点击continue,点击ok这是输出结果,和之前同样的分析方法。

接下需要绘制残差对预测值的散点图,首先通过transform里的compute计算考虑权重后的预测值和残差。

以上两个步骤后即可输出考虑权重后的预测值和残差值然后点击graph,绘制出的散点图如下:。

《SPSS数据分析与应用》第8章 逻辑回归分析

《SPSS数据分析与应用》第8章 逻辑回归分析
准确率=TP TN / TP TN FP FN
➢ TPR—在所有真实值为阳性的样本中,被正确地判断为阳性的样本所占的比例。
TPR=TP / TP FN
➢ FPR—在所有真实值为阴性的样本中,被正确地判断为阳性的样本所占的比例。
FPR=FP / FP TN
Part 8.2
逻辑回归分析模型 的实现与解读
定性变量 (3水平)
定量变量
定性变量
取值范围 1代表幸存 0代表死亡 1=男、2=女 [0.42,80]
1代表一等舱, 2代表二等舱, 3代表三等舱
[0, 512.3292]
C = 瑟堡港, Q =昆士敦,S = 南安普顿
定性变量
0代表无家庭成员,1代表成员为1~3人的中 型家庭,2代表成员为4人及以上的大型家庭
2.逻辑回归分析模型
逻辑回归分析模型
在经过Logit变换之后,就可以利用线性回归模型建立因 变量与自变量之间的分析模型,即
经过变换,有
Sigmoid函数 (S型生长曲线)
逻辑回归分析模型
Sigmoid函数
➢ Sigmoid函数,表示概率P和自变量之间 的非线性关系。通过这个函数,可以计 算出因变量取1或者取0的概率。
总计
混淆矩阵
预测值
Y=0(N)
Y=1(P)
TN
FP
FN
TP
总计 TN+FP FN+TP TP+FP+FN+TN
➢ TP:预测为1,预测正确,即实际1; ➢ FP:预测为1,预测错误,即实际0; ➢ FN:预测为0,预测错确,即实际1; ➢ TN:预测为0,预测正确即,实际0。
4.模型评价
➢ 准确率

线性回归—SPSS操作

线性回归—SPSS操作

线性回归—SPSS操作线性回归是一种用于研究自变量和因变量之间的关系的常用统计方法。

在进行线性回归分析时,我们通常假设误差项是同方差的,即误差项的方差在不同的自变量取值下是相等的。

然而,在实际应用中,误差项的方差可能会随着自变量的变化而发生变化,这就是异方差性问题。

异方差性可能导致对模型的预测能力下降,因此在进行线性回归分析时,需要进行异方差的诊断检验和修补。

在SPSS中,我们可以使用几种方法进行异方差性的诊断检验和修补。

第一种方法是绘制残差图,通过观察残差图的模式来判断是否存在异方差性。

具体的步骤如下:1. 首先,进行线性回归分析,在"Regression"菜单下选择"Linear"。

2. 在"Residuals"选项中,选择"Save standardized residuals",将标准化残差保存。

3. 完成线性回归分析后,在输出结果的"Residuals Statistics"中可以看到标准化残差,将其保存。

4. 在菜单栏中选择"Graphs",然后选择"Legacy Dialogs",再选择"Scatter/Dot"。

5. 在"Simple Scatter"选项中,将保存的标准化残差添加到"Y-Axis",将自变量添加到"X-Axis"。

6.点击"OK"生成残差图。

观察残差图,如果残差随着自变量的变化而出现明显的模式,如呈现"漏斗"形状,则表明存在异方差性。

第二种方法是利用Levene检验进行异方差性的检验。

具体步骤如下:1. 进行线性回归分析,在"Regression"菜单下选择"Linear"。

SPSS的线性回归分析分析

SPSS的线性回归分析分析

SPSS的线性回归分析分析SPSS是一款广泛用于统计分析的软件,其中包括了许多功能强大的工具。

其中之一就是线性回归分析,它是一种常用的统计方法,用于研究一个或多个自变量对一个因变量的影响程度和方向。

线性回归分析是一种用于解释因变量与自变量之间关系的统计技术。

它主要基于最小二乘法来评估自变量与因变量之间的关系,并估计出最合适的回归系数。

在SPSS中,线性回归分析可以通过几个简单的步骤来完成。

首先,需要加载数据集。

可以选择已有的数据集,也可以导入新的数据。

在SPSS的数据视图中,可以看到所有变量的列表。

接下来,选择“回归”选项。

在“分析”菜单下,选择“回归”子菜单中的“线性”。

在弹出的对话框中,将因变量拖放到“因变量”框中。

然后,将自变量拖放到“独立变量”框中。

可以选择一个或多个自变量。

在“统计”选项中,可以选择输出哪些统计结果。

常见的选项包括回归系数、R方、调整R方、标准误差等。

在“图形”选项中,可以选择是否绘制残差图、分布图等。

点击“确定”后,SPSS将生成线性回归分析的结果。

线性回归结果包括多个重要指标,其中最重要的是回归系数和R方。

回归系数用于衡量自变量对因变量的影响程度和方向,其值表示每个自变量单位变化对因变量的估计影响量。

R方则反映了自变量对因变量变异的解释程度,其值介于0和1之间,越接近1表示自变量对因变量的解释程度越高。

除了回归系数和R方外,还有其他一些统计指标可以用于判断模型质量。

例如,标准误差可以用来衡量回归方程的精确度。

调整R方可以解决R方对自变量数量的偏向问题。

此外,SPSS还提供了多种工具来检验回归方程的显著性。

例如,可以通过F检验来判断整个回归方程是否显著。

此外,还可以使用t检验来判断每个自变量的回归系数是否显著。

在进行线性回归分析时,还需要注意一些统计前提条件。

例如,线性回归要求因变量与自变量之间的关系是线性的。

此外,还需要注意是否存在多重共线性,即自变量之间存在高度相关性。

用spss软件进行一元线性回归分析

用spss软件进行一元线性回归分析
由散点图发现,降水量与纬度之间线性相关
step2:做散点图
给散点图添加趋势线的方法: • 双击输出结果中的散点图 • 在“图表编辑器”的菜单中依次点击“元素”—“总计拟合线”,由此“属性”中加载了 “拟合线” • 拟合方法选择“线性”,置信区间可以选95%个体,应用
step3:线性回归分析
从菜单上依次点选:分析—回归—线性 设置:因变量为“年降水量”,自变量为“纬度” “方法”:选择默认的“进入”,即自变量一次全部进入的方法。 “统计量”:
step4:线性回归结果
【Anova】 (analysisofvariance方差分析) • 此表是所用模型的检验结果,一个标准的方差分析表。 • Sig.(significant )值是回归关系的显著性系数,sig.是F值的实际显著性概率即P值。 当sig. <= 0.05的时候,说明回归关系具有统计学意义。如果sig. > 0.05,说明二者 之间用当前模型进行回归没有统计学意义,应该换一个模型来进行回归。 • 由表可见所用的回归模型F统计量值=226.725 ,P值为0.000,因此我们用的这个回 归模型是有统计学意义的,可以继续看下面系数分别检验的结果。 • 由于这里我们所用的回归模型只有一个自变量,因此模型的检验就等价与系数的检验, 在多元回归中这两者是不同的。
• 勾选“模型拟合度”,在结果中会输出“模型汇总”表 • 勾选“估计”,则会输出“系数”表 “绘制”:在这一项设置中也可以做散点图 “保存”: • 注意:在保存中被选中的项目,都将在数据编辑窗口显示。 • 在本例中我们勾选95%的置信区间单值,未标准化残差 “选项”:只需要在选择方法为逐步回归后,才需要打开
利用spss进行一元线性回归
step1:建立数据文件 打开spss的数据编辑器,编辑变量视图

SPSS数据分析教程-8-线性回归分析

SPSS数据分析教程-8-线性回归分析

结果及其解释

“t”列记录了各回归系数t检验的t统计量,而 Sig.列记录了相应的显著性值。这里,只有X1 和X3的显著性值小于0.1,注意到回归方程的 常数项也不显著。然而,大部分情况下不显著 的预测变量都要从回归方程中移除,而回归常 数代表了响应变量的基本水平,不管显著与否, 大部分情况都保留在回归方程中。因此,我们 可以仅仅考虑Y和X1、X3之间的关系而忽略其 他预测变量。
回归分析的分类

根据回归函数的形式,回归分析可以分为线性 回归和非线性回归:

线性回归: Y= ¯0 +¯1 X1+¯2 X2 + +¯p Xp +²
(y)

非线性回归 如果预测变量和响应变量之间有上页(¤ )所示 的关系,但是不能表示为(y)所示的线性方程 的形式,我们称该回归关系为非线性回归。
回归术语

对于有一个响应变量的线性回归,当p=1时, 我们称为简单线性回归(Simple Linear Regression,或称为一元线性回归),当 p>2 时我们称为多元线性回归(Multiple Linear Regression)。
回归和相关分析

回归分析是在相关分析的基础上,确定了变量 之间的相互影响关系之后,准确的超出这种关 系的数量方法。因此,一般情况下,相关分析 要先于回归分析进行,确定出变量间的关系是 线性还是非线性,然后应用相关的回归分析方 法。在应用回归分析之前,散点图分析是常用 的探索变量之间相关性的方法。
简约回归模型
简约回归模型结果及解释
动手练习
数据文件world95.sav记录了1995年统计的各个国家的生育率 (fertility)和妇女的平均预期寿命(lifeexpf)等数据。 1)探索性分析这两个变量,探察两个变量中是否存在异常点。 2)做出这两个变量的散点图,建立两个变量的线性回归模型,判断 得到的模型的合理性。 3)利用生育率来预测妇女的预期寿命。并设置相关选项,以进一步 检验关于线性回归的假定条件。判断该数据是否满足线性回归的 假定条件。 4)并进行回归诊断,对模型的系数进行解释。从输出结果,判断妇 女多要一个小孩对她的寿命的影响情况。。

spss多元线性回归分析结果解读

spss多元线性回归分析结果解读

spss多元线性回归分析结果解读SPSS多元线性回归分析结果解读1. 引言多元线性回归分析是一种常用的统计分析方法,用于研究多个自变量对因变量的影响程度及相关性。

SPSS是一个强大的统计分析软件,可以进行多元线性回归分析并提供详细的结果解读。

本文将通过解读SPSS多元线性回归分析结果,帮助读者理解分析结果并做出合理的判断。

2. 数据收集与变量说明在进行多元线性回归分析之前,首先需要收集所需的数据,并明确变量的含义。

例如,假设我们正在研究学生的考试成绩与他们的学习时间、家庭背景、社会经济地位等因素之间的关系。

收集到的数据包括每个学生的考试成绩作为因变量,以及学习时间、家庭背景、社会经济地位等作为自变量。

变量说明应当明确每个变量的测量方式和含义。

3. 描述性统计分析在进行多元线性回归分析之前,我们可以首先对数据进行描述性统计分析,以了解各个变量的分布情况。

SPSS提供了丰富的描述性统计方法,如均值、标准差、最小值、最大值等。

通过描述性统计分析,我们可以获得每个变量的分布情况,如平均值、方差等。

4. 相关性分析多元线性回归的前提是自变量和因变量之间存在一定的相关性。

因此,在进行回归分析之前,通常需要进行相关性分析来验证自变量和因变量之间的关系。

SPSS提供了相关性分析的功能,我们可以得到每对变量之间的相关系数以及其显著性水平。

5. 多元线性回归模型完成了描述性统计分析和相关性分析后,我们可以构建多元线性回归模型。

SPSS提供了简单易用的界面,我们只需要选择因变量和自变量,然后点击进行回归分析。

在SPSS中,我们可以选择不同的回归方法,如逐步回归、前向回归、后向回归等。

6. 回归结果解读在进行多元线性回归分析后,SPSS将提供详细的回归结果。

我们可以看到每个自变量的系数、标准误差、t值、显著性水平等指标。

系数表示自变量与因变量之间的关系程度,标准误差表示估计系数的不确定性,t值表示系数的显著性,显著性水平则表示系数是否显著。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
1
第三节
多元线性回归分析
一、多元线性回归分析的涵义 研究在线性相关条件下,两个或两个以 上自变量对一个因变量的数量变化关系, 称为多元线性回归分析。 多元线性回归方程为:
y
0
1
x x
1 2
2
p
x
p
四、多元线性回归方程的检验
(一)拟合优度检验 多元线性回归方程的拟合优度检验采 用 R 2 ,该统计量称为调整的判定系数或调整 的决定系数。 (二)回归方程的显著性检验 0 原假设为: ,即各个偏回归系 数同时与零无显著差异,意味着所有x无法解 释y的线性变化,y与x的全体不存在线性关系。 检验采用F统计量。 SPSS将自动计算F统计量的观测值和对应 的概率。
1、调用命令Analyze/Regression/Linear, 出现如下图的对话框。
可设置不止一组的 解释变量和变量筛 选策略,并放置在 不同的块中 选择条件变量, 并按rule键给定 判断条件 设定样本数据点 的标志变量,以 输出在回归分析 的图形中
当存在异方差时候, 按此扭采用加权最 小二乘法代替普通 最小二乘法估计回 归系数,并指定一 个权重变量
4、单击主对话框中的Options按钮,打开对话框。 单击 continue,ok按钮即可得到 SPSS回归分析的结 选择此项表示显示回归方程 果。 中常数项。
如一个变量的F统计量的p值是 小于Entry值的,这个变量就进入 模型。如一个变量的F统计量的p 值是大于Removal值的,这个变 量就从模型中删除。 Entry值必 须小于Removal值且都为正。如 想模型中有更多的变量就提高 Entry值;如想模型中减少变量就 减少Removal值。 用F统计量的值,同上
向后选择法是自变量不断剔出回归方程的方
3、逐步筛选策略(Stepwise)
逐步筛选策略是向前法和向后法的结合。 逐步回归法的基本思路是:如果一个备选的自变 量所对应的F统计量的值大于我们预先指定的“纳 入标准’,则这个自变量将被纳入模型;如果所 对应的F统计量的值小于我们事先指定的“剔出标 准”,则这个自变量将被剔出模型。从模型中有 零个自变量开始,逐步按“纳入标准’”和“剔 出标准”进行这种取舍,直到按“纳入标准”和 “剔出标准”没有备选自变量可以被纳入或剔出 模型为止。
变量筛选方法的选择应注意
1.变量选择不仅仅是数学问题,不能脱 离研究的目的进行。 2.最好多做尝试,对不同方法所得结果 的差异认真思考。
五、多元回归分析中的多重共线性检测
检测并确认: (1)容忍度越接近于0表示多重共线性越 强; (2)方差膨胀因子大于等于10; (3)某特征根既能刻画某解释变量方差的 大部分(70%以上),又能刻画另一个解 释变量方差的较大部分比例,则表明这两 个解释变量间存在较强的线性相关关系; (4)条件指数大于10
多元线性回归分析中解释变量的筛选
1、向前选择法(Forward) 2、向后选择法(Backward)(向后消 元法) 3、逐步筛选策略(Stepwise) 4、 强制进入法(Enter)
1、向前选择法(Forward)
向前选择法是自变量不断进入回归方程的方 法。 向前选择法的具体做法是:它从模型中自变 量个数为零开始,第一个被纳入模型中的是与因 变量有绝对值为最大的相关系数,且符合“纳入 标准”的自变量。下一个将被纳入模型中的自变 量,应该是在剩余的备选变量中偏相关系数的绝 对值为量大,且符合“纳入标准”的自变量。这 种叠代过程一直进行下去,直到再也没有备选自 变量符合“纳入标准”为止。
ANOVAb Model 1 Sum of Squares 2.0E+07 1286497 2.1E+07 df 6 24 30 Mean Square 3298385.480 53604.047 F 61.532 Sig. .000a
Regression Residual Total
第二节
一元线性回归分析
一、一元线性回归分析的含义 是在排除其他影响因素或假定其他影响 因素确定的条件下,分析某一个因素是如 何影响另一事物的过程,所进行的分析是 比较理想化的。 一元线性回归方程为:
y

0


1
x
二、一元线性回归分析的步骤
1、利用样本数据建立回归方程 2、回归方程的拟合优度检验 3、回归方程的显著性检验 4、回归系数的显著性检验 5、预测
其中x为自变量;y为因变量;a为截距,即常量; b为回归系数,表明自变量对因变量的影响程度。
工资 440 430 420 410 400 390 380 370 360 0
Y=350+20x
1
2
3
4
工龄 5
在统计学中,这一方程中的系数是靠x与y变 量的大量数据拟合出来的。
Y
Y=a+bx
(x,y)
三、一元线性回归分析的检验
(一)拟合优度检验 1、目的: 检验样本数据聚集在样本回归直线周围的密 集程度,从而判断回归方程对样本数据的代表程 度。 2、统计量: 一般用判定系数(或决定系数) R 2 来实现。 2 R 的取值在0-1之间,越接近于1,说明回归方程对 样本数据点的拟合程度越高; 2 越接近于0,说明 R 回归方程对样本数据点的拟合程度越低。
•删除所有带缺失值的样本 数据 •如果计算涉及到带缺失值 的变量,则暂时删除那些 在该变量上是缺失值的个 案 •将所有变量的缺失值都以 相应变量的均值代替
二、结果分析
1、采用Enter 强制法进行多元线性回归分析的结果。
Model Summaryb Model 1 R .969a R Square .939 A djusted R Square .924 Std. Err or of the Estimate 231.525
•输出各自变量间的相关系数矩阵 和各变量的协方差矩阵
•输出D-W检验量 •设置奇异值的判据,默认为3倍 的标准化残差
3、单击Plots按钮,出现如下的窗口。
X轴或Y轴中 有一个是因 变量 标准化的预 测值 标准化的残 差 删除的残差 修正后的预 测值。 用户的残差 用户的删除 的残差
输出带有正态曲线的 标准化残差的直方图。 输出标准化残差的正 态概率图。 对每一个自变量,会 产生一个自变量与因变 量残差的散点图,主要 用于回归诊断。
a. Predictors: (C onstant), 获 奖 数 , 投 入 科 研 事 业 费 ( 百 元) , 论 文数 , 专 著数 , 投 入人 年数 , 投 入高 级职 称 的人 年数 b. Dependent Variable: 课 题 总 数

该表对回归方程进行拟合优度检验。各列的 含义分别为:被解释变量和解释变量的复相关系 数、判定系数R方,调整的判定系数,回归方程的 估计标准误差。由于是多元回归,应考察调整的 判定系数0.924,认为拟合优度较高。
(二)回归方程的显著性检验
1、目的: 回归方程的显著性检验就是要检验被解释变 量与所有解释变量之间的线性关系是否显著,用 线性模型来描述它们之间的关系是否恰当。 2、一元线性回归方程的显著性检验 一元线性回归方程显著性检验的原假设 是: 0,即回归系数与零无显著差异,意味着x无 法解释y的线性变化,它们之间不存在线性关系。 检验的统计量是:F统计量。SPSS将自动计算F 统计量的观测值和对应的概率。
第八章 SPSS线性回归分析
第一节
回归分析概述
一、回归分析 (一)何为回归分析? 回归分析侧重于考察变量之间的数量变 化规律,并通过回归方程的形式描述和反 映这种关系,进而为预测提供科学依据。
(二)回归分析和相关分析比较
相关分析和回归分析都是研究变量间的关系, 而且都是用来分析定距变量间的关系。但它们研 究的侧重点不同。 1、在回归分析中有明确的因果关系假设,变量y 称为因变量,处于被解释的特殊地位;而在相关 分析中,变量y与变量X处于平等的地位。 2、相关分析是测定变量之间的关系密切程度,所 使用的工具是相关系数;而回归分析则侧重于考 察一个或者几个变量的变化对另一个特定变量的 影响程度,因而可以进行预测。
X
由图中可以看出,回归直线应该是到所有数据 点最短距离的直线。该直线的求得使用“最小二乘 方法”,使:
ˆ y y
i i
2
0
在拟合的回归直线方程中,回归系数:
b


( x i x )( y

i
y )
2
(xi x )
表示x每变化一个单位时,y变化的程度。
比如通过上学年数和工资的关系计算得 出下列的回归公式: y=472+14.8x 可知上学年数每增长1年,工资会增加 14.8元; 也可推测,上学年数为15年的人,工资 收入应为472 + 14.8 *15=694元。
1 2 p
(三)回归系数的显著性检验
原假设是: i 0 ,即第i个偏回归系数与 零无显著差异。意味着当偏回归系数为零时, 无论取值如何变化都不会引起y的线性变化。 检验统计量: ti SPSS将自动计算统计量的观测值和对应 的概率。

线性回归菜单简介及变量筛选
L框中的Save按钮,弹出如 图所示对话框。
•产生的变量将反映:因排 除一个特定的观测值所引 起的回归系数的变化量 •产生的变量将反映:因排 除一个特定观测值所引起 的预测值的变化 •生成一个协方差比矩阵, 剔除一个可能是影响点的 观测量后的协方差矩阵与 全部观测量的协方差矩阵 比 •保存回归系数的结果到指定的文 件中 •将模型的有关信息输出到一个 XML文件中
2、向后选择法(Backward)

法。 向后消元法从模型中包含所有的备选自变量 开始。一个备选自变量如果与因变量的偏相关系 数是最小的,且其F值小于“剔出标准”,则被剔 出模型;下一个被剔出模型的自变量是在剩余的 自变量中偏相关系数最小,且其F值小于“剔出标 准”的备选自变量。这种叠代过程一直进行下去, 直到再也没有备选自变量符合“剔出标准”为止。
相关文档
最新文档