SPSS多元线性回归分析教程

合集下载

多因素logistic回归分析spss

多因素logistic回归分析spss

多因素logistic回归分析spssLogistic回归分析是一种用来研究影响离散变量的因素的方法,该方法的输出是一个logistic模型,这一模型可以用于预测变量的值,即预测该变量的值有多高的概率会取各种可能的取值。

简言之,logistic回归分析的主要目的是把客观的结果(例如,是否改变某个政策,是否感染某种疾病等)变成可预测的离散变量,以便分析影响客观结果的各种因素。

Spss可以提供多因素logistic回归分析,这种分析可用于识别影响离散变量(例如,是否改变某个政策,是否感染某种疾病等)的多个因素之间的关联。

该分析需要有一个组合变量作为自变量,以及一个离散变量作为因变量。

例如,如果您要研究性别和年龄两个因素如何影响某种疾病的发生率,那么性别和年龄两个因素就是组合变量,而疾病的发生率则是因变量。

1.建立变量和分类(上述示例中需要建立性别和年龄两个变量,以及分类变量的可能的取值)。

2.执行logistic回归分析。

打开spss,并在“分析”菜单中打开多元分析,然后点击“逻辑回归”,并选择您要研究的变量和分类。

3.生成回归模型和检验其统计学意义。

在spss中,您可以使用类似“回归系数”之类的描述性统计学方法来估算回归模型,并可以使用“p-值”来判断回归模型中各变量的统计学意义。

4.Interpret模型。

根据p值判断各变量的统计学意义,进而分析影响离散变量的多个因素之间的关联。

四、总结Logistic回归分析是一种用来研究影响离散变量的因素的方法,spss可以提供多因素logistic回归分析,这种分析可用于识别影响离散变量的多个因素之间的关联,spss中步骤:建立变量和分类,执行logistic回归分析,生成回归模型和检验其统计学意义,Interpret模型。

spss多元回归分析的报告怎么做

spss多元回归分析的报告怎么做

spss多元回归分析的报告怎么做:怎么做回归报告分析s pss 多元线性回归spss操作spss回归分析结果解释spss多元线性回归结果篇一:SPSS多元线性回归分析实例操作步骤SPSS 统计分析多元线性回归分析方法操作与分析实验目的:引入1998~2008年上海市城市人口密度、城市居民人均可支配收入、五年以上平均年贷款利率和房屋空置率作为变量,来研究上海房价的变动因素。

实验变量:以年份、商品房平均售价(元/平方米)、上海市城市人口密度(人/平方公里)、城市居民人均可支配收入(元)、五年以上平均年贷款利率(%)和房屋空置率(%)作为变量。

实验方法:多元线性回归分析法软件:spss19.0操作过程:第一步:导入Excel数据文件1. open data document——open data——open;2. Opening excel data source——OK.第二步:1.在最上面菜单里面选中Analyze——Regression——Linear ,Dependent(因变量)选择商品房平均售价,Independents(自变量)选择城市人口密度、城市居民人均可支配收入、五年以上平均年贷款利率、房屋空置率;Method选择Stepwise.进入如下界面:2.点击右侧Statistics,勾选Regression Coefficients(回归系数)选项组中的Estimates;勾选Residuals(残差)选项组中的Durbin-Watson、Casewise diagnostics默认;接着选择Model fit、Collinearity diagnotics;点击Continue.3.点击右侧Plots,选择*ZPRED(标准化预测值)作为纵轴变量,选择DEPENDNT(因变量)作为横轴变量;勾选选项组中的Standardized Residual Plots(标准化残差图)中的Histogram、Normal probability plot;点击Continue.4.点击右侧Save,勾选Predicted Vaniues(预测值)和Residuals (残差)选项组中的Unstandardized;点击Continue.5.点击右侧Options,默认,点击Continue.6.返回主对话框,单击OK.输出结果分析:1.引入/剔除变量表该表显示模型最先引入变量城市人口密度(人/平方公里),第二个引入模型的是变量(转载于: 写论文网:spss 多元回归分析的报告怎么做)城市居民人均可支配收入(元),没有变量被剔除。

运用SPSS做多元回归分析

运用SPSS做多元回归分析

结果二:方差分析表
• 表中显著度(Sig)<0.001,表明整个方程是显著的,也 就是说自变量与因变量之间具有显著的线性关系。 • 但这并不意味着每个自变量与因变量都具有显著的线性关 系,具体的结论还需要看后面对每个自变量的回归系数的 检验结果。
结果三:回归系数表
• 表中B栏的非标准化回归系数表明:
FOR EXAMPLE
一个变量的变化直接与另一组变量的变化有关:
人的体重与身高、胸围 血压值与年龄、性别、劳动强度、饮食习惯、吸烟 状况、家族史 糖尿病人的血糖与胰岛素、糖化血红蛋白、血清总 胆固醇、甘油三脂
多元回归分析数据格式
编号 1 2 ┇ i ┇ n
X1
X 11
X2
X 12
┅ ┅ ┅ ┇ ┅ ┇ ┅
多元回归模型必须满足的假定条件
1. 2.
因变量是连续随机变量; 自变量是固定数值型变量,且相互独立;
3.
4. 5. 6.
每一个自变量与因变量呈线性关系;
每一个自变量与随机误差相互独立; 观察个体的随机误差之间相互独立; 残差是随机变量,均值为零。
不良贷款(亿元)各项贷款余额(亿元)本年累计应收贷款(亿元)贷款项目个数(个) 本年固定资产投资额(亿元) 0.9 67.3 6.8 5 51.9 1.1 111.3 19.8 16 90.9 4.8 173 7.7 17 73.7 3.2 80.8 7.2 10 14.5 7.8 199.7 16.5 19 63.2 12.5 185.4 27.1 18 43.8 1 96.1 1.7 10 55.9 2.6 72.8 9.1 14 64.3 0.3 64.2 2.1 11 42.7 4 132.2 11.2 23 76.7 0.8 58.6 6 14 22.8 3.5 174.6 12.7 26 117.1 10.2 263.5 15.6 34 146.7 0.2 14.8 0.6 2 42.1 0.4 73.5 5.9 11 25.3 1 24.7 5 4 13.4 6.8 139.4 7.2 28 64.3 11.6 368.2 16.8 32 163.9 1.6 95.7 3.8 10 44.5 1.2 109.6 10.3 14 67.9 7.2 196.2 15.8 16 39.7

用SPSS软件实现多元线性回归分析

用SPSS软件实现多元线性回归分析

哈尔滨商业大学数学实验报告实验题目:___用SPSS软件实现多元线性回归分析___ 姓名:____张彦琛____ 学号:_201214390009__ 专业:________数学与应用数学_______________ 日期:________2014-10-27___________________一、实验目的用SPSS软件来实现多元线性回归分析及其应用。

二、实验内容水泥凝固时放出的热量Y与水泥中的四种化学成分x1,x2,x3,x4有关,今测得一组数据如下,试用多元回归分析的方法建立模型。

三、实验步骤及结论(一)实验步骤把实验所用数据从Word文档复制到Excel,并进一步导入到SPSS数据文件中进行回归分析。

选择菜单“分析—>回归—>线性”,为了解决多重共线性问题,采用逐步回归法。

(二)实验结论表一:表一显示了用逐步回归法得到了两个回归模型的拟合情况。

由表可知,引入x4得到模型1,模型1的R方为0.675,调整R方为0.645,x4对y影响显著。

同时又引入x1得到模型2,模型2的R方为0.972,调整R 方为0.967,x4,x1对y影响最为显著。

由0.675<0.972,0.645<0.967,且接近1,说明模型的拟合效果很好。

表二:表二给出了两个回归模型的方差分析及检验结果。

模型1的F 值为22.799,Sig.值为0.001<0.05。

模型2的F值为176.627,Sig.值为000<0.05。

模型1,2都通过F检验,可见模型1与模型2在整体上都是显著的。

表三:表三给出了回归模型的非标准化估计系数、标准化估计系数、系数的显著性检验结果以及共线性统计量的方差膨胀因子VIF。

在模型1,2中,对应t统计量的Sig.的值均小于0.05,则说明每个系数对y 的影响是显著的。

共线性统计量中VIF<10,则克服了共线性的影响。

模型1,2都通过了统计显著性检验,由表可得两个回归模型。

SPSS线性回归分析

SPSS线性回归分析

SPSS分析技术:线性回归分析相关分析可以揭示事物之间共同变化的一致性程度,但它仅仅只是反映出了一种相关关系,并没有揭示出变量之间准确的可以运算的控制关系,也就是函数关系,不能解决针对未来的分析与预测问题。

回归分析就是分析变量之间隐藏的内在规律,并建立变量之间函数变化关系的一种分析方法,回归分析的目标就是建立由一个因变量和若干自变量构成的回归方程式,使变量之间的相互控制关系通过这个方程式描述出来。

回归方程式不仅能够解释现在个案内部隐藏的规律,明确每个自变量对因变量的作用程度。

而且,基于有效的回归方程,还能形成更有意义的数学方面的预测关系。

因此,回归分析是一种分析因素变量对因变量作用强度的归因分析,它还是预测分析的重要基础。

回归分析类型回归分析根据自变量个数,自变量幂次以及变量类型可以分为很多类型,常用的类型有:线性回归;曲线回归;二元Logistic回归技术;线性回归原理回归分析就是建立变量的数学模型,建立起衡量数据联系强度的指标,并通过指标检验其符合的程度。

线性回归分析中,如果仅有一个自变量,可以建立一元线性模型。

如果存在多个自变量,则需要建立多元线性回归模型。

线性回归的过程就是把各个自变量和因变量的个案值带入到回归方程式当中,通过逐步迭代与拟合,最终找出回归方程式中的各个系数,构造出一个能够尽可能体现自变量与因变量关系的函数式。

在一元线性回归中,回归方程的确立就是逐步确定唯一自变量的系数和常数,并使方程能够符合绝大多数个案的取值特点。

在多元线性回归中,除了要确定各个自变量的系数和常数外,还要分析方程内的每个自变量是否是真正必须的,把回归方程中的非必需自变量剔除。

名词解释线性回归方程:一次函数式,用于描述因变量与自变量之间的内在关系。

根据自变量的个数,可以分为一元线性回归方程和多元线性回归方程。

观测值:参与回归分析的因变量的实际取值。

对参与线性回归分析的多个个案来讲,它们在因变量上的取值,就是观测值。

SPSS 线性回归分析

SPSS 线性回归分析
一元线性回归方程的检验和回归系数的检 验是等效的。
整理课件
二、多元线性方程回归系数的检验
26
需要对回归系数是否为零逐一进行检验。
原假设H0:βi=0 ,即:第i个偏回归系数与0无显 著差异
利用t检验统计量(略) 若与t统计量的概率伴随p <a,则拒绝H0
多元线性回归中回归系数的检验与整体回归方程 的检验不能相互替代。
第9章 SPSS的线性回归分析
1
9.1 回归分析概述 9.2 线性回归分析和线性回归模型 9.3 回归方程的统计检验 9.4 多元回归分析中的其他问题 9.5 线性回归分析的基本操作 9.6 线性回归分析的应用举例
整理课件
学习的内容与目标
2
掌握线性回归分析的主要指标,了解最小二乘法 的基本思想
熟练掌握线性回归分析的具体操作,读懂分析结 果;掌握计算结果之间的数量关系,写出回归方 程,对回归方程进行各种统计检验
(ordinary least square estimation ,OLSE)
11
估计思想:
使每个样本点(xi , yi)与回归线上的对应点( xi , E (yi ))在垂直方向上偏差距离的二次方总和达 到最小的原则来估计参数 即,∑( yi - E(yi ))2 =最小
b b b b c ˆ ˆ y ˆ ˆ n
19
用于检验被解释变量与所有解释变量之间的线 性关系是否显著,用线性模型来描述它们之间的
关系是否恰当,即检验模型对总体的近似程度。
➢ SST =回归平方和 SSA + 剩余平方和SSE
➢ 回归方程的显著性检验中采用方差分析的方法,研究在 SST中SSA相对于SSE来说是否占有较大比例。如果比例较 大,表明y与x全体的线性关系明显,则利用线性模型反映 y与x的关系是恰当的;反之,不恰当。

9.3-spss多元回归分析教案


n
n
(yˆi y)2
(yi yˆ)2
R2
i1 n
ห้องสมุดไป่ตู้
1
i1 n
(yi y)2
(yi y)2
i1
i1
说明:R2体现了回归方程所能解释的因变量变差的比例;1-R2则体现了因
变量总变差中,回归方程所无法解释的比例。R2越接近于1,则说明回
归平方和占了因变量总变差平方和的绝大部分比例,因变量的变差主要
由自变量的不同取值造成,回归方程对样本数据点拟合得好。Spss中
1、多重共线性分析(仅多元回归分析检验)
多重共线性是指解释变量之间存在线性相关关系的现象,该现象的 存在会导致:有可能回归方程的F统计量高度显著,而每个t统计量不显 著,严重影响回归效果。测度多重共线性一般有以下方式:
(spass操作:分析-回归-线性-在统计量对话框中选共线性分析) 1、容差越大则与方程中其他自变量的共线性越低,应进入方程. 具有太小容
分布在对角线上,可以判断残差服从正态分布。
2、检验残差的独立性(DW检验)。
n
(et et1)2
DW检验用来检验残差的自相关。 DW t2 n
2(1)
检验统计量为:
et2
t2
◇判断:DW=2表示无自相关,在0-2之间说明存在正自相关,在2-4之
间说明存在负的自相关。一般情况下,DW值在1.5-2.5之间即可说明
残差是指由回归方程计算得到的预测值与实际样本值之间的差距,定
义为: e i y i y ˆ i y i ( 0 1 x 1 2 x 2 . .p x . p )
对于线性回归分析来讲,如果方程能够较好的反映被解释变量的特征 和规律性,那么残差序列中应不包含明显的规律性。

SPSS多元线性回归结果分析

SPSS多元线性回归结果分析输出下⾯三张表第⼀张R⽅是拟合优度对总回归⽅程进⾏F检验。

显著性是sig。

结果的统计学意义,是结果真实程度(能够代表总体)的⼀种估计⽅法。

专业上,p 值为结果可信程度的⼀个递减指标,p 值越⼤,我们越不能认为样本中变量的关联是总体中各变量关联的可靠指标。

p 值是将观察结果认为有效即具有总体代表性的犯错概率。

如 p=0.05 提⽰样本中变量关联有 5% 的可能是由于偶然性造成的。

即假设总体中任意变量间均⽆关联,我们重复类似实验,会发现约 20 个实验中有⼀个实验,我们所研究的变量关联将等于或强于我们的实验结果。

(这并不是说如变量间存在关联,我们可得到 5% 或 95% 次数的相同结果,当总体中的变量存在关联,重复研究和发现关联的可能性与设计的统计学效⼒有关。

)在许多研究领域,0.05 的 p 值通常被认为是可接受错误的边界⽔平。

F检验:对于多元线性回归模型,在对每个回归系数进⾏显著性检验之前,应该对回归模型的整体做显著性检验。

这就是F检验。

当检验被解释变量y t与⼀组解释变量x1, x2 , ... , x k -1是否存在回归关系时,给出的零假设与备择假设分别是H0:b1 = b2 = ... = b k-1 = 0 ,H1:b i, i = 1, ..., k -1不全为零。

⾸先要构造F统计量。

由(3.36)式知总平⽅和(SST)可分解为回归平⽅和(SSR)与残差平⽅和(SSE)两部分。

与这种分解相对应,相应⾃由度也可以被分解为两部分。

SST具有T - 1个⾃由度。

这是因为在T个变差 ( y t -), t = 1, ..., T,中存在⼀个约束条件,即 = 0。

由于回归函数中含有k个参数,⽽这k个参数受⼀个约束条件制约,所以SSR具有k -1个⾃由度。

因为SSE中含有T个残差,= y t -, t = 1, 2, ..., T,这些残差值被k个参数所约束,所以SSE具有T - k个⾃由度。

用SPSS做回归分析ppt课件

从而用以进行预测或控制,达到指导生产活动的目的。
例1、某医学研究所对30个不同年龄的人的血压(高 压)进行了测量,得到如下数据:
年龄 39 47 45 47 65 45 67 42 67 56 36 50 39 21 44 血压 144 120 138 145 162 142 170 124 158 154 136 142 120 120 116 年龄 64 56 59 34 42 48 45 17 20 19 53 63 29 25 69 血压 162 150 140 110 128 130 135 114 116 124 158 144 130 125 175
初步分析作图察看按statisticsregressionlinear顺序展开对话框将y作为因变量选入dependent框中然后将其他变量选入作为自变量选入independents框中method框中选择stepwise逐渐回归作为分析方式单击statistics按钮进展需求的选择单击continue前往回归模型的建立被引入与被剔除的变量回归方程模型编号引入回归方程的自变量称号从回归方程被剔除的自变量称号回归方程中引入或剔除自变量的根据结果分析由复相关系数r0982阐明该预告模型高度显著可用于该地域大春粮食产量的短期预告常用统计量方差分析表回归方程为
在最优的方程中,所有变量对因变量Y的影响都应 该是显著的,而所有对Y影响不显著的变量都不包含 在方程中。选择方法主要有:
•逐步筛选法(STEPWISE) (最常用) •向前引入法(FORWARD) •向后剔除法(BACKWARD)等
逐步回归的基本思想和步骤:
开始
对不在方程中的变 量考虑能否引入?
能 引入变量
X1 137. 0 148. 0 154. 0 157. 0 153. 0 151. 0 151. 0 154. 0 155. 0 155. 0 156. 0 155. 0 157. 0 156. 0 159. 0 164. 0 164. 0 156. 0

多元线性回归SPSS方法实现


Sig. .000a
Residual 2.437
27
.090
Total 21.207
29
a.Predictors: (Constant) , 照 射 时 间 , 辐 射 温 度
b.Dependent Var iable: 毁 损 半 径
2020/11/22
多元线性回归的SPSS方法实现
20
参数估计(最标准重化要偏回的归系表数)
多元线性回归的SPSS方法实现
2020/11/22
多元线性回归的SPSS方法实现
1
SPSS 多元线性回归过程名
Analyze Regression Linear
2020/11/22
多元线性回归的SPSS方法实现
2
线性回归
2020/11/22
多元线性回归的SPSS方法实现
3
多元线性回归
2020/11/22
N 30 30 30
2020/11/22
多元线性回归的SPSS方法实现
15
相关系数矩阵及检验结果
相关系数 Correlations
Pearson Correlation 毁 损 半 径
辐射温度
照射时间
Sig. (1-tailed)
P毁值损 半 径
辐射温度
照射时间
N
毁损半径
辐射温度
照射时间
毁损半径 1.000 .586 .736 . .000 .000 30 30 30
统计量
2020/11/22
多元线性回归的SPSS方法实现
选项
11
Linear Regression: Statistics对 话框
回归系数估计 回归系数可信区间
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

线性回归分析的SPSS操作本节内容主要介绍如何确定并建立线性回归方程。

包括只有一个自变量的一元线性回归和和含有多个自变量的多元线性回归。

为了确保所建立的回归方程符合线性标准,在进行回归分析之前,我们往往需要对因变量与自变量进行线性检验。

也就是类似于相关分析一章中讲过的借助于散点图对变量间的关系进行粗略的线性检验,这里不再重复。

另外,通过散点图还可以发现数据中的奇异值,对散点图中表示的可能的奇异值需要认真检查这一数据的合理性。

一、一元线性回归分析1.数据以本章第三节例3的数据为例,简单介绍利用SPSS如何进行一元线性回归分析。

数据编辑窗口显示数据输入格式如下图7-8(文件7-6-1.sav):图7-8:回归分析数据输入2.用SPSS进行回归分析,实例操作如下:.回归方程的建立与检验(1)操作$①单击主菜单Analyze / Regression / Linear…,进入设置对话框如图7-9所示。

从左边变量表列中把因变量y选入到因变量(Dependent)框中,把自变量x选入到自变量(Independent)框中。

在方法即Method一项上请注意保持系统默认的选项Enter,选择该项表示要求系统在建立回归方程时把所选中的全部自变量都保留在方程中。

所以该方法可命名为强制进入法(在多元回归分析中再具体介绍这一选项的应用)。

具体如下图所示:图7-9 线性回归分析主对话框②请单击Statistics…按钮,可以选择需要输出的一些统计量。

如Regression Coefficients(回归系数)中的Estimates,可以输出回归系数及相关统计量,包括回归系数B、标准误、标准化回归系数BETA、T值及显著性水平等。

Model fit项可输出相关系数R,测定系数R2,调整系数、估计标准误及方差分析表。

上述两项为默认选项,请注意保持选中。

设置如图7-10所示。

设置完成后点击Continue返回主对话框。

图7-10:线性回归分析的Statistics选项图7-11:线性回归分析的Options选项回归方程建立后,除了需要对方程的显著性进行检验外,还需要检验所建立的方程是否违反回归分析的假定,为此需进行多项残差分析。

由于此部分内容较复杂而且理论性较强,所以不在此详细介绍,读者如有兴趣,可参阅有关资料。

③用户在进行回归分析时,还可以选择是否输出方程常数。

单击Options…按钮,打开它的对话框,可以看到中间有一项Include constant in equation可选项。

选中该项可输出对常数的检验。

在Options对话框中,还可以定义处理缺失值的方法和设置多元逐步回归中变量进入和排除方程的准则,这里我们采用系统的默认设置,如图7-11所示。

设置完成后点击Continue返回主对话框。

!④在主对话框点击OK得到程序运行结果。

(2)结果及解释上面定义的程序运行结果如下所示:①方程中包含的自变量列表同时显示进入方法。

如本例中方程中的自变量为x,方法为Enter。

Variables Entered/RemovedModel Variables Entered Variables Removed Method.Enter1!Xa All requested variables entered.b Dependent Variable: Y②模型拟合概述列出了模型的R、R2、调整R2及估计标准误。

R2值越大所反映的两变量的共变量比率越高,模型与数据的拟合程度越好。

Model SummaryModel R R Square-Std. Error of the EstimateAdjusted R Square1.859.738.723a Predictors: (Constant), X本例所用数据拟合结果显示:所考察的自变量和因变量之间的相关系数为,拟合线性回归的确定性系数为,经调整后的确定性系数为,标准误的估计为。

③方差分析表列出了变异源、自由度、均方、F值及对F的显著性检验。

|ANOVAModel Sum of Squares df Mean Square F Sig.1Regression| 1.000Residual18《Total19a Predictors: (Constant), X@b Dependent Variable: Y本例中回归方程显著性检验结果表明:回归平方和为,残差平方和为,总平方和为,对应的F统计量的值为,显著性水平小于,可以认为所建立的回归方程有效。

④回归系数表列出了常数及非标准化回归系数的值及标准化的回归系数,同时对其进行显著性检验。

CoefficientsUnstandardized Coefficients Standardized Coefficients t·Sig.Model B Std. Error Beta1(Constant)/ .530X.730.103.859:.000a Dependent Variable: Y本例中非标准化的回归系数B的估计值为,标准误为,标准化的回归系数为,回归系数显著性检验t统计量的值为,对应显著性水平Sig.=<,可以认为方程显著。

因此,本例回归分析得到的回归方程为:Y=+对方程的方差分析及对回归系数的显著性检验均发现,所建立的回归方程显著。

2.2.回归方程的预测(1)通过因变量的观测值和回归预测值的比较,可以了解许多关于模型和各种假定对数据的适合程度,上面回归方程的检验结果表明,所得到的回归直线是有效的。

在回归方程有效的前提下,研究者往往希望对于给定的预测变量X的一个具体数值(如X0),预测因变量Y的平均值或者预测某一个观测的y0的值。

如对于上面的例子,我们可以用回归方程来预测智商x0=120的被试,这次的平均成绩;也可以用来预测假如一名工作人员的智商是120,那么他参加这次考试,将会得多少分。

上面两种情况下,点预测值是相同的,不同的是标准误。

Y0=A+BX0=+×120=在X0点,Y的预测均值的估计标准误为公式(7-24);在X0点,Y的个体预测值的估计标准误为公式(7-25)。

&(2)SPSS可以提供上述两类预测值,具体操作如下:在如图7-9的线性回归模型定义的主对话框中,单击save,出现如下对话框(图7-12):图7-12:预测值的定义选择窗口在上面的窗口,可以选择输出变量的点预测值和平均值及其个体值预测的区间估计,如上图,我们在Predicted Values选择区选择复选项Unstandardized,以输出非标准化的点预测值;在下面的Prediction Intervals选择区选择复选项Means和Individual,下面的置信水平采用系统默认的95%,然后点击Continue返回主对话框,在主对话框中点击Ok,得到的输出结果。

(3)结果及解释除了上面介绍的回归方程建立和检验的结果外,在数据编辑结果,因为选择了需要保存的预测变量的信息,数据编辑窗口数据显示如下:图7-13:保存预测之后的数据窗口从上面的结果可以看出,在以前的数据的基础上,新生成了五列数据,第一列命名为pre_1的变量对应的数据表示预测变量对应的因变量非标准化的预测值,例如,智商为120 的被试,用回归方程预测的这次考试的点预测值为;均值预测的区间估计的上下限分别用变量lmci_1和umci_1表示,个体预测值的区间估计的上下限分别用变量lici_1 和uici_1表示,例如,智商为120 的被试,均值95%的预测区间为:(,); 个体预测95%的预测区间为:(,)。

!二、多元线性回归1.数据以本章第四节例4为例,简单说明多元线性回归方程的建立与检验。

数据输入如图7-14(文件7-6-2.sav):图7-14:多元回归分析所用数据2.SPSS操作(1)多元线性回归所用命令语句与一元线性回归相同,同样可以通过单击主菜单Analyze / Regression / Linear…,进入设置对话框如图7-9所示。

从左边变量表列中把因变量y选入到因变量(Dependent)框中,把自变量x1和x2选入到自变量(Independent)框中。

(2)点击Method 后面的下拉框,在Method框中选择一种回归分析的方法。

SPSS提供下列几种变量进入回归方程的方法:·Enter选项,强行进入法,即所选择的自变量全部进入回归模型,该选项是默认方式。

·Remove选项,消去法,建立回归方程时,根据设定的条件剔除部分自变量。

:·Forward选项,向前选择法,根据在Option对话框中所设定的判据,从无自变量开始,在拟合过程中,对被选择的自变量进行方差分析,每次加入一个F值最大的变量,直到所有符合判据的变量都进入模型为止。

第一个引入回归模型的变量应该与因变量相关程度最大。

·Backward选项,向后剔除法,根据在Option对话框中所设定的判据,先建立全模型,然后根据设置的判据,每次剔除一个使方差分析中的F值最小的自变量,直到回归方程中不再含有不符合判据的自变量为止。

·Stepwise选项,逐步进入法,是向前选择法和向后剔除法的结合。

根据在Option对话框中所设定的判据,首先根据方差分析结果选择符合判据的自变量且对因变量贡献最大的进入回归方程。

根据向前选择法则进入自变量;然后根据向后剔除法,将模型中F值最小的且符合剔除判据的变量剔除模型,重复进行直到回归方程中的自变量均符合进入模型的判据,模型外的自变量都不符合进入模型的判据为止。

这里我们采用系统默认的强行进入法,其他选项均采用系统默认的设置。

(3)点击OK,得到上面定义模型的输出结果为:3.结果及解释(1)方程中包含的自变量列表同时显示进入方法。

如本例中方程中的自变量为x1和x2,选择变量进入方程的方法为Enter。

Variables Entered/RemovedMethodModel Variables Entered、Variables Removed1X2, X1.Entera All requested variables entered.b Dependent Variable: Y(2)模型概述列出了模型的R、R2、调整R2及估计标准误。

R2值越大所反映的自变量与因变量的共变量比率越高,模型与数据的拟合程度越好。

,Model SummaryModel R R Square Adjusted R Square Std. Error of the Estimate1.996.991.988….82a Predictors: (Constant), X2, X1上面所定义模型确定系数的平方根为,确定系数为,调整后的确定系数为,标准误为。

相关文档
最新文档