多元统计分析简答题..

合集下载

(完整版)多元统计复习题附答案

(完整版)多元统计复习题附答案

复习题原文:答案:4.2 试述判别分析的实质。

4.3 简述距离判别法的基本思想和方法。

4.4 简述贝叶斯判别法的基本思想和方法。

4.5 简述费希尔判别法的基本思想和方法。

4.6 试析距离判别法、贝叶斯判别法和费希尔判别法的异同。

4.2 试述判别分析的实质。

答:判别分析就是希望利用已经测得的变量数据,找出一种判别函数,使得这一函数具有某种最优性质,能把属于不同类别的样本点尽可能地区别开来。

设R1,R2,…,Rk是p维空间R p的k个子集,如果它们互不相交,且它们的和集为R p,则称R1,R2⋯R p为R p的一个划分。

判别分析问题实质上就是在某种意义上,以最优的性质对p维空间R p构造一个“划分”,这个“划分”就构成了一个判别规则。

4.3 简述距离判别法的基本思想和方法。

答:距离判别问题分为①两个总体的距离判别问题和②多个总体的判别问题。

其基本思想都是分别计算样本与各个总体的距离(马氏距离),将距离近的判别为一类。

①两个总体的距离判别问题设有协方差矩阵∑相等的两个总体G1和G2,其均值分别是μ1和μ2,对于一个新的样品X,要判断它来自哪个总体。

计算新样品X到两个总体的马氏距离D2(X,G1)和D2(X,G2),则X∈G1,D2(X,G1)≤ D2(X,G2)X ∈G 2 ,D 2(X ,G 1)> D 2(X ,G 2, 具体分析,2212(,)(,)D G D G -X X111122111111111222*********()()()()2(2)2()-----------''=-----''''''=-+--+'''=-+-X μΣX μX μΣX μX ΣX X ΣμμΣμX ΣX X ΣμμΣμX ΣμμμΣμμΣμ11211212112122()()()2()22()2()---''=-++-'+⎛⎫=--- ⎪⎝⎭''=--=--X ΣμμμμΣμμμμX ΣμμX μααX μ 记()()W '=-X αX μ 则判别规则为X ∈G 1 ,W(X)≥0 X ∈G 2 ,W(X)<0②多个总体的判别问题。

多元统计分析模拟考题及答案

多元统计分析模拟考题及答案

一、判断题( 对 )112(,,,)p X X X X '=的协差阵一定是对称的半正定阵( 对 )2标准化随机向量的协差阵与原变量的相关系数阵相同。

( 对)3典型相关分析是识别并量化两组变量间的关系,将两组变量的相关关系的研究转化为一组变量的线性组合与另一组变量的线性组合间的相关关系的研究。

( 对 )4多维标度法是以空间分布的形式在低维空间中再现研究对象间关系的数据分析方法。

( 错)5),(~),,,(21∑'=μp p N X X X X ,,X S 分别是样本均值和样本离差阵,则,SX n分别是,μ∑的无偏估计。

( 对)6),(~),,,(21∑'=μp p N X X X X ,X 作为样本均值μ的估计,是无偏的、有效的、一致的。

( 错)7 因子载荷经正交旋转后,各变量的共性方差和各因子的贡献都发生了变化( 对)8因子载荷阵()ij A a =中的ij a 表示第i 个变量在第j 个公因子上的相对重要性。

( 对 )9 判别分析中,若两个总体的协差阵相等,则Fisher 判别与距离判别等价。

(对)10距离判别法要求两总体分布的协差阵相等,Fisher 判别法对总体的分布无特定的要求。

二、填空题1、多元统计中常用的统计量有:样本均值向量、样本协差阵、样本离差阵、样本相关系数矩阵.2、设∑是总体1(,,)m X X X =的协方差阵,∑的特征根(1,,)i i m λ=与相应的单位正交化特征向量12(,,,)i i i im a a a α=,则第一主成分的表达式是11111221m my a X a X a X =+++,方差为1λ。

3设∑是总体1234(,,,)X X X X X =的协方差阵,∑的特征根和标准正交特征向量分别为:'112.920(0.1485,0.5735,0.5577,0.5814)U λ==--- '221.024(0.9544,0.0984,0.2695,0.0824)U λ==-'330.049(0.2516,0.7733,0.5589,0.1624)U λ==--'440.007(0.0612,0.2519,0.5513,0.7930)U λ==--,则其第二个主成分的表达式是212340.95440.09840.26950.0824y X X X X =-++,方差为1.0244. 若),(~)(∑μαp N X ,(n ,,2,1 =α)且相互独立,则样本均值向量X 服从的分布是(,)p N nμ∑.5.设(,),1,2,,16i p X N i μ∑=,X 和A 分别是正态总体的样本均值和样本离差阵,则2115[4()][4()]T X A X μμ-'=--服从 215(15,)(,)16p T p F p n p p--或6设3(,),1,2,,10i X N i μ∑=,则101()()i i i W X X μμ='=--∑服从3(10,)W ∑7.设随机向量123(,,)X X X X '=,且协差阵4434923216-⎛⎫ ⎪∑=-- ⎪ ⎪-⎝⎭,则其相关矩阵R =231382113631186⎛⎫-⎪ ⎪ ⎪-- ⎪ ⎪ ⎪- ⎪⎝⎭8. 设122(,)(,),X X X N μ=∑,其中212(,),ρμμμσρ⎛⎫=∑=⎪⎝⎭11,则1212,)X X X X +-=Cov(09设X,Y 是来自均值向量为μ,协差阵为∑的总体G 的两个样品,则X ,Y 间的马氏平方距离2(,)d X Y =1()()X Y X Y -'-∑-10设X,Y 是来自均值向量为μ,协差阵为∑的总体G 的两个样品,则X 与总体G 的马氏平方距离2(,)d X G =1()()X X μμ-'-∑-11设随机向量123(,,)X X X X '=的相关系数矩阵通过因子分析分解为121330.93400.1280.9340.4170.8351100.4170.8940.02700.8940.44730.8350.4470.1032013R ⎛⎫- ⎪⎛⎫⎛⎫ ⎪-⎛⎫ ⎪ ⎪⎪=-=-+ ⎪ ⎪ ⎪ ⎪⎝⎭ ⎪ ⎪ ⎪⎝⎭⎝⎭ ⎪ ⎪⎝⎭则1X 的共性方差21h = 0.9342 =0.872 ,其统计意义是:描述了全部公因子对变量X1的总方差所作的贡献,称为变量X1的共同度,反映了公共因子对变量X1的影响程度。

多元统计分析复习题

多元统计分析复习题

多元统计分析复习题一、填空题1、设有n 个一维数据:12,,...,n x x x ,则均值x -=________,方差2_____________s =。

若将它们从小到大记为(1)(2)(),,...,n x x x ,中位数M=______________________,极差R=______________。

2、请指出下面SPSS 软件操作分别代表多元统计分析中什么分析: (1)Analysis→Classify→Discriminant (2)Analysis→Data Reduction →Factor3、系统聚类法是在聚类分析的开始,每个样本自成 ________ ;然后 ,按照某种方法度量所有样本之间的亲疏程度,并把最相似的样本首先聚成一小类;接下来,度量剩余的样本和小类间的___________,并将当前最接近的样本或小类再聚成一类;如此反复,直到所有样本聚成一类为止。

4、设12(0,1),,,...,in N ξξξξ且相互独立,则n21n212_______;________ii ii ξξξ==∑∑。

5、在线性回归模型中,设因变量Y 与自变量121,,...,p XX X -的n 组观测数据为1,1(;,...,)(1,2,...,i i i p y x x i n -=),记11nii y y n ==∑,线性拟合值0111,1ˆˆˆˆ...i i p i p y x x βββ--=+++,则总离差平方和___________SST =,残差平方和___________SSE =,回归平方和__________SSR =,三者之间关系为___________________。

6、设x,y 是来自均值向量为μ,协方差矩阵为∑的总体G 的两个样品,则x,y之间的马氏平方距离2(,)______________d x y =;x 与总体G 的马氏平方距离2(,)______________d x G =。

多元统计分析简答题

多元统计分析简答题

多元统计分析简答题1、简述多元统计分析中协差阵检验的步骤第⼀,提出待检验的假设H0和H1;第⼆,给出检验的统计量及其服从的分布;第三,给定检验⽔平,查统计量的分布表,确定相应的临界值,从⽽得到否定域;第四,根据样本观测值计算出统计量的值,看是否落⼊否定域中,以便对待判假设做出决策(拒绝或接受)。

协差阵的检验检验0=ΣΣ0p H =ΣI : /2/21exp 2np n e tr n λ=-?? ?S S00p H =≠ΣΣI : /2/2**1exp 2np n e tr n λ=-?? ?S S 检验12k ===ΣΣΣ 012k H ===ΣΣΣ:统计量/2/2/2/211i i k k n n pn np k i i i i nn λ===∏∏S S2. 针对⼀个总体均值向量的检验⽽⾔,在协差阵已知和未知的两种情形下,如何分别构造的统计量?3. 作多元线性回归分析时,⾃变量与因变量之间的影响关系⼀定是线性形式的吗?多元线性回归分析中的线性关系是指什么变量之间存在线性关系?答:作多元线性回归分析时,⾃变量与因变量之间的影响关系不⼀定是线性形式。

当⾃变量与因变量是⾮线性关系时可以通过某种变量代换,将其变为线性关系,然后再做回归分析。

多元线性回归分析的线性关系指的是随机变量间的关系,因变量y 与回归系数βi 间存在线性关系。

多元线性回归的条件是:(1)各⾃变量间不存在多重共线性;(2)各⾃变量与残差独⽴;(3)各残差间相互独⽴并服从正态分布;(4)Y 与每⼀⾃变量X 有线性关系。

4.回归分析的基本思想与步骤基本思想:所谓回归分析,是在掌握⼤量观察数据的基础上,利⽤数理统计⽅法建⽴因变量与⾃变量之间的回归关系函数表达式(称回归⽅程式)。

回归分析中,当研究的因果关系只涉及因变量和⼀个⾃变量时,叫做⼀元回归分析;当研究的因果关系涉及因变量和两个或两个以上⾃变量时,叫做多元回归分析。

此外,回归分析中,⼜依据描述⾃变量与因变量之间因果关系的函数表达式是线性的还是⾮线性的,分为线性回归分析和⾮线性回归分析。

多元统计问答题

多元统计问答题

多元统计问答题一、无序分类哑变量量化又称虚拟变量(Dummy Variable),又称虚设变量、名义变量或哑变量,是量化了的质变量,通常取值为0或1。

在研究一个因变量的时候,解释变量中除了定量变量,有时候会有一些定型变量,比如性别、年龄、宗教、民族、婚姻状况、教育程度等。

这些定性变量也可以成为指标变量、二元变量或分类变量。

此时需要使用虚拟变量。

引入哑变量可使线形回归模型变得更复杂,但对问题描述更简明,一个方程能达到俩个方程的作用,而且接近现实。

如果某个因素有n 种选择,则将其用哑变量引入模型时,要设置n-1个哑变量,以避免完全的多重共线性。

如性别的选择有两种,则引入一个哑变量,是男则数值为1,否则为0,当然也可以设置为女为1,否则为0。

季节的选择有4个,则引入3个哑变量,哑变量1:春为1,否则为0;哑变量2:夏为1,否则为0;哑变量3:秋为1,否则为0。

当自变量为无序分类即名义分类变量比如血型,A型、B型、AB 型、O型之间是平等的,不存在大小问题。

这时,需要把原来的多分类变量转化为(水平数—1)个哑变量并进行编码,每个哑变量只代表两个级别或若干个级别间的差异。

哑变量应用时需要注意以下两点:⑴哑变量是同时存在,其统计学意义是相对而言的。

⑵哑变量有无意义可采用加与不加入哑变量的偏回归平方和F检验确定。

二、多重共线性交互效应的处理方法所谓多重共线性(Multicollinearity)是指线性回归模型中的解释变量之间由于存在精确相关关系或高度相关关系而使模型估计失真或难以估计准确。

多重共线性检验的检验指标为容许度(T olerance)和方差膨胀因子(VIF)。

多重共线性的解决方法:(1)排除引起共线性的变量——找出引起多重共线性的解释变量,将它排除出去,以逐步回归法得到最广泛的应用;(2)差分法——时间序列数据、线性模型:将原模型变换为差分模型;(3)减小参数估计量的方差——岭回归法(Ridge Regression)。

多元统计分析期末考试考点

多元统计分析期末考试考点

多元统计分析期末考试考点The following text is amended on 12 November 2020.二名词解释1、多元统计分析:多元统计分析是运用数理统计的方法来研究多变量(多指标)问题的理论和方法,是一元统计学的推广2、聚类分析:是根据“物以类聚”的道理,对样品或指标进行分类的一种多元统计分析方法。

将个体或对象分类,使得同一类中的对象之间的相似性比与其他类的对象的相似性更强。

使类内对象的同质性最大化和类间对象的异质性最大化3、随机变量:是指的值无法预先确定仅以一定的可能性(概率)取值的量。

它是由于随机而获得的非确定值,是概率中的一个基本概念。

即每个分量都是随机变量的向量为随机向量。

类似地,所有元素都是随机变量的矩阵称为随机矩阵。

4、统计量:多元统计研究的是多指标问题,为了了解总体的特征,通过对总体抽样得到代表总体的样本,但因为信息是分散在每个样本上的,就需要对样本进行加工,把样本的信息浓缩到不包含未知量的样本函数中,这个函数称为统计量三、计算题解:答:答:题型三解答题1、简述多元统计分析中协差阵检验的步骤答:第一,提出待检验的假设和H1;第二,给出检验的统计量及其服从的分布;第三,给定检验水平,查统计量的分布表,确定相应的临界值,从而得到否定域;第四,根据样本观测值计算出统计量的值,看是否落入否定域中,以便对待判假设做出决策(拒绝或接受)。

2、简述一下聚类分析的思想答:聚类分析的基本思想,是根据一批样品的多个观测指标,具体地找出一些能够度量样品或指标之间相似程度的统计量,然后利用统计量将样品或指标进行归类。

把相似的样品或指标归为一类,把不相似的归为其他类。

直到把所有的样品(或指标)聚合完毕.3、多元统计分析的内容和方法答:1、简化数据结构,将具有错综复杂关系的多个变量综合成数量较少且互不相关的变量,使研究问题得到简化但损失的信息又不太多。

(1)主成分分析(2)因子分析(3)对应分析等2、分类与判别,对所考察的变量按相似程度进行分类。

多元统计期末考试试题

多元统计期末考试试题

多元统计期末考试试题一、选择题(每题2分,共20分)1. 以下哪项不是多元统计分析中常用的数据预处理方法?- A. 标准化- B. 归一化- C. 特征选择- D. 数据清洗2. 多元回归分析中,当自变量之间存在高度相关性时,我们通常称之为:- A. 多重共线性- B. 正态性- C. 同方差性- D. 独立性3. 以下哪项不是主成分分析(PCA)的目的?- A. 降维- B. 特征选择- C. 变量解释- D. 增加数据的维度4. 聚类分析中,若要衡量聚类效果,常用的指标不包括:- A. 轮廓系数- B. 熵- C. 戴维斯-库尔丁指数- D. 距离方差5. 因子分析中,因子载荷矩阵的元素表示:- A. 观测变量的均值- B. 因子的方差- C. 观测变量与因子之间的关系- D. 因子之间的相关性二、简答题(每题10分,共30分)1. 请简述多元线性回归分析的基本假设,并说明违反这些假设可能带来的问题。

2. 描述主成分分析(PCA)的基本步骤,并说明其在数据降维中的应用。

3. 聚类分析与分类分析有何不同?请举例说明。

三、计算题(每题25分,共50分)1. 假设有一组数据,包含三个变量X1、X2和Y,数据如下:| X1 | X2 | Y ||-|-|-|| 1 | 2 | 3 || 2 | 4 | 6 || 3 | 6 | 9 || 4 | 8 | 12 |请计算多元线性回归模型的参数,并检验模型的显著性。

2. 给定以下数据集,进行K-means聚类分析,选择K=3,并计算聚类中心。

| 变量1 | 变量2 | 变量3 ||--|-|-|| 1.2 | 2.3 | 3.4 || 1.5 | 2.5 | 3.6 || 4.1 | 5.2 | 6.3 || 4.4 | 5.6 | 6.8 || 7.1 | 8.2 | 9.3 || 7.4 | 8.6 | 9.9 |四、论述题(每题30分,共30分)1. 论述因子分析与主成分分析的异同,并讨论它们在实际应用中可能遇到的问题及解决方案。

多元统计期末考试题及答案

多元统计期末考试题及答案

多元统计期末考试题及答案一、选择题(每题2分,共20分)1. 在多元线性回归中,如果一个变量的系数为0,这意味着什么?A. 该变量对因变量没有影响B. 该变量与因变量完全相关C. 该变量与因变量无关D. 该变量是多余的2. 主成分分析(PCA)的主要目的是什么?A. 减少数据的维度B. 增加数据的维度C. 找到数据的均值D. 找到数据的中位数3. 以下哪个不是聚类分析的优点?A. 可以揭示数据的内在结构B. 可以用于分类C. 可以减少数据的维度D. 可以找到数据的异常值4. 在因子分析中,如果一个因子的方差贡献率很低,这通常意味着什么?A. 该因子对数据的解释能力很强B. 该因子对数据的解释能力很弱C. 该因子是多余的D. 该因子是重要的5. 以下哪个是多元统计分析中常用的距离度量?A. 欧氏距离B. 曼哈顿距离C. 切比雪夫距离D. 所有以上选项二、简答题(每题10分,共30分)6. 解释什么是多元线性回归,并简述其在实际问题中的应用。

7. 描述主成分分析(PCA)的基本原理,并举例说明其在数据分析中的作用。

8. 简述聚类分析的过程,并讨论其在商业数据分析中的应用。

三、计算题(每题25分,共50分)9. 假设有以下数据集,包含两个变量X和Y,以及它们的观测值:| 观测 | X | Y |||||| 1 | 2 | 3 || 2 | 3 | 4 || 3 | 4 | 5 || 4 | 5 | 6 |请计算X和Y的协方差,并解释其意义。

10. 给定以下数据集,进行聚类分析,并解释聚类结果:| 观测 | 变量1 | 变量2 |||-|-|| 1 | 1.5 | 2.5 || 2 | 2.0 | 3.0 || 3 | 3.5 | 4.5 || 4 | 4.0 | 5.0 |多元统计期末考试题答案一、选择题1. A2. A3. C4. B5. D二、简答题6. 多元线性回归是一种统计方法,用于分析两个或两个以上的自变量(解释变量)与一个因变量之间的关系。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

1、简述多元统计分析中协差阵检验的步骤 第一,提出待检验的假设H0和H1; 第二,给出检验的统计量及其服从的分布;第三,给定检验水平,查统计量的分布表,确定相应的临界值,从而得到否定域; 第四,根据样本观测值计算出统计量的值,看是否落入否定域中,以便对待判假设做出决策(拒绝或接受)。

协差阵的检验检验0=ΣΣ0p H =ΣI : /2/21exp 2np n e tr n λ⎧⎫⎛⎫=-⎨⎬ ⎪⎩⎭⎝⎭S S00p H =≠ΣΣI : /2/2**1exp 2np n e tr n λ⎧⎫⎛⎫=-⎨⎬ ⎪⎩⎭⎝⎭S S检验12k ===ΣΣΣ012k H ===ΣΣΣ:统计量/2/2/2/211i i kkn n pn np k iii i nnλ===∏∏SS2. 针对一个总体均值向量的检验而言,在协差阵已知和未知的两种情形下,如何分别构造的统计量?3. 作多元线性回归分析时,自变量与因变量之间的影响关系一定是线性形式的吗?多元线性回归分析中的线性关系是指什么变量之间存在线性关系? 答:作多元线性回归分析时,自变量与因变量之间的影响关系不一定是线性形式。

当自变量与因变量是非线性关系时可以通过某种变量代换,将其变为线性关系,然后再做回归分析。

多元线性回归分析的线性关系指的是随机变量间的关系,因变量y 与回归系数βi 间存在线性关系。

多元线性回归的条件是:(1)各自变量间不存在多重共线性; (2)各自变量与残差独立;(3)各残差间相互独立并服从正态分布; (4)Y 与每一自变量X 有线性关系。

4.回归分析的基本思想与步骤 基本思想:所谓回归分析,是在掌握大量观察数据的基础上,利用数理统计方法建立因变量与自变量之间的回归关系函数表达式(称回归方程式)。

回归分析中,当研究的因果关系只涉及因变量和一个自变量时,叫做一元回归分析;当研究的因果关系涉及因变量和两个或两个以上自变量时,叫做多元回归分析。

此外,回归分析中,又依据描述自变量与因变量之间因果关系的函数表达式是线性的还是非线性的,分为线性回归分析和非线性回归分析。

通常线性回归分析法是最基本的分析方法,遇到非线性回归问题可以借助数学手段化为线性回归问题处理。

步骤:1)确定回归方程中的解释变量和被解释变量。

2)确定回归模型根据函数拟合方式,通过观察散点图确定应通过哪种数学模型来描述回归线。

如果被解释变量和解释变量之间存在线性关系,则应进行线性回归分析,建立线性回归模型;如果被解释变量和解释变量之间存在非线性关系,则应进行非线性回归分析,建立非线性回归模型。

3)建立回归方程根据收集到的样本数据以及前步所确定的回归模型,在一定的统计拟合准则下估计出模型中的各个参数,得到一个确定的回归方程。

4)对回归方程进行各种检验由于回归方程是在样本数据基础上得到的,回归方程是否真实地反映了事物总体间的统计关系,以及回归方程能否用于预测等都需要进行检验。

5)利用回归方程进行预测5.多重共线性问题、不良后果、解决方法多重共线性是指线性回归模型中的自变量之间由于存在精确相关关系或高度相关关系而使模型估计失真或难以估计准确。

常见的是近似的多重共线性关系,即存在不全为0的p个常数C1,C2,…,Cp使得C1X i1+C2X i2+…+CpXip≈0,i=1,2,…n不良后果:模型存在完全的多重共线性,则资料阵X的秩<p+1,从而无法得到回归参数的估计量。

对于近似多重共线性情况,虽有r(X)=p+1,但|X T X|≈0,从而矩阵(X T X)-1的主对角线上的元素很大,使得估计的参数向量的协方差阵的对角线上的元素也很大,导致普通最小二乘参数估计量并非有效。

检验方法:方差扩大因子(VIF)法和特征根判定法方差扩大因子表达式为:VIF i=1/(1-R i2),其中R i为自变量xi对其余自变量作回归分析的复相关系数。

当VIF i很大时,表明自变量间存在多重共线性。

解决方法:当发现自变量存在严重的多重共线性时,可以通过剔除一些不重要的自变量、增大样本容量、对回归系数做有偏估计(如采用岭回归法、主成分法、偏最小二乘法等)等方法来克服多重共线性。

6.为什么要进行回归方程的显著性检验?答:对于任意给定的一组观测数据(xi1,xi2,...,xip;yi),(i=1,2,...,n) ,我们都可以建立回归方程。

但实际问题很可能y与自变量x1,x2,...,xp之间根本不存在线性关系,这时建立起来的回归方程的效果一定很差,即回归值yi实际上不能拟合真实的值yi。

即使整个回归方程的效果是显著的,在多元的情况下,是否每个变量都起着显著的作用呢?因此还需要对各个回归系数进行显著性检验,对于回归效果不显著的自变量,我们可以从回归方程中剔除,而只保留起重要作用的自变量,这样可以使回归方程更简练。

7.统计性的依据是什么?给出一个回归方程如何做显著性检验?统计性的依据是方差分析。

对于多元线性回归方程作显著性检验就是要看自变量x1,x2,...xp从整体上对随机变量y是否有明显的影响,即检验假设H0:β1=β2=...=βp=0 H1:至少有某个βi≠0,1<=i<=p如果H0被接受,则表明y与x1,x2,...xp之间不存在线性关系,为了说明如何进行检验,我们首先要建立方差分析表。

在进行显著性检验中,我们可以用F统计量来检验回归方程的显著性,也可以用P值法做检验。

F统计量是:F=MSR/MSE=[SSR/p]/[SSE/(n-p-1)]当H0为真时,F~F(p,n-p-1)。

给定显著性水平α,查F分布表得临界值F1-α(p,n-p-1),计算F的观测值,若F0<=F1-α(p,n-p-1),则接受H0,即认为在显著性水平α之下,认为y与x1,x2,...xp之间线性关系不显著。

利用P值法做显著性检验十分方便,这里的P值是P(F>F0),定显著性水平α,若p<α,则拒绝H0,反之接受H0。

回归系数的显著性检验回归方程通过了显著性检验并不意味着每个自变量xi都对y有显著影响。

而回归系数的显著性检验的目的就是从回归方程中剔除那些对y的影响不显著的自变量,从而建立一个较为有效的回归方程。

如果自变量xi对y无影响,则在线性模型中,βi=0检验xi的影响是否显著等价于检验假设H0:βi=0,H1:βi≠0对给定的显著性水平α,当|ti|>tα/2(n-p-1)时,拒绝H0。

反之,则接受H0。

数据的中心化和标准化目的:解决利用回归方程分析实际问题时遇到的诸多自变量量纲不一致的问题。

数据中心化处理的几何意义:相当于将坐标原点移至样本中心,而坐标系的平移并不改变直线的斜率,只改变了截距。

通过对残差进行分析,可以在一定程度上回答下列问题:1)回归函数线性假定的可行性;2)误差项的等方差假设的合理性;3)误差项独立性假设的合理性;4)误差项是否符合正态分布;5)观测值中是否存在异常值;6)是否在模型中遗漏了某些重要的自变量。

8.标准化回归方程与非标准化回归方程有何不同?在怎样的情况下需要将变量标准化?标准化回归方程就是将自变量因变量都标准化后的方程。

在spss输出的回归系数中有一列是标准化的回归系数,由于都标准化了,因此标准化方程中没有常数项了。

对数据标准化,即将原始数据减去相应变量的均数后再除以该变量的标准差,计算得到的回归方程称为标准化回归方程,相应的回归系数为标准化回归系数。

一般情况下的回归,并不必须标准化,直接回归即可。

在做主成分分析包括因子分析时,则必须标准化。

9.回归分析和相关分析的区别和联系相关分析和回归分析都是对客观事物数量依存关系的分析,均有一元和多元,线性与非线性之分,在应用中相互结合渗透,但仍有差别,主要是:(1)相关分析主要刻画两类变量间线性相关的密切程度,而回归分析则是揭示一个变量如何与其他变量相联系,并可由回归方程进行控制和预测(2)在相关分析中,变量y与x处于平等的地位,在回归分析中,因变量y处于被解释的特殊地位(3)在相关分析中所涉及的变量y与x完全是随机变量;而在回归分析中因变量y是随机变量,自变量可以是随机变量也可以是非随机变量。

一般来说,只有存在相关关系才可以进行回归分析,相关程度越高,回归分析的结果就越可靠。

10.回归方程的基本假定?(1)回归函数的线性假设(2)误差项的等方差假设(3)误差项的独立性假设(4)误差项的正态分布假设11.运用回归分析解决问题时,回归变量的选择理论依据的什么?选择回归变量时应注意哪些问题?(1)从拟合角度考虑,可以采用修正的复相关系数达到最大的准则准则1:修正的复相关系数R a2达到最大。

因为:R a2=1-MSE/(SST/(n-1))从这个关系式容易看出,R a2达到最大时,MSE达到最小。

(2)从预测的角度考虑,可以采用预测平方和达到最小的准则及C p准则准则2:预测平方和PRESS p达到最小准则3:(C p准则)(3)从极大似然估计角度考虑,可以采用赤池信息量化准则(AIC准则)准则4:赤池信息量达到最小AIC=nln(SSE p)+2p选择AIC值最小的回归方程为最优回归方程自变量的选择问题可以看成是应该采用全模型还是选模型的问题全模型正确误用选模型:全模型相应参数为有偏估计,选模型预测也是有偏的。

选模型的参数估计和预测残差以及均方差都有较小的方差。

选模型正确误用全模型,全模型参数估计和预测是有偏估计,而全模型预测值的方差和均方差大于选模型相应的方差。

上述结论说明丢掉那些对应变量影响不大的,或虽有影响,但难于观测的自变量是有利的。

12.逐步回归方法的基本思想与步骤基本思想:有进有出。

具体做法是将变量一个一个引入,引入变量的条件是通过了偏F统计量的检验,同时,每引入一个新变量后,对已入选方程的老变量进行检测,将经检验认为不显著的变量剔除,此过程经过若干步,直到既不能引入新变量又不能剔除老变量为止。

基本步骤:(1)对于每个自变量x i(1≤i≤m),拟合m个一元线性回归模型,若F i1(1)>F E,则所选择含有自变量x i1的回归模型为当前模型,否则,没有变量引入模型,选择过程结束,即认为所有自变量对y的影响均不显著。

(2)在第一步的基础上,再将其余的m-1个自变量分别加入此模型中,得到m-1个二元回归方程,若若Fi1(2)>FE则将自变量xi2引入模型,进一步考察xi2引入模型后,xi1对y的影响是否仍显著,若Fi1(2)≤FD,则剔除xi。

(3)在第二步的基础上再将其余的m-2个自变量分别加入此模型中,拟合各个模型并计算偏F统计量值,与FE比较决定是否又新变量引入,如果有新的变量引入,还需要检验原模型中的老变量是否因为这个新变量的引入而不再显著,那样就应该被剔除。

相关文档
最新文档