方差分析及回归分析
方差分析与回归分析

方差分析与回归分析在统计学中,方差分析和回归分析都是常用的统计方法,用于研究不同变量之间的关系。
虽然两种分析方法的目的和应用领域有所不同,但它们都有助于我们深入理解数据集,并从中获得有关变量之间关系的重要信息。
一、方差分析方差分析(Analysis of Variance,简称ANOVA)是一种用于比较三个或三个以上样本均值是否存在显著差异的统计方法。
方差分析的主要思想是通过比较组间方差与组内方差的大小来判断样本均值之间的差异是否具有统计学意义。
方差分析通常包括以下几个基本步骤:1. 设置假设:首先我们需要明确研究的问题,并设置相应的零假设和备择假设。
零假设通常表示各组均值相等,备择假设表示各组均值不全相等。
2. 计算统计量:利用方差分析的原理和公式,我们可以计算出F值作为统计量。
F值表示组间均方与组内均方的比值,用于判断样本均值之间的差异是否显著。
3. 判断显著性:通过查找F分布表,我们可以确定相应的拒绝域和临界值。
如果计算出的F值大于临界值,则可以拒绝零假设,认为样本均值存在显著差异。
4. 后续分析:如果方差分析结果显示样本均值存在显著差异,我们可以进行进一步的事后比较分析,比如进行多重比较或构建置信区间。
方差分析广泛应用于生物医学、社会科学、工程等各个领域。
通过方差分析可以帮助我们研究和理解不同组别之间的差异,并对实验设计和数据分析提供重要的指导和支持。
二、回归分析回归分析(Regression Analysis)是一种用于探究自变量与因变量之间关系的统计方法。
回归分析的目标是建立一个可信度高的数学模型,用以解释和预测因变量的变化。
回归分析可以分为线性回归和非线性回归两种类型。
线性回归基于一条直线的关系来建立模型,非线性回归则基于其他曲线或函数形式的关系进行建模。
进行回归分析的主要步骤如下:1. 收集数据:首先需要收集自变量和因变量的数据。
确保数据的准确性和完整性。
2. 确定模型:根据数据的特点和研究的目标,选择适当的回归模型。
方差分析与回归分析的原理

方差分析与回归分析的原理方差分析和回归分析是统计学中常用的两种数据分析方法,它们都用于研究变量之间的相互关系,但是基于不同的背景和目的,其原理和应用也有所不同。
首先,我们来了解一下方差分析。
方差分析是一种用于比较两个或多个群体均值差异的统计方法。
它基于对总体方差的分解来分析不同因素对群体之间差异的贡献程度。
具体来说,方差分析将总体方差分解为组内变异和组间变异两部分,然后通过计算F统计量来判断组间变异是否显著大于组内变异。
方差分析可以用于很多场景,比如医疗研究中分析不同药物对疾病治疗效果的差异、教育研究中比较不同教学方法对学生成绩的影响等。
在进行方差分析时,需要明确一个自变量(也称为因素或处理)和一个因变量(也称为响应变量)。
自变量是被研究者主动操作或选择的变量,而因变量是根据自变量的不同取值而发生变化的变量。
方差分析的基本原理是通过对不同组之间的变异进行比较,来判断组间是否存在统计显著差异。
方差分析的核心思想是使用F统计量来判断组间变异与组内变异的比例是否显著大于1。
通过计算F值并与临界值进行比较,可以得出结论是否存在显著差异。
如果F值大于临界值,则可以拒绝原假设,表明不同组之间存在显著差异;如果F值小于临界值,则接受原假设,认为组间差异不显著。
接下来,我们来了解一下回归分析。
回归分析是统计学中用于研究变量之间关系的一种方法。
它研究的是一个或多个自变量对因变量的影响程度和方向。
回归分析可以用于预测未来趋势、解释变量之间的关系、探究因果关系以及确定主要影响因素等。
回归分析分为线性回归和非线性回归两种。
线性回归是最常用的一种回归方法,它假设自变量与因变量之间存在线性关系。
以一元线性回归为例,我们假设因变量Y可以用一个自变量X的线性函数来表示,即Y = β0 + β1X + ε,其中β0和β1是回归系数,ε是误差项,代表了未被自变量解释的因素。
通常,回归分析的目标是估计出回归系数的值,并利用这些系数来解释因变量与自变量之间的关系。
统计学中的方差分析与回归分析

统计学中的方差分析与回归分析统计学是数学的一个分支,研究数据的收集、分析和解释。
在统计学中,方差分析和回归分析是两个重要的方法,用来评估数据之间的关系和解释变量之间的差异。
本文将重点探讨这两种方法的应用和原理。
一、方差分析方差分析(Analysis of Variance,ANOVA)是一种统计方法,用于比较两个或两个以上组之间的均值差异。
它将总变异分解为由组内变异和组间变异引起的部分,进而帮助我们判断是否存在显著差异。
方差分析通常用于研究实验设计、调查研究和质量控制。
其中最常用的是单因素方差分析,即只考虑一个自变量对因变量的影响。
例如,我们想了解不同药物剂量对患者血压的影响。
我们可以将患者随机分为不同剂量组,然后对比各组患者的平均血压。
在方差分析中,有三个关键概念:平方和、自由度和F值。
平方和用于衡量数据间的差异程度,自由度用于衡量数据独立的程度,而F值则是对组间差异和组内差异进行比较的统计量。
二、回归分析回归分析(Regression Analysis)是一种用于研究因果关系的统计方法,它通过建立数学模型,分析自变量和因变量之间的关系,并用于预测和解释变量之间的差异。
回归分析常用于预测和解释现象,如市场销售额、人口增长和股票价格等。
回归分析可以分为简单线性回归和多元回归。
简单线性回归是通过一条直线模拟自变量和因变量之间的关系,而多元回归则考虑多个自变量对因变量的影响。
回归分析可以帮助我们了解变量之间的相关性、预测未来的结果以及控制其他变量时对结果的影响。
在回归分析中,常用的指标包括回归系数、截距、R平方值和标准误差等。
回归系数用于衡量自变量对因变量的影响程度,截距表示在自变量为0时的因变量值,R平方值衡量模型的拟合优度,而标准误差则表示模型预测的精确度。
三、方差分析与回归分析的区别方差分析和回归分析都用于评估数据之间的差异和关系,但它们有一些重要的区别。
首先,方差分析主要用于比较两个或多个组之间的均值差异,而回归分析则用于建立和解释变量之间的关系。
方差分析与回归分析

方差分析与回归分析在统计学中,方差分析(ANOVA)和回归分析(Regression Analysis)都是常见的统计分析方法。
它们广泛应用于数据分析和实证研究中,有助于揭示变量之间的关系和影响。
本文将对方差分析和回归分析进行介绍和比较,让读者更好地理解它们的应用和区别。
一、方差分析方差分析是一种统计方法,用于比较两个或更多组别的均值是否存在显著差异。
它通过计算组内变异和组间变异的比值来判断不同组别间的差异是否具有统计显著性。
在方差分析中,通常有三种不同的情形:单因素方差分析、双因素方差分析和多因素方差分析。
单因素方差分析适用于只有一个自变量的情况。
例如,我们想要比较不同教育水平对收入的影响,可以将教育水平作为自变量分为高中、本科和研究生三个组别,然后进行方差分析来检验组别之间的收入差异是否显著。
双因素方差分析适用于有两个自变量的情况。
例如,我们想要比较不同教育水平和不同工作经验对收入的影响,可以将教育水平和工作经验作为自变量,进行方差分析来研究其对收入的影响程度和相互作用效应。
多因素方差分析适用于有多个自变量的情况。
例如,我们想要比较不同教育水平、工作经验和职位对收入的影响,可以将教育水平、工作经验和职位作为自变量,进行方差分析来探究它们对收入的联合影响。
方差分析的基本原理是计算组内变异和组间变异之间的比值,即F 值。
通过与临界F值比较,可以确定差异是否显著。
方差分析的结果通常会报告组间平均差异的显著性水平,以及可能存在的交互作用。
二、回归分析回归分析是一种统计方法,用于研究自变量与因变量之间的关系。
它通过建立一个数学模型来描述自变量对因变量的影响程度和方向。
回归分析分为简单线性回归和多元线性回归两种类型。
简单线性回归适用于只有一个自变量和一个因变量的情况。
例如,我们想要研究体重与身高之间的关系,可以将身高作为自变量、体重作为因变量,通过拟合一条直线来描述二者之间的关系。
多元线性回归适用于有多个自变量和一个因变量的情况。
统计学中的方差分析与回归分析比较

统计学中的方差分析与回归分析比较统计学是以搜集、整理、分析数据的方法为研究对象的一门学科,随着现代科技的不断进步,统计学在许多领域中都扮演着至关重要的角色。
在统计学的研究中,方差分析和回归分析都是两种常见的方法。
然而,这两种方法之间的区别是什么?它们各自的优缺点又是什么呢?本文将就这些问题进行探讨。
一、方差分析是什么?方差分析,也称为ANOVA (analysis of variance),是一种用于分析各个因素对于某一变量影响力大小的方法。
在统计数据分析中,可能有多个自变量(影响因素),这时我们需要检验这些因素中哪些是显著的,即在该因素下所得的计算值与总计算值之间是否存在显著性差异。
因此,方差分析的基本思想是对总体方差进行分析,检验各个因素是否会对总体造成显著影响。
二、回归分析是什么?回归分析则是研究两个变量之间关系的一种方法。
一个自变量(independent variable)是已知的、独立的变量,一个因变量(dependent variable)是需要预测或解释的变量。
回归分析的主要目的是利用自变量对因变量进行预测,或者解释自变量与因变量之间的关系。
回归分析一般有两种,即简单线性回归和多元回归。
三、方差分析与回归分析的比较1. 适用范围方差分析适用于多个自变量之间的比较;回归分析则适用于对单个因变量的预测。
2. 关心的变量在方差分析中,我们关心的是各个自变量对总体造成的显著影响程度;在回归分析中,我们关心的是自变量与因变量之间的相关性。
3. 变量类型方差分析和回归分析处理的数据类型也不相同。
在方差分析中,自变量通常为分类变量(catogorical variable),而因变量通常为连续量(continuous variable)。
而在回归分析中,自变量和因变量都为连续量。
4. 独立性假设方差分析的独立性假设要求各组之间是相互独立、没有相关的,而回归分析的独立性假设要求各个观测或实验之间是独立的。
方差分析与回归

方差分析的应用场景
总结词
方差分析适用于处理多组数据,当需要比较不同组之间的均值差异时,可以使用方差分析。
详细描述
方差分析广泛应用于各种领域,如社会科学、医学、经济学等。例如,在心理学中,研究者可以使用方差分析比 较不同年龄段的人在智力测试中的得分差异;在医学研究中,方差分析可以用于比较不同药物治疗对患者的疗效。
数据降维
通过回归分析找出影响因变量的关键因素, 从而降低数据的维度。
回归分析的优缺点
优点
能够找出自变量和因变量之间的关系,并建立数学模型进行预测;能够处理多个自变量和因变量之间 的关系;能够量化自变量对因变量的影响程度。
缺点
假设数据符合线性关系,对于非线性关系的数据拟合效果可能不佳;对于异常值和离群点敏感,容易 影响模型的稳定性;对于共线性问题处理不够理想,可能导致模型失真。
它通过选择合适的数学模型和参数, 使因变量的预测值与实际值之间的误 差最小化,从而得到最佳的预测结果 。
回归分析的应用场景
预测模型
利用已知的自变量数据来预测因变量的未来 值,如销售预测、股票价格预测等。
因素分析
研究自变量对因变量的影响程度,如研究广 告投入对销售额的影响程度。
分类问题
将因变量进行分类,如根据多个特征将客户 进行分类。
3
指导实践
分析结果可以为实际工作提供指导,例如在市场 营销中预测销售量、在医学中预测疾病发病率等。
方差分析与回归的未来发展
算法改进
多变量分析
随着计算能力的提升,未来会有更高效的 算法出现,提高分析的准确性和速度。
目前许多方差与回归分析集中在二元或三 元关系上,未来会有更多研究关注多变量 之间的关系。
回归分析实例
方差分析和回归分析

方差分析和回归分析方差分析和回归分析是统计学中常用的两种数据分析方法。
它们分别用于比较多个样本之间的差异以及建立变量之间的函数关系。
本文将对方差分析和回归分析进行介绍和比较。
一、方差分析方差分析(Analysis of Variance,简称ANOVA)是一种用于比较多个样本均值是否存在差异的统计方法。
方差分析通过比较组间和组内的方差来判断样本均值是否存在显著差异。
方差分析需要满足一些基本假设,如正态分布假设和方差齐性假设。
方差分析可以分为单因素方差分析和多因素方差分析。
单因素方差分析是指只有一个自变量(因素)对因变量产生影响的情况。
多因素方差分析则包含两个或两个以上自变量对因变量的影响,可以用于分析多个因素交互作用的效应。
方差分析的步骤包括建立假设、计算各组均值和方差、计算F值和判断显著性等。
通过方差分析可以得到组间显著性差异的结论,并进一步通过事后多重比较方法确定具体哪些组之间存在显著差异。
二、回归分析回归分析(Regression Analysis)是一种用于分析自变量和因变量之间关系的统计方法。
回归分析通过建立一种数学模型,描述自变量对因变量的影响程度和方向。
回归分析可用于预测、解释和探索自变量与因变量之间的关系。
回归分析可以分为线性回归和非线性回归。
线性回归是指自变量和因变量之间存在线性关系的情况,可以用一条直线进行拟合。
非线性回归则考虑了自变量和因变量之间的非线性关系,需要采用曲线或其他函数来进行拟合。
回归分析的步骤包括建立模型、估计参数、检验模型的显著性、预测等。
回归模型的好坏可以通过拟合优度、回归系数显著性以及残差分析等指标进行评估。
三、方差分析与回归分析的比较方差分析和回归分析都是常用的统计方法,但它们有一些区别。
主要区别包括:1. 目的不同:方差分析用于比较多个样本之间的差异,判断样本均值是否存在显著差异;回归分析则用于建立自变量和因变量之间的函数关系,预测和解释因变量。
2. 自变量个数不同:方差分析一般只有一个自变量(因素),用于比较不同组别之间的差异;回归分析可以包含一个或多个自变量,用于描述自变量对因变量的影响关系。
高级统计学中的方差分析和回归分析

高级统计学中的方差分析和回归分析统计学是一门非常重要的学科领域,它通过对数据的采集、分析、整理与解释来揭示数据背后的规律和本质。
在统计学中,方差分析和回归分析是两个重要的概念,它们可以用来解释和预测数据的变化趋势,为其他学科领域提供有力的支持。
一、方差分析方差分析是一种用于比较两个或多个样本的平均值差异的方法。
比如,在实验室进行了一项研究,需要比较两个或多个不同处理方式下的数据表现,我们可以采用方差分析的方法。
方差分析的基本思想是将总方差分解为几个部分,其中各部分代表了一些特定的因素,比如不同处理方式、实验误差等。
我们通过对这些因素的方差分析,可以得到它们对总方差的贡献度,从而确定哪些因素是显著的,哪些是不显著的。
在实践中,方差分析可以用于各种不同的领域,比如教育、医学、社会科学等。
例如,我们可以采用方差分析的方法来研究不同教学方法对学生成绩的影响,或者研究不同药物对患者治疗效果的差异。
二、回归分析回归分析是一种用于建立变量之间关系模型的方法。
在回归分析中,我们可以通过对自变量与因变量的相关性研究,来预测因变量对自变量的响应情况。
回归分析可以归为简单线性回归和多元回归两种类型。
简单线性回归是指只有一个自变量和一个因变量的情况,它的数学模型可以用一条直线来表示。
在实际应用中,简单线性回归可以用来研究不同变量之间的关系,比如温度和空调使用时间的关系。
多元回归是指有两个或两个以上自变量和一个因变量的情况,它的数学模型可以用一个多项式来表示。
在实际应用中,多元回归可以用来研究多个变量之间的关系,比如气温、湿度、风力等因素对空调使用时间的影响。
总体来说,方差分析和回归分析是统计学领域中非常重要的概念。
通过对这两个概念的深入研究和应用,我们能够更好地揭示数据背后的规律和本质,为其他学科领域提供更好的支持。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
方差分析及回归分析 Revised as of 23 November 2020第九章 回归分析教学要求1.一元线性回归及线性相关显着性的检验法,利用线性回归方程进行预测。
2.可线性化的非线性回归问题及简单的多元线性回归。
⏹本章重点:理解线性模型,回归模型的概念,掌握线性模型中参数估计的最小二乘法估计法。
⏹教学手段:讲练结合 ⏹课时分配:6课时§ 一元线性回归回归分析是研究变量之间相关关系的一种统计推断法。
例如,人的血压y 与年龄x 有关,这里x 是一个普通变量,y 是随机变量。
Y 与x 之间的相依关系f(x)受随机误差ε的干扰使之不能完全确定,故可设有:ε+=)(x f y ()式中f(x)称作回归函数,ε为随机误差或随机干扰,它是一个分布与x 无关的随机变量,我们常假定它是均值为0的正态变量。
为估计未知的回归函数f(x),我们通过n 次独立观测,得x 与y 的n 对实测数据(x i ,y i )i=1,……,n ,对f(x)作估计。
实际中常遇到的是多个自变量的情形。
例如 在考察某化学反应时,发现反应速度y 与催化剂用量x 1,反应温度x 2,所加压力x 3等等多种因素有关。
这里x 1,x 2,……都是可控制的普通变量,y 是随机变量,y 与诸x i 间的依存关系受随机干扰和随机误差的影响,使之不能完全确定,故可假设有:ε+=),,,(21k x x x f y这里ε是不可观察的随机误差,它是分布与x 1,……,x k 无关的随机变量,一般设其均值为0,这里的多元函数f(x 1,……,x k )称为回归函数,为了估计未知的回归函数,同样可作n 次独立观察,基于观测值去估计f(x 1,……,x k )。
以下的讨论中我们总称自变量x 1,x 2,……,x k 为控制变量,y 为响应变量,不难想象,如对回归函数f(x 1,……,x k )的形式不作任何假设,问题过于一般,将难以处理,所以本章将主要讨论y 和控制变量x 1,x 2,……,x k 呈现线性相关关系的情形,即假定f(x 1,……,x k )=b 0+b 1x 1+……+b k x k 。
并称由它确定的模型 (k=1)及为线性回归模型,对于线性回归模型,估计回归函数f(x 1,……,x k )就转化为估计系数b 0、b i (i=1,……,k) 。
当线性回归模型只有一个控制变量时,称为一元线性回归模型,有多个控制变量时称为多元线性回归模型,本着由浅入深的原则,我们重点讨论一元的,在此基础上简单介绍多元的。
§9.1.1 一元线性回归一、一元线性回归的数学模型前面我们曾提到,在一元线性回归中,有两个变量,其中x 是可观测、可控制的普通变量,常称它为自变量或控制变量,y 为随机变量,常称其为因变量或响应变量。
通过散点图或计算相关系数判定y 与x 之间存在着显着的线性相关关系,即y 与x 之间存在如下关系:y=a+bx+ε通常认为 ε~N (0,σ2)且假设σ2与x 无关。
将观测数据(x i ,y i )(i=1,……,n)代入再注意样本为简单随机样本得:),0(,),,1(21σεεεN n i bx a y n i i i 独立同分布 =++=称或(又称为数据结构式)所确定的模型为一元(正态)线性回归模型。
对其进行统计分析称为一元线性回归分析。
不难理解 模型中EY=a+bx ,若记y=E(Y),则y=a+bx,就是所谓的一元线性回归方程,其图象就是回归直线,b 为回归系数,a 称为回归常数,有时也通称a 、b 为回归系数。
我们对一元线性回归模型主要讨论如下的三项问题:(1) 对参数a ,b 和σ2进行点估计,估计量b aˆ,ˆ称为样本回归系数或经验回归系数,而x b a yˆˆˆ+=称为经验回归直线方程,其图形相应地称为经验回归直线。
(2) 在模型下检验y 与x 之间是否线性相关。
(3) 利用求得的经验回归直线,通过x 对y 进行预测或控制。
二、a 、b 的最小二乘估计、经验公式现讨论如何根据观测值(x i ,y i ),i=1,2,……,n 估计模型()中回归函数f(x)=a+bx 中的回归系数。
采用最小二乘法,记平方和∑=--=nt t t bx a y b a 12)(),(Q找使Q 达到最小的a 、b 作为其估计,即),(min )ˆ,ˆ(b a b aQ Q = 为此,令⎪⎪⎪⎩⎪⎪⎪⎨⎧=--==--=∑∑==0)(220][2211n t t t t nt t t x bx a y bx a y a 2b Q 2Q化简得如教材所示的方程组(称为模型的正规方程) 解得⎪⎪⎩⎪⎪⎨⎧===x b y aL L b xxxy ˆˆˆ所示的b a ˆ,ˆ分别称为a 、b 的最小二乘估计,式中 ()∑∑∑===-=-=n i ni n i i i i xx x n x x x L 112122)(1∑∑∑∑==-=--=n i n i ni ni i i i i xy y x n y x y y x x L 1111))((1))((称x b a yˆˆˆ+=为经验回归(直线方程),或经验公式。
例1 某种合成纤维的强度与其拉伸倍数有关。
下表是24个纤维样品的强度与相应的拉伸倍数的实测记录。
试求这两个变量间的经验公式。
将观察值(x i ,y i ),i=1,……,24在平面直角坐标系下用点标出,所得的图称为散点图。
从本例的散点图看出,强度y 与拉伸倍数x 之间大致呈现线性相关关系,一元线性回归模型是适用y 与x 的。
现用公式()求b aˆ,ˆ,这里n=24 946.1171.11324193.650756.1301.1135.1272416.731266.1525.12724161.8296.731,93.650,61.8291.113,5.1272222=⨯-==⨯⨯-==⨯-======∑∑∑∑∑yy xy xx iiiii i L L L yx y xy x∴15.0ˆˆ859.0ˆ=-===x b y aL L b xxxy 由此得强度y 与拉伸倍数x 之间的经验公式为 x y859.015.0ˆ+= 三、最小二乘估计b a ˆ,ˆ的基本性质 定理 一元线性回归模型中,a 、b 的最小二乘估计b a ˆ,ˆ满足: (1) b bE a a E ==ˆ,ˆ (2) 2221)ˆ(,)1()ˆ(σσxxxxL bD L xn aD =+=(3) 2)ˆ,ˆcov(σxxL x b a-= 证:(1) 注意到对任意i=1,2,……,n 有a xb x b a b E x y E aE bLxxx x b y y x x E Lxx b E x x b y E Ey y y E Dy x b a y E bx a Ey ni i ni i i i i i i i i =-+=-==-=--=-=-=-=+=+=∑∑==ˆˆ)())((1ˆ)()(,,,12122于是σ(2)利用∑==-ni i x x 10)(,将b 、aˆˆ表示为: ∑∑==-=--=ni i i n i i i y x x Lxx y y x x Lxx b 11)(1))((1ˆ ∑∑==--=-=ni i i n i i y Lxx x x x nb x y n a 11])(1[ˆ1ˆ 由于y 1,y 2,……,y n 相互独立,有2221222212221222)1(])(1[])(1[)ˆ()(1)ˆ(σσσσσxxn i xx i ni i ni i xx L xn L x x x n Lxx x x x n a D Lxx x x L b D +=-+=--==-=∑∑∑=== 221221222)(])(1[)()ˆ,ˆcov(σσσxx ni xx i n i xx i xx i L x L x x x L x x x n L x x b a -=--=---=∑∑== 定理表明,a 、b 的最小二乘估计b 、aˆˆ是无偏的,从,还知道它们又是线性的,因此所示的最小二乘估计b 、aˆˆ分别是a 、b 的线性无偏估计。
§9.1.2 建立回归方程后进一步的统计分析一、σ2的无偏估计由于σ2是误差εi (i=1,……,n)的方差,如果εi 能观测,自然想到用∑ii n 21ε来估计σ,然而εi 是观测不到的,能观测的是y i.。
由i i i y x b a y Eˆˆˆˆ=+= (即Ey i 的估计),就应用残差i i yy ˆ-来估计i ε,因此,想到用∑∑===--=-n i i i n i i i b a Q nx b a y n y y n 1212)ˆ,ˆ(1)ˆˆ(1)ˆ(1 来估计σ2,我们希望得到无偏估计,为此需求残差平方和)ˆ,ˆ(b aQ 的数学期望,由定理可推出 2)2()]ˆ,ˆ([σ-=n b aQ E (学员自验) 于是得∑=--=-=n i i i y y n n b a Q 122)ˆ(212)ˆ,ˆ(ˆσ为σ2的无偏估计,例如§例1中2545.0ˆ=σ即有 定理 令2)ˆ,ˆ(ˆ2-=n b a Q σ,则22ˆσσ=E 。
我们称2)ˆ,ˆ(ˆ-=n b aQ σ为标准误差,它反映回归直线拟合的程度。
具体计算时可用)1()1(ˆ)ˆ,ˆ(222r L L L L L L b L b a Q yy yyxx xy yyxx yy -=-=-=。
二、预测与控制 1、预测问题对于一元线性回归模型⎪⎩⎪⎨⎧++=),0(~2σεεN bx a y ()我们根据观测数据(x i ,y i ),i=1,…,n ,得到经验回归方程x b a yˆˆˆ+=,当控制变量x 取值x 0(x 0≠x i ,i=1,…,n ),如何估计或预测相应的y 0呢这就是所谓的预测问题,自然我们想到用经验公式,取0ˆˆˆx b a y+=来估计实际的0ε++=bx a y ,并称0ˆy 为0y 点估计或点预测。
在实际应用中,若响应变量y 比较难观测,而控制变量x 却比较容易观察或测量,那么根据观测资料得到经验公式后,只要观测x 就能求得y 的估计和预测值,这是回归分析最重要的应用之一,例如在§例1中,拉伸倍数x 0=,则可预测强度59.65.7859.015.0ˆ0=⨯+=y但是,上面这样的估计用来预测y 究竟好不好呢它的精度如何我们希望知道误差,于是就有考虑给出一个类似于置信区间的预测区间的想法。
定理 对于一元(正态)线性模型⎩⎨⎧=++=),(独立同分布2210,,),,1(σεεεN n i bx a y ii i ()有 (1) )ˆ,ˆ(b a 服从二元正态分布。