方差分析及回归分析
方差分析与回归分析

方差分析与回归分析在统计学中,方差分析和回归分析都是常用的统计方法,用于研究不同变量之间的关系。
虽然两种分析方法的目的和应用领域有所不同,但它们都有助于我们深入理解数据集,并从中获得有关变量之间关系的重要信息。
一、方差分析方差分析(Analysis of Variance,简称ANOVA)是一种用于比较三个或三个以上样本均值是否存在显著差异的统计方法。
方差分析的主要思想是通过比较组间方差与组内方差的大小来判断样本均值之间的差异是否具有统计学意义。
方差分析通常包括以下几个基本步骤:1. 设置假设:首先我们需要明确研究的问题,并设置相应的零假设和备择假设。
零假设通常表示各组均值相等,备择假设表示各组均值不全相等。
2. 计算统计量:利用方差分析的原理和公式,我们可以计算出F值作为统计量。
F值表示组间均方与组内均方的比值,用于判断样本均值之间的差异是否显著。
3. 判断显著性:通过查找F分布表,我们可以确定相应的拒绝域和临界值。
如果计算出的F值大于临界值,则可以拒绝零假设,认为样本均值存在显著差异。
4. 后续分析:如果方差分析结果显示样本均值存在显著差异,我们可以进行进一步的事后比较分析,比如进行多重比较或构建置信区间。
方差分析广泛应用于生物医学、社会科学、工程等各个领域。
通过方差分析可以帮助我们研究和理解不同组别之间的差异,并对实验设计和数据分析提供重要的指导和支持。
二、回归分析回归分析(Regression Analysis)是一种用于探究自变量与因变量之间关系的统计方法。
回归分析的目标是建立一个可信度高的数学模型,用以解释和预测因变量的变化。
回归分析可以分为线性回归和非线性回归两种类型。
线性回归基于一条直线的关系来建立模型,非线性回归则基于其他曲线或函数形式的关系进行建模。
进行回归分析的主要步骤如下:1. 收集数据:首先需要收集自变量和因变量的数据。
确保数据的准确性和完整性。
2. 确定模型:根据数据的特点和研究的目标,选择适当的回归模型。
方差分析与回归分析

硬商品买卖在阿里巴巴软商品交易在阿里巧巧
方差分析与回归分析
方差分析(Analysis of Variance, 缩写为ANOV A)是数理统计学中常用的数据处理方法之一,是工农业生产和科学研究中分析试验数据的一种有效的工具。
也是开展试验设计、参数设计和容差设计的数学基础。
一个复杂的事物,其中往往有许多因素互相制约又互相依存。
方差分析的目的是通过数据分析找出对该事物有显著影响的因素,各因素之间的交互作用,以及显著影响因素的最佳水平等。
方差分析是在可比较的数组中,把数据间的总的“变差”按各指定的变差来源进行分解的一种技术。
对变差的度量,采用离差平方和。
方差分析方法就是从总离差平方和分解出可追溯到指定来源的部分离差平方和。
这是一个很重要的思想。
回归分析(Regression Analysis)是研究一个变量Y与其它若干变量X之间相关关系的一种数学工具,它是在一组试验或观测数据的基础上,寻找被随机性掩盖了的变量之间的依存关系。
粗略地讲,可以理解为用一种确定的函数关系去近似代替比较复杂的相关关系,这个函数称为回归函数,在实际问题中称为经验公式。
回归分析所研究的主要问题就是如何利用变量X,Y的观察值(样本),对回归函数进行统计推断,包括对它进行估计及检验与它有关的假设等。
硬商品买卖在阿里巴巴软商品交易在阿里巧巧。
概率统计中的回归分析和方差分析

概率统计中的回归分析和方差分析回归分析是概率统计中一种重要的分析方法,用于研究自变量与因变量之间的关系。
它可以通过建立一个数学模型,来预测和解释两个或多个变量之间的关系。
而方差分析则是用于比较两个或多个总体均值差异的统计方法。
这两种方法在概率统计领域中具有广泛的应用,本文将对回归分析和方差分析进行介绍和探讨。
一、回归分析回归分析是一种统计方法,主要用于建立一个数学模型以描述自变量和因变量之间的关系。
它常用于预测、解释和分析数据,为研究者提供有关变量之间关系的信息。
回归分析中最常用的模型是线性回归模型,它假设自变量和因变量之间存在线性关系。
在回归分析中,我们首先要选择适当的自变量和因变量。
自变量通常是研究者认为可能影响因变量的变量,而因变量是研究者希望通过自变量来解释和预测的变量。
然后,我们通过收集一定数量的数据来建立数学模型,并进行回归分析。
回归分析的核心目标是通过估计回归系数来确定自变量与因变量之间的关系。
回归系数可以告诉我们两个变量之间的相关性和影响程度。
在线性回归模型中,回归系数表示当自变量的单位变化引起因变量的变化时,因变量的平均变化量。
回归系数的显著性测试可以告诉我们该变量是否对因变量有显著影响。
此外,回归分析还可以进行多元回归和非线性回归等分析。
多元回归用于分析多个自变量和一个因变量之间的关系,非线性回归用于分析自变量和因变量之间的非线性关系。
这些分析方法可以进一步深入研究变量之间的关系。
二、方差分析方差分析是用于比较两个或多个总体均值差异的统计方法。
它通过分析不同组别之间的方差来推断总体均值是否存在显著差异。
方差分析适用于多组数据的比较,常用于实验设计和质量控制等领域。
方差分析将总体的方差分解成组间方差和组内方差,然后通过计算F统计量来进行假设检验。
如果F统计量大于临界值,则拒绝原假设,认为组别之间存在显著差异;否则,接受原假设,认为组别之间没有显著差异。
方差分析可以分为单因素方差分析和多因素方差分析。
统计学中的方差分析与回归分析

统计学中的方差分析与回归分析统计学是数学的一个分支,研究数据的收集、分析和解释。
在统计学中,方差分析和回归分析是两个重要的方法,用来评估数据之间的关系和解释变量之间的差异。
本文将重点探讨这两种方法的应用和原理。
一、方差分析方差分析(Analysis of Variance,ANOVA)是一种统计方法,用于比较两个或两个以上组之间的均值差异。
它将总变异分解为由组内变异和组间变异引起的部分,进而帮助我们判断是否存在显著差异。
方差分析通常用于研究实验设计、调查研究和质量控制。
其中最常用的是单因素方差分析,即只考虑一个自变量对因变量的影响。
例如,我们想了解不同药物剂量对患者血压的影响。
我们可以将患者随机分为不同剂量组,然后对比各组患者的平均血压。
在方差分析中,有三个关键概念:平方和、自由度和F值。
平方和用于衡量数据间的差异程度,自由度用于衡量数据独立的程度,而F值则是对组间差异和组内差异进行比较的统计量。
二、回归分析回归分析(Regression Analysis)是一种用于研究因果关系的统计方法,它通过建立数学模型,分析自变量和因变量之间的关系,并用于预测和解释变量之间的差异。
回归分析常用于预测和解释现象,如市场销售额、人口增长和股票价格等。
回归分析可以分为简单线性回归和多元回归。
简单线性回归是通过一条直线模拟自变量和因变量之间的关系,而多元回归则考虑多个自变量对因变量的影响。
回归分析可以帮助我们了解变量之间的相关性、预测未来的结果以及控制其他变量时对结果的影响。
在回归分析中,常用的指标包括回归系数、截距、R平方值和标准误差等。
回归系数用于衡量自变量对因变量的影响程度,截距表示在自变量为0时的因变量值,R平方值衡量模型的拟合优度,而标准误差则表示模型预测的精确度。
三、方差分析与回归分析的区别方差分析和回归分析都用于评估数据之间的差异和关系,但它们有一些重要的区别。
首先,方差分析主要用于比较两个或多个组之间的均值差异,而回归分析则用于建立和解释变量之间的关系。
方差分析与回归分析

方差分析与回归分析在统计学中,方差分析(ANOVA)和回归分析(Regression Analysis)都是常见的统计分析方法。
它们广泛应用于数据分析和实证研究中,有助于揭示变量之间的关系和影响。
本文将对方差分析和回归分析进行介绍和比较,让读者更好地理解它们的应用和区别。
一、方差分析方差分析是一种统计方法,用于比较两个或更多组别的均值是否存在显著差异。
它通过计算组内变异和组间变异的比值来判断不同组别间的差异是否具有统计显著性。
在方差分析中,通常有三种不同的情形:单因素方差分析、双因素方差分析和多因素方差分析。
单因素方差分析适用于只有一个自变量的情况。
例如,我们想要比较不同教育水平对收入的影响,可以将教育水平作为自变量分为高中、本科和研究生三个组别,然后进行方差分析来检验组别之间的收入差异是否显著。
双因素方差分析适用于有两个自变量的情况。
例如,我们想要比较不同教育水平和不同工作经验对收入的影响,可以将教育水平和工作经验作为自变量,进行方差分析来研究其对收入的影响程度和相互作用效应。
多因素方差分析适用于有多个自变量的情况。
例如,我们想要比较不同教育水平、工作经验和职位对收入的影响,可以将教育水平、工作经验和职位作为自变量,进行方差分析来探究它们对收入的联合影响。
方差分析的基本原理是计算组内变异和组间变异之间的比值,即F 值。
通过与临界F值比较,可以确定差异是否显著。
方差分析的结果通常会报告组间平均差异的显著性水平,以及可能存在的交互作用。
二、回归分析回归分析是一种统计方法,用于研究自变量与因变量之间的关系。
它通过建立一个数学模型来描述自变量对因变量的影响程度和方向。
回归分析分为简单线性回归和多元线性回归两种类型。
简单线性回归适用于只有一个自变量和一个因变量的情况。
例如,我们想要研究体重与身高之间的关系,可以将身高作为自变量、体重作为因变量,通过拟合一条直线来描述二者之间的关系。
多元线性回归适用于有多个自变量和一个因变量的情况。
统计学中的方差分析与回归分析比较

统计学中的方差分析与回归分析比较统计学是以搜集、整理、分析数据的方法为研究对象的一门学科,随着现代科技的不断进步,统计学在许多领域中都扮演着至关重要的角色。
在统计学的研究中,方差分析和回归分析都是两种常见的方法。
然而,这两种方法之间的区别是什么?它们各自的优缺点又是什么呢?本文将就这些问题进行探讨。
一、方差分析是什么?方差分析,也称为ANOVA (analysis of variance),是一种用于分析各个因素对于某一变量影响力大小的方法。
在统计数据分析中,可能有多个自变量(影响因素),这时我们需要检验这些因素中哪些是显著的,即在该因素下所得的计算值与总计算值之间是否存在显著性差异。
因此,方差分析的基本思想是对总体方差进行分析,检验各个因素是否会对总体造成显著影响。
二、回归分析是什么?回归分析则是研究两个变量之间关系的一种方法。
一个自变量(independent variable)是已知的、独立的变量,一个因变量(dependent variable)是需要预测或解释的变量。
回归分析的主要目的是利用自变量对因变量进行预测,或者解释自变量与因变量之间的关系。
回归分析一般有两种,即简单线性回归和多元回归。
三、方差分析与回归分析的比较1. 适用范围方差分析适用于多个自变量之间的比较;回归分析则适用于对单个因变量的预测。
2. 关心的变量在方差分析中,我们关心的是各个自变量对总体造成的显著影响程度;在回归分析中,我们关心的是自变量与因变量之间的相关性。
3. 变量类型方差分析和回归分析处理的数据类型也不相同。
在方差分析中,自变量通常为分类变量(catogorical variable),而因变量通常为连续量(continuous variable)。
而在回归分析中,自变量和因变量都为连续量。
4. 独立性假设方差分析的独立性假设要求各组之间是相互独立、没有相关的,而回归分析的独立性假设要求各个观测或实验之间是独立的。
方差分析与回归

方差分析的应用场景
总结词
方差分析适用于处理多组数据,当需要比较不同组之间的均值差异时,可以使用方差分析。
详细描述
方差分析广泛应用于各种领域,如社会科学、医学、经济学等。例如,在心理学中,研究者可以使用方差分析比 较不同年龄段的人在智力测试中的得分差异;在医学研究中,方差分析可以用于比较不同药物治疗对患者的疗效。
数据降维
通过回归分析找出影响因变量的关键因素, 从而降低数据的维度。
回归分析的优缺点
优点
能够找出自变量和因变量之间的关系,并建立数学模型进行预测;能够处理多个自变量和因变量之间 的关系;能够量化自变量对因变量的影响程度。
缺点
假设数据符合线性关系,对于非线性关系的数据拟合效果可能不佳;对于异常值和离群点敏感,容易 影响模型的稳定性;对于共线性问题处理不够理想,可能导致模型失真。
它通过选择合适的数学模型和参数, 使因变量的预测值与实际值之间的误 差最小化,从而得到最佳的预测结果 。
回归分析的应用场景
预测模型
利用已知的自变量数据来预测因变量的未来 值,如销售预测、股票价格预测等。
因素分析
研究自变量对因变量的影响程度,如研究广 告投入对销售额的影响程度。
分类问题
将因变量进行分类,如根据多个特征将客户 进行分类。
3
指导实践
分析结果可以为实际工作提供指导,例如在市场 营销中预测销售量、在医学中预测疾病发病率等。
方差分析与回归的未来发展
算法改进
多变量分析
随着计算能力的提升,未来会有更高效的 算法出现,提高分析的准确性和速度。
目前许多方差与回归分析集中在二元或三 元关系上,未来会有更多研究关注多变量 之间的关系。
回归分析实例
方差分析和回归分析

方差分析和回归分析方差分析和回归分析是统计学中常用的两种数据分析方法。
它们分别用于比较多个样本之间的差异以及建立变量之间的函数关系。
本文将对方差分析和回归分析进行介绍和比较。
一、方差分析方差分析(Analysis of Variance,简称ANOVA)是一种用于比较多个样本均值是否存在差异的统计方法。
方差分析通过比较组间和组内的方差来判断样本均值是否存在显著差异。
方差分析需要满足一些基本假设,如正态分布假设和方差齐性假设。
方差分析可以分为单因素方差分析和多因素方差分析。
单因素方差分析是指只有一个自变量(因素)对因变量产生影响的情况。
多因素方差分析则包含两个或两个以上自变量对因变量的影响,可以用于分析多个因素交互作用的效应。
方差分析的步骤包括建立假设、计算各组均值和方差、计算F值和判断显著性等。
通过方差分析可以得到组间显著性差异的结论,并进一步通过事后多重比较方法确定具体哪些组之间存在显著差异。
二、回归分析回归分析(Regression Analysis)是一种用于分析自变量和因变量之间关系的统计方法。
回归分析通过建立一种数学模型,描述自变量对因变量的影响程度和方向。
回归分析可用于预测、解释和探索自变量与因变量之间的关系。
回归分析可以分为线性回归和非线性回归。
线性回归是指自变量和因变量之间存在线性关系的情况,可以用一条直线进行拟合。
非线性回归则考虑了自变量和因变量之间的非线性关系,需要采用曲线或其他函数来进行拟合。
回归分析的步骤包括建立模型、估计参数、检验模型的显著性、预测等。
回归模型的好坏可以通过拟合优度、回归系数显著性以及残差分析等指标进行评估。
三、方差分析与回归分析的比较方差分析和回归分析都是常用的统计方法,但它们有一些区别。
主要区别包括:1. 目的不同:方差分析用于比较多个样本之间的差异,判断样本均值是否存在显著差异;回归分析则用于建立自变量和因变量之间的函数关系,预测和解释因变量。
2. 自变量个数不同:方差分析一般只有一个自变量(因素),用于比较不同组别之间的差异;回归分析可以包含一个或多个自变量,用于描述自变量对因变量的影响关系。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
第九章 回归分析教学要求 1.一元线性回归及线性相关显著性的检验法,利用线性回归方程进行预测。
2.可线性化的非线性回归问题及简单的多元线性回归。
⏹ 本章重点:理解线性模型,回归模型的概念,掌握线性模型中参数估计的最小二乘法估计法。
⏹ 教学手段:讲练结合 ⏹ 课时分配:6课时§9.1 一元线性回归回归分析是研究变量之间相关关系的一种统计推断法。
例如,人的血压y 与年龄x 有关,这里x 是一个普通变量,y 是随机变量。
Y 与x 之间的相依关系f(x)受随机误差ε的干扰使之不能完全确定,故可设有:ε+=)(x f y (9.1) 式中f(x)称作回归函数,ε为随机误差或随机干扰,它是一个分布与x 无关的随机变量,我们常假定它是均值为0的正态变量。
为估计未知的回归函数f(x),我们通过n 次独立观测,得x 与y 的n 对实测数据(x i ,y i )i=1,……,n ,对f(x)作估计。
实际中常遇到的是多个自变量的情形。
例如 在考察某化学反应时,发现反应速度y 与催化剂用量x 1,反应温度x 2,所加压力x 3等等多种因素有关。
这里x 1,x 2,……都是可控制的普通变量,y 是随机变量,y 与诸x i 间的依存关系受随机干扰和随机误差的影响,使之不能完全确定,故可假设有:ε+=),,,(21k x x x f y Λ (9.2) 这里ε是不可观察的随机误差,它是分布与x 1,……,x k 无关的随机变量,一般设其均值为0,这里的多元函数f(x 1,……,x k )称为回归函数,为了估计未知的回归函数,同样可作n 次独立观察,基于观测值去估计f(x 1,……,x k )。
以下的讨论中我们总称自变量x 1,x 2,……,x k 为控制变量,y 为响应变量,不难想象,如对回归函数f(x 1,……,x k )的形式不作任何假设,问题过于一般,将难以处理,所以本章将主要讨论y 和控制变量x 1,x 2,……,x k 呈现线性相关关系的情形,即假定f(x 1,……,x k )=b 0+b 1x 1+……+b k x k 。
并称由它确定的模型 (9.1) (k=1)及(9.2)为线性回归模型,对于线性回归模型,估计回归函数f(x 1,……,x k )就转化为估计系数b 0、b i (i=1,……,k) 。
当线性回归模型只有一个控制变量时,称为一元线性回归模型,有多个控制变量时称为多元线性回归模型,本着由浅入深的原则,我们重点讨论一元的,在此基础上简单介绍多元的。
§9.1.1 一元线性回归一、一元线性回归的数学模型前面我们曾提到,在一元线性回归中,有两个变量,其中x 是可观测、可控制的普通变量,常称它为自变量或控制变量,y 为随机变量,常称其为因变量或响应变量。
通过散点图或计算相关系数判定y 与x 之间存在着显著的线性相关关系,即y 与x 之间存在如下关系:y=a+bx+ε (9.3) 通常认为 ε~N (0,σ2)且假设σ2与x 无关。
将观测数据(x i ,y i )(i=1,……,n)代入(9.3)再注意样本为简单随机样本得:),0(,),,1(21σεεεN n i bx a y n i i i 独立同分布ΛΛ=++= (9.4)称(9.3)或(9.4)(又称为数据结构式)所确定的模型为一元(正态)线性回归模型。
对其进行统计分析称为一元线性回归分析。
不难理解 模型(9.4)中EY=a+bx ,若记y=E(Y),则y=a+bx,就是所谓的一元线性回归方程,其图象就是回归直线,b 为回归系数,a 称为回归常数,有时也通称a 、b 为回归系数。
我们对一元线性回归模型主要讨论如下的三项问题:(1) 对参数a ,b 和σ2进行点估计,估计量b aˆ,ˆ称为样本回归系数或经验回归系数,而x b a yˆˆˆ+=称为经验回归直线方程,其图形相应地称为经验回归直线。
(2) 在模型(9.3)下检验y 与x 之间是否线性相关。
(3) 利用求得的经验回归直线,通过x 对y 进行预测或控制。
二、a 、b 的最小二乘估计、经验公式现讨论如何根据观测值(x i ,y i ),i=1,2,……,n 估计模型(9.2)中回归函数f(x)=a+bx 中的回归系数。
采用最小二乘法,记平方和∑=--=nt t t bx a y b a 12)(),(Q (9.5)找使Q(a.b)达到最小的a 、b 作为其估计,即),(min )ˆ,ˆ(b a b aQ Q = 为此,令⎪⎪⎪⎩⎪⎪⎪⎨⎧=--==--=∑∑==0)(220][2211n t t t t nt t t x bx a y bx a y a 2bQ 2QΛ 化简得如教材所示的方程组(称为模型的正规方程) 解得⎪⎪⎩⎪⎪⎨⎧===x b y aL L b xxxy ˆˆˆ (9.6)(9.6)所示的b aˆ,ˆ分别称为a 、b 的最小二乘估计,式中 ()∑∑∑===-=-=n i ni n i i i i xx x n x x x L 112122)(1a.b∑∑∑∑==-=--=n i ni ni ni i i i i xy y x n y x y y x x L 1111))((1))((称x b a yˆˆˆ+=为经验回归(直线方程),或经验公式。
例1 某种合成纤维的强度与其拉伸倍数有关。
下表是24个纤维样品的强度与相应的拉伸倍数的实测记录。
试求这两个变量间的经验公式。
将观察值(x i ,y i ),i=1,……,24在平面直角坐标系下用点标出,所得的图称为散点图。
从本例的散点图看出,强度y 与拉伸倍数x 之间大致呈现线性相关关系,一元线性回归模型是适用y 与x 的。
现用公式(9.6)求b aˆ,ˆ,这里n=24 946.1171.11324193.650756.1301.1135.1272416.731266.1525.12724161.8296.731,93.650,61.8291.113,5.1272222=⨯-==⨯⨯-==⨯-======∑∑∑∑∑yy xy xx iiiii i L L L yx y xy x∴15.0ˆˆ859.0ˆ=-===x b y aL L b xxxy 由此得强度y 与拉伸倍数x 之间的经验公式为 x y859.015.0ˆ+= 三、最小二乘估计b a ˆ,ˆ的基本性质 定理9.1 一元线性回归模型(9.4)中,a 、b 的最小二乘估计b aˆ,ˆ满足:(1) b bE a aE ==ˆ,ˆ (2) 2221)ˆ(,)1()ˆ(σσxxxx L bD L x n a D =+= (3) 2)ˆ,ˆcov(σxxL x b a-= 证:(1) 注意到对任意i=1,2,……,n 有a xb x b a b E x y E aE bLxxx x b y y x x E Lxx b E x x b y E Ey y y E Dy x b a y E bx a Ey ni i ni i i i i i i i i =-+=-==-=--=-=-=-=+=+=∑∑==ˆˆ)())((1ˆ)()(,,,12122于是σ(2)利用∑==-ni i x x 10)(,将b 、aˆˆ表示为: ∑∑==-=--=ni i i n i i i y x x Lxx y y x x Lxx b 11)(1))((1ˆ (9.7)∑∑==--=-=ni i i n i i y Lxx x x x n b x y n a 11])(1[ˆ1ˆ (9.8) 由于y 1,y 2,……,y n 相互独立,有2221222212221222)1(])(1[])(1[)ˆ()(1)ˆ(σσσσσxxn i xx i ni i ni i xx L xn L x x x n Lxx x x x n a D Lxx x x L b D +=-+=--==-=∑∑∑=== 221221222)(])(1[)()ˆ,ˆcov(σσσxx ni xx i n i xx i xx i L x L x x x L x x x n L x x b a -=--=---=∑∑== 定理9.1表明,a 、b 的最小二乘估计b 、aˆˆ是无偏的,从(9.7),(9.8)还知道它们又是线性的,因此(9.5)所示的最小二乘估计b 、a ˆˆ分别是a 、b 的线性无偏估计。
§9.1.2 建立回归方程后进一步的统计分析一、σ2的无偏估计由于σ2是误差εi (i=1,……,n)的方差,如果εi 能观测,自然想到用∑ii n 21ε来估计σ,然而εi 是观测不到的,能观测的是y i.。
由i i i y x b a y Eˆˆˆˆ=+= (即Ey i 的估计),就应用残差i i y y ˆ-来估计i ε,因此,想到用∑∑===--=-n i ii n i i i b a Q nx b a y n y y n 1212)ˆ,ˆ(1)ˆˆ(1)ˆ(1 来估计σ2,我们希望得到无偏估计,为此需求残差平方和)ˆ,ˆ(b aQ 的数学期望,由定理9.2可推出 2)2()]ˆ,ˆ([σ-=n b aQ E (学员自验) 于是得∑=--=-=n i i i y y n n b a Q 122)ˆ(212)ˆ,ˆ(ˆσ为σ2的无偏估计,例如§9.1例1中2545.0ˆ=σ即有 定理9.2 令2)ˆ,ˆ(ˆ2-=n b a Q σ,则22ˆσσ=E 。
我们称2)ˆ,ˆ(ˆ-=n b aQ σ为标准误差,它反映回归直线拟合的程度。
具体计算时可用)1()1(ˆ)ˆ,ˆ(222r L L L L L L b L b a Q yy yyxx xy yyxx yy -=-=-=。
二、预测与控制 1、预测问题对于一元线性回归模型⎪⎩⎪⎨⎧++=),0(~2σεεN bx a y (9.9)我们根据观测数据(x i ,y i ),i=1,…,n ,得到经验回归方程x b a yˆˆˆ+=,当控制变量x 取值x 0(x 0≠x i ,i=1,…,n ),如何估计或预测相应的y 0呢?这就是所谓的预测问题,自然我们想到用经验公式,取0ˆˆˆx b a y +=来估计实际的0ε++=bx a y ,并称0ˆy为0y 点估计或点预测。
在实际应用中,若响应变量y 比较难观测,而控制变量x 却比较容易观察或测量,那么根据观测资料得到经验公式后,只要观测x 就能求得y 的估计和预测值,这是回归分析最重要的应用之一,例如在§9.1例1中,拉伸倍数x 0=7.5,则可预测强度59.65.7859.015.0ˆ0=⨯+=y但是,上面这样的估计用来预测y 究竟好不好呢?它的精度如何?我们希望知道误差,于是就有考虑给出一个类似于置信区间的预测区间的想法。