浅谈加权最小二乘法及其残差图

合集下载

稳健回归的反复加权最小二乘迭代解法及其应用

稳健回归的反复加权最小二乘迭代解法及其应用

稳健回归的反复加权最小二乘迭代解法及其应用调用robutfit函数作稳健回归regre函数和regtat函数利用普通最小二乘法估计模型中的参数,参数的估计值受异常值的影响比较大。

robutfit函数采用加权最小二乘法估计模型中的参数,受异常值的影响就比较小。

robutfit函数用来作稳健的多重线性或广义线性回归分析,下面介绍robutfit函数的用法。

1.4.1.robutfit函数的用法robutfit函数有以下几种调用方式:b=robutfit(某,y)b=robutfit(某,y,wfun,tune)b=robutfit(某,y,wfun,tune,cont)某b,tat+=robutfit(…)(1)b=robutfit(某,y)返回多重线性回归方程中系数向量β的估计值b,这里的b为一个1p某的向量。

输入参数某为自变量观测值矩阵(或设计矩阵),它是的矩阵。

与regre函数不同的是,默认情况下,robutfit函数自动在某第1列元素的左边加入一列1,不需要用户自己添加。

输入参数y为因变量的观测值向量,是的列向量。

robutfit函数把y或某中不确定数据NaN作为缺失数据而忽略它们。

np某1n某(2)b=robutfit(某,y,wfun,tune)用参数wfun指定加权函数,用参数tune指定调节常数。

wfun为字符串,其可能的取值如表1-3所示。

表1-3robutfit函数支持的加权函数加权函数(wfun)函数表达式默认调节常数值'andrew'in(||)rwIrrπ=<1.339'biquare'(默认值)22(1)(||1)wrIr=<4.685'cauchy'21(1)wr=+2.385'fair'1(1||)wr=+1.400'huber'1ma某(1,||)wr=1.345'logitic'tanh()wr=1.205'ol'普通最小二乘,无加权函数无'talwar'(||1)wIr=<2.795'welch'2rwe=2.985若调用时没有指定调节常数tune,则用表1-3中列出的默认调节常数值进行计算。

权函数与最小二乘法结合使用

权函数与最小二乘法结合使用

y
x y
-0.3
2.3 1.8
-1.2
1.6 0.5
1.1
5.1 3.8
-3.5
-1.9 -2.8
4.6
-1.5 0.5
西南交通大学
17
散点图为
6 5 4 3 2 1 0 -1 0 -2 -3 -4
-4
-2
2
4
6
8
西南交通大学
18
解: 先求线性部分的参数,得模型
ˆ n ( x) 0.3488 0.8089 x m1n ( x ) m
n
n
3) 再用所余残差估计模型中非线性部分
m1n ( x ) Wni i
i 1
n
ˆ ˆ bX i Yi a ,n i i 1,2,
注意: 此估计中的权的选取一如上一节 所示
西南交通大学
15
4) 得回归模型的估计为
ˆ W ˆ n ( x) a ˆ bx m ni i
散点图为:
12 10 8 6 4 2 0 0 5 10
西南交通大学
15
20
11
根据散点图选择倒指数曲线
y ae
型如 其中
b x
1 ln y ln a b x
Y A bX
A ln a Y ln y X 1/ x
dy 取权 U ni dY
e |Yi e
无关
取加权残差函数为
Q U ni (Yi a bX i )
i 1
n
2

ˆ 满足 ˆ, b a
ˆ ) min Q(a, b) ˆ, b Q(a
西南交通大学 5

最小二乘法估计

最小二乘法估计

机器学习领域应用
线性回归模型
在机器学习中,最小二乘法是线性回归模型的核心算法之一。通过最小化预测值与实际值之间的平方误差,可以 训练出预测精度较高的线性回归模型。
特征选择
最小二乘法也可以用于特征选择,通过计算特征的系数大小,可以判断哪些特征对模型的预测结果影响较大,从 而进行特征筛选和优化。
06 最小二乘法的未来发展与 研究方向
用于研究社会现象和人类行为 ,如市场调查、人口统计等。
最小二乘法的历史与发展
历史
最小二乘法最早由法国数学家勒让德 于1805年提出,并广泛应用于天文、 物理和工程领域。
发展
随着计算机技术的进步,最小二乘法 在数据处理和统计分析方面得到了广 泛应用和改进,出现了多种扩展和变 种,如加权最小二乘法、广义最小二 乘法等。
加权最小二乘法(WLS)
总结词
详细描述
加权最小二乘法是一种改进的线性回 归分析方法,通过给不同观测值赋予 不同的权重来调整误差的平方和。
加权最小二乘法(Weighted Least Squares,WLS)是对普通最小二乘法 的改进,通过给不同观测值赋予不同 的权重来调整误差的平方和。这种方 法适用于存在异方差性的数据,即误 差项的方差不恒定的情况。通过合理 地设置权重,WLS能够更好地拟合数 据并提高估计的准确性。
广泛的应用领域
最小二乘法适用于多种统计模型 和回归分析,是线性回归分析中 最常用的方法之一。
缺点
假设限制
01
最小二乘法要求数据满足线性关系和误差项独立同分布等假设,
这些假设在实际应用中可能难以满足。
对异常值敏感
02
虽然最小二乘法相对稳健,但仍然容易受到异常值的影响,可
能导致估计结果偏离真实值。

加权最小二乘定位算法-概述说明以及解释

加权最小二乘定位算法-概述说明以及解释

加权最小二乘定位算法-概述说明以及解释1.引言1.1 概述加权最小二乘定位算法是一种用于定位和测量的数学方法,通过对测量数据进行加权处理,可以更准确地计算出目标的位置信息。

这种定位算法在无线通信、室内定位、导航系统等领域有着广泛的应用,能够提高定位的精度和可靠性。

本文将介绍加权最小二乘定位算法的原理、应用和优势,同时对其发展前景进行展望,旨在帮助读者更深入地了解和应用这一定位算法。

1.1 概述部分的内容1.2 文章结构本文主要分为引言、正文和结论三部分。

引言部分将对加权最小二乘定位算法进行概述,并介绍文章的结构和目的。

正文部分将详细介绍加权最小二乘定位算法的原理、应用和优势。

结论部分将总结加权最小二乘定位算法的特点,并展望其未来的发展前景,为读者提供对该算法的全面了解和展望。

通过这样的结构,读者可以系统地学习和理解加权最小二乘定位算法的相关知识,并对其未来的发展方向有一个清晰的认识。

1.3 目的本篇文章旨在介绍加权最小二乘定位算法的原理、应用和优势。

通过对加权最小二乘定位算法的深入理解和分析,读者可以更好地了解该算法在定位领域的作用和意义。

同时,我们也将总结该算法的优势和未来发展前景,以及对其在实际应用中的展望。

通过本文的阐述,希望能够为相关领域的研究者和实践者提供有益的参考和启发。

法的展望": {}}}}请编写文章1.3 目的部分的内容2.正文2.1 加权最小二乘定位算法原理加权最小二乘定位算法原理加权最小二乘定位算法是一种基于数学模型的定位方法,其原理是通过对测量结果进行加权处理,利用加权最小二乘法来估计目标的位置。

这种算法可以有效地处理具有噪声和误差的测量数据,提高定位精度和稳定性。

该算法的原理主要包括以下几个步骤:1.数据预处理:首先对收集到的定位数据进行预处理,包括滤波、去除异常值等操作,以保证数据的准确性和可靠性。

2.数学建模:根据实际定位场景和信号传播特性,建立数学模型,描述目标与测量节点之间的空间关系和信号传播规律。

2 最小二乘残差法 raim 算法原理

2 最小二乘残差法 raim 算法原理

2 最小二乘残差法 raim 算法原理最小二乘残差法(Least Squares Residual Method)是一种常用的线性回归分析方法。

它的主要思想是通过寻找最小化数据点与拟合直线之间距离平方和的方法来确定最佳拟合直线的系数。

在实际应用中,该方法被广泛应用于数据分析、信号处理、机器学习等领域。

一、基本原理1.1 模型假设在进行最小二乘残差法分析时,我们通常假设数据点服从一个线性模型,即:y = β0 + β1x1 + β2x2 + … + βnxn + ε其中,y表示因变量,x1, x2, …, xn表示自变量,β0, β1, …, βn表示系数,ε表示误差项。

我们希望通过最小化误差项的平方和来确定系数。

1.2 求解过程对于给定的数据点集合{(xi,yi)}i=1,n,我们需要求解出系数β0, β1, …,βn使得误差项ε的平方和最小。

具体地说,我们需要构造一个目标函数J(β)来描述误差项ε与系数β之间的关系,并通过求解该目标函数的极值来得到最佳拟合直线的系数。

目标函数J(β)的定义如下:J(β) = Σ(yi - β0 - β1xi1 - β2xi2 - … - βn xin)^2其中,Σ表示对所有数据点求和。

我们需要通过对目标函数J(β)进行求导来得到其极值点。

为了简化计算,我们可以将目标函数J(β)写成矩阵形式:J(β) = (Y - Xβ)^T(Y - Xβ)其中,Y是n维列向量,表示所有数据点的因变量;X是n×(k+1)维矩阵,表示所有数据点的自变量及其系数;β是(k+1)维列向量,表示所有系数。

将目标函数J(β)对系数β求导并令其等于0,得到如下方程组:X^T(Xβ - Y) = 0该方程组可以通过矩阵运算来求解。

具体地说,我们可以先计算出X^TX和X^TY两个矩阵,并用它们来解出系数向量β。

二、RAIM算法原理RAIM(Receiver Autonomous Integrity Monitoring)算法是一种用于GPS接收机自主监测其位置解算的方法。

加权最小二乘回归系数的估计计算过程

加权最小二乘回归系数的估计计算过程

加权最小二乘回归系数的估计计算过程1. 概述加权最小二乘回归是一种对数据进行线性建模的方法,在现实应用中经常被使用。

通过加权最小二乘回归,我们可以得到对数据的线性关系进行建模的最佳拟合直线,并估计出各个自变量的系数。

本文将详细介绍加权最小二乘回归系数的估计计算过程,以便读者能够深入了解这一方法的原理和实现。

2. 加权最小二乘回归的基本原理加权最小二乘回归方法是最小化因变量的观测值与回归函数预测值之间的加权残差平方和来确定回归系数的方法。

其数学表达式为:(1)min∑wi(yi - β0 - β1xi1 - ... - βpxip)^2其中wi是观测值的权重,yi表示因变量的观测值,β0是截距项,β1到βp为自变量系数,xi1到xip为自变量观测值。

3. 加权最小二乘回归系数的估计计算步骤加权最小二乘回归系数的估计计算过程可以分为以下几个步骤:(1)计算加权变量根据给定的权重,对自变量和因变量进行加权变换,得到加权后的自变量和因变量。

(2)构建加权矩阵根据加权后的自变量和因变量,构建加权矩阵。

加权矩阵是一个n×(p+1)的矩阵,其中n为样本量,p为自变量的个数。

(3)计算加权矩阵的转置矩阵对加权矩阵进行转置,得到加权矩阵的转置矩阵。

(4)计算加权矩阵的乘积将加权矩阵和其转置矩阵相乘,得到乘积矩阵。

(5)计算乘积矩阵的逆矩阵对乘积矩阵进行求逆运算,得到逆矩阵。

(6)计算加权矩阵和因变量的乘积将加权矩阵和因变量相乘,得到乘积向量。

(7)计算回归系数利用逆矩阵和乘积向量,通过线性代数方法计算得到回归系数的估计值。

4. 加权最小二乘回归的优势加权最小二乘回归相对于普通最小二乘回归的优势在于,它能够更好地处理数据的异方差性。

在普通最小二乘回归中,对所有观测值一视同仁,忽略了不同观测值的方差可能不同的情况。

而通过加权最小二乘回归,我们可以根据数据的特点赋予不同观测值不同的权重,从而更准确地估计回归系数。

加权最小二乘法的基本思想即大残差平方

加权最小二乘法的基本思想即大残差平方

加权最小二乘法的基本思想即大残
差平方
和最小法
加权最小二乘法(Weighted Least Squares Method, WLSM)是统计学中进行参数估计的一种重要方法。

它的基本思想是使用极小化大残差平方和最小法(Large Residual Sum of Squares)对参数进行估计或拟合。

其中,每个观测值都有一个不同的权重,即观测值的可信度,权重可以是固定的,也可以是可变的。

该方法在处理有限样本数据时,特别适用于满足正态分布的数据。

WLSM的基本步骤如下:
(1)确定权重w:可以手动指定,也可以从数据分布中自动求出。

(2)根据观测值和权重,构造误差平方和函数S
(x1,x2,…,xn),其中x1,x2,…,xn为待估计参数。

(3)求取S(x1,x2,…,xn)在各个参数上的偏导数,当这些偏导数全为0时,即为参数的最小值。

(4)使用梯度下降法等数值方法求解上述参数的最小值。

加权最小二乘法 拟合多项式 matlab

加权最小二乘法 拟合多项式 matlab

加权最小二乘法(Weighted Least Squares, WLS)是一种经典的拟合方法,用于处理数据中的噪声和异常值。

在拟合多项式的过程中,加权最小二乘法能够更好地适应不同的数据权重,从而得到更准确、更可靠的拟合结果。

结合Matlab强大的数学计算和可视化工具,我们可以更方便、更高效地实现加权最小二乘法拟合多项式。

一、加权最小二乘法的基本原理1. 加权最小二乘法的概念在拟合多项式过程中,常常会遇到数据噪声较大或者部分数据异常值较大的情况。

此时,普通的最小二乘法可能无法有效地拟合数据,因此需要引入加权最小二乘法。

加权最小二乘法通过为每个数据点赋予不同的权重,对异常值和噪声进行更有效的处理。

2. 加权最小二乘法的数学原理加权最小二乘法的数学原理主要是在最小化误差的基础上,引入权重矩阵来调整不同数据点的重要性。

通过优化残差的加权和,可以得到适应不同权重的拟合结果。

二、Matlab中的加权最小二乘法1. Matlab工具Matlab提供了丰富的数学计算和拟合工具,通过内置的polyfit函数和curve fitting工具箱,可以方便地实现加权最小二乘法拟合多项式。

Matlab还提供了丰富的可视化工具,可以直观展示加权最小二乘法的拟合效果。

2. 加权最小二乘法的实现在Matlab中,可以通过指定权重向量来调用polyfit函数,实现加权最小二乘法拟合多项式。

利用Matlab内置的拟合评估工具,可以对拟合效果进行全面评估和优化。

三、实例分析以实际数据为例,我们可以在Matlab环境下进行加权最小二乘法的拟合多项式实例分析。

通过构建数据模型、指定权重、调用polyfit函数并结合可视化工具,可以全面了解加权最小二乘法在拟合多项式中的应用效果。

四、个人观点和总结在实际工程和科学研究中,加权最小二乘法拟合多项式是一种非常有效和重要的数据处理方法。

结合Matlab强大的数学计算和可视化工具,可以更方便、更高效地实现加权最小二乘法拟合多项式。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

浅谈加权最小二乘法及其残差图关键词:异方差;加权最小二乘法;残差图;SPSS一、引言好几年没有翻《统计研究》了。

最近,有一同行朋友打电话告诉我《统计研究》2005年第11期上刊登了一篇有关我与刘文卿合作编著的《应用回归分析》(2001.6.中国人民大学出版社)教材的文章。

赶紧找到这期的《统计研究》,看到其中孙小素副教授的文章《加权最小二乘法残差图问题探讨——与何晓群教授商榷》一文,以下简称《孙文》。

认真拜读后感触良多。

首先衷心感谢孙小素副教授阅读了我们《应用回归分析》拙作的部分章节,同时感谢《统计研究》给我们提供这样一个好的机会,使我们能够借助贵刊对加权最小二乘法的有关问题谈谈更多的认识。

《孙文》谈到《应用回归分析》教材中有关加权最小二乘法残差图的问题。

摆出了与加权最小二乘法相关的三类残差图,指出第三类残差图的局限性。

直接的问题是三类残差图的作用,而更深层的原因应该是对加权最小二乘法统计思想的理解和认识上的差异。

二、对加权最小二乘法的认识1. 加权最小二乘估计方法拙作《应用回归分析》中对加权最小二乘法有详尽的讲述,这里仅做简要介绍。

多元线性回归方程普通最小二乘法的离差平方和为:∑=----=n i ip p i i p x x y Q 1211010)(),,,(ββββββ(1)普通最小二乘估计就是寻找参数p βββ,,,10 的估计值pβββˆ,,ˆ,ˆ10 使式(1)的离差平方和Q 达极小。

式(1)中每个平方项的权数相同,是普通最小二乘回归参数估计方法。

在误差项i ε等方差不相关的条件下,普通最小二乘估计是回归参数的最小方差线性无偏估计。

然而在异方差的条件下,平方和中的每一项的地位是不相同的,误差项i ε的方差2i σ大的项,在式(1)平方和中的取值就偏大,在平方和中的作用就大,因而普通最小二乘估计的回归线就被拉向方差大的项,方差大的项的拟合程度就好,而方差小的项的拟合程度就差。

由式(1)求出的pβββˆ,,ˆ,ˆ10 仍然是p βββ,,,10 的无偏估计,但不再是最小方差线性无偏估计。

加权最小二乘估计的方法是在平方和中加入一个适当的权数i w ,以调整各项在平方和中的作用,加权最小二乘的离差平方和为:∑=----=ni ip p i i i p w x x y w Q 1211010)( ),,,(ββββββ (2)加权最小二乘估计就是寻找参数p βββ,,,10 的估计值pww w βββˆ,,ˆ,ˆ10 使式(2)的离差平方和w Q 达极小。

所得加权最小二乘经验回归方程记做ppw w w w x x y βββˆˆˆˆ110+++= (3)理论上最优的权数i w 为误差项方差2i σ的倒数,即21i i w σ= (4)误差项方差大的项接受小的权数,以降低其在式(2)平方和中的作用; 误差项方差小的项接受大的权数,以提高其在平方和中的作用。

由(2)式求出的加权最小二乘估计pww w βββˆ,,ˆ,ˆ10 就是参数p βββ,,,10 的最小方差线性无偏估计。

一个需要解决的问题是误差项的方差2i σ是未知的,因此无法真正按照式(4)选取权数。

在实际问题中误差项方差2i σ通常与自变量的水平有关,可以利用这种关系确定权数。

例如2i σ与第j 个自变量取值的平方成比例时,即2i σ=k 2ijx 时,这时取权数为21ij i x w = (5)更一般的情况是误差项方差2i σ与某个自变量j x 取值的幂函数m ij x 成比例,即2i σ=k mij x ,其中m 是待定的未知参数。

此时权数为 m iji x w 1= (6) 这时确定权数i w 的问题转化为确定幂参数m 的问题,可以借助SPSS 软件解决。

《应用回归》书中和《孙文》中都讲了这个方法,本文不再重述。

需要注意的是,在实际问题中比例关系2i σ=k mij x 只是近似的,式(6)确定的权数i w 只是式(4)最优权数的近似值,因此所得的参数最小二乘估计也只是近似的最小方差线性无偏估计。

2. 变量变换的加权最小二乘法《孙文》中谈到:加权最小二乘法的实质是要对原始数据实施变换,获得新的解释变量和被解释变量,变换的方法是: 2m jx y y -⋅=' (y '表示变换后的被解释变量) (7) 2m j h hx x x -⋅=',h =0,1,2,……,p (h x '是对应于原始变量h x 的新解释变量) (8)对变换后的变量(p x x x y '''',,,,10)重新进行普通最小二成估计(注意,此处的回归模型不包含常数项,增加了数据变换后派生出的一个新解释变量20m j x x -='),即可得到加权最小二乘法的经验回归方程: p pw w w w x x x y '++'+'='βββˆˆˆˆ1100 (9)以上是《孙文》中对加权最小二乘法的解释,其中公式(7)、(8)、(9)分别对应《孙文》中的公式(3)、(4)、(5)。

3. 两种方法的异同相同之处。

显然,式(3)与式(9)两个回归方程是等价的,把式(3)同时乘以2m j x w -=后就转化为式(9)。

不同之处。

首先,式(3)的回归方程ppw w w w x x y βββˆˆˆˆ110+++= 使用起来比较方便,因为利用该回归方程进行预测和控制时,无须按式(8)变换自变量的新值,直接将自变量的新值代入式(3)即可。

对这一点孙小素副教授也是认同的。

其实,所有方法的优劣评价根本就在于他是否方便于建模最终的应用。

其次,虽然两种加权回归方法所得的回归方程是等价的,但是对回归效果的拟合优度和检验是不同的,式(3)的加权最小二乘的总离差平方和、回归离差平方和、残差平方和的计算公式和关系为:∑∑∑===+-=-n i ni iw i w iw i n i w i ie w y y w y y w 112212)ˆ()( (10) 其中w y 是i y 用i w 加权的算术平均数。

由于式(9)的变换加权最小二乘回归方程不含常数项,所以不满足离差平方和分解式,而是对直接的平方和满足分解式,总平方和、回归平方和、残差平方和的计算公式和关系为:∑∑∑==='+'='n i n i iw iw n i i e y y 112212ˆ (11) 等价于∑∑∑===+=n i ni iw i iw in i i i e w y w y w 112212ˆ (12) 对不含常数项的普通最小二乘回归,SPSS 软件就是用上述公式计算平方和并进而计算判定系数2R 和做F 检验的。

然而,这种做法的合理性是有欠缺的,因为总平方和∑='n i iy 12不能如实反映因变量的变差,仅是为了满足平方和分解式而这样做,有削足适履的嫌疑。

另外一种做法是以∑='-'n i y y 12)(作为总离差平方和,把∑∑=='-'-'n i n i iw i e y y 1122)(作为回归离差平方和,而不使用∑='-'n i iw y y12)ˆ(作为回归离差平方和,Excel 软件不含常数项(即指定常数项为零)的普通最小二乘回归就是采用的这个方法。

对《孙文》所引用的《应用回归分析》例题,有关的计算结果见表1(a )—(d )。

从表中可以清楚看出用变换加权最小二乘法计算离差平方和存在明显的问题,判定系数2R 和检验统计量F 严重失真。

对同样的数据做变换加权最小二乘估计,市面上流行的不同软件的拟合优度检验却差别很大,SPSS 软件计算出的F =442.2,2R =0.968;Excel 软件计算出的F =74.26,2R =0.837。

对其他数值就不逐一对比了。

表1(a ) 普通最小二乘方差分析表(SPSS )表1(b ) 加权最小二乘方差分析表(SPSS )表1(c ) 变换加权最小二乘方差分析表(SPSS )表1(d ) 变换加权最小二乘方差分析表(Excel )针对上述问题,变换加权最小二乘法实际上常用于式(5)成立的情况,即m =2,此时变换后的自变量j x '≡1,回归参数j β就相当于回归常数项了,对变换后的数据就可以用含有常数项的普通最小二乘估计方法,各种统计软件对变换加权最小二乘法回归的拟合优度检验的输出结果就都一致了。

遗憾的是,即使是在这种特殊情况下也仍然与直接用加权最小二乘估计方法不一致,这只需仔细比较两种情况的总离差平方和公式∑='-'n i iy y 12)(和∑=-n i w i iy y w 12)(的差异即可。

这种通过变换变量求解加权最小二乘估计方法的作用是什么呢?引用文献[1]第180页的一段文字给予解释:“许多回归软件包允许用户有选择地使用具体的权数进行加权最小二乘分析。

如果不能选择,通过对观察值的具体变换,使用不加权的最小二乘法,仍能得到加权最小二乘估计量。

”可见通过变换变量求解加权最小二乘估计的方法仅是作为参数估计的一种计算手段而存在的,如果你使用的软件仅具有普通最小二乘功能,就只能用变换变量的方法求解加权最小二乘的参数估计。

《应用回归分析》教材是结合SPSS 软件编写的,而SPSS 软件允许用户直接使用权数进行加权最小二乘分析,不必通过变换变量的方法求解加权最小二乘估计,因此我们在教材中没有给出这种通过变换变量求解加权最小二乘估计的方法。

纵上所述,在拥有像SPSS 这种能够直接计算加权最小二乘估计的软件时,就不必使用变换变量求解加权最小二乘估计的方法了。

即使使用的是变换变量求解加权最小二乘估计的方法,也应该把式(9)变换回式(3)的形式,用来直接表示出原始变量之间的关系。

因此《孙文》把式(9)称为加权最小二乘法的经验回归方程就显然不合适了。

我们也没有见到其他的文献用这个称法。

三、三类残差图的作用以残差为纵坐标轴以自变量(或回归值y ˆ)为横坐标轴画的散点图就是残差图。

《孙文》中的三类残差图如下:1. 普通残差图。

指用原始数据对线性回归模型做普通最小二乘估计所得的普通残差i e 所做的残差图,也就是《孙文》中所称的第一类残差图。

2. 加权普通残差图。

其残差是用原始数据做加权最小二乘估计所得的普通残差w e (在《孙文》中记做w e '),也就是《孙文》中所称的加权派生残差图,或第三类残差图。

3. 加权变换残差图。

其残差是用变换数据做加权最小二乘估计所得的普通残差w e '(在《孙文》中记做w e ),也就是《孙文》中所称的加权残差图,或第二类残差图。

w e '的计算方法有两种,第一种方法是用式(9)的变换加权最小二乘法得到,第二种方法是把加权普通残差w e 乘以2m j x w -=得到,即2m j w w w x e w e e -⋅=⋅='。

相关文档
最新文档