一元线性回归的最小二乘估计

合集下载

计量经济学的2.2 一元线性回归模型的参数估计

计量经济学的2.2 一元线性回归模型的参数估计

基于样本数据,所得到的总体回归函数的一个估 计函数称为样本回归函数。
问题:当我们设定总体回归模型的函数形式后, 如何通过样本数据得到总体回归函数的一个估计 (即样本回归函数)?--参数估计问题
E (Y | X i ) 0 1 X i
ˆ ˆ ˆ Yi f ( X i ) 0 1 X i
Xi确定
作此假设的理由:当我们把PRF表述为 时,我们假定了X和u(后者代表所有被省略的变量的影 响)对Y有各自的(并且可加的)影响。但若X和u是相关 25 的,就不可能评估它们各自对Y的影响。
线性回归模型的基本假设(4)
假设4、服从零均值、同方差、零协方差的正态分布 i~N(0, 2 ) i=1,2, …,n 意为:ui服从正态分布且相互独立。因为对两个正态 分布的变量来说,零协方差或零相关意为这两个变量 独立。 作该假设的理由:i代表回归模型中末明显引进的许多解释
Yi 0 1 X i i
i=1,2,…,n
Y为被解释变量,X为解释变量,0与1为待估 参数, 为随机干扰项
3
回归分析的主要目的是要通过样本回归函 数(模型)SRF尽可能准确地估计总体回归函 数(模型)PRF。
ˆ ˆ ˆ Yi 0 1 X i
ˆ ˆ ˆ Yi 0 1 X i ui
同方差假设表明:对应于不同X值的全部Y值具有同 样的重要性。
22
线性回归模型的基本假设(2-3)
假设2、随机误差项具有零均值、同方差和不自相关 性(不序列相关): (2.3) 不自相关: Cov(i, j|Xi, Xj)=0 i≠j i,j= 1,2, …,n 或记为 Cov(i, j)=0 i≠j i,j= 1,2, …,n 意为:相关系数为0, i, j非线性相关。 几何意义如下

一元线性回归中最小二乘估计量的有效性

一元线性回归中最小二乘估计量的有效性

Fi ly, he c s s e tr s l s de i e r m h wo me h s na l t on it n e u t wa rv d f o t e t t od .
Ke r :e f c i e s ; la ts u r s e tm a or r gr s i n l i y wo ds fe tv ne s e s q a e s i t ; e e son a a yss
第 2 5卷 第 3期
21 0 1年 9月










Vo _ 5 NO 3 【2 .
S p .2 1 e t 01
J OURNAI OF S HAN GHAI UNI VER I NGI S TY OF E NEE I C E E R NG S I NC
了更 加全 面地研 究未 知参 数 的有效 性 , 本文 采用 比
这 n次试验 中因变量 可能取 的观察结 果 , 依次 记 , … , 从 而 得到 一 个容 量 为 ”的样 本 :z , Y, Y (

), z2 Y ) … , z Y ) ( ,2 , ( , .
假设 对 每 一 个 值 , 随机 变量 Y有 确 定 的 分
第 3期
肖 翔 , : 元 线 性 回归 中最 小 二 乘 估 计 量 的有 效性 等 一
s u e Fr m if r n e s e tv s t ompa a i e m e ho n if r n ito t od we e a ple o t did. o d fe e t p r p c i e , he c r tv t d a d d fe e ta i n me h r p id t

一元线性回归模型参数的最小二乘法估计

一元线性回归模型参数的最小二乘法估计

8.2.1一元线性回归模型1.生活经验告诉我们,儿子的身高与父亲的身高相关.一般来说,父亲的身高较高时,儿子的身高通常也较高.为了进一步研究两者之间的关系,有人调查了14名男大学生的身高及其父亲的身高,得到的数据如表1所示.编号1234567891011121314父亲身高/cm 174 170 173 169 182 172 180 172 168 166 182 173 164 180 儿子身高/cm 176 176 170 170 185 176 178 174 170 168 178 172 165 182从图上看,散点大致分布在一条直线附近根据我们学过的整理数据的方法:相关系数r =0.886.父亲身高/cm180 175 170 165 160160 165 170 175180 185 190 ·· ·· · · · 儿子身高/cm· · · · ·185 1).问题1:可以得到什么结论?由散点图的分布趋势表明儿子的身高与父亲的身高线性相关,通过相关系数可知儿子的身高与父亲的身高正线性相关,且相关程度较高.2).问题2:是否可以用函数模型来刻画?不能,因为不符合函数的定义.这其中还受其它因素的影响.3).问题3:那么影响儿子身高的其他因素是什么?影响儿子身高的因素除父亲的身外,还有母亲的身高、生活的环境、饮食习惯、营养水平、体育锻炼等随机的因素,儿子身高是父亲身高的函数的原因是存在这些随机的因素.4).问题4: 你能否考虑到这些随机因素的作用,用类似于函数的表达式,表示儿子身高与父亲身高的关系吗?用x表示父亲身高,Y表示儿子的身高,用e表示各种其它随机因素影响之和,称e为随机误差, 由于儿子身高与父亲身高线性相关,所以Y=bx+a.考虑随机误差后,儿子的身高可以表示为:Y=bx+a+e由于随机误差表示大量已知和未知的各种影响之和,它们会相互抵消,为使问题简洁,可假设随机误差e的均值为0,方差为与父亲身高无关的定值 . 2σ2即E e D eσ:()0,().==我们称①式为Y 关于x 的一元线性回归模型,其中,Y 称为因变量或响应变量,x 称为自变量或解释变量 . a 称为截距参数,b 称为斜率参数;e 是Y 与bx+a 之间的随机误差.2,()0,().Y bx a e E e D e σ=++⎧⎨==⎩① 2、一元线性回归模型如果用x 表示父亲身高,Y 表示儿子的身高,e 表示随机误差.假定随机误差e 的均值为0,方差为与父亲身高无关的定值 ,则它们之间的关系可以表示为2σ4.问题5:你能结合具体实例解释产生模型①中随机误差项的原因吗?产生随机误差e的原因有:(1)除父亲身高外,其他可能影响儿子身高的因素,比如母亲身高、生活环境、饮食习惯和锻炼时间等.(2)在测量儿子身高时,由于测量工具、测量精度所产生的测量误差.(3)实际问题中,我们不知道儿子身高和父亲身高的相关关系是什么,可以利用一元线性回归模型来近似这种关系,这种近似关系也是产生随机误差e的原因.8.2.2一元线性回归模型参数的最小二乘法估计二、自主探究问题1.为了研究两个变量之间的相关关系, 我们建立了一元线性回归模型表达式 刻画的是变量Y 与变量x 之间的线性相关关系,其中参数a 和b 未知,我们如何通过样本数据估计参数a 和b?2,()0,().Y bx a e E e D e σ=++⎧⎨==⎩问题2.我们怎样寻找一条“最好”的直线,使得表示成对样本数据的这些散点在整体上与这条直线最“接近”?从成对样本数据出发,用数学的方法刻画“从整体上看,各散点与蓝色直线最接近”利用点到直线y=bx+a 的“距离”来刻画散点与该直线的接近程度,然后用所有“距离”之和刻画所有样本观测数据与该直线的接近程度.父亲身高/cm180 175 170 165 160160 165 170 175180 185 190 ·· ·· · · · 儿子身高/cm· · · · ·185 父亲身高/cm180 175 170 165 160160 165 170 175 180 185 190·· ·· · · · 儿子身高/cm· · · · ·185设满足一元线性回归模型的两个变量的n 对样本数据为(x 1,y 1),(x 2,y 2),…,(x n ,y n )父亲身高/cm180 175170165 160160165 170 175 180 185 190·· · · · · · 儿子身高/cm· ·· · · 185()()(1,2,3,,-).i i i i i i i i i i i y bx a e i n y bx a e e x y x bx a =++=⋅⋅⋅+=+由),得(显然越小,表示点,与点,的距离越小,()0,.i i i x y =即样本数据点离直线y=bx+a 的竖直距离越小,如上图特别地,当e 时,表示点在这条直线上1-)ni i i y bx a =+∑因此可用(来刻画各样本观测数据与直线y=bx+a 的整体接近程度.()iix y ,y=bx+a()i i x bx a +,·[]21(,)()ni i i Q a b y bx a ==-+∑残差平方和: 即求a ,b 的值,使Q ( a ,b )最小残差:实际值与估计值之间的差值,即 使Q 取得最小值,当且仅当b 的取值为121()()()nii i nii xx y y b xx ==--=-∑∑b.,ˆ,ˆ的最小二乘估计叫做求得a b a b(,).x y 经验回顾直线必经过的符号相同与相关系数r b ˆ最小二乘法我们将 称为Y 关于x 的经验回归方程,也称经验回归函数或经验回归公式,其图形称为经验回归直线,这种求经验回归方程的方法叫最小二乘法.ˆˆˆy bxa =+12111=i ni n22i ni n x x y y ˆb ,x x ˆˆa x y x y x xy b .i i i i i i ΣΣx )n ΣΣ(()()n ====⎧--⎪=⎪⎨-⎪⎪--=⎩-问题2:依据用最小二乘估计一元线性回归模型参数的公式,求出儿子身高Y 关于父亲身高x 的经验回归方程.儿子的身高不一定会是177cm ,这是因为还有其他影响儿子身高的因素,回归模型中的随机误差清楚地表达了这种影响,父亲的身高不能完全决定儿子的身高,不过,我们可以作出推测,当父亲的身高为176cm 时,儿子身高一般在177cm 左右.当x=176时, ,如果一位父亲身高为176cm,他儿子长大后身高一定能长到177cm 吗?为什么?177y ≈083928957ˆy .x .=+的意义?∧b残差的定义,e a bx Y ++=一元线性回归模型,,Y y 对于通过观测得响应到的数据称量为变观测值ˆ,y通过经验回归方程得到称为预报值的ˆ.ˆey y =-残观测值减去预报值称为即差判断模型拟合的效果:残差分析问题3:儿子身高与父亲身高的关系,运用残差分析所得的一元线性回归模型的有效性吗?残差图:作图时纵坐标为残差,横坐标可以选为样本编号,或身高数据或体重估计值等,这样作出的图形称为残差图.从上面的残差图可以看出,残差有正有负,残差点比较均匀地分布在横轴的两边,可以判断样本数据基本满足一元线性回归模型对于随机误差的假设.所以,通过观察残差图可以直观判断样本数据是否满足一元线性回归模型的假设,从而判断回归模型拟合的有效性.所以,只有图(4)满足一元线性回归模型对随机误差的假设图(1)显示残差与观测时间有线性关系,应将时间变量纳入模型; 图(2)显示残差与观测时间有非线性关系,应在模型中加入时间的非线性函数部分; 图(3)说明残差的方差不是一个常数,随观测时间变大而变大图(4)的残差比较均匀地集中在以横轴为对称轴的水平带状区域内.根据一元线性回归模型中对随机误差的假定,残差应是均值为0,方差为 的随机变量的观测值.2σ观察以下四幅残差图,你认为哪一个残差满足一元线性回归模型中对随机误差的假定?1.残差等于观测值减预测值2.残差的平方和越小越好;3.原始数据中的可疑数据往往是残差绝对值过大的数据;4. 对数据刻画效果比较好的残差图特征:残差点比较均匀的集中在水平带状区域内.归纳小结(残差图中带状越窄,精度越高)1.关于残差图的描述错误的是( )A.残差图的横坐标可以是样本编号B.残差图的横坐标也可以是解释变量或预报变量C.残差点分布的带状区域的宽度越窄相关指数越小D.残差点分布的带状区域的宽度越窄残差平方和越小C 三、巩固提升2.根据如下样本数据:得到的经验回归方程为 ,则( ) A. >0, >0B. >0, <0C. <0, >0D. <0, <0 x 2 3 4 5 6 Y42.5-0.5-2-3a $a $a $a$$b $b$b$b $$ybx a =+$ B3.某种产品的广告支出费用x(单位:万元)与销售额Y(单位:万元)的数据如表:已知Y 关于x 的经验回归方程为 =6.5x+17.5,则当广告支 出费用为5万元时,残差为________. x 2 4 5 6 8Y 30 40 60 50 70$y当x=5时, =6.5×5+17.5=50,表格中对应y=60,于是残差为60-50=10.$y10一元线性回归模型的应用例1.经验表明,对于同一树种,一般树的胸径(树的主干在地面以上1.3m处的直径)越大,树就越高.由于测量树高比测量胸径困难,因此研究人员希望由胸径预测树高.在研究树高与胸径之间的关系时,某林场收集了某种树的一些数据如下表所示,试根据这些数据建立树高关于胸径的经验回归方程.编号 1 2 3 4 5 6胸径/cm 18.1 20.1 22.2 24.4 26.0 28.3树高/m 18.8 19.2 21.0 21.0 22.1 22.1编号7 8 9 10 11 12胸径/cm 29.6 32.4 33.7 35.7 38.3 40.2树高/m 22.4 22.6 23.0 24.3 23.9 24.7dh· · ·· · · · · · · · · 解: 以胸径为横坐标,树高为纵坐标作散点图如下:散点大致分布在一条从左下角到右上角的直线附近,表明两个变量线性相关,并且是正相关,因此可以用一元线性回归模型刻画树高与胸径之间的关系.0.249314.84h d =+··· ·· · · · · · · · 用d 表示胸径,h 表示树高,根据据最小二乘法,计算可得经验回归方程为0.249314.84h d =+根据经验回归方程,由胸径的数据可以计算出树高的预测值(精确到0.1)以及相应的残差,如下表所示.编号胸径/cm 树高观测值/m 树高预测值/m 残差/m1 18.1 18.8 19.4 -0.62 20.1 19.2 19.9 -0.73 22.2 21.0 20.4 0.64 24.4 21.0 20.9 0.15 26.0 22.1 21.3 0.86 28.3 22.1 21.9 0.27 29.6 22.4 22.2 0.28 32.4 22.6 22.9 -0.39 33.7 23.0 23.2 -0.210 35.7 24.3 23.7 0.611 38.3 23.9 24.4 -0.512 40.2 24.7 24.9 -0.2以胸径为横坐标,残差为纵坐标,作残差图,得到下图.30252015-1.0-0.5 0.0 0.5 1.0· · · · · · · 残差/m· · · ·· 354045胸径/cm观察残差表和残差图,可以看到残差的绝对值最大是0.8,所有残差分布在以横轴为对称轴、宽度小于2的带状区域内 .可见经验回归方程较好地刻画了树高与胸径的关系,我们可以根据经验回归方程由胸径预测树高.编号1 2 3 4 5 6 7 8 年份 1896 1912 1921 1930 1936 1956 1960 1968 记录/s 11.8010.6010.4010.3010.2010.1010.009.95例2.人们常将男子短跑100m 的高水平运动员称为“百米飞人”.下表给出了1968年之前男子短跑100m 世界纪录产生的年份和世界纪录的数据.试依据这些成对数据,建立男子短跑100m 世界纪录关于纪录产生年份的经验回归方程以成对数据中的世界纪录产生年份为横坐标,世界纪录为纵坐标作散点图,得到下图在左图中,散点看上去大致分布在一条直线附近,似乎可用一元线性回归模型建立经验回归方程.将经验回归直线叠加到散点图,得到下图:76913031.4902033743.0ˆ1+-=t y用Y 表示男子短跑100m 的世界纪录,t 表示纪录产生的年份 ,利用一元线性回归模型来刻画世界纪录和世界纪录产生年份之间的关系 . 根据最小二乘法,由表中的数据得到经验回归方程为:从图中可以看到,经验回归方程较好地刻画了散点的变化趋势,请再仔细观察图形,你能看出其中存在的问题吗?你能对模型进行修改,以使其更好地反映散点的分布特征吗?仔细观察右图,可以发现散点更趋向于落在中间下凸且递减的某条曲线附近.回顾已有的函数知识,可以发现函数y=-lnx的图象具有类似的形状特征注意到100m短跑的第一个世界纪录产生于1896年, 因此可以认为散点是集中在曲线y=f(t)=c1+c2ln(t-1895)的周围,其中c1、c2为未知参数,且c2<0.y=f(t)=c1+c2ln(t-1895)这是一个非线性经验回归函数,如何利用成对数据估计参数c1、c2令x=ln(t-1895),则Y=c2x+c1对数据进行变化可得下表:编号 1 2 3 4 5 6 7 8 年份/t 1896 1912 1921 1930 1936 1956 1960 1968 x 0.00 2.83 3.26 3.56 3.71 4.11 4.17 4.29 记录/s 11.80 10.60 10.40 10.30 10.20 10.10 10.00 9.95将x=ln(t-1895)代入:得 8012653.114264398.0ˆ2+-=x y上图表明,经验回归方程对于成对数据具有非常好的拟合精度.将经验回归直线叠加到散点图,得到下图: 8012653.114264398.0ˆ2+-=x y8012653.11)1895ln(4264398.0ˆ2+--=t y经验回归方程为对于通过创纪录时间预报世界纪录的问题,我们建立了两个回归模型,得到了两个回归方程,你能判断哪个回归方程拟合的精度更好吗?8012653.114264398.0ˆ2+-=x y① 2ˆ0.4264398ln(1895)11.8012653y t =--+② 我们发现,散点图中各散点都非常靠近②的图象, 表明非线性经验回归方程②对于原始数据的拟合效果远远好于经验回归方程①.(1).直接观察法.在同一坐标系中画出成对数据散点图、非线性经验回归方程②的图象(蓝色)以及经验回归方程①的图象(红色).28212811ˆ,ˆQ Q (()0.004)0.669i i i i eu ===≈=≈∑∑8012653.114264398.0ˆ2+-=x y① 2ˆ0.4264398ln(1895)11.8012653yt =--+②(2).残差分析:残差平方和越小,模型拟合效果越好.Q 2明显小于Q 1,说明非线性回归方程的拟合效果 要优于线性回归方程.R 2越大,表示残差平方和越小,即模型的拟合效果越好 R 2越小,表示残差平方和越大,即模型的拟合效果越差. 21212ˆ()11()n i i nii i y y y y R ==-=-=--∑∑残差平方和。

最小二乘法一元线性回归

最小二乘法一元线性回归
13
最小二乘法产生的历史
• 最小二乘法最早称为回归分析法。由著 名的英国生物学家、统计学家道尔顿 (F.Gallton)——达尔文的表弟所创。 • 早年,道尔顿致力于化学和遗传学领域 的研究。 • 他研究父亲们的身高与儿子们的身高之 间的关系时,建立了回归分析法。
14
最小二乘法的地位与作用
• 现在回归分析法已远非道尔顿的本意 • 已经成为探索变量之间关系最重要的方 法,用以找出变量之间关系的具体表现 形式。 • 后来,回归分析法从其方法的数学原 理——误差平方和最小(平方乃二乘也) 出发,改称为最小二乘法。
12
解决问题的思路——可能性
• 寻找变量之间直线关系的方法多多。于是,再接下 来则是从众多方法中,寻找一种优良的方法,运用 方法去求出线性模型——y=a+bx+u中的截距a=?; 直线的斜率b=?正是是本章介绍的最小二乘法。 • 根据该方法所得,即表现变量之间线性关系的直线 有些什么特性? • 所得直线可靠吗?怎样衡量所得直线的可靠性? • 最后才是如何运用所得规律——变量的线性关系?
• Y=f(X1,X2,…,Xk; ū)
2
• 三、随机误差和系统误差 • 1、随机误差:是由随机因素形成的误差。 所 谓随机因素,是指那些对被解释变量的作用不 显著,其作用方向不稳定(时正时负),在重 复试验中,正作用与负作用可以相互抵消的因 素。 • 2、系统误差:由系统因素形成的误差。所谓 系统因素,是指那些对被解释变量的作用较显 著,其作用方向稳定,重复试验也不可能相互 抵消的因素。
2 2 i 相同,即 ,并且随机干扰项彼此不相关,即对于 i≠j,
2 Y1 Y1 , Y2 Y2 , Y1 2 Y2 Var Y ... ... Yn , Y1 Yn , Y2

一元线性回归分析

一元线性回归分析

回归分析(一元)一、实验目的掌握回归分析的步骤及操作。

二、相关理论知识1.回归分析的步骤: 首先,进行相关分析。

具体应先从定性角度分析变量之间有无相关关系;若存在相关关系,在借助散点图,相关系数等方式,进一步确定相关关系的类型及相关程度,为建立回归模型提供依据。

接下来,以相关分析为基础,进行回归分析。

2.流程框架3.一元线性回归模型的基本形式为:i i i X Y μββ++=10 n i ,,2,1 =4.参数估计方法:最小二乘法最小二乘法通过使残差项的平方和最小来估计参数0β和1β。

即∑2i e 最小。

求出0β、1β的估计值为:21)())((i i i i i i X X Y Y X X -∑--∑=∧β,i i X Y 10∧∧-=ββ三、实验内容及要求1、实验内容:(1)散点图、相关系数; (2)参数估计及结果解读; 2、实验要求:掌握相关分析及回归分析的操作及结果解读四、操作指导(一)相关分析 1.散点图绘制利用我国1978年——2001年国内生产总值和最终消费支出的数据。

经济学的理论可以证明,国内生产总值和最终消费支出之间存在关联。

在此基础上,绘制散点图。

第一步,同时选中x ,y 两个序列,点击右键,选择open 级联菜单as group 。

(注意:在选中两个序列时,先选择哪个,打开组后哪个就在前面,作图时默认它就是横轴的变量)第二步,在group窗口,点击view下拉菜单,选择graph——scatter,点确定。

见图1图1表明两者具有很强的线性相关关系。

2.简单相关系数的计算在group窗口选择view下拉菜单中的covariance analysis,将correlation选中,同时将covariance复选框中的√去掉。

然后确定,即可得x和y的简单相关系数矩阵,见图2:图2结果显示x和y之间的简单相关系数为0.999373,两者之间存在高度正线性相关关系。

可建立一元线性回归模型。

一元线性回归模型的参数估计解读

一元线性回归模型的参数估计解读

假定1:解释变量X i是确定性变量,不是随机变量
假定2:E(ui ) 0,即随机误差项的均值或期望为零
2 假定3:Var (ui ) ( 2为常数),即各个随机误差
项的方差相同
假定4:Cov(ui , u j ) 0(i j ),即不同的随机误差项 之间是互不相关的
假定5:Cov( X i , ui ) 0,即解释变量和随机误差项 之间也是互不相关的
xi ˆ 1 Y kiYi 2 i xi
1 1 ˆ ˆ 0 Y 1 X Yi kiYi X ( Xki )Yi wY i i n n
ˆ 、 ˆ 的均值(期望)等于总体 2.无偏性,即估计量 0 1 回归参数真值0与1
ˆ k Y k ( X u ) 证: ii i 0 1 i i 1
解释变量是确定性变量不是随机变量常数的方差相同即不同的随机误差项之间是互不相关的即解释变量和随机误差项之间也是互不相关的即每一个随机误差项都服从正态分布以上假定称为线性回归模型的经典假定满足该假定的线性回归模型称为经典线性回归模型
第二节 一元线性回归模型的参数估计
• • • • • • 一元线性回归模型的概念 一元线性回归模型的基本假定 参数的普通最小二乘估计 截距为零的一元线性回归模型的估计 最小二乘估计量的性质 参数估计量的概率分布
Yi
594 638 1122 1155 1408
X i2
X iYi
475200 701800 1570800 1963500 2816000
640000 1210000 1960000 2890000 4000000
6
7 8 9 10 求和
2300
2600 2900 3200 3500 21500

一元线性回归分析与多元线性回归分析比较

一元线性回归分析与多元线性回归分析比较
T ˆ1 1 t(n2) Vˆ(ˆ1)
多元线性回归分析 t检验
tj
ˆj j t(nk1) Vˆa( r ˆj)
T f t (n2) 2
P值
p
至少一个x j 对因变量
有影响。 P值
p
方程的显著性检验
一元线性回归分析
相关系数 r L xy L xx L yy
拟合优度
TSS=ESS+RSS
t (−0.62)(12.11) t (−5.27)(2.66)(4.88)
R R SE F R20 . 9, S1 . E.2 . 0, F41. 4 76 166 2 0 . 9 ,2 8 0 . 9, 7 . . 9 5 . 8 , 2. 7 6
输出结果的变量关系
Dependent Variable: Y Method: Least Squares Date: 10/25/11 Time: 21:03 Sample: 1 12 Included observations: 12
n k 1
F检验
F
ESS/k RSS/nk 1
输出结果表达式
一元线性回归分析
多元线性回归分析
y x x yˆ t 0.76 20. 940xt43 ˆ 2 . 0 0 5 6 . 41 0 1 . 6 72 4
S.E.(1.22)(0.03)
S.E.(3.80)(2.41)(3.61)
经典假设
ut
xt
uj
xi
参数经济意义
一元线性回归分析
1
反映了x影响y的程度, 包括大小和方向。
多元线性回归分析
1,2,,k
在其他解释变量 xj,i j 保持不变时,解释变量 x i 每变动一个单位对因变 量y均值的影响程度。

一元线性回归模型与多元线性回归模型对比

一元线性回归模型与多元线性回归模型对比
拟合优度检验
总离差平方和的分解
TSS=ESS+RSS
, 越接近于1,拟合优度越高。
总离差平方和的分解
TSS=ESS+RSS
,(即总平方和中回归平方和的比例)
对于同一个模型, 越接近于1,拟合优度越高。
(调整的思路是残差平方和RSS和总平方和TSS各自除以它们的自由度)
为什么要对 进行调整?解释变量个数越多,它们对Y所能解释的部分越大(即回归平方和部分越大),残差平方和部分越小, 越高,由增加解释变量引起的 的增大与拟合好坏无关,因此在多元回归模型之间比较拟合优度, 就不是一个合适的指标,必须加以调整。
变量的显著性检验目Fra bibliotek:对模型中被解释变量对每一个解释变量之间的线性关系是否成立作出判断,或者说考察所选择的解释变量对被解释变量是否有显著的线性影响。针对某解释变量 ,
原假设: 备择假设:
最常用的检验方法: t检验
构造统计量:
判断步骤:①计算t统计量的值
②给定显著性水平 ,查t分布的临界值表获得
)
③比较t值与 的值,
(普通最小二乘估计的离差形式)
随机干扰项的方差
最大似然估计(ML)
矩估计(MM)
参数估计值估计结果与OLS方法一致,但随机干扰项的方差的估计量与OLS不同
参数估计值估计结果与OLS方法一致,但随机干扰项的方差的估计量
参数估计量的性质
线性性、无偏性、有效性
线性性、无偏性、有效性
参数估计量的概率分布
---
随机误差项与解释变量不相关。
假设:6:
正态性假设。随机项服从正态分布。
正态性假设。随机项服从正态分布。
参数估计
一元线性回归模型
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

= (
1 xt2 )2
( x1 1
x22
xnn )2
两边取期望值,得:
1
= (
xt2 )2 (
xi2i2 xi x j i j )
i j
E(ˆ )2 1 [ ( xt2 )2
xi2E(i2 ) xi x j E(i j )]
i j
由于
E(
2 t
)=
2
,
t=1,2,…,n
——根据假设(3)
4. ˆ和 ˆ的分布
我们在前面列出的假设条件(5)表明, ut ~ N( 0, 2 ) , t= 1, 2, ...,n
即各期扰动项服从均值为0、方差为2的正态分布。 考虑到假设条件(4),即Xt为非随机量,则由前面结果:
ˆ
xt t
xt2
=
kt t
其中,
kt
xt xt2
这表明,ˆ 是N个正态分布变量u1,u2,…,un的线 性函数,因而亦为正态分布变量,,即
ˆ xtYt xt2
——由上段结果,
= ktYt
其中 kt
xt xt2
这 故表ˆ是明线,性ˆ 估是计诸量样。本观测值Yt(t=1,2,…,n)的线性函数, 剩下的就是最佳性了,即 ˆ 的方差小于等于β的其他
任何线性无偏估计量的方差,我们可以证明这一点,但 由于时间关系,从略。有兴趣的同学请参见教科书 (P46-47)
第二部分,et 代表观测点对于回归线的误差,称 为拟合或预测的残差 (residuals):
et Yt Yˆt
t=1,2,……,nLeabharlann 即 et Yt ˆ ˆ Xt
t=1,2,……,n
如何决定估计值 和 ?
残差平方和
我们的目标是使拟合出来的直线在某种
意义上是最佳的,直观地看,也就是要求估
计直线尽可能地靠近各观测点,这意味着应
3 例子
例1 对于第一段中的消费函数,若根据数据 得到:
n = 10 , X =23, Y =20
(X X)2 64, (X X)(Y Y) 37
则有ˆ
( X i X )(Yi (Xi X )2
Y)
37 64
0.58
ˆ Y ˆ X 20 0.58 * 23 6.70
因而 Yˆi 6.70 0.58X i
0.39,ˆ
Y
ˆ
*
X
22 0.39*30
10.3
Eviews 创建工作文件,输入数据并进行回归: Create u 1 5 data x y ls y c x
三、 最小二乘法估计量的性质
1. ˆ 和ˆ 的均值
ˆ
xt yt
xt (Yt Y )
xt Yt
Y
xt
xt2
xt2
x
ˆ ∽ N ( , 2 )
xt2
类似的有:
ˆ 2 ∽ N (, n
X xt2
2 t
)
10
-8
-20
160 400
20
-4
-10
40 100
3 23 30
1
0
0
0
4 25 40
3
10
30 100
5 30 50
8
20
160 400
n=5 110 150
0
0
390 1000
Y X y x xy x2
X X t 150 30,Y Yt 110 22
n5
n5
ˆ
xy x2
390 1000
对于满足统计假设条件(1)--(4)的线性回归模型 Yt = + Xt + ut , ,普通最小二乘估计量 ( OLS估 计量) 是最佳线性无偏估计量(BLUE)。 或
对于古典线性回归模型(CLR模型)Yt=α+β+Xt , 普通最小二乘估计量(OLS估计量)是最佳线性无 偏估计量(BLUE)。
我们已在前面证明了无偏性,此外,由于:
Y
* * Y X
Yt
* **
Yˆt
et * *
*
*
**
* * * Yˆ*t
*Y
Yt
*
Xt
X
图2
残差
拟合的直线 Y X 称为拟合的回归线.
对于任何数据点 (Xt, Yt), 此直线将Yt 的总值 分 成两部分。 第一部分是Yt的拟合值或预测值 Yˆt :
Yˆt αˆ βˆ Xt , t=1,2,……,n
= X X
即ˆ
=α 是α的无偏估计量。
2. ˆ 和ˆ 的方差
Var( ˆ )=E{[ˆ -E(ˆ )]2} ——根据定义
=E(ˆ -β)2
——由无偏性 E(βˆ )=β
由上段结果: ˆ
xt t
xt2

ˆ xt t
x
2 t
∴ (ˆ )2 ( xt t )2 xt2
使各残差尽可能地小。要做到这一点,就必
须用某种方法将每个点相应的残差加在一起,
使其达到最小。理想的测度是残差平方和,

et 2 (Yt Yˆt )2
最小二乘法就是选择一条直线,使其残差平方和
达到最小值的方法。即选择 αˆ 和 ,使得
S et 2 (Yt Yˆt )2 (Yt ˆ ˆX t )2
达到最小值。
运用微积分知识,使上式达到最小值的必要条件为:
S ˆ
S ˆ
0

S
ˆ
2(1)(Yt ˆ ˆX t ) 0
(1)
S
ˆ
2( X t )(Yt ˆ ˆX t ) 0
(2)
整理,得:
Yt nˆ ˆ X t
(3)
XtYt ˆ
X t ˆ
X
2
.t
(4)
此二式称为正规方程。解此二方程,得:
E(i j )=0, i≠j
——根据假设(2)
∴ E(ˆ )2 (
1 xt2 )2 (
xi2 2 0)
2
xt2
即Var(ˆ) 2
xt2
与此类似,可得出:
2
Var(ˆ)
n
X
2 t
xt2
Cov(ˆ, ˆ)
X 2
xt2
3. 高斯--马尔柯夫定理(Gauss--Markov Theorem)
一元线性回归的最小二乘估计
我们的任务是, 在给定X和Y的一组观测值 (X1, Y1), (X2, Y2) , ..., (Xn, Yn) 的情况下, 如 何求出 Yt = + Xt + ut 中 和 的估计值,使得拟 合的直线为最佳。
直观上看,也就是要求在X和Y的散点图上穿过 各观测点画出一条“最佳”直线,如下图所示。
ˆ (X t X )(Yt Y ) n X tYt X t Yt xt yt (5)
(Xt X)2
n X t 2 ( X t )2
xt 2
ˆ Y ˆ X
(6)
其中:Y Yt , X X t
n
n
xt X t X ,
yt Yt Y
样本均值 离差
(5)式和(6)式给出了OLS法计算αˆ 和 的 公式,αˆ 和 称为线性回归模型 Yt = + Xt + ut
的参数 和 的普通最小二乘估计量 (OLS estimators)。
这两个公式可用于任意一组观测值数据,以求出 截距和斜率的OLS估计值(estimates),估计值是 从一组具体观测值用公式计算出的数值。
一般说来,好的估计量所产生的估计值将相当 接近参数的真值,即好的估计值。可以证明,对 于CLR模型,普通最小二乘估计量正是这样一个 好估计量。
例2 设Y和X的5期观测值如下表所示,试估计方程
Yt = + Xt + ut
序号
1
2
3
4
5
Yt 14 18 23 25 30
Xt 10 20 30 40 50
解:我们采用列表法计算。计算过程如下:
31
序号 Yt 表 1 14 - 2 18
Xt yt= Yt -Y xt=Xt-X xt yt xt2
xt t )
1 ( xt2
xt2
xt t )
即 ˆ
xt t
x
2 t
两边取期望值,有
E(ˆ)
xt E(t )
xt2

这表明ˆ是的无偏估计量。
假设(4) --假设(1)
由ˆ Y ˆ X 我们有:
E(ˆ) E(Y ˆ X )
= E( X ˆ X ) = X E() X E(ˆ)
2 t
xt2
∵ xt ( X t X ) X t X n X n X 0
∴ ˆ
xtYt xt2
xt ( X t t )
xt2
=
1 (
xt2
xt
xt X t
xt t )
=
1 (
xt2
xt X t
xt t )
1 xt2
(
xt2 X
xt
相关文档
最新文档