2.2 多元回归模型的OLS估计
计量经济学的2.2 一元线性回归模型的参数估计

基于样本数据,所得到的总体回归函数的一个估 计函数称为样本回归函数。
问题:当我们设定总体回归模型的函数形式后, 如何通过样本数据得到总体回归函数的一个估计 (即样本回归函数)?--参数估计问题
E (Y | X i ) 0 1 X i
ˆ ˆ ˆ Yi f ( X i ) 0 1 X i
Xi确定
作此假设的理由:当我们把PRF表述为 时,我们假定了X和u(后者代表所有被省略的变量的影 响)对Y有各自的(并且可加的)影响。但若X和u是相关 25 的,就不可能评估它们各自对Y的影响。
线性回归模型的基本假设(4)
假设4、服从零均值、同方差、零协方差的正态分布 i~N(0, 2 ) i=1,2, …,n 意为:ui服从正态分布且相互独立。因为对两个正态 分布的变量来说,零协方差或零相关意为这两个变量 独立。 作该假设的理由:i代表回归模型中末明显引进的许多解释
Yi 0 1 X i i
i=1,2,…,n
Y为被解释变量,X为解释变量,0与1为待估 参数, 为随机干扰项
3
回归分析的主要目的是要通过样本回归函 数(模型)SRF尽可能准确地估计总体回归函 数(模型)PRF。
ˆ ˆ ˆ Yi 0 1 X i
ˆ ˆ ˆ Yi 0 1 X i ui
同方差假设表明:对应于不同X值的全部Y值具有同 样的重要性。
22
线性回归模型的基本假设(2-3)
假设2、随机误差项具有零均值、同方差和不自相关 性(不序列相关): (2.3) 不自相关: Cov(i, j|Xi, Xj)=0 i≠j i,j= 1,2, …,n 或记为 Cov(i, j)=0 i≠j i,j= 1,2, …,n 意为:相关系数为0, i, j非线性相关。 几何意义如下
什么是OLS估计如何计算OLS估计量的标准误

什么是OLS估计如何计算OLS估计量的标准误OLS是最小二乘法(Ordinary Least Squares)的缩写,是一种常用的统计回归分析方法。
它通过寻找误差平方和最小的线性回归模型来估计自变量与因变量之间的关系。
在回归分析中,OLS估计可以帮助我们确定回归系数并评估其显著性。
OLS估计的计算基于以下的回归模型:Y = β0 + β1X1 + β2X2 + ... + βkXk + ε其中,Y是因变量,X1到Xk是自变量,ε是误差项。
OLS估计的目标是找到最佳的回归系数β0到βk,使得残差平方和最小化。
OLS估计的计算过程可以通过矩阵形式来表示。
假设我们有n个观测值和k个自变量,可以将模型表示为矩阵形式:Y = Xβ + ε其中,Y是一个n×1的因变量向量,X是一个n×(k+1)的设计矩阵,包括一个常数列和k个自变量列,β是一个(k+1)×1的系数向量,ε是一个n×1的误差向量。
OLS估计的公式为:β = (X^T X)^(-1) X^T Y其中,(X^T X)^(-1)表示X的转置矩阵与X的乘积的逆矩阵,X^T表示X的转置矩阵,Y是因变量向量。
计算OLS估计量的标准误可以帮助我们评估回归系数的显著性。
标准误反映了OLS估计量的精确度,它衡量了回归系数的估计与真实值之间的偏差。
标准误的计算公式为:SE(β) = sqrt(σ^2 * diag[(X^T X)^(-1)])其中,SE(β)表示OLS估计量的标准误,σ^2是误差项的方差的估计值,diag表示将矩阵的对角线元素提取为向量。
在实践中,常常使用残差平方和来估计误差项的方差,即:σ^2 = (Y - Xβ)^T (Y - Xβ) / (n - k - 1)其中,n是样本观测值的数量,k是自变量的数量。
通过计算OLS估计量的标准误,我们可以进行统计推断,如计算置信区间和假设检验等,来评估回归系数的显著性和可靠性。
学习笔记:伍德里奇《计量经济学》第五版-第三章 多元回归分析:估计

y = b 0+ b 1x 1+ b 2x 2+ . . . b k x k + u一、多元线性回归模型1.我们可以研究控制一些变量不变的条件下,其他变量对y的影响,而不是假定他们不相关。
Cons = b 0+ b 1inc+b 2inc 2 +u2.我们还能推广变量之间的函数关系如:通过在模型中包含更多的变量,我们更好的达到了SLR.4所表达的目的E(u|x 1,x 2, …,x k ) = 0 (3.8)HYP.1一般多元回归模型的关键假定(u和所有x都不相关):( )仍然是最小化残差和:对(3.12)求k +1次偏导得一阶条件(交给计算机计算)(此时假定k +1个方程只能得到估计值得唯一解2.1 如何得到OLS 估计值例3.1分析两个系数时,可得出当我们把其中一个因素涵盖在模型中时,另外一个因素的预测就变得不有力了1.系数表示局部效应(控制其他变量不变时,对y的效应)多元回归分析给了我们在收集不到“其他条件不变”时的数据仍有同样效果的能力2.“控制其他变量不变”的含义3.同时改变不止一个自变量(只需要将效应加和)2.2 对OLS 回归方程的解释从单变量情形加以推广,得:1.残差的样本平均值为02.每个自变量和OLS 残差之间的样本协方差为0。
因此OLS 拟合值和OLS 残差之间的样本协方差也为03.点总位于OLS 回归线上(性质1. 2.由一阶条件得,性质3.由1.可得2.3 OLS 的拟合值和残差( )其中 是x1对其他变量回归后的残差(即排除其他变量对x1的影响,类似矢量正交)2.4 对“排除其他变量影响”的解释( )(是 对 简单回归的斜率1.样本中x2对y的偏效应为0,即2.x1和x 2不相关,即(1. 2.可解释、 的差异由(3.23)知,在两种情况下利用矢量正交的理解考虑简单回归和两个自变量的回归:2.5简单回归和多元回归估计值比较可以证明,R2的另一种理解是 的实际值与其拟合值 的相关系数的平方,其中2.6 拟合优度(与简单回归大致相同)二、普通最小二乘法(多元线性回归模型的代数特征和对方程的解释)使用提示:1.该笔记是对伍德里奇《计量经济学》第五版第三章学习过程中的内容梳理2.由于本人水平有限,单独看该笔记估计会很吃力,且很可能出现错误,建议结合书本进行理解3.希望能够对想学习计量经济学的人起到一点点帮助第三章多元回归分析:估计2020年3月19日10:47由于定义下增加解释变量不会降低R2,所以判断一个解释变量是否应该放入模型的依据应该是该解释变量在总体中对y的偏效应是否非02.7 过原点的回归1.之前推导的性质不再成立,特别是OLS残差的样本平均值不再是02.计算R2没有特定的规则3.当截距项b0不等于0,斜率参数OLS估计量将有偏误;当截距项b0=0,估计带截距项方程的代价是,OLS斜率估计量的方差会更大2.8 OLS估计量的期望值MLR.1(线性于参数)MLR.2(随机抽样)MLR.3(不存在完全共线性,允许一定程度的相关)(在定义函数时要小心不要违背了MLR.3MLR.4(条件均值为0)(内生解释变量:解释变量可能与误差项相关定理3.1 OLS的无偏性()2.9 过度设定和设定不足(多了无关变量和少了解释变量)2.9.1过度设定(不影响OLS估计量的无偏性,但影响OLS估计量的方差)2.9.2设定不足1.简单情形:从一个斜率参数到两个斜率参数由(3.23):取均值得偏误为:(因此偏误的方向取决于两个符号,偏误的大小取决于两者之积,在应用中可以通过常识来判断偏误方向2.扩展情形:从两个斜率参数到三个斜率参数当你假设和不相关时,就可以证明和的关系和简单情形一样2.10 OLS估计量的方差MLR.5(同方差性,不仅可以简化公式,还得到了有效性)定理3.2 OLS斜率估计量的抽样方差在MLR.1-5下,以自变量的样本值为条件,有()(是的总样本波动,则是对所有其他自变量(并包含一个截距项)回归所得到的由(3.51)可知,估计量的抽样方差由三个要素决定:1.误差方差(噪声越大,越难估计)2.的总样本波动(越分散,越容易估计)3.自变量之间的线性关系(和其他自变量相关性越高,越不利于估计(很高的并不一定有问题,抽样方差的大小还要取决于剩下两个因素,可以通过收集更多的数据来削减多重共线性(当考虑某一个自变量 的方差时,若 和其他自变量均无关,那么其他自变量间的关系是不造成影响的,某些经济学家为了分离特定变量的因果效应,而在模型中包括许多控制因素,但这并不影响因果效应的证实( )当含有两个解释变量时:( )当含有一个解释变量时:((3.54)和(3.55)表明除非样本中x1和x2不相关,否则 <1.当 =0时,两个都无偏,但 < ,所以前者更好2.当不等于0时,不放x 2进去会导致有偏,放了x 2进去会导致方差增加,但我们喜欢把x2放进去的理由是:不放进去的偏误不会随着样本容量扩大而缩减,而放进去增加的方差却会随着样本容量的扩大逐渐缩小至0所以有两个结论:2.10.1 过度设定的方差(建立在过度设定无偏讨论的基础上)( )2.10.2 OLS 估计量的标准误(与简单回归相同)在假定MLR.1-5下,有(MLR .5若不满足(即异方差),会使标准误失效(第二种表达清楚说明了随着样本容量的扩大,在其他三项( 、 、 )都趋于常数的时候,估计量标准误是如何变小的因此得估计量的标准误:定理3.3 的无偏估计OLS 估计量是最优线性无偏估计量(如(3.22)所示的线性、无偏误、在线性无偏估计量中方差最小在MLR.1-5下,得定理3.4 高斯-马尔科夫定理2.11 对OLS 估计的一个正确认识。
2第二节 回归模型的参数估计

选择时间频率为Annual(年度数据),再分别点击 起始期栏和终止期栏,输入相应的日期工作 文件窗口。 在EViews软件的命令窗口中直接键入CREATE命令, 也可以建立工作文件;命令格式为: CREATE 时间频率类型 起始期 终止期
其步骤为: 其步骤为: ⑴建立工作表 ⑵在菜单“工具”栏中选“数据分析” ⑶在子菜单“数据分析”选“回归” ⑷设定样本区域和结果显示位置等。
一、练习题: 练习题: 1、如何理解 估计。 、如何理解OLS估计。 估计 2、如何利用 法估计多元线性回归模型参数, 、如何利用OLS法估计多元线性回归模型参数,写出 法估计多元线性回归模型参数 推导过程。 推导过程。 3、下次上机练习本节例题 、2、3。熟悉和掌握 、下次上机练习本节例题1、 、 。 Eviews软件的使用。 软件的使用。 软件的使用
启动EViews软件之后,在命令窗口中依次键入以下命令: 启动EViews软件之后,在命令窗口中依次键入以下命令: EViews软件之后 建立工作文件: (1)建立工作文件:CREATE U 8 输入统计资料: Y X (2)输入统计资料:DATA
例2中国城镇居民消费函数(P27) 注: 也可以利用EXCEL建立回归模型! 也可以利用EXCEL建立回归模型! EXCEL建立回归模型
四、 最小二乘估计的性质
1、参数估计量的评价标准 数理统计学证明,一个优良估计量必须同时具有无偏性、 数理统计学证明,一个优良估计量必须同时具有无偏性、 有效性和一致性。 有效性和一致性。 ˆ 无偏性: 是参数β的估计量,如果E( ˆ (1)无偏性:设 β 是参数β的估计量,如果E( β β , )= ˆ 的无偏估计。 则称 是ββ 的无偏估计。无偏性保证了参数估计值是在 参数真实值(简称参数真值)的左右波动,并且“ 参数真实值(简称参数真值)的左右波动,并且“平均 位置”就是参数的真值 。 位置” 有效性(最小方差性): ):设 ˆ ˆ (2)有效性(最小方差性):设 β β *均为参数的无偏 , ˆ) ˆ ˆ 有效; β )≤D( β * ,则称 β 比 β *有效;如果 估计量, ), 估计量,若D( ˆ ˆ )最小 ˆ 的所有无偏估计量中, 最小, 在β的所有无偏估计量中, D( β )最小,则称 β 为有 效估计量。 效估计量。有效性衡量了参数估计值与参数真值平均离 散程度大小。 散程度大小。
回归模型的参数估计

n 2
−
1 2σ µ
2
ˆ ˆ Σ (Yi − β − β2 X i ) 2
1
e
将该或然函数极大化,即可求得到模型参数 的极大或然估计量。
案例 2.3 现欲研究某市城镇居民 ——2002 现欲研究某市城镇居民 1995 年——2002 年人均可支配收 入和人均消费性支出之间的关系 之间的关系。 给出了某市城镇居 入和人均消费性支出之间的关系。表 1 给出了某市城镇居 年期间各年度的人均可支配收入和人均 民 1995 年至 2002 年期间各年度的人均可支配收入和人均 消费性支出的数据。 消费性支出的数据。 表1 年份 1995 1996 1997 1998 1999 2000 2001 2002 某市有关统计资料 人均可支配收入 4283 4839 5160 5425 5854 6280 6859 7703 单位: 单位:元 人均消费性支出 3637 3919 4185 4331 4616 4998 5359 5359 6030
随机性变量,因此被解释变量 征)与 ε i 相同。
(特
ˆ ˆ ˆ 其次, ˆ 其次 ,β 2 和 β 1 分别是 Yi 的线性组合,因此 β 2 、 β 1 的概率分 布取决于 Y。 ˆ ˆ 在 ε 是正态分布的假设下,Y 是正态分布,因此 β 2 和 β 1 也 服从正态分布,其分布特征(密度函数)由其均值和方差唯 一决定。
第二节 回归模型的参数估计
一、最小二乘估计(OLS)
⒈选择最佳拟合曲线的标准 从几何意义上说,样本回归曲线应尽可 能靠近样本数据点。 选择最佳拟合曲线的标准可以确定为: 使总的拟合误差(即总残差)达到最小。 用最小二乘法描述就是:所选择的回归 模型应该使所有观察值的残差平方和达到 最小。
2.2 多元回归模型的OLS 估计

2.2 多元回归模型的OLS 估计多元回归模型在实际问题中经常被用来对一个因变量与两个或两个以上自变量的关系进行建模和预测。
常用的估计方法是OLS(最小二乘)估计。
本文将对多元回归模型的OLS 估计进行详细介绍。
1. 多元线性回归模型的建立$Y = \beta_0 + \beta_1X_1 + \beta_2X_2 + \cdots + \beta_kX_k + \epsilon$其中,$Y$ 为因变量,$X_1, X_2,\cdots, X_k$ 为自变量,$\beta_0, \beta_1,\beta_2,\cdots, \beta_k$ 为回归系数,$\epsilon$ 为误差项。
利用最小二乘估计,我们可以通过拟合一条直线或曲线使估计误差最小,来估计模型中的未知参数。
最小二乘法的目标就是使残差平方和最小。
OLS 估计是多元线性回归中最常用、最有效的方法之一。
OLS 估计方法就是按照最小二乘法的思想,通过最小化误差平方和来求出回归方程中的估计参数。
具体来说,我们可以利用正规方程(normal equation)来求解参数估计值。
设 $X$ 是 $n \times k$ 的样本自变量数据矩阵,$Y$ 是 $n$ 维因变量向量,$b$ 是 $k$ 维参数向量,我们可以通过最小化误差平方和,找到回归系数的最优解:$\min_{b} \ \sum_{i=1}^{n}(Y_i-X_ib)^2$我们对 $b$ 求导并令导数为 0,可以得到正规方程:$X^TXb=X^TY$其中,$X^T$ 表示 $X$ 的转置矩阵。
对于非满秩矩阵 $X$,正规方程可能无解或者存在无数解。
因此,我们需要在实际应用中注意检查矩阵的秩。
(1)OLS 估计是一种无偏的估计方法,即在样本量足够大时,估计值的期望等于真实值。
这使得 OLS 估计在实际应用中更具有可靠性。
(2)OLS 估计是一种最优的线性无偏估计方法,可以最小化在误差平方和最小的情况下使得估计值最接近真实值。
第二章 多元线性回归
第二章多元线性回归§2.1 基本概述一、回归的任务多元线性回归(MLR)(multiple linear regression)是分析一个随机变量与多个变量之间线性关系的统计方法。
回归(Regression)起源于19世纪生物学家F·高尔顿进行的遗传学研究。
其核心是“普通最小平方法”(Ordinary Least Squares)OLS。
多元回归将所研究的变量分为:确定自变量和因变量的关系是回归分析的主要任务:(1)根据实测数据求解某一模型的各个参数;(2)评价回归模型是否较好地拟合实例数据;(3)利用模型进行预测。
需要注意的是:(1) 因变量必须是间距测度等级以上的变量(有时也包含定性变量。
见《应用回归分析》)(也称为连续变量)。
自变量可以是任意等级的变量。
(2)既使模型正确通过检验,也不能确定X、Y之间的因果关系,而只能确认存在着统计关系。
[例] 不同地区的人均食品支出与人均收入的关系(图2–1);汽车重量与每加仑燃料行驶英里值的关系;(图2–2)。
图2–1图2–2二、一元线性回归的回顾1. 模型i i i x Y εββ++=10 (2.1)当获得n 组样本观测值(x 1 , y 1),(x 2 , y 2),…(x n ,y n )的数据时,如果符合2.1式,则有n i X Y iii,,2,11=++=εββ (2.2)2.1式称为理论回归模型;2.2式称为样本回归模型。
有时不加以区分地将两者称为一元线性回归模型。
通过n 组观测值,用OLS 法对10,ββ进行估计,得10ˆ,ˆββ,则称为Y 关于X 的一元线性方程。
其中: 1β 回归系数,说明X 与Y 之间的变化关系。
2.普通最小二乘法估计的统计性质(OLSE Estimation ) (1)残差:ii iY Y e ˆ-=,用来说明拟合效果,可以看作误差项εi 的估计值。
⎪⎩⎪⎨⎧==∑∑00ii i e x e 因为 )(ˆˆX X Y Y-+=β,所以 0)(ˆ)()ˆ(=---=-=∑∑∑∑X X Y Y Y Y e β 但∑=ni i e 1||很麻烦,经常用∑2i e 来说明。
第二章 多元线性回归模型
ˆ ˆ ˆ) ( Y Y 2Y Xβ β X Xβ 0 ˆ β
ˆ X Y X Xβ 0
得到:
ˆ XY XXβ
ˆ β ( X X) 1 X Y
于是:
例3.2.1:在例2.1.1的家庭收入-消费支出例中,
1 ( X ' X) X 1 1 X2 1 X1 1 1 X 2 n X n X i 1 X n
可以证明,随机误差项的方差的无偏估计量为
e e ˆ n k 1 n k 1
2
e i2
二、最大或然估计
对于多元线性回归模型: i N 0, 2 , i 1, 2, , n
易知:
Yi ~ N ( X i β , 2 ) 其中: Xi 1 Xi1 Xi1 Xik
j
一、普通最小二乘估计
对于随机抽取的n组观测值 Yi , X ij , i 1, 2,, n; j 0,1, 2,, k , 其中X i 0 1
k 1个未知参数,如果样本函数的参数估计值已经得到,则有:
Y i 0 1 X i1 2 X i 2 k X ik , i 1, 2,, n
五、多元线性回归模型的参数估计实例
地区城镇居民消费模型
• 被解释变量:该地区城镇居民人均消费Y
• 解释变量:
– 该地区城镇居民人均可支配收入X1 – 前一年该地区城镇居民人均消费X2
• 样本:2006年,31个地区
数据
地区 2006年消费 支出 Y
北 天 河 山 辽 吉 上 江 浙 安 福 江 山 河 京 津 北 西 宁 林 海 苏 江 徽 建 西 东 南 14825.4 10548.1 7343.5 7170.9 7666.6 7987.5 7352.6 6655.4 14761.8 9628.6 13348.5 7294.7 9807.7 6645.5 8468.4 6685.2
(1)2.2回归参数OLS估计
ˆˆ
n xi
xi xi2
1
yi xi yi
xi2 xi
n
xi
n
xi
xi
yi xi yi
xi2
xi2 yi xi xi yi n xi yi xi yi n xi2 ( xi)2
根据克莱姆法则,有解
yi xi
ˆ xi yi xi2 n xi xi xi2
n yi
ˆ xi xi yi n xi xi xi2
或者将正规方程组写成:
n xi
xi xi2
ˆˆ
yi xi yi
(2.2.7) ′
② i xi 0
(2.2.8) ′
表明自变量与残差不相关,即协方差为零。
③ ( x, y )在样本直线上
(2.2.7) ,(2.2.8), (2.2.7) ′, (2.2.8) ′ 称为正规方
程组,也称为OLS估计值的一阶条件。
解正规方程(2.2.7)、(2.2.8),得,的表达式:
(2.2.11)
ˆ xi yi (2.2.12)
xi2
作业:
一、利用正规方程(2.2.7) ′和(2.2.8) ′可以证明:
1. yˆ y
2. yˆi 和 i 之间的样本协方差为零,即 yˆi i 0
二、证明模型(2.2.1)的参数估计:
yi xi
n yi
观察值yi与它的拟合值(回归值)yˆi 之差,记作
多元回归分析:估计
更多关于R2
考虑从一个解释变量开始,然后加入第二个。 OLS性质:最小化残差平方和。 如果OLS恰好使第二个解释变量系数取零,那
么不管回归是否加入此解释变量,SSR相同。 如果OLS使此解释变量取任何非零系数,那么
加入此变量之后,SSR降低了。 实际操作中,被估计系数精确取零是极其罕见
的,所以,当加入一个新解释变量后,一般来 说,SSR会降低。
那么所有系数的OLS估计量都有偏。
4
更一般的情形
假设总体模型
• 满足假定MLR.1~MLR.4。但我们遗漏了 变量x3,并估计了模型
• 假设X2和X3无关, X1和X3相关。 • 是β1的一个有偏估计量,但 是否有偏
?
更一般的情形
此时,我们通常假设X1和X2无关。
当X1和X2无关时,可以证明:
差项u的条件方差都是一样的。
▪ 如果这个假定不成立,我们说模型存在异方
差性。
OLS估计量的方差(续)
用x表示(x1, x2,…xk)
假定Var(u|x) = s2,也就意味着Var(y| x) = s2
假定MLR.1-5共同被称为高斯-马尔可夫假定 (Gauss-Markov assumptions)
效应) OLS的性质 什么时候简单回归和多元回归的估计值
相同 OLS的无偏性
多元回归分析:估计(2) Multiple Regression Analysis: Estimation
(2)
y = b0 + b1x1 + b2x2 + . . . bkxk + u
1
本章大纲
使用多元回归的动因 普通最小二乘法的操作和解释 OLS估计量的期望值 OLS估计量的方差 OLS的有效性:高斯-马尔科夫定理
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
© 电子科大经管学院
6
第二讲 普通最小二乘法 多元回归模型的OLS估计
对向量β求导,令一阶导数为0 标量
向量求导法则:标量对列向量的导数仍是列向量
yy yX d 0 X y d
标准方法:向量求导法则
X y X y
建立餐厅销售量Y(被解释变量)对竞争对手量N、居住 人口数P、收入水平I等解释变量的多元回归模型
Yi 0 1 Ni 2 P i 3 I i i
偏回归系数:当其它变量相同(保持其他变量不变) 时,特定变量对被解释变量的边际影响(贡献)
© 电子科大经管学院
3
第二讲 普通最小二乘法 多元回归模型的OLS估计
X X 2 X X
dU V dU dV V U dX dX dX
© 电子科大经管学院
7
第二讲 普通最小二乘法 多元回归模型的OLS估计
对β求导并令其等于0可得
满足什么条 件,该方程 有解?
X X X y
若矩阵 X X 的逆存在,则上述方程有解
k X k1 1
k X k 2 2
Yn 1 2 X 2n 3 X 3n
© 电子科大经管学院
k X kn n
4
第二讲 普通最小二乘法 多元回归模型的OLS估计
以矩阵形式表示,有
Y1 1 Y 1 2 Yn 1 X 21 X 22 X 2n X 31 X 32 X 3n X k1 1 1 Xk2 2 2 X kn k n
y
= X
β +
(n 1) (n k ) (k 1) ( n 1)
© 电子科大经管学院
5
第二讲 普通最小二乘法 多元回归模型的OLS估计
多元线性回归模型
yX 乘出来 是矩阵 吗? OLS原理:残差平方和最小
( y X )( y X ) yy yX X y X X
1 ˆ ( X X ) X y
满足什么条 X列满秩: 件,该矩阵 X的列线性 可逆? 独立
© 电子科大经管学院
OLS假定1:数据矩阵X列满秩
8
多个解释变量的回归模型
假定多元线性回归模型
Y 1 2 X 2 3 X 3
k X k
那么对被解释变量Y与解释变量X2,X3,…,Xk作了 n次观测后,将所得的n组样本代入上式有
Y1 1 2 X 21 3 X 31
Y2 1 2 X 22 3 X 32
计量经济学
第二讲 普通最小二乘法
第二节 多元回归模型的OLS估计
主讲教师:陈磊
第二讲 普通最小二乘法 思考题
仅依据游客身高来预测其体重合适吗? 若不合适,那又应该怎么办? 一元回归模型→多元回归模型
普通最小二乘法 多元回归模型的OLS估计
回到肯德基餐厅选址的例子