回归模型的参数估计
回归模型的参数估计与假设检验

回归模型的参数估计与假设检验回归模型的参数估计主要包括最小二乘估计和极大似然估计两种方法。
最小二乘估计是以最小化残差平方和为目标,通过对样本数据进行拟合,求得最优的回归系数。
极大似然估计则是基于对数据样本概率分布的假设,利用最大化似然函数来估计回归模型的参数。
最小二乘估计是最常用的参数估计方法之一、它的基本思想是通过最小化实际观测值与模型预测值之间的差异,来估计回归模型的参数。
具体而言,对于简单线性回归模型(y=β0+β1x+ε),最小二乘估计通过最小化残差平方和来求解β0和β1的估计值。
最小二乘估计方法具有许多优点,如解析解存在、估计结果具有线性无偏性、效率性好等。
在最小二乘估计的基础上,还可以进行各种统计检验,用于检验回归系数的显著性。
常见的假设检验方法包括t检验和F检验。
t检验用于测试回归系数是否与零有显著差异。
在回归模型中,t统计量的计算公式为:t=估计值/标准误差其中,估计值是通过最小二乘法得到的回归系数估计值,标准误差则是估计标准误差的估计值。
t统计量的值越大,说明回归系数与零的差异越显著。
F检验用于测试回归模型整体的显著性。
F统计量的计算公式为:F=(回归平方和/自由度)/(残差平方和/自由度)其中,回归平方和表示回归模型能够解释的样本数据方差之和,残差平方和表示回归模型无法解释的样本数据方差之和。
自由度则表示相关统计量中所用到的自由参数个数。
通过计算F统计量的值,可以得到一个关于回归模型整体显著性的p 值。
p值小于给定的显著性水平(通常为0.05或0.01),则拒绝“回归模型无效”的原假设,即认为回归模型整体显著。
回归模型的参数估计和假设检验是回归分析的核心步骤,可以帮助研究者理解因变量和自变量之间的关系,并通过假设检验来进行推断和判断。
这些方法不仅在社会科学和经济学领域有广泛应用,也在相关学科的研究中具有重要意义。
回归模型的参数估计与假设检验讲解

回归模型的参数估计与假设检验讲解回归模型是统计学中常用的一种分析方法,用于研究两个或多个变量之间的关系。
参数估计和假设检验是回归模型中重要的概念和方法,用于推断变量之间的关系是否显著。
在回归模型中,参数估计是利用样本数据来推断回归方程中的参数值,从而描述和预测变量之间的关系。
具体来说,对于简单线性回归模型,我们可以通过最小二乘法来估计回归方程的参数,即使得模型的误差平方和最小。
最小二乘法的计算方法可以简洁地表达为:$\min \sum{(y_i - (\beta_0 + \beta_1x_i))^2}$其中,$y_i$表示观测到的因变量的值,$x_i$表示观测到的自变量的值,$\beta_0$和$\beta_1$分别是截距和斜率的估计值。
通过求解这个最小化问题,我们可以得到最佳的参数估计。
而假设检验则是用来评估回归模型中参数估计的显著性。
在假设检验中,我们对参数的假设提出一个原假设和一个备择假设。
原假设通常是参数等于一个特定的值,而备择假设则是参数不等于该值。
假设检验的步骤包括计算检验统计量、确定临界值、进行推断。
常用的假设检验方法有t检验和F检验。
在简单线性回归模型中,假设检验通常用于评估斜率参数$\beta_1$的显著性。
例如,我们可以设定原假设为斜率等于零,备择假设为斜率不等于零。
然后,通过计算t统计量和查表得到拒绝或接受原假设的结论。
在多元回归模型中,假设检验可以用于评估各个自变量的显著性,或者评估整个模型的显著性。
对于自变量的显著性评估,常用的方法是利用t检验确定各个参数的置信区间,判断参数是否显著不为零。
对于整个模型的显著性评估,常用的方法是利用F检验检验回归方程的整体显著性,即检验自变量对因变量的解释程度是否显著。
除了参数估计和假设检验,回归模型还可以进行模型诊断和模型选择。
模型诊断用于检验回归模型的合理性和假设的满足情况,主要包括检验误差项的正态性、异方差性和自相关性等。
模型选择则是在多个可能的模型之间选择一个最佳的模型,常用的标准包括最小二乘法、最大似然法和贝叶斯信息准则。
§2.2 一元线性回归模型的参数估计

β 0 = Y β1 X
例2.2.1:在上述家庭可支配收入-消费支出例中,对 :在上述家庭可支配收入-消费支出例中, 于所抽出的一组样本数, 于所抽出的一组样本数,参数估计的计算可通过下面的 进行。 表2.2.1进行。 进行
表 2.2.1 数 计 计 参 估 的 算表
Xi
Yi
xi
1
的样本方差: 2 = σ 2 x 2 / n ( x x )2 ∑ i ∑ i β0 Sβ
0
β1 =
∑x y ∑x
i 2 i
i
5769300 = = 0.777 7425000
β 0 = Y β 0 X = 1567 0.777 × 2150 = 103.172
因此,由该样本估计的回归方程为:
Yi = 103.172 + 0.777 X i
三、最小二乘估计量的性质
(1)线性性,即它是否是另一随机变量的线性 )线性性, 函数; 函数; (2)无偏性,即它的均值或期望值是否等于总 )无偏性, 体的真实值; 体的真实值; (3)有效性,即它是否在所有线性无偏估计量 )有效性, 中具有最小方差。 中具有最小方差。
中,最小二乘估计量 β 0 、 β1 具有最小方差。
(2)证明最小方差性
β 1* 是其他估计方法得到的关于β1 的线性无偏估计量: 假设
β 1* = ∑ ci Yi
其中,ci=ki+di,di为不全为零的常数 则容易证明
var(β 1* ) ≥ var(β 1 )
同理,可证明β0 的最小二乘估计量 β 0 具有最的小方差
-973 1314090 1822500 947508 640000 352836 -929 975870 1102500 863784 1210000 407044 -445 334050 562500 198381 1960000 1258884 -412 185580 202500 170074 2890000 1334025 -159 23910 22500 25408 4000000 1982464 28 4140 22500 762 5290000 2544025 402 180720 202500 161283 6760000 3876961 511 382950 562500 260712 8410000 4318084 1018 1068480 1102500 1035510 10240000 6682225 963 1299510 1822500 926599 12250000 6400900 5769300 7425000 4590020 53650000 29157448
2第二节回归模型的参数估计

2第二节回归模型的参数估计回归模型的参数估计是通过对已知数据的分析和建模来确定模型参数的过程。
在回归分析中,参数估计通常是通过最小二乘法来实现的。
下面将对回归模型的参数估计过程进行详细介绍。
首先,回归模型通常表示为如下形式:Y=β_0+β_1X_1+β_2X_2+...+β_kX_k+ε其中,Y是因变量,X_1,X_2,...,X_k是自变量,β_0,β_1,β_2,...,β_k是参数,ε是误差项。
参数估计的目标是找到使得模型与实际观测值之间误差的平方和最小的参数。
最小二乘法是一种常用的参数估计方法,通过最小化误差平方和来估计参数。
具体地说,假设我们有n个观测样本,表示为{(X_1i, X_2i, ..., X_ki, Yi)}_i=1,2,...,n。
其中,X_1i, X_2i, ..., X_ki是第i个观测样本的自变量,Yi是第i个观测样本的因变量。
利用最小二乘法进行参数估计的基本思路是,通过最小化实际观测值与模型预测值之间的误差平方和来估计参数。
首先,我们定义残差ei为第i个观测样本的实际观测值与模型预测值之间的差异,即:ei = Yi - (β_0 + β_1X_1i + β_2X_2i + ... + β_kX_ki)然后,我们定义误差平方和SSE为所有观测样本的残差平方和,即:SSE = Σ(ei^2)最小二乘法的目标是找到使得SSE最小化的参数估计值。
为了找到使SSE最小化的参数估计值,我们需要求解下面的正规方程组:X^T*X*β=X^T*Y其中,X是由所有观测样本的自变量构成的矩阵,X^T表示X的转置,Y是由所有观测样本的因变量构成的向量。
通过求解正规方程组,我们可以得到参数估计值为:β=(X^T*X)^(-1)*X^T*Y其中,(X^T*X)^(-1)表示矩阵(X^T*X)的逆矩阵。
需要注意的是,为了使用最小二乘法进行参数估计,我们要求矩阵(X^T*X)的逆矩阵存在,即要求矩阵(X^T*X)是可逆矩阵。
多元线性回归模型参数估计

多元线性回归模型参数估计多元线性回归是一种用于建立自变量与因变量之间关系的统计模型。
它可以被视为一种预测模型,通过对多个自变量进行线性加权组合,来预测因变量的值。
多元线性回归模型的参数估计是指利用已知的数据,通过最小化误差的平方和来估计回归模型中未知参数的过程。
本文将介绍多元线性回归模型参数估计的基本原理和方法。
Y=β0+β1X1+β2X2+...+βpXp+ε其中,Y是因变量,X1、X2、..、Xp是自变量,β0、β1、β2、..、βp是回归系数,ε是残差项。
参数估计的目标是找到使得误差的平方和最小的回归系数。
最常用的方法是最小二乘法(Ordinary Least Squares, OLS)。
最小二乘法通过最小化残差的平方和来确定回归系数的值。
残差是观测值与回归模型预测值之间的差异。
为了进行最小二乘法参数估计,需要计算回归模型的预测值。
预测值可以表示为:Y^=β0+β1X1+β2X2+...+βpXp其中,Y^是因变量的预测值。
参数估计的目标可以表示为:argmin(∑(Y - Y^)²)通过对目标函数进行求导,可以得到参数的估计值:β=(X^TX)^-1X^TY其中,X是自变量的矩阵,Y是因变量的向量,^T表示矩阵的转置,^-1表示矩阵的逆。
然而,在实际应用中,数据往往存在噪声和异常值,这可能导致参数估计的不准确性。
为了解决这个问题,可以采用正则化方法,如岭回归(Ridge Regression)和LASSO回归(Least Absolute Shrinkage and Selection Operator Regression)。
这些方法通过在目标函数中引入正则化项,可以降低估计结果对噪声和异常值的敏感性。
岭回归通过在目标函数中引入L2范数,可以限制回归系数的幅度。
LASSO回归通过引入L1范数,可以使得一些回归系数等于零,从而实现变量选择。
这些正则化方法可以平衡模型的拟合能力与泛化能力,提高参数估计的准确性。
回归模型的参数估计

n 2
−
1 2σ µ
2
ˆ ˆ Σ (Yi − β − β2 X i ) 2
1
e
将该或然函数极大化,即可求得到模型参数 的极大或然估计量。
案例 2.3 现欲研究某市城镇居民 ——2002 现欲研究某市城镇居民 1995 年——2002 年人均可支配收 入和人均消费性支出之间的关系 之间的关系。 给出了某市城镇居 入和人均消费性支出之间的关系。表 1 给出了某市城镇居 年期间各年度的人均可支配收入和人均 民 1995 年至 2002 年期间各年度的人均可支配收入和人均 消费性支出的数据。 消费性支出的数据。 表1 年份 1995 1996 1997 1998 1999 2000 2001 2002 某市有关统计资料 人均可支配收入 4283 4839 5160 5425 5854 6280 6859 7703 单位: 单位:元 人均消费性支出 3637 3919 4185 4331 4616 4998 5359 5359 6030
随机性变量,因此被解释变量 征)与 ε i 相同。
(特
ˆ ˆ ˆ 其次, ˆ 其次 ,β 2 和 β 1 分别是 Yi 的线性组合,因此 β 2 、 β 1 的概率分 布取决于 Y。 ˆ ˆ 在 ε 是正态分布的假设下,Y 是正态分布,因此 β 2 和 β 1 也 服从正态分布,其分布特征(密度函数)由其均值和方差唯 一决定。
第二节 回归模型的参数估计
一、最小二乘估计(OLS)
⒈选择最佳拟合曲线的标准 从几何意义上说,样本回归曲线应尽可 能靠近样本数据点。 选择最佳拟合曲线的标准可以确定为: 使总的拟合误差(即总残差)达到最小。 用最小二乘法描述就是:所选择的回归 模型应该使所有观察值的残差平方和达到 最小。
线性回归模型的参数估计
计算过程
牛顿-拉夫森方法首先计算误差函数的Hessian矩阵,然 后使用这个矩阵来构造一个线性方程组,求解该方程组可 以得到参数的更新值。
缺点
对初值敏感,且计算Hessian矩阵的开销较大。
2023
PART 03
线性回归模型的假设和限 制
REPORTING
线性关系假设
01
线性关系假设是线性回归模型的 核心,即因变量和自变量之间存 在一种线性关系,可以用一条直 线来描述。
2023
线性回归模型的参数 估计
https://
REPORTING
2023
目录
• 引言 • 参数估计的方法 • 线性回归模型的假设和限制 • 参数估计的步骤 • 参数估计的挑战与解决方案 • 参数估计的应用场景
2023
PART 01
引言
REPORTING
线性回归模型的定义
2023
THANKS
感谢观看
https://
REPORTING
最小二乘法
原理
最小二乘法是一种数学优化技术 ,通过最小化预测值与实际值之
间的平方误差来估计参数。
计算过程
最小二乘法通过构建一个误差 的平方和,然后找到使这个和 最小的参数值。
优点
计算简单,易于理解和实现。
缺点
对异常值敏感,且无法处理非 线性问题。
梯度下降法
原理
梯度下降法是一种迭代优化算法,通 过不断沿着误差函数的负梯度方向更 新参数,以最小化误差函数。
市场细分
通过分析消费者行为数据,利用线性回归模型对 市场进行细分,帮助企业更好地了解目标客户群 体。
价格预测
在商品定价方面,利用线性回归模型预测商品价 格变动趋势,为企业制定合理的定价策略提供依 据。
一元线性回归模型及参数估计
但是,随机误差项的方差的估计量是不同的。
解或然方程
sm2
L*
= n
2sm2
+1
2sm4
S(Yi
bˆ0
bˆ1Xi)2
=0
即可得到sm2的最大或然估计量为:
sˆm2
1 =nS(Yi
bˆ0
bˆ1Xi)2
s P (Y i)=
1 e2s 1m 2(Y ibˆ0bˆ1X i)2 2
i= 1,2,… ,n
因为Yi 是相互独立的,所以 Y 的所有样本观测值的联合概率, 也即或然函数(likelihood function)为:
L(bˆ0,bˆ1,sm2) = P(Y1,Y2,,Yn)
=
1
e 1 2sm2
S(Yi
,当
Q对
b$ 、 0
b$ 的一阶偏导数为 1
0 时, Q 达到最小。即
Q
bˆ 0 Q
bˆ1
=0 =0
(
( bˆ
bˆ
0
0 +
+ bˆ1 X bˆ1 X i
i
Yi ) Yi ) X
= i
0 =
0
SYi SYi X i
= nbˆ0 + bˆ1SX i
=
bˆ0 SX i
+
bˆ1S
X
2 i
解得:
bˆ0 = Y bˆ1X
bˆ1
=
nSYi Xi SYiSXi nSXi2 (SXi )2
由于
bˆ 0
、bˆ 的估计结果是从最小二乘原理得到的,故称为 1
3多元线性回归模型参数估计
3多元线性回归模型参数估计多元线性回归是一种回归分析方法,用于建立多个自变量和一个因变量之间的关系模型。
多元线性回归模型可以表示为:Y=β0+β1X1+β2X2+…+βnXn+ε其中,Y表示因变量,X1,X2,…,Xn表示自变量,β0,β1,β2,…,βn表示模型参数,ε表示误差项。
多元线性回归模型的目标是估计出模型参数β0,β1,β2,…,βn,使得实际观测值与模型预测值之间的误差最小化。
参数估计的方法有很多,下面介绍两种常用的方法:最小二乘法和梯度下降法。
1. 最小二乘法(Ordinary Least Squares, OLS):最小二乘法是最常用的多元线性回归参数估计方法。
它的基本思想是找到一组参数估计值,使得模型预测值与实际观测值之间的残差平方和最小化。
首先,我们定义残差为每个观测值的实际值与模型预测值之间的差异:εi = Yi - (β0 + β1X1i + β2X2i + … + βnXni)其中,εi表示第i个观测值的残差,Yi表示第i个观测值的实际值,X1i, X2i, …, Xni表示第i个观测值的自变量,β0, β1, β2, …,βn表示参数估计值。
然后,我们定义残差平方和为所有观测值的残差平方的总和:RSS = ∑(Yi - (β0 + β1X1i + β2X2i + … + βnXni))^2我们的目标是找到一组参数估计值β0,β1,β2,…,βn,使得残差平方和最小化。
最小二乘法通过数学推导和求导等方法,可以得到参数估计值的解析解。
2. 梯度下降法(Gradient Descent):梯度下降法是一种迭代优化算法,可以用于估计多元线性回归模型的参数。
它的基本思想是通过迭代调整参数的值,使得目标函数逐渐收敛到最小值。
首先,我们定义目标函数为残差平方和:J(β) = 1/2m∑(Yi - (β0 + β1X1i + β2X2i + … + βnXni))^2其中,m表示样本数量。
回归模型的参数估计
2 2 ˆ ˆ e ( y a b x ) Q f (a ˆ , b) i i ˆ i
ˆ 的二次函数并且非负,所以存在最小值。 是关于 a ˆ, b ˆ 的值。 利用微分学中求极值的方法,可以求得 a ˆ, b 根据
其中,C表示常数项。
例1. 我国税收预测模型。表2-3列出了我国1985~ 1998年期间税收收入Y和国内生产总值 X的统计资料 (时间序列数据),试利用EViews软件建立一元线性回 归模型。 表2-3 我国税收与GDP统计资料 单位:亿元 GDP GDP 年份 税收Y 年份 税收Y 1985 2041 8964 1992 3297 26638 1986 2091 10202 1993 4255 34634 1987 2140 11963 1994 5127 46759 1988 2391 14928 1995 6038 58478 1989 2727 16909 1996 6910 67885 1990 2822 18548 1997 8234 74463 1991 2990 21618 1998 9263 79396
选择时间频率为 Annual (年度数据),再分别点击 起始期栏和终止期栏,输入相应的日期。然后点击 OK ,将在 EViews 软件的主显示窗口显示相应的工作 文件窗口。 在EViews软件的命令窗口中直接键入CREATE命令, 也可以建立工作文件;命令格式为: CREATE 时间频率类型 起始期 终止期
由于上式是根据(普通)最小二乘法得到的,所 ˆ 为参数的最小二乘估计,简记成 OLS 估 以称, a ˆ, b 计。 利用样本数据建立的回归直线
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
X X i 46403 5800.375
n
8
Y Yi 37075 4634.375
n
8
根据表 2 合计栏的数据及以上关于 X 和Y 的计 算结果可得:
ˆ2
xi yi xi2
6198658.9 8751239.9
0.7083
ˆ1 Y ˆ1X 525 .8662
则依据 1995 年——2002 年的样本数据,可得描述该市城镇居 民人均可支配收入和人均消费性支出之间依存关系的线性回 归方程:
不同的估计方法可得到不同的样本回归 参数 ˆ1和 ˆ2 ,所估计的 Yˆi 也不同。
理想的估计方法应使 Yˆi 和 Yi 的差即残差 ei 越小越好。
因为ei 可正可负,所以可以取ei2 最小,
(选择平方的原因:介绍)即:
Q ei2 Yi Yˆi 2 Yi ˆ1 ˆ2 Xi 2 min
1
e
1
2s
2
(Yi
ˆ1
ˆ2X
i
)2
2
i=1,2, …,n
因为Yi 是相互独立的,所以Y 的所有样本观测值的联合概率,
也即似然函数(likelihood function)为:
L(
ˆ 1
,
ˆ 2
,s
2 m
)
P(Y1 , Y2
,×××,Yn
)
1
e
1 2s
2 m
S(Yi
ˆ
1
ˆ2
X
i
)2
n
(2p
)
2
有效性衡量了参数估计值与参数真值平均离 散程度的大小。
既是无偏的同时又具有最小方差的估计式, 称为最佳无偏估计式。
概 率 密 度 图2.7
f ˆ
f
的估计值
⒊一致性
思想:当样本容量较小时,有时很难找到最佳无偏估计, 需要考虑扩大样本容量
(估计方法不变,样本数逐步扩大,分析性质是否改善)
一致性:当样本容量n趋于无穷大时,如果估计式 按概
X 和 Y 唯一表示。 因为存在样本抽样波动,OLS估计的 ˆ 是随
机变量。 OLS估计式是点估计式。
在古典回归模型的若干假定成立的情 况下,最小二乘估计是所有线性无偏 估计量中的有效估计量。称OLS估计为 “最佳线性无偏估计量”。
⒈线性特征; ⒉无偏性; ⒊最小方差性 ⒋一致性
证明过程参见p30~32,也可从精品课程网站下载。 结论:OLS估计式是BLUE。
Var ( ˆ ) sˆ 2
1
X
2 i
n S2XX
s S ( ˆ ) ˆ
1
X2 i
n S2XX
⒊系数的置信区间
见p34
四、多元线性回归模型的参数估计
方法相同,只是通过矩阵表示,参见 p35~37
※五、极大似然法ML
极大似然法( Maximum Likelihood, ML) ,也称最大似 然法,是不同于最小二乘法的另一种参数估计方法, 是从最大或然原理出发发展起来的其它估计方法的基 础。 基本原理: 对于最小二乘法,当从模型总体随机抽取n组样本观测 值后,最合理的参数估计量应该使得模型能最好地拟 合样本数据。 对于极大似然法,当从模型总体随机抽取n组样本观 测值后,最合理的参数估计量应该使得从模型中抽取 该n组样本观测值的概率最大。
S(ˆ1) n
X
2 i
SiX2 X
在总体方差 s 2 的无偏估计量 sˆ 2 求出后,估计的参数 ˆ1 和 ˆ2 的方差和标准差的估计量 分别是:
ˆ2 的样本方差: ˆ2 的样本标准差: ˆ1 的样本方差: ˆ1 的样本标准差:
Var
( ˆ ) sˆ 2 2
S2XX
S ( ˆ ) sˆ
2
S2XX
第二节 回归模型的参数估计
一、最小二乘估计(OLS)
⒈选择最佳拟合曲线的标准 从几何意义上说,样本回归曲线应尽可
能靠近样本数据点。 选择最佳拟合曲线的标准可以确定为:
使总的拟合误差(即总残差)达到最小。 用最小二乘法描述就是:所选择的回归
模型应该使所有观察值的残差平方和达到 最小。
⒉OLS的基本思路
x i2
2302426.9 924241.9 410080.1 140906.4 2875.6 230040.1 1120686.9 3619981.9 8751239.9
xi yi
1513391.9 687743.6 287768.5 113879.4
-985.4 174403.6 767106.1 2655351.0 6198658.9
s
n
将该或然函数极大化,即可求得到模型参数 的极大或然估计量。
案例 2.3 现欲研究某市城镇居民 1995 年——2002 年人均可支配收 入和人均消费性支出之间的关系。表 1 给出了某市城镇居 民 1995 年至 2002 年期间各年度的人均可支配收入和人均 消费性支出的数据。
表1 年份 1995 1996 1997 1998 1999 2000 2001 2002
⒊估计过程
在离差平方和的表达式中,被解释变量 Yi
的观测值和解释变量 X i 都是已知的,因此
可以将看作是未知参数 1, 2 的函数。计算
此函数对的一阶偏导数,可得:
Q
ˆ1
2
Q
ˆ2
2
Yi ˆ1 ˆ2 Xi 0 Yi ˆ1 ˆ2 Xi Xi 0
得到:
Yi nˆ1 ˆ2 X i
的许多可能取值的平均值。
离差形式的中间计算也可不用计算表,而采用如下
的简捷式计算:
xi2
X
2 i
nX
2
yi2 Yi2 nY 2
xi yi X iYi nXY
式中, xi X i X , yi Yi Y , X
Xi ,Y n
Yi
n,
n 为样本容量。
书写格式:
Yi 1 2 Xi i
(i=1,2,…n)
ˆ2
xi yi xi2
6198658.9 8751239.9
0.7083
ˆ1 Y ˆ1X 525 .8662
Yˆi ˆ1 ˆ2Xi 5 2.85 6 6 02.7 0 X8 i 3
统计意义:当 X 增加 1 个单位时,Y 平均增加 0.7083 个单位。
经济意义:当居民人均可支配收入增加 1 元时,人均消费性
支出将平均增长 0.7083 元。
复习:
掌握ols方法的原理,掌握一元线性回归 参数形式。
明确优良的参数估计应具有的性质,尤 其明确OLS方法是BLUE。
掌握EVIEWS建立模型的方法及命令。 了解OLS估计参数的概率分布。
在 是正态分布的假设下,Y 是正态分布,因此ˆ2 和 ˆ1 也 服从正态分布,其分布特征(密度函数)由其均值和方差唯 一决定。
因此:
ˆ
2
~
N (2 ,
s2
), S2XX
ˆi
ˆ 1
~
N ( 1 ,
n
X
2 i
s
SX2X
2
)
1
i
ˆ 1
和
ˆ 2
的标准差
分别为
:
S (ˆ2) s 2 / Si2XX
s 2
2.估计人均消费性支出对人均可支配收入的线性回归方程 依据 1995 年——2002 年的样本数据,运用普通最小二乘法 离差形式的参数估计式对 1, 2 进行估计:
表2
年序 号
1 2 3 4 5 6 7 8 合计
Xi
4283 4839 5160 5425 5854 6280 6859 7703 46403
X iYi ˆ1
X i ˆ2
X
2 i
此方程组为正规方程组,解此方程组得:
ˆ2
ˆ1 Y ˆ2 X
XiYi nXY
X
2 i
nX
2
SXY S XX
其中,
Y
1 n
Yi
,
X
1 n
X
i
SXY Xi X Yi Y , SXX Xi X 2
案例2.1&2.2
课本p24、p27 EViews软件操作
某市有关统计资料 人均可支配收入
4283 4839 5160 5425 5854 6280 6859 7703
单位:元 人均消费性支出
3637 3919 4185 4331 4616 4998 5359 6030
1. 理论模型的设计 我们首先通过散点图来观察一下,住宅房地产
需求量与居民收入之间是否存在关系。
若 的期望不是等于 的真实值,则称 是
有偏的,偏倚为 E( )- ,见下图
概 率 密
f ˆ
f
度
E
的估计值
图2.6
பைடு நூலகம்
偏倚
⒉最小方差性(有效性)
前提:样本相同、用不同的方法估计参数,可以 找到若干个不同的估计式。 目标:努力寻求其抽样分布具有最小方差的估计 式——最小方差准则,或称最佳性准则。见下图
率收敛于总体参数的真实值,就称这个估计式 是ˆ 的一
致估计式。
ˆ
limP( - )=1
渐进无偏估计ˆ式是 当样本容量变得足够大时,其偏倚趋
于零的估计式。
见下图
f ˆ 100
概 率
f ˆ 80
密 度
f ˆ 60
f ˆ 40
的估计值
㈡高斯-马尔可夫定理
由OLS估计式可以看出,ˆ 可以用观测样本
Yi 1 2 Xi i
i=1,2,…n
在本例中,影响人均消费性支出的因素,除了 居民人均可支配收入之外,还可能有消费品的价格 水平、银行存款利率、消费者的偏好,政府的政策, 需求者对未来的预期等等多种因素。我们这里仅分 析居民人均可支配收入对人均消费性支出的影响, 其他各因素的影响,就被包含在随机误差项中。