线性回归模型检验方法拓展-三大检验

合集下载

第一部分4 GLS和MLE(三大检验)汇总

第一部分4 GLS和MLE(三大检验)汇总

第四章 GLS 和MLE 一、广义最小二乘法(GLS ) 1、回归模型的矩阵表示总体回归方程可表示为:=+y X βε也可以写成:[|] =E y X X β。

当(|)E y X 取不同的形式时,也就构成了不同的模型,包括:线性、非线性和非参数等。

我们这里主要讨论的是线性模型(一元或多元):其中:12(1)N N y y y ⨯⎛⎫⎪⎪= ⎪⎪⎝⎭y ,111112122111()111j k j k N NjN k N k x x x x x x x x x ---⨯⎛⎫ ⎪ ⎪= ⎪ ⎪ ⎪⎝⎭X ,011(1)k k βββ-⨯⎛⎫⎪ ⎪= ⎪ ⎪ ⎪⎝⎭β T 表示样本数量,k 表示解释变量个数(包含了常数项),当2k =时就是一元线性回归模型。

而()12(1)TN N εεε⨯=ε表示的是随机扰动项,包含了除了解释变量以外的其他影响因素。

若遗漏变量,则这个变量也将被扰动项所包含。

2、经典假设满足时的残差项的方差协方差矩阵在无异方差和无自相关的假定下,残差项的方差协方差矩阵是一个对角阵,并且主对角线的元素都相同。

即有:(22200σσσ⎛⎫⎪'= ⎪⎝⎭E(εε|X)=I 此时OLS 估计量是最优线性无偏估计BLUE )问题的提出:若扰动项违背球形假定,结果怎样?Ω='=+=2][,0][,σεεεεβE E X y (1)其中Ω是一般的正定矩阵,而不是在古典假设的情况下的单位矩阵。

(1)异方差时2122222000000n σσσσσ⎡⎤⎢⎥'Ω==⎢⎥⎢⎥⎣⎦E(εε|X)=Ω 存在异方差时的后果:OLS 估计量是线性无偏估计,但不是最有效的。

处理方法:第一条思路:找到最优线性无偏估计。

具体方法加权最小二乘法(WLS ),也就是模型变换法;第二条思路:存在异方差时OLS 估计量是线性无偏,但是原OLS 方法得到的方差计算公式有误。

对于系数估计仍采用OLS 估计,对于系数的方差估计进行修正。

多元线性回归模型的各种检验方法

多元线性回归模型的各种检验方法

对多元线性回归模型的各种检验方法对于形如u X X X Y k k +++++=ββββ 22110 (1) 的回归模型,我们可能需要对其实施如下的检验中的一种或几种检验:一、 对单个总体参数的假设检验:t 检验在这种检验中,我们需要对模型中的某个(总体)参数是否满足虚拟假设0H :j j a =β,做出具有统计意义(即带有一定的置信度)的检验,其中j a 为某个给定的已知数。

特别是,当j a =0时,称为参数的(狭义意义上的)显著性检验。

如果拒绝0H ,说明解释变量j X 对被解释变量Y 具有显著的线性影响,估计值j βˆ才敢使用;反之,说明解释变量j X 对被解释变量Y 不具有显著的线性影响,估计值j βˆ对我们就没有意义。

具体检验方法如下:(1) 给定虚拟假设 0H :j j a =β;(2) 计算统计量 )ˆ(ˆ)ˆ()(ˆjj j j j j Se a Se E t βββββ-=-= 的数值; 11ˆ)ˆ(++-==j j jj jj j C C Se 1T X)(X ,其中σβ(3) 在给定的显著水平α下(α不能大于1.0即 10%,也即我们不能在置信度小于90%以下的前提下做结论),查出双尾t (1--k n )分布的临界值2/αt ;(4) 如果出现 2/αt t >的情况,检验结论为拒绝0H ;反之,无法拒绝0H 。

t 检验方法的关键是统计量 )ˆ(ˆj jj Se t βββ-=必须服从已知的t 分布函数。

什么情况或条件下才会这样呢?这需要我们建立的模型满足如下的条件(或假定):(1) 随机抽样性。

我们有一个含n 次观测的随机样(){}n i Y X X X i ik i i ,,2,1:,,,,21 =。

这保证了误差u 自身的随机性,即无自相关性,0))())(((=--j j i i u E u u E u Cov 。

(2) 条件期望值为0。

给定解释变量的任何值,误差u 的期望值为零。

第三章--回归模型的检验

第三章--回归模型的检验
F F(k,n-k-1) 或 FF(k,n-k-1) 来拒绝或接受原假设H0,以判定原方程总体上的 线性关系是否显著成立。
对于中国居民人均消费支出的例子:
一元模型:F=285.92
二元模型:F=2057.3 给定显著性水平 =0.05,查分布表,得到临界 值:
一元例:F(1,21)=4.32 二元例: F(2,19)=3.52 显然有 F F(k,n-k-1) 即二个模型的线性关系在95%的水平下显著成立。
99.4
96.9
2758.9
1637.2
157.0
117.7
1999 4615.9 1932.1
98.7
95.7
2723.0
1566.8
169.5
123.3
2000 4998.0 1958.3
100.8
97.6
2744.8
1529.2
182.1
128.1
2001 5309.0 2014.0
100.7
2、关于拟合优度检验与方程显著性检
验关系的讨论

R2 1 RSS
TSS

F
ESS / k
RSS / n k
1
可推出: R2
kF
n k 1 kF

F
R2 / k
1 R2 / n k 1
三、变量的显著性检验(t检验)
方程的总体线性关系显著每个解释变量对被 解释变量的影响都是显著的
因此,必须对每个解释变量进行显著性检验, 以决定是否作为解释变量被保留在模型中。
问题:
由增加解释变量个数引起的R2的增大与拟合 好坏无关,R2需调整。
调整的可决系数(adjusted coefficient of determination)

多元线性回归模型的各种检验方法

多元线性回归模型的各种检验方法

对多元线性回归模型的各种检验方法对于形如u X X X Y k k +++++=ββββ 22110 (1)的回归模型,我们可能需要对其实施如下的检验中的一种或几种检验:一、 对单个总体参数的假设检验:t 检验在这种检验中,我们需要对模型中的某个(总体)参数是否满足虚拟假设0H :j j a =β,做出具有统计意义(即带有一定的置信度)的检验,其中j a 为某个给定的已知数。

特别是,当j a =0时,称为参数的(狭义意义上的)显著性检验。

如果拒绝0H ,说明解释变量j X 对被解释变量Y 具有显著的线性影响,估计值j βˆ才敢使用;反之,说明解释变量j X 对被解释变量Y 不具有显著的线性影响,估计值j βˆ对我们就没有意义。

具体检验方法如下:(1) 给定虚拟假设 0H :j j a =β;(2) 计算统计量 )ˆ(ˆ)ˆ()(ˆjj j j j j Se a Se E t βββββ-=-= 的数值; 11ˆ)ˆ(++-==j j jj jj j C C Se 1T X)(X ,其中σβ(3) 在给定的显著水平α下(α不能大于1.0即10%,也即我们不能在置信度小于90%以下的前提下做结论),查出双尾t (1--k n )分布的临界值2/αt ;(4) 如果出现 2/αt t >的情况,检验结论为拒绝0H ;反之,无法拒绝0H 。

t 检验方法的关键是统计量 )ˆ(ˆj jj Se t βββ-=必须服从已知的t 分布函数。

什么情况或条件下才会这样呢?这需要我们建立的模型满足如下的条件(或假定):(1) 随机抽样性。

我们有一个含n 次观测的随机样(){}n i Y X X X i ik i i ,,2,1:,,,,21 =。

这保证了误差u 自身的随机性,即无自相关性,0))())(((=--j j i i u E u u E u Cov 。

(2) 条件期望值为0。

给定解释变量的任何值,误差u 的期望值为零。

多元线性回归模型的各种检验方法

多元线性回归模型的各种检验方法

对多元线性回归模型的各种检验方法对于形如u X X X Y k k +++++=ββββΛΛ22110 (1)的回归模型,我们可能需要对其实施如下的检验中的一种或几种检验:一、 对单个总体参数的假设检验:t 检验在这种检验中,我们需要对模型中的某个(总体)参数是否满足虚拟假设0H :j j a =β,做出具有统计意义(即带有一定的置信度)的检验,其中j a 为某个给定的已知数。

特别是,当j a =0时,称为参数的(狭义意义上的)显著性检验。

如果拒绝0H ,说明解释变量j X 对被解释变量Y 具有显著的线性影响,估计值j βˆ才敢使用;反之,说明解释变量j X 对被解释变量Y 不具有显著的线性影响,估计值j βˆ对我们就没有意义。

具体检验方法如下:(1) 给定虚拟假设 0H :j j a =β;(2) 计算统计量 )ˆ(ˆ)ˆ()(ˆjj j j j j Se a Se E t βββββ-=-= 的数值; 11ˆ)ˆ(++-==j j jj jj j C C Se 1T X)(X ,其中σβ(3) 在给定的显著水平α下(α不能大于1.0即10%,也即我们不能在置信度小于90%以下的前提下做结论),查出双尾t (1--k n )分布的临界值2/αt ;(4) 如果出现 2/αt t >的情况,检验结论为拒绝0H ;反之,无法拒绝0H 。

t 检验方法的关键是统计量 )ˆ(ˆj jj Se t βββ-=必须服从已知的t 分布函数。

什么情况或条件下才会这样呢?这需要我们建立的模型满足如下的条件(或假定):(1) 随机抽样性。

我们有一个含n 次观测的随机样(){}n i Y X X X i ik i i ,,2,1:,,,,21ΛΛ=。

这保证了误差u 自身的随机性,即无自相关性,0))())(((=--j j i i u E u u E u Cov 。

(2) 条件期望值为0。

给定解释变量的任何值,误差u 的期望值为零。

三大检验

三大检验

' e e 有约束模型残差平方和; ** e′e无约束模型残差平方和;
2011-12-19
中级计量经济学
8
• 三、Wald检验
H0 : g ( β ) = C
• 如果约束条件为真,则g ( β
MLE
g ( β MLE ) − C显著异于零时,约束条件无效 无约束极大似然估计值。当
) − C → 0 不应该显著异于零,其中 β MLE 是
• 假设对于给定样本 {Y , X },其联合概率分布存在, f (Y , X ; ξ ) 。将该 联合概率密度函数视为未知参数 ξ 的函数,则 f (Y , X ; ξ ) 称为似然函 数(Likelihood Function), 即观测到所给样本的可能性. • 极大似然原理就是寻找未知参数 ξ 的估计 ξˆ ,使得似然函数达到最 大,或者说寻找使得样本
{Y , X }
出现的概率最大的 ξˆ 。
2011-12-19
中级计量经济学
3
• (三)线性回归模型最大似然估计 • 1、估计结果 u ~N (0, σ 2 I n ) Y = Xβ +u
2 2 − n 2
(Y − X β )′(Y − X β ) L(Y , X ; β , σ ) = (2πσ ) exp{− } 2 2σ
' e e 有约束模型残差平方和; * * e ′e 无 约 束 模 型 残 差 平 方 和 ;
2011-12-19 中级计量经济学 10
四、拉格朗日乘子检验(LM)
• 基本思想:拉格朗日乘子检验(LM),又称为Score检验。该检验基 于约束模型,无需估计无约束模型。 • 假设约束条件为 H 0 : g (θ ) = C ,在约束条件下最大化对数似然函数 ,另

多元线性回归模型的各种检验方法

多元线性回归模型的各种检验方法

多元线性回归模型的各种检验方法多元线性回归模型是常用于数据分析和预测的方法,它可以用于研究多个自变量与因变量之间的关系。

然而,仅仅使用多元线性回归模型进行参数估计是不够的,我们还需要对模型进行各种检验以确保模型的可靠性和有效性。

下面将介绍一些常用的多元线性回归模型的检验方法。

首先是模型的整体显著性检验。

在多元线性回归模型中,我们希望知道所构建的模型是否能够显著解释因变量的变异。

常见的整体显著性检验方法有F检验和显著性检查表。

F检验是通过比较回归模型的回归平方和和残差平方和的比值来对模型的整体显著性进行检验。

若F值大于一定的临界值,则可以拒绝原假设,即模型具有整体显著性。

通常,临界值是根据置信水平和自由度来确定的。

显著性检查表是一种常用的汇总表格,它可以提供关于回归模型的显著性水平、标准误差、置信区间和显著性因素的信息。

通过查找显著性检查表,我们可以评估模型的显著性。

其次是模型的参数估计检验。

在多元线性回归模型中,我们希望知道每个自变量对因变量的影响是否显著。

通常使用t检验来对模型的参数估计进行检验。

t检验是通过对模型的回归系数进行检验来评估自变量的影响是否显著。

与F检验类似,t检验也是基于假设检验原理,通过比较t值和临界值来决定是否拒绝原假设。

通常,临界值可以通过t分布表或计算机软件来获取。

另外,我们还可以使用相关系数来评估模型的拟合程度。

相关系数可以用来衡量自变量与因变量之间的线性关系强度,常见的相关系数包括Pearson相关系数和Spearman相关系数。

Pearson相关系数适用于自变量和因变量都是连续变量的情况,它衡量的是两个变量之间的线性关系强度。

取值范围为-1到1,绝对值越接近1表示关系越强。

Spearman相关系数适用于自变量和因变量至少有一个是有序变量或者都是有序变量的情况,它衡量的是两个变量之间的单调关系强度。

取值范围也是-1到1,绝对值越接近1表示关系越强。

最后,我们还可以使用残差分析来评估模型的拟合程度和误差分布。

最大似然估计及三大检验(WaldLMLR)讲解

最大似然估计及三大检验(WaldLMLR)讲解

第二章 线性回归模型回顾与拓展 (12-15学时)第四节 三大检验(LR Wald LM ) 一、极大似然估计法(ML )(一)极大似然原理假设对于给定样本{},Y X ,其联合概率分布存在,(),;f Y X ξ。

将该联合概率密度函数视为未知参数ξ的函数,则(),;f Y X ξ称为似然函数(Likelihood Function )。

极大似然原理就是寻找未知参数ξ的估计ˆξ,使得似然函数达到最大,或者说寻找使得样本{},Y X 出现的概率最大ˆξ。

(二)条件似然函数VS 无条件似然函数()()(),;;;f Y X f Y X f X ξθϕ=若θ与ϕ没有关系,则最大化无条件似然函数(),;f Y X ξ等价于分别最大化条件似然函数();f Y X θ和边际似然函数();f X ϕ,从而θ的最大似然估计就是最大化条件似然函数();f Y X θ。

(三)线性回归模型最大似然估计Y X u β=+,2(0,)u N I σ→2222()()(,;,)(2)exp{}2nY X Y X L Y X βββσπσσ-'--=-对数似然函数:22()()2222n n Y X Y X l LnL Ln Ln ββπσσ'--==---于是 22241ˆ(22)0ˆˆ21ˆˆ()()0ˆˆˆ22l X Y X X l n Y X Y X βσβββσσσ∂⎧''=--+=⎪⎪∂⎨∂⎪'=-+--=⎪∂⎩得到 12ˆ()1ˆMLML X X X Y e e n βσ-⎧''=⎪⎨'=⎪⎩(三)得分(Score )和信息矩阵(Information Matrix )(;,)lf Y X θθ∂=∂称为得分; 12...k l l l l θθθθ∂⎡⎤⎢⎥∂⎢⎥∂⎢⎥⎢⎥∂⎢⎥∂⎢⎥=∂⎢⎥⎢⎥⎢⎥⎢⎥∂⎢⎥⎢⎥∂⎣⎦得分向量;(Gradient ) 海瑟矩阵(Hessian Matrix ):2l H θθ∂='∂∂信息矩阵:三*、带约束条件的最小二乘估计(拉格朗日估计)在计量经济分析中,通常是通过样本信息对未知参数进行估计。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

第四章线性回归模型检验方法拓展——三大检验作为统计推断的核心容,除了估计未知参数以外,对参数的假设检验是实证分析中的一个重要方面。

对模型进行各种检验的目的是,改善模型的设定以确保基本假设和估计方法比较适合于数据,同时也是对有关理论有效性的验证。

一、假设检验的基本理论及准则假设检验的理论依据是“小概率事件原理”,它的一般步骤是(1)建立两个相对(互相排斥)的假设(零假设和备择假设)。

(2)在零假设条件下,寻求用于检验的统计量及其分布。

(3)得出拒绝或接受零假设的判别规则。

另一方面,对于任何的检验过程,都有可能犯错误,即所谓的第一类错误P(拒绝H|H0为真)=α和第二类错误P(接受H|H0不真)=β在下图,粉红色部分表示P(拒绝H0|H0为真)=α。

黄色部分表示P(接受H0|H0不真)=β。

而犯这两类错误的概率是一种此消彼长的情况,于是如何控制这两个概率,使它们尽可能的都小,就成了寻找优良的检验方法的关键。

下面简要介绍假设检验的有关基本理论。

参数显著性检验的思路是,已知总体的分布(,)F X θ,其中θ是未知参数。

总体真实分布完全由未知参数θ的取值所决定。

对θ提出某种假设001000:(:,)H H θθθθθθθθ=≠><或,从总体中抽取一个容量为n 的样本,确定一个统计量及其分布,决定一个拒绝域W ,使得0()P W θα=,或者对样本观测数据X ,0()P X W θα∈≤。

α是显著性水平,即犯第一类错误的概率。

既然犯两类错误的概率不能同时被控制,所以通常的做法是,限制犯第一类错误的概率,使犯第二类错误的概率尽可能的小,即在0()P X W θα∈≤ 0θ∈Θ的条件下,使得()P X W θ∈,0θ∈Θ-Θ达到最大,或1()P X W θ-∈,0θ∈Θ-Θ达到最小。

其中()P X W θ∈表示总体分布为(,)F X θ时,事件W ∈{X }的概率,0Θ为零假设集合(0Θ只含一个点时成为简单原假设,否则称为复杂原假设)。

0Θ-Θ为备择假设集合,并且0Θ与0Θ-Θ不能相交。

由前述可知,当1H 为真时,它被拒绝(亦即H 0不真时,接受H 0)的概率为β,也就是被接受(亦即H 0不真时,拒绝H 0)的概率是1β-(功效),我们把这个接受1H 的概率称为该检验的势。

在对未知参数θ作假设检验时,在固定α下,对θ的每一个值,相应地可求得1β-的值,则定义=1()()P X W θβθ-∈称1βθ-()为该检验的势函数。

统计检验的势(函数)主要用于比较假设检验的优劣。

于是一个好的检验方程是00max (),..(),s t βθθβθαθ∈Θ-Θ⎧⎨≤∈Θ⎩ 或 00min(1()),..(),s t βθθβθαθ-∈Θ-Θ⎧⎨≤∈Θ⎩为了理论上的深入研究和表达方便,我们常用函数来表示检验法。

定义函数1,()0,X W X X Wϕ∈⎧=⎨∉⎩它是拒绝域W 的线性函数,仅取值0或1。

反之,如果一个函数中()X ϕ只取0或1,则{|()1}W X X ϕ==可作为一个拒绝域。

也就是说,W 和ϕ之间建立了一种对立关系,给出一个ϕ就等价于给出了一个检验法,(我们称ϕ为检验函数)。

那么,对于检验法ϕ的势函数为()()()(,)E X X dF X θβθϕθΦ=Φ=⎰于是,一个好的检验法又可写为00max (),..(),s t E X θβθθϕαθΦ∈Θ-Θ⎧⎨≤∈Θ⎩称满足上式的检验法为最优势检验(MPT)。

如果对于复杂原假设和备择假设,则称为一致最优势检验(UMPT )。

奈曼—皮尔逊(Neyman Pearson -)基本引理给出于()X ϕ是MPT 的充要条件。

定理 设1,,n X X L 是来自总体分布密度为(,)p X θ的样本,θ为未知参数,对于简单假设检验问题0011:,:H H θθθθ==,检验函数()X ϕ是显著性水平为α的最优势检验(MPT)的充要条件是,存在常数0K ≥,使得()X ϕ满足0()E X θϕα=10101,(,)(,)()0,(,)(,)p X Kp X X p X Kp X θθϕθθ>⎧=⎨<⎩当当这就是著名的奈曼—皮尔逊基本引理,需要指出的是,上述定理中的检验函数()X ϕ通常称为似然比检验函数,若记10(,)()(,)p X X p X θλθ= 称()X λ为似然比统计量。

如果()X λ较大,意味着1(,)p X θ较大。

所以在0H 为真时观测到样本点X 的可能性比1H 为真时观察到样本点X 的可能性小,因而应拒绝原假设0H ;反之,如果()X λ较小则应接受0H 。

此外,利用()X λ,上述定理中的()X ϕ可写为1,()()0,()X K X X Kλϕλ>⎧=⎨<⎩这说明对于简单假设检验问题,似然比检验是最优的,反之最优势检验法也一定是似然比检验法。

而大量的文献都已证明了传统假设检验中的Z 检验、t 检验、2χ检验和F 检验都是最优势检验。

于是,我们可以放心地回到这部份的主题——计量经济模型的(假设)检验方法。

二、一般线性框架下的假设检验设多元回归模型为122k k Y X X u βββ=++++L (2-43)式(2-43)的统计检验通常包括以下三种情况1、单个系数的显著性检验。

2、若干个回归系数的联合检验。

3、回归系数线性组合的检验。

从检验的方面看,考虑以下典型假设01、0:0j H β=。

即解释变量j X 对Y 没有影响,这是最常见的参数显著性检验。

02、00:j j H ββ= 。

0i β是某一具体值。

例如j β表示价格弹性,我们也许希望它是-1。

03、012:1H ββ+=。

这里的β可以看成生产函数中资本和劳动的弹性,此时检验是否规模报酬不变。

04、023:H ββ=或230ββ-=。

即检验2X 和3X 的系数是否相同。

05、012:0k H βββ===L 。

即检验全部解释变量都对Y 没有影响。

06、0:0II H β=。

这里的含义是把β向量分为两个子向量I β和II β,分别含有1k 和2k 个元素。

检验0:0II H β=就是检验某一些解释变量II X (X 的一部分)对Y 没有影响。

诸如以上的情形都可归于一般的线性框架RB r = (2-44)注意:这里1(,)k B ββ'=L 。

其中R 是由已知常数构成的q k ⨯矩阵(q k ≤),r 是各元素为常数(一般是0或1)的1q ⨯矩阵。

于是,对于上述情形,R 的具体表示为(i )(010),0.(1)R r q ===L L(ii )0(010),.(1)i R r q β===L L(iii )(1,1,00), 1.(1)R r q ===L(iv )(0,1,1,0),0.(1)R r q =-==L(v ),0.()k R I r q k ===(vi )2200,0.()0k R r q k I ⎛⎫=== ⎪⎝⎭ 将上述假设问题一般化,则0:0H RB r -=为了检验这个假设,应先估计出ˆB ,计算ˆRB r -,若其值较“小”,(接近于0),则不应否定原假设;而如果其值较大,那么应对0H 提出怀疑。

为此我们先考察ˆRB的分布。

对于OLS 的ˆB,我们知道21ˆ~(,())B N B X X σ-'。

这里的X 是所有解释变量观测值组成的n k ⨯矩阵,其中不含全是1的第一列,ˆRB的数学期望和方差分别是 ˆ()E RBRB = 21ˆˆˆˆ()[()()]()Var RBE R B B B B R RVarBR R X X R σ-'''''=--== 所以21ˆ~(,())RBN RB R X X R σ-'' 于是,在0:0H RB r -=成立的条件下21ˆ~(0,())RBr N R X X R σ-''- 那么,由有关的数理统计知识可知,其中的方差经过构造,服从自由度为q 的卡方分布,q 为参数中非零的个数,即2112ˆˆ()[()]()~()RBr R X X R RB r q σχ--'''-- (2-45) 此外,我们还可以证明22'~()E En k χσ- (残差平方和的分布)。

因此,由上述两式,可构造在0H 下的F 检验统计量11ˆˆ()[()]()~(,)'()RB r R X X R RB r q F F q n k E E n k --'''--=-- (2-46) 注意,2ˆ'()E E n k σ-=(亦即22ˆie n k σ=-∑)。

于是,检验的程序是,如果计算出的F 值大于某个事先选定的临界值,则拒绝0H 。

具体描述如下01、0:0j H β=此时ˆRB 为ˆjβ。

1()R X X R -''为jj c ,即1()X X -'主对角线上的第j 个元素,1()X X -'是一K 阶对称方阵。

因此222ˆˆ~(1,)ˆˆˆ()j j jj jF F n k c Var ββσβ==- (2-47) 取平方根 ˆ~()ˆˆ()jj t t n k se ββ=-,这就是传统的关于回归参数显著性的t 检验法。

02、00:j j H ββ=类似01,这里ˆ~()ˆˆ()j j j t t n k se βββ-=- (2-48)此时也可以计算,比如j β的95%置信区间,而不用检验关于j β的具体假设,这个置信区间是0.025ˆˆˆ()j jt se ββ±。

03、012:1H ββ+=ˆRB 给出了两个估计系数的和12ˆˆββ+,而此时1111222()2R X X R c c c -''=++,式中1()ij X X c -'=,R=(1,1,,0)L 。

那么1121111112221122122[()]ˆˆˆˆˆˆˆ[(2)][2(,)][()]ˆR X X R c c c Var Cov Var Var σββββββσ-----''=++=++=+于是检验统计量为ˆˆ~()t t n k =- (2-49)或者,也可以计算12ββ+的95%置信区间12ˆˆ()t ββ+±04、023:H ββ=类似03,可推得此时的检验统计量为ˆˆ~()t t n k =- (2-50)05、023:0k H βββ===L此时 k R I =,0r =,q k =,那么ˆˆ'~(,)'()()B X XB k ESS k F F k n k E E n k RSS n k '==--- (2-51) 这就是我们熟悉的关于回归方程显著性的F 检验。

相关文档
最新文档