多元线性回归模型:估计及t检验
多元线性回归模型的估计、回归系数和回归方程的检验、标准化回归方程、预测

实验二:多元线性回归模型的估计、回归系数和回归方程的检验、标准化回归方程、预测实验题目:研究货运总量y(万吨)与工业总产量x1(亿元),农业总产值x2(亿元),居民非商品支出x3(亿元)的关系。
数据如表:1.计算y,x1,x2,x3的相关系数矩阵;2.求y关于x1,x2,x3的三元线性回归方程;3.对所求得的方程作拟合度检验4.对回归方程作显著性检验;5.对每一个回归系数作显著性检验;6.如果有的回归系数没有通过显著性检验,将其剔除,重新建立回归方程,再作回归方程的显著性检验和回归系数的显著性检验;7.求出新回归方程的每一个回归系数的置信水平为95%的置信区间;8.求标准化回归方程;9.求当x01=75,x1=42, x2=3.1时的y的预测值,给定置信水平为95%,用SPSS 软件计算精确置信区间,手工计算近似预测区间?10 结合回归方程对问题作一些基本分析。
数据如下:y x1 x2 x31607035 1.02607540 2.42106540 2.02657442 3.02407238 1.22206845 1.52757842 4.01606636 2.02757044 3.22506542 3.0实验目的:掌握多元线性回归模型的估计、回归系数和回归方程的检验、标准化回归方程、预测SPSS主要操作:操作步骤类似于一元线性回归模型的方法SPSS输出结果及答案:1:y,x1,x2,x3的相关系数矩阵如下表:由上述输出结果知:y=-348.280+3.754x1+7.101x2+12.447x3 3模型汇总b模型R R 方调整 R 方标准估计的误差1 .898a.806 .708 23.44188a. 预测变量: (常量), 居民非商品支出X3(亿元), 工业总产值X1(亿元), 农业总产值X2(亿元)。
b. 因变量: 货运总量Y(万吨)由上述输出结果知:调整R square=0.708,拟合的较好4Anova b模型平方和df 均方 F Sig.1 回归13655.370 3 4551.790 8.283 .015a残差3297.130 6 549.522总计16952.500 9a. 预测变量: (常量), 居民非商品支出X3(亿元), 工业总产值X1(亿元), 农业总产值X2(亿元)。
多元线性回归模型:估计及t检验

多元线性回归:估计(gūjì)方法及回归系数显著性检验(jiǎnyàn)线性回归模型(móxíng)的基本假设:i = 1 , 2 , … , n在普通最小二乘法中,为保证参数估计量具有良好的性质,通常对模型提出(tí chū)若干基本假设:1.解释(jiěshì)变量间不完全相关;2.随机误差项具有0均值和同方差。
即:, i = 1 , 2 , … , n3.不同时点的随机误差项互不相关(序列不相关),即s ≠ 0, i = 1 , 2 , … , n4.随机误差项与解释变量之间互不相关。
即j = 1 , 2 , … , k , i = 1 , 2 , … , n5.随机误差项服从0均值、同方差的正态分布。
即~ i = 1 , 2 , … , n当模型满足假设1 ~ 4时,将回归模型称为“标准回归模型”,当模型满足假设1 ~ 5时,将回归模型称为“标准正态回归模型”。
如果实际模型满足不了这些假设,普通最小二乘法就不再适用,而要发展其他方法来估计模型。
广义(加权)最小二乘估计(generalized least squares)当假设2和3不满足时,即随机扰动项存在异方差,i = 1 ,2 , … , n,且随机扰动项序列相关, i = 1 , 2 , … , n,j=1 , 2 , … , n,此时OLS 估计仍然是无偏且一致的,但不是有效估计。
线性回归的矩阵表示:y = Xβ + u (1)则上述两个条件等价为:Var(u)== ≠σ2 I对于正定(zhènɡ dìnɡ)矩阵存在(cúnzài)矩阵(jǔ zhèn)M,使得(shǐ de)。
在方程(fāngchéng)(1)两边同时左乘M,得到转换后的新模型:,令,即(2)新的随机误差项的协方差矩阵为,显然是同方差、无序列相关的。
多元线性回归模型的估计与解释

多元线性回归模型的估计与解释多元线性回归是一种广泛应用于统计学和机器学习领域的预测模型。
与简单线性回归模型相比,多元线性回归模型允许我们将多个自变量引入到模型中,以更准确地解释因变量的变化。
一、多元线性回归模型的基本原理多元线性回归模型的基本原理是建立一个包含多个自变量的线性方程,通过对样本数据进行参数估计,求解出各个自变量的系数,从而得到一个可以预测因变量的模型。
其数学表达形式为:Y = β0 + β1X1 + β2X2 + ... + βnXn + ε其中,Y为因变量,X1、X2、...、Xn为自变量,β0、β1、β2、...、βn为模型的系数,ε为误差项。
二、多元线性回归模型的估计方法1. 最小二乘法估计最小二乘法是最常用的多元线性回归模型估计方法。
它通过使残差平方和最小化来确定模型的系数。
残差即观测值与预测值之间的差异,最小二乘法通过找到使残差平方和最小的系数组合来拟合数据。
2. 矩阵求解方法多元线性回归模型也可以通过矩阵求解方法进行参数估计。
将自变量和因变量分别构成矩阵,利用矩阵运算,可以直接求解出模型的系数。
三、多元线性回归模型的解释多元线性回归模型可以通过系数估计来解释自变量与因变量之间的关系。
系数的符号表示了自变量对因变量的影响方向,而系数的大小则表示了自变量对因变量的影响程度。
此外,多元线性回归模型还可以通过假设检验来验证模型的显著性。
假设检验包括对模型整体的显著性检验和对各个自变量的显著性检验。
对于整体的显著性检验,一般采用F检验或R方检验。
F检验通过比较回归平方和和残差平方和的比值来判断模型是否显著。
对于各个自变量的显著性检验,一般采用t检验,通过检验系数的置信区间与预先设定的显著性水平进行比较,来判断自变量的系数是否显著不为零。
通过解释模型的系数和做假设检验,我们可以对多元线性回归模型进行全面的解释和评估。
四、多元线性回归模型的应用多元线性回归模型在实际应用中具有广泛的应用价值。
多元线性回归模型的检验

第三节多元线性回归模型的检验本节基本内容:●多元回归的拟合优度检验●回归方程的显著性检验(F检验)●各回归系数的显著性检验(t检验)一、多元回归的拟合优度检验多重可决系数R 2:22222ˆ(-)ESS TSS-RSS 1-TSS(-)TSS i i i iY Y e R Y Y y====∑∑∑∑在实际应用中,随着模型中解释变量的增多,R 2往往增大。
这就给人一个错觉:要使得模型拟合得好,只要增加解释变量即可。
但是,由增加解释变量引起的R 2的增大与拟合好坏无关,所以R 2需调整。
修正的可决系数()222222(-)-1-11111(-1)--i i iie n k en n RR yn n kyn k=-=-=--∑∑∑∑修正的可决系数为特点:⏹⏹k 越大,越小。
综合了精度和变量数两个因素,兼顾了精确性和简洁性。
⏹R 2必定非负,但可能为负值。
2R 2R 2R 22R R≤信息准则为了比较解释变量个数不同的多元回归模型的拟合优度,常用的标准还有:赤池信息准则(Akaike information criterion, AIC )施瓦茨准则(Schwarz criterion ,SC )上述信息准则均要求仅当所增加的解释变量能够减少AIC 值、SC 值或HQC 值时才在原模型中增加该解释变量。
()()n ln n k n L SC 12++-=汉南-奎因准则(Hannan-Quinn criterion ,HQC )()()()n ln ln nk n L HQC 122++-=()n k n L AIC 122++-=()⎥⎥⎦⎤⎢⎢⎣⎡⎪⎪⎭⎫ ⎝⎛++-=∑n e ln ln n L i2212π其中对数似然函数二、回归方程显著性检验(F检验)基本思想在多元回归中有多个解释变量,需要说明所有解释变量联合起来对被解释变量影响的总显著性,或整个方程总的联合显著性。
对方程总显著性检验需要在方差分析的基础上进行F检验。
3多元线性回归模型参数估计

3多元线性回归模型参数估计多元线性回归是一种用于预测多个自变量与因变量之间关系的统计模型。
其模型形式为:Y=β0+β1X1+β2X2+...+βnXn+ε,其中Y是因变量,X1、X2、..、Xn是自变量,β0、β1、β2、..、βn是模型的参数,ε是误差项。
多元线性回归模型参数的估计可以使用最小二乘法(Ordinary Least Squares,OLS)来进行。
最小二乘法的基本思想是找到一组参数估计值,使得模型预测值与实际观测值之间的平方差最小。
参数估计过程如下:1.根据已有数据收集或实验,获取因变量Y和自变量X1、X2、..、Xn的观测值。
2.假设模型为线性关系,即Y=β0+β1X1+β2X2+...+βnXn+ε。
3.使用最小二乘法,计算参数估计值β0、β1、β2、..、βn:对于任意一组参数估计值β0、β1、β2、..、βn,计算出模型对于所有观测值的预测值Y'=β0+β1X1+β2X2+...+βnXn。
计算观测值Y与预测值Y'之间的平方差的和,即残差平方和(RSS,Residual Sum of Squares)。
寻找使得RSS最小的参数估计值β0、β1、β2、..、βn。
4.使用统计方法计算参数估计值的显著性:计算回归平方和(Total Sum of Squares, TSS)和残差平方和(Residual Sum of Squares, RSS)。
计算决定系数(Coefficient of Determination, R^2):R^2 = (TSS - RSS) / TSS。
计算F统计量:F=(R^2/k)/((1-R^2)/(n-k-1)),其中k为自变量的个数,n为观测值的个数。
根据F统计量的显著性,判断多元线性回归模型是否合理。
多元线性回归模型参数估计的准确性和显著性可以使用统计假设检验来判断。
常见的参数估计的显著性检验方法包括t检验和F检验。
t检验用于判断单个参数是否显著,F检验用于判断整个回归模型是否显著。
多元线性回归模型的统计检验

上的线性关系不显著。
12ቤተ መጻሕፍቲ ባይዱ
❖F检验只是把模型作为一个整体,对总体 线性关系进行检验;
❖方程在总体上存在显著的线性关系 每个解释变量对被解释变量都具有显著影响
❖还应对模型中的各个解释变量进行显著性 检验,以决定它们是否应当作为解释变量 被保留在模型之中。
可决系数R2 ESS 1 RSS
TSS
TSS
R2越接近于1,模型的拟合效果越好。
2
问题
❖ 如果在模型中增加一个解释变量,R2往往会 增大(Why?)
❖ 容易产生错觉:要使模型拟合得好,只要增 加解释变量即可。
❖ 但实际上,通过增加解释变量引起的R2的增 大与拟合好坏无关。
❖ R2度量模型拟合效果失真,R2需调整 。
9
若H0 成立,则有:
F
ESS / k
RSS /n k
1
~
F (k
,
n
k
1)
由样本数据求出F统计量的值。
(3)给定显著性水平,查表得到临界
值F(k , n-k-1)。
10
F检验的拒绝域
f (F)
1-
F F
11
(4)比较、判断 ❖ 若F F (k , n-k-1),拒绝H0,接受H1 ,模型
开关
类型,尽量选择平头
键
类的按键,以防按键
下陷。
2.开关按键和塑胶按
F检验的思想来自于TSS的分解: TSS = ESS + RSS
其中,ESS表示X对Y的线性作用结果。
考虑比值:ESS / RSS 如果这个比值较大,则X对Y的解释程 度较高,可认为二者在总体上存在线性 关系;
多元线性回归模型及其参数估计多元线性回归的显著性

多元线性回归模型及其参数估计多元线性回归的显著性Y=β0+β1X1+β2X2+...+βnXn+ε其中,Y表示因变量(被预测或解释的变量),X1,X2,...,Xn表示自变量(用于预测或解释因变量的变量),β0,β1,β2,...,βn表示模型的参数,ε表示误差项。
参数估计就是指通过样本数据来估计模型中的参数。
在多元线性回归中,常用的参数估计方法是最小二乘法。
最小二乘法的目标是最小化实际观测值与回归方程所预测值之间的残差平方和。
为了评估多元线性回归模型的显著性,可以进行假设检验。
最常用的假设检验是利用F检验来检验整个回归模型的显著性。
F检验的原假设是回归模型中所有自变量的系数都等于零,即H0:β1=β2=...=βn=0,备择假设是至少存在一个自变量的系数不等于零,即H1:β1≠β2≠...≠βn≠0。
F统计量的计算公式为:F=(SSR/k)/(SSE/(n-k-1))其中,SSR表示回归平方和,即实际观测值与回归方程所预测值之间的残差平方和,k表示自变量的个数,SSE表示误差平方和,即实际观测值与回归方程所预测值之间的残差平方和,n表示样本容量。
根据F统计量的分布特性,可以计算得出拒绝原假设的临界值,若计算出来的F统计量大于临界值,则可以拒绝原假设,认为回归模型是显著的,即至少存在一个自变量对因变量有显著影响。
除了整体的回归模型显著性检验,我们还可以进行各个自变量的显著性检验。
每一个自变量的显著性检验都是基于t检验。
t检验的原假设是自变量的系数等于零,即H0:βi=0,备择假设是自变量的系数不等于零,即H1:βi≠0。
t统计量的计算公式为:t = (βi - bi) / (SE(βi))其中,βi表示模型中第i个自变量的系数估计值,bi表示模型中第i个自变量的理论值(一般为零),SE(βi)表示第i个自变量的系数的标准误。
根据t统计量的分布特性,可以计算得出对应自由度和置信水平的临界值,若计算出来的t统计量的绝对值大于临界值,则可以拒绝原假设,认为该自变量是显著的,即对因变量有显著影响。
多元线性回归模型的各种检验方法

对多元线性回归模型的各种检验方法对于形如u X X X Y k k +++++=ββββ 22110 (1)的回归模型,我们可能需要对其实施如下的检验中的一种或几种检验:一、 对单个总体参数的假设检验:t 检验在这种检验中,我们需要对模型中的某个(总体)参数是否满足虚拟假设0H :j j a =β,做出具有统计意义(即带有一定的置信度)的检验,其中j a 为某个给定的已知数。
特别是,当j a =0时,称为参数的(狭义意义上的)显著性检验。
如果拒绝0H ,说明解释变量j X 对被解释变量Y 具有显著的线性影响,估计值j βˆ才敢使用;反之,说明解释变量j X 对被解释变量Y 不具有显著的线性影响,估计值j βˆ对我们就没有意义。
具体检验方法如下:(1) 给定虚拟假设 0H :j j a =β;(2) 计算统计量 )ˆ(ˆ)ˆ()(ˆjj j j j j Se a Se E t βββββ-=-= 的数值; 11ˆ)ˆ(++-==j j jj jj j C C Se 1T X)(X ,其中σβ(3) 在给定的显著水平α下(α不能大于1.0即10%,也即我们不能在置信度小于90%以下的前提下做结论),查出双尾t (1--k n )分布的临界值2/αt ;(4) 如果出现 2/αt t >的情况,检验结论为拒绝0H ;反之,无法拒绝0H 。
t 检验方法的关键是统计量 )ˆ(ˆj jj Se t βββ-=必须服从已知的t 分布函数。
什么情况或条件下才会这样呢?这需要我们建立的模型满足如下的条件(或假定):(1) 随机抽样性。
我们有一个含n 次观测的随机样(){}n i Y X X X i ik i i ,,2,1:,,,,21 =。
这保证了误差u 自身的随机性,即无自相关性,0))())(((=--j j i i u E u u E u Cov 。
(2) 条件期望值为0。
给定解释变量的任何值,误差u 的期望值为零。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
多元线性回归:估计方法及回归系数显著性检验线性回归模型的基本假设:i ki k i i i u x x x y +++++=ββββ 22110 i = 1 , 2 , … , n在普通最小二乘法中,为保证参数估计量具有良好的性质,通常对模型提出若干基本假设:1.解释变量间不完全相关;2.随机误差项具有0均值和同方差。
即:0)(=i u E , 2)(σ=i u Var i = 1 , 2 , … , n3.不同时点的随机误差项互不相关(序列不相关),即0),(=-s i i u u Cov s ≠ 0, i = 1 , 2 , … , n4.随机误差项与解释变量之间互不相关。
即0),(=i ji u x Cov j = 1 , 2 , … , k , i = 1 , 2 , … , n5.随机误差项服从0均值、同方差的正态分布。
即i u ~ ),0(2σN i = 1 , 2 , … , n当模型满足假设1 ~ 4时,将回归模型称为“标准回归模型”,当模型满足假设1 ~ 5时,将回归模型称为“标准正态回归模型”。
如果实际模型满足不了这些假设,普通最小二乘法就不再适用,而要发展其他方法来估计模型。
广义(加权)最小二乘估计(generalized least squares )当假设2和3不满足时,即随机扰动项存在异方差22)(ii i u E σ=,i = 1 , 2 , … , n ,且随机扰动项序列相关j i u u Cov ij j i ≠=,),(σ, i = 1 , 2 , … , n ,j=1 , 2 , … , n ,此时OLS 估计仍然是无偏且一致的,但不是有效估计。
线性回归的矩阵表示:y = X β + u (1)则上述两个条件等价为:Var(u )== ⎪⎪⎪⎪⎪⎭⎫ ⎝⎛nn T T n n σσσσσσσσσ..............212222111211 ≠ σ 2 I 对于正定矩阵存在矩阵M ,使得 1''-=⇒=M ΩM I M M Ω。
在方程(1)两边同时左乘M ,得到转换后的新模型:=+⇒=+y X βu My MX βMu ,令***,,= = =y My X MX u Mu ,即***=+y X βu (2)新的随机误差项的协方差矩阵为*var()E('')'===u Muu M M ΩM I ,显然是同方差、无序列相关的。
目标函数,即残差平方和为:u u Mu M u u u Q 1''''-**Ω===。
目标函数是残差向量的加权平方和,而权数矩阵则是u 的协方差矩阵的逆矩阵(因此,广义最小二乘估计法也称为加权最小二乘估计法)。
而新模型的OLS 估计量则是原模型的GLS 估计量。
**1**1111ˆ(')'('')''(')'GLS -----===βX X X y X M MX X M My X ΩX X Ωy Var (GLS )= (X *’X *)-1 =(X ’M ’MX)-1=(X ’-1X)-1( Var (OLS )= (X ’X)-1X ’X(X ’X)-1 )。
由于变换后的模型(2)满足经典OLS 的所有假设,所以根据高斯-马科夫定理可知, GLS估计量是BLUE (Best Linear Unbiased Estimator )。
虽然从理论上讲,GLS 比OLS 有效,但由于多数情况下残差序列的协方差矩阵未知,当我们用代替GLS 估计式中的以获得估计时,估计量虽然仍旧是一致的,但却不是最好线性无偏估计。
而且,也很难推导出估计量的小样本性质。
继而用White(1980)的异方差一致协方差估计方法(残差序列有未知形式的异方差,但序列不相关)和Newey-West(1987) 的异方差--自相关一致协方差估计方法(有未知形式的异方差且自相关存在)得到修正的Var (OLS )是相对较好的选择。
(使用White 或Newey-West 异方差一致协方差估计不会改变参数的点估计,只改变参数估计的标准差。
)White 协方差矩阵公式为:1121)()(ˆ-=-'⎪⎭⎫ ⎝⎛''-=∑∑X X x x u X X k n n n i i i i W 其中n 是观测值数,k 是回归变量数,u i 是最小二乘残差。
Newey-West 协方差矩阵公式为:11)(ˆ)(ˆ--'Ω'=∑X X X X NW 其中⎪⎭⎪⎬⎫⎪⎩⎪⎨⎧⎪⎪⎭⎫ ⎝⎛'+'⎪⎪⎭⎫ ⎝⎛+-+'-=Ω∑∑∑==+=----n i q v n v i i i v i v i v i v i i i i i i x u u x x u u x q x x u k n n 1112))(11ˆν, q 是滞后截尾,一个用于评价OLS 残差 u i 的动态的自相关数目的参数。
)])100(4[(92n q =。
二阶段最小二乘法 (TSLS ,Two stage least squares ,Sargan (1958))当假设4不成立时,即随机误差项与某些解释变量相关时,OLS 和广义LS 都是有偏的和不一致的。
有几种情况使右边某些解释变量与误差项相关。
如:在方程右边有内生决定变量,或右边变量具有测量误差。
为简化起见,我们称与残差相关的变量为内生变量,与残差不相关的变量为外生变量。
解决解释变量与随机误差项相关的方法是使用工具变量回归。
就是要找到一组变量满足下面两个条件:(1)与内生变量相关;(2)与残差不相关;这些变量称为工具变量。
用这些工具变量来消除右边解释变量与扰动项之间的相关性。
考虑工具变量时,应注意以下问题:1)使用TSLS 估计,方程说明必需满足识别的阶条件,即工具变量的个数至少与方程的系数一样多(Davidson & MacKinnon(1994)和Johnston & DiNardo(1997))。
2)根据经济计量学理论,与扰动项不相关的解释变量可以用作工具变量。
3)常数c 是一个合适的工具变量。
在二阶段最小二乘估计中有两个独立的阶段。
在第一个阶段中,找到内生变量和工具变量。
这个阶段包括估计模型中每个内生变量关于工具变量的最小二乘回归。
第二个阶段是对原始方程的回归,所有内生变量用第一个阶段回归得到的拟合值来代替。
这个回归的系数就是TSLS 估计。
令Z 为工具变量矩阵,y 和X 是因变量和解释变量矩阵。
则二阶段最小二乘估计的系数由下式计算出来:y Z Z Z Z X X Z Z Z Z X TSLS ''''''=---111)())((ˆβ系数估计的协方差矩阵为:112))(()ˆ(--'''=X Z Z Z Z X s Var β其中2s 是估计残差的协方差矩阵。
广义矩方法(GMM ,Generalized Method of Moments ,Hansen(1982))由于传统的计量经济模型估计方法,例如普通最小二乘法、工具变量法、极大似然法等,都有它们的局限性,其参数估计量必须在模型满足某些假设时才具有良好的性质,而GMM 估计是一个稳健估计量,因为它不要求扰动项的准确分布信息,允许随机误差项存在异方差和序列相关,所得到的参数估计量比其他参数估计方法更合乎实际;而且可以证明,普通最小二乘法、工具变量法、极大似然法都是GMM 的特例设模型为:t t t y u =+x β其中,12(,,,)t t t Kt x x x =x ,12(,,,)'K βββ=β ,z t 为工具变量(1⨯L )。
令(),,t t t t y =w x z ,则L 个矩条件为:()()()1,''t t t t t t L E u E y ⨯⎡⎤==-=⎣⎦m w θz z x β0对应的样本矩条件为:()()()1111ˆ,''T t t t t L t y T T⨯=⎡⎤=-=-=⎣⎦∑m w θz x βz y x β0 等价于解方程:21ˆˆˆ(,)'(,)Kl t t l Q m====∑m w θm w θ0 (3) 当存在L>K 个工具变量时,共有L 个矩方程,而只有K 个未知参数。
因此,根据MM 方法,共有K L ⎛⎫ ⎪⎝⎭个组合,可以得到的矩估计量的个数为K L ⎛⎫ ⎪⎝⎭。
这时,每个组合得到的MM 估计量都不能满足(3)式,即(3)式不会恰好为0。
但可以考虑将各种不同的估计结果综合起来,使(3)式最小化,即使得L 个矩条件的平方和最小。
因为不同矩的方差不同,因此更科学的方法是使用加权的平方和,ˆˆ(,)'(,)t t t Q =mw θW m w θ GMM 估计量是求下式的最优解:(){}ˆˆˆarg min (,)'(,)GMM t t t t Q =θθW m w θWm w θ与GLS 相类似,GMM 方法中,目标函数为各个矩的加权平方和,权数的选择则要考虑各个矩的异方差和相关性。
最优权数即是各个矩的协方差矩阵的逆矩阵。
如果ˆ(,)t m w θ为一致估计量ˆGMM θ对应的矩,则S 的一致估计量为:)()()ˆˆ(,),t t Var T Var ==S w θm w θ ()11ˆ,T t t TVar T =⎛⎫= ⎪⎝⎭∑mw θ()()11ˆˆ,',T t t t T ==∑m w θm w θ 因此,最优权数矩阵为:()()1111ˆˆˆ,,'T opt t t T t T --=⎛⎫== ⎪⎝⎭∑W S mw θm w θ 其是W T 的一致估计。
回归系数显著性t 检验H0: βi =0 vs H1: βi ≠0检验统计量: t= / std()White t 检验:t= / std(White )Newey-West t 检验:t= / std(N-W )参考文献:Newey, W. K., West, K.D., A simple, positive semi-dedinite, heteroskedasticity andautocorrelation consistent covariance matrix. Econometrica, 55,703-708.Sargan, T.D., 1958, The estimation of economic relationships using instrumental variables.Econometrica, 26, 393-415.White, H., 1980, Heteroskedasticity-consistent covaricnce matrix estimator and a direct test forheteroskedasticity. Econometrica, 48, 817-838.White, H., 1980, Instrumental variables regression on cross-section data. San Diego: University ofCalifornia Press.Hansen, L. P., Hodric, R. J., 1980, Forward exchange rates as optional predictors of future spotrate: an econometric analysis. The Journal of Political Economy, 5(88), 829-853.Hodric, R. J., 1982, Dividend yields and expected stock returns: alternative procedures for inference and measurement. The Review of Financial Studies, 3(5), 357-386.用于k步向前预测中,残差协方差矩阵的一致估计。