应用回归分析第章课后习题参考复习资料
《应用回归分析》课后习题部分答案-何晓群版

第二章 一元线性回归2.14 解答:(1)散点图为:(2)x 与y 之间大致呈线性关系。
(3)设回归方程为01y x ββ∧∧∧=+1β∧=12217()ni ii nii x y n x yxn x --=-=-=-∑∑0120731y x ββ-∧-=-=-⨯=-17y x ∧∴=-+可得回归方程为(4)22ni=11()n-2i i y y σ∧∧=-∑ 2n 01i=11(())n-2i y x ββ∧∧=-+∑=2222213⎡⎤⨯+⨯+⨯⎢⎥+⨯+⨯⎣⎦(10-(-1+71))(10-(-1+72))(20-(-1+73))(20-(-1+74))(40-(-1+75)) []1169049363110/3=++++=6.1σ∧=(5)由于211(,)xxN L σββ∧t σ∧==服从自由度为n-2的t 分布。
因而/2||(2)1P t n αασ⎡⎤⎢⎥<-=-⎢⎥⎣⎦也即:1/211/2(p t t ααβββ∧∧∧∧-<<+=1α-可得195%β∧的置信度为的置信区间为(7-2.3537+2.353 即为:(2.49,11.5)2201()(,())xxx Nn L ββσ-∧+t ∧∧==服从自由度为n-2的t 分布。
因而/2|(2)1P t n αα∧⎡⎤⎢⎥⎢⎥<-=-⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦即0/200/2()1p βσββσα∧∧∧∧-<<+=- 可得195%7.77,5.77β∧-的置信度为的置信区间为()(6)x 与y 的决定系数22121()490/6000.817()ni i nii y y r y y ∧-=-=-==≈-∑∑(7)由于(1,3)F F α>,拒绝0H ,说明回归方程显著,x 与y 有显著的线性关系。
(8)t σ∧==其中2221111()22n ni i i i i e y y n n σ∧∧====---∑∑ 7 3.661==≈/2 2.353t α= /23.66t t α=>∴接受原假设01:0,H β=认为1β显著不为0,因变量y 对自变量x 的一元线性回归成立。
应用回归分析_第3章课后习题参考答案

第3章 多元线性回归思考与练习参考答案见教材P64-65讨论样本容量n 与自变量个数p 的关系,它们对模型的参数估计有何影响答:在多元线性回归模型中,样本容量n 与自变量个数p 的关系是:n>>p 。
如果n<=p 对模型的参数估计会带来很严重的影响。
因为: 1. 在多元线性回归模型中,有p+1个待估参数β,所以样本容量的个数应该大于解释变量的个数,否则参数无法估计。
2. 解释变量X 是确定性变量,要求()1rank p n =+<X ,表明设计矩阵X 中的自变量列之间不相关,即矩阵X 是一个满秩矩阵。
若()1rank p <+X ,则解释变量之间线性相关,1()X X -'是奇异阵,则β的估计不稳定。
证明 随机误差项ε的方差2的无偏估计。
证明:22122222111112221111ˆ(),111()()(1)(1)()(1)1ˆ()()1n i i n n nnnii ii iiii i i i i i ni i SSE e e e n p n p n p E e D e h h n h n p E E e n p σσσσσσσ======='===------∴==-=-=-=--∴==--∑∑∑∑∑∑∑一个回归方程的复相关系数R=,样本决定系数R 2=,我们能断定这个回归方程就很理想吗答:不能。
复相关系数R 与样本决定系R 2数都是用来表示回归方程对原始数据拟合程度的好坏。
样本决定系数取值在【0,1】区间内,()1ˆ2--=p n SSE σ一般来说,R2越接近1,即R2取值越大,说明回归拟合的效果越好。
但由于R2的大小与样本容量n和自变量个数p有关,当n与p的值接近时,R2容易接近1,说明R2中隐含着一些虚假成分。
而当样本容量n较小,自变量个数p较大时,尽管R2很大,但参数估计效果很不稳定。
所以该题中不能仅仅因为R2很大而断定回归方程很理想。
《应用回归分析》课后习题部分答案何晓群版

第二章 一元线性回归2.14 解答:(1)散点图为:(2)x 与y 之间大致呈线性关系。
(3)设回归方程为01y x ββ∧∧∧=+1β∧=12217()ni ii nii x y n x yxn x --=-=-=-∑∑0120731y x ββ-∧-=-=-⨯=-17y x ∧∴=-+可得回归方程为(4)22ni=11()n-2i i y y σ∧∧=-∑ 2n 01i=11(())n-2i y x ββ∧∧=-+∑=2222213⎡⎤⨯+⨯+⨯⎢⎥+⨯+⨯⎣⎦(10-(-1+71))(10-(-1+72))(20-(-1+73))(20-(-1+74))(40-(-1+75)) []1169049363110/3=++++=6.1σ∧=≈ (5)由于211(,)xxN L σββ∧t σ∧==服从自由度为n-2的t 分布。
因而/2|(2)1P t n αασ⎡⎤⎢⎥<-=-⎢⎥⎣⎦也即:1/211/2(p t t ααβββ∧∧∧∧-<<+=1α-可得195%β∧的置信度为的置信区间为(7-2.3537+2.353 即为:(2.49,11.5)2201()(,())xxx Nn L ββσ-∧+t ∧∧==服从自由度为n-2的t 分布。
因而/2(2)1P t n αα∧⎡⎤⎢⎥⎢⎥<-=-⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦即0/200/2()1p βσββσα∧∧∧∧-<<+=- 可得195%7.77,5.77β∧-的置信度为的置信区间为()(6)x 与y 的决定系数22121()490/6000.817()nii nii y y r y y ∧-=-=-==≈-∑∑(7)由于(1,3)F F α>,拒绝0H ,说明回归方程显著,x 与y 有显著的线性关系。
(8)t σ∧==其中2221111()22n ni i i i i e y y n n σ∧∧====---∑∑ 7 3.661==≈ /2 2.353t α= /23.66t t α=>∴接受原假设01:0,H β=认为1β显著不为0,因变量y 对自变量x 的一元线性回归成立。
应用回归分析第章课后习题参考答案Word版

第二章 一元线性回归分析思考与练习参考答案2.1 一元线性回归有哪些基本假定?答: 假设1、解释变量X 是确定性变量,Y 是随机变量;假设2、随机误差项ε具有零均值、同方差和不序列相关性: E(εi )=0 i=1,2, …,n Var (εi )=s 2 i=1,2, …,n Cov(εi, εj )=0 i≠j i,j= 1,2, …,n 假设3、随机误差项ε与解释变量X 之间不相关: Cov(X i , εi )=0 i=1,2, …,n 假设4、ε服从零均值、同方差、零协方差的正态分布 εi ~N(0, s 2 ) i=1,2, …,n 2.2 考虑过原点的线性回归模型 Y i =β1X i +εi i=1,2, …,n误差εi (i=1,2, …,n)仍满足基本假定。
求β1的最小二乘估计 解: 得:2.3 证明(2.27式),S e i =0 ,S e i X i =0 。
证明:∑∑+-=-=nii i ni X Y Y Y Q 121021))ˆˆ(()ˆ(ββ其中:即: S e i =0 ,S e i X i =021112)ˆ()ˆ(ini i ni i i e X Y Y Y Q β∑∑==-=-=0)ˆ(2ˆ111=--=∂∂∑=ii ni i eX X Y Q ββ)()(ˆ1211∑∑===ni i ni ii X Y X β01ˆˆˆˆi ii i iY X e Y Y ββ=+=-0100ˆˆQQββ∂∂==∂∂2.4回归方程E (Y )=β0+β1X 的参数β0,β1的最小二乘估计与最大似然估计在什么条件下等价?给出证明。
答:由于εi ~N(0, s 2 ) i=1,2, …,n所以Y i =β0 + β1X i + εi ~N (β0+β1X i , s 2 ) 最大似然函数:使得Ln (L )最大的0ˆβ,1ˆβ就是β0,β1的最大似然估计值。
同时发现使得Ln (L )最大就是使得下式最小,∑∑+-=-=nii i n i X Y Y Y Q 121021))ˆˆ(()ˆ(ββ上式恰好就是最小二乘估计的目标函数相同。
应用回归分析_第3章课后习题参考答案

第3章 多元线性回归思考与练习参考答案3.1 见教材P64-653.2 讨论样本容量n 与自变量个数p 的关系,它们对模型的参数估计有何影响?答:在多元线性回归模型中,样本容量n 与自变量个数p 的关系是:n>>p 。
如果n<=p 对模型的参数估计会带来很严重的影响。
因为:1. 在多元线性回归模型中,有p+1个待估参数β,所以样本容量的个数应该大于解释变量的个数,否则参数无法估计。
2. 解释变量X 是确定性变量,要求,表明设计矩阵X 中的自变量列之间不相关,即矩阵X 是一个满秩矩阵。
若,则解释变量之间线性相关,是奇异阵,则的估计不稳定。
3.3证明 随机误差项ε的方差σ2的无偏估计。
证明:3.4 一个回归方程的复相关系数R=0.99,样本决定系数=0.9801,我们能断定这个回归方程就很理想吗?答:不能。
复相关系数R 与样本决定系数都是用来表示回归方程对原始数据拟合程度的好坏。
样本决定系数取值在【0,1】区间内,一般来说,越接近1,即取值越大,说明回归拟合的效果越好。
但由于的大小与样本容量n 和自变量个数p 有关,当n 与p 的值接近时,容易接近1,说明中隐含着一些虚假成分。
而当样本容量n 较小,自变量个数p 较大时,尽管很大,但参数估计效果很不稳定。
所以该题中不能仅仅因为很大而断定回归方程很理想。
3.5 如何正确理解回归方程显著性检验拒绝,接受? 答:一般来说,当接受假设时,认为在给定的显著性水平α之下,自变量,,…,对因变量y 无显著性影响,则通过,,…,去推断y 就无多大意义。
此时,一方面可能该问题本应该用非线性模型描述,我们误用线性模型描述了,使得自变量对因变量无显著影响;另一方面可能是在考虑自变量时,由于认识上的局限性把一些影响因变量y 的自变量漏掉了,这就从两个方面提醒我们去重新考虑建模问题。
当拒绝时,也不能过于相信该检验,认为该模型已经很完美。
其实当拒绝H 时,我们只能认为该回归模型在一定程度上说明了自变量,,…,与因变量y 的线性关系。
《应用回归分析》课后题答案[整理版]
![《应用回归分析》课后题答案[整理版]](https://img.taocdn.com/s3/m/603529c1f242336c1eb95eca.png)
《应用回归分析》课后题答案[整理版] 《应用回归分析》部分课后习题答案第一章回归分析概述 1.1 变量间统计关系和函数关系的区别是什么, 答:变量间的统计关系是指变量间具有密切关联而又不能由某一个或某一些变量唯一确定另外一个变量的关系,而变量间的函数关系是指由一个变量唯一确定另外一个变量的确定关系。
1.2 回归分析与相关分析的联系与区别是什么, 答:联系有回归分析和相关分析都是研究变量间关系的统计学课题。
区别有a.在回归分析中,变量y称为因变量,处在被解释的特殊地位。
在相关分析中,变量x和变量y处于平等的地位,即研究变量y与变量x的密切程度与研究变量x与变量y的密切程度是一回事。
b.相关分析中所涉及的变量y与变量x全是随机变量。
而在回归分析中,因变量y是随机变量,自变量x可以是随机变量也可以是非随机的确定变量。
C.相关分析的研究主要是为了刻画两类变量间线性相关的密切程度。
而回归分析不仅可以揭示变量x 对变量y的影响大小,还可以由回归方程进行预测和控制。
1.3 回归模型中随机误差项ε的意义是什么, 答:ε为随机误差项,正是由于随机误差项的引入,才将变量间的关系描述为一个随机方程,使得我们可以借助随机数学方法研究y与x1,x2…..xp的关系,由于客观经济现象是错综复杂的,一种经济现象很难用有限个因素来准确说明,随机误差项可以概括表示由于人们的认识以及其他客观原因的局限而没有考虑的种种偶然因素。
1.4 线性回归模型的基本假设是什么,答:线性回归模型的基本假设有:1.解释变量x1.x2….xp是非随机的,观测值xi1.xi2…..xip是常数。
2.等方差及不相关的假定条件为{E(εi)=0 i=1,2….Cov(εi,εj)=,σ^23.正态分布的假定条件为相互独立。
4.样本容量的个数要多于解释变量的个数,即n>p.1.5 回归变量的设置理论根据是什么,在回归变量设置时应注意哪些问题,答:理论判断某个变量应该作为解释变量,即便是不显著的,如果理论上无法判断那么可以采用统计方法来判断,解释变量和被解释变量存在统计关系。
应用回归分析_整理课后习题参考题答案

第二章 一元线性回归分析思考与练习参考答案2.1 一元线性回归有哪些基本假定?答: 假设1、解释变量X 是确定性变量,Y 是随机变量;假设2、随机误差项ε具有零均值、同方差和不序列相关性: E(εi )=0 i=1,2, …,n Var (εi )=σ2 i=1,2, …,n Cov(εi, εj )=0 i≠j i,j= 1,2, …,n 假设3、随机误差项ε与解释变量X 之间不相关: Cov(X i , εi )=0 i=1,2, …,n 假设4、ε服从零均值、同方差、零协方差的正态分布 εi ~N(0, σ2 ) i=1,2, …,n 2.2 考虑过原点的线性回归模型 Y i =β1X i +εi i=1,2, …,n误差εi (i=1,2, …,n)仍满足基本假定。
求β1的最小二乘估计 解: 得:2.3 证明(2.27式),∑e i =0 ,∑e i X i =0 。
证明:其中:即: ∑e i =0 ,∑e i X i =0∑∑+-=-=nii i ni X Y Y Y Q 121021))ˆˆ(()ˆ(ββ21112)ˆ()ˆ(ini i ni i i e X Y Y Y Q β∑∑==-=-=01ˆˆˆˆi ii i iY X e Y Y ββ=+=-0100ˆˆQQββ∂∂==∂∂2.4回归方程E (Y )=β0+β1X 的参数β0,β1的最小二乘估计与最大似然估计在什么条件下等价?给出证明。
答:由于εi ~N(0, σ2 ) i=1,2, …,n所以Y i =β0 + β1X i + εi ~N (β0+β1X i , σ2 ) 最大似然函数:使得Ln (L )最大的0ˆβ,1ˆβ就是β0,β1的最大似然估计值。
同时发现使得Ln (L )最大就是使得下式最小,上式恰好就是最小二乘估计的目标函数相同。
值得注意的是:最大似然估计是在εi ~N (0, σ2 )的假设下求得,最小二乘估计则不要求分布假设。
《应用回归分析》课后题答案解析

(8) t
1
2
/ Lxx
1
Lxx
2
其中
1 n2
n i1
ei 2
1 n2
n i1
( yi
2
yi )
0.0036 1297860 8.542 0.04801
t /2 1.895
t 8.542 t /2
接受原假设 H 0: 1 0, 认为 1 显著不为 0,因变量 y 对自变量 x 的一元线性回归成立。
( yi
2
yi )
1 n-2
n i=1
( yi
( 0 1
2
x))
=
1 3
( 10-(-1+71))2 (10-(-1+7 (20-(-1+7 4))2 (40-(-1+7
2))2 (20-(-1+7 5))2
3))2
1 16 9 0 49 36
3
110 / 3
1
330 6.1
《应用回归分析》部分课后习题答案
第一章 回归分析概述
变量间统计关系和函数关系的区别是什么 答:变量间的统计关系是指变量间具有密切关联而又不能由某一个或某一些变量 唯一确定另外一个变量的关系,而变量间的函数关系是指由一个变量唯一确定另 外一个变量的确定关系。
回归分析与相关分析的联系与区别是什么 答:联系有回归分析和相关分析都是研究变量间关系的统计学课题。区别有 a. 在回归分析中,变量 y 称为因变量,处在被解释的特殊地位。在相关分析中,变 量 x 和变量 y 处于平等的地位,即研究变量 y 与变量 x 的密切程度与研究变量 x 与变量 y 的密切程度是一回事。b.相关分析中所涉及的变量 y 与变量 x 全是随机 变量。而在回归分析中,因变量 y 是随机变量,自变量 x 可以是随机变量也可以 是非随机的确定变量。C.相关分析的研究主要是为了刻画两类变量间线性相关的 密切程度。而回归分析不仅可以揭示变量 x 对变量 y 的影响大小,还可以由回归 方程进行预测和控制。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
2.1 一元线性回归模型有哪些基本假定?答:1. 解释变量 1x ,Λ,2x ,p x 是非随机变量,观测值,1i x ,,2Λi x ip x 是常数。
2. 等方差及不相关的假定条件为⎪⎪⎩⎪⎪⎨⎧⎪⎩⎪⎨⎧≠=====j i n j i j i n i E j i i ,0),,2,1,(,),cov(,,2,1,0)(2ΛΛσεεε 这个条件称为高斯-马尔柯夫(Gauss-Markov)条件,简称G-M 条件。
在此条件下,便可以得到关于回归系数的最小二乘估计及误差项方差2σ估计的一些重要性质,如回归系数的最小二乘估计是回归系数的最小方差线性无偏估计等。
3. 正态分布的假定条件为⎩⎨⎧=相互独立n i n i N εεεσε,,,,,2,1),,0(~212ΛΛ 在此条件下便可得到关于回归系数的最小二乘估计及2σ估计的进一步结果,如它们分别是回归系数的最及2σ的最小方差无偏估计等,并且可以作回归的显著性检验及区间估计。
4. 通常为了便于数学上的处理,还要求,p n >及样本容量的个数要多于解释变量的个数。
在整个回归分析中,线性回归的统计模型最为重要。
一方面是因为线性回归的应用最广泛;另一方面是只有在回归模型为线性的假设下,才能的到比较深入和一般的结果;再就是有许多非线性的回归模型可以通过适当的转化变为线性回归问题进行处理。
因此,线性回归模型的理论和应用是本书研究的重点。
1. 如何根据样本),,2,1)(;,,,(21n i y x x x i ip i i ΛΛ=求出p ββββ,,,,210Λ及方差2σ的估计;2. 对回归方程及回归系数的种种假设进行检验;3. 如何根据回归方程进行预测和控制,以及如何进行实际问题的结构分析。
2.2 考虑过原点的线性回归模型 n i x y i i i ,,2,1,1Λ=+=εβ误差n εεε,,,21Λ仍满足基本假定。
求1β的最小二乘估计。
答:∑∑==-=-=ni ni i i i x y y E y Q 1121121)())(()(ββ∑∑∑===+-=--=∂∂n i n i ni i i i i i i x y x x x y Q111211122)(2βββ 令,01=∂∂βQ即∑∑===-n i ni i i i x y x 11210β 解得,ˆ1211∑∑===ni ini i i xyx β即1ˆβ的最小二乘估计为.ˆ1211∑∑===ni ini ii xyx β2.3 证明: Q (β,β1)= ∑(y i-β0-β1x i)2因为Q (∧β0,∧β1)=min Q (β0,β1 )而Q (β0,β1) 非负且在R2上可导,当Q 取得最小值时,有 即-2∑(y i -∧β0-∧β1x i )=0 -2∑(y i-∧β0-∧β1x i ) x i=0又∵e i =yi -( ∧β0+∧β1x i )= yi -∧β0-∧β1x i ∴∑e i =0,∑e i x i =0(即残差的期望为0,残差以变量x 的加权平均值为零)2.4 解:参数β0,β1的最小二乘估计与最大似然估计在εi~N(0, 2 ) i=1,2,……n 的条件下等价。
证明:因为ni N i ,.....2,1),,0(~2=σε所以),(~2110110σββεββX X Y N i i +++=其最大似然函数为已知使得Ln (L )最大的0ˆβ,1ˆβ就是β0,β1的最大似然估计值。
即使得下式最小 :∑∑+-=-=nii i n i X Y Y Y Q 121021))ˆˆ(()ˆ(ββ ①因为①恰好就是最小二乘估计的目标函数相同。
所以,在ni N i ,.....2,1),,0(~2=σε 的条件下, 参数β0,β1的最小二100ˆˆQQββ∂∂==∂∂乘估计与最大似然估计等价。
2.5.证明0β)是0β的无偏估计。
证明:若要证明0β)是0β的无偏估计,则只需证明E(0β))=0β。
因为0β),1β)的最小二乘估计为⎪⎩⎪⎨⎧-==x y L L xxxy 101/βββ))) 其中∑∑∑∑∑∑∑∑∑-=-=-=-=-=--=22222)(1)(1))((i i i i xx i i i i i i i i xy x nx x n x x x L y x ny x y x n y x y y x x LE(0ˆβ)=E(x y 1ˆβ-)=E(∑∑==--n i i xx i n i i y L x x x y n 111)=E[∑=--ni i xx i y L x x x n 1)1(]=E[∑=++--ni i i xxi x L x x x n 110))(1(εββ]=E(∑=--ni xx i L x x x n 10)1(β)+E(∑=--n i i xx i x L x x x n 11)1(β)+E(∑=--ni i xx i L x x x n 1)1(ε)其中∑=--ni xx i L x x x n 10)1(β=∑=--ni xx i L x x x n 10)1(β=))(1(10∑=--ni ixx x xL x n n β由于∑=-ni i x x 1)(=0,所以∑=--ni xx i L x x x n 10)1(β=0β∑=--ni i xx i x L x x x n 11)1(β=∑=--ni ixx i i x L x x x n x 11)(β=))((11∑=--ni i ixx x x xL x x β=)-)(((11∑=--ni i ixxx x x xL xx β)=)(1x x -β=0又因为一元线性回归模型为⎩⎨⎧++=),0(210σεεββN x y i i i i 独立同分布,其分布为各所以E(iε)=0所以E(∑=--ni xx i L x x x n 10)1(β)+E(∑=--n i i xx i x L x x x n 11)1(β)+E(∑=--ni i xx i L x x x n 1)1(ε=++)0()(0E E β ∑=--ni i xx i E L x x x n 1)()1(ε=0β所以0β)是0β的无偏估计。
2.6 解:因为∑==ni i yn y 11 ①,xy ∧∧-=ββ1②,yLx in i xxix∑=∧-=11β③联立 ①②③式,得到y L x ini xx ix x n ∑=∧--=10)1(β。
])1([)(10y L x i ni xx i x x n Var Var ∑=∧--=β)(1])1[(2y L x x x ni Var ni xx i ∑--==σ2122]2(1[)∑-=--+=ni xxi nLx L x x x nx x xxi因为∑-==ni xxx x Li 12)(,)(1=-∑=n i ix x ,所以σβ21212212])(21[)()()(nLx L x x x nxxni ini ni x x xxi Var ∑∑-∑===∧-++=σ22)(1⎪⎪⎪⎭⎫ ⎝⎛+=L x xxn σ2122)()(1⎪⎪⎪⎪⎭⎫ ⎝⎛+=∑-=ni x x x i n2.7 证明平方和分解公式:SST=SSE+SSR证明:2.8 验证三种检验的关系,即验证:()()∑∑==-+-=-=ni i i n i i y i y yy y y SST 1212]ˆ()ˆ[()()()∑∑∑===-+--+-=ni i i n i i i i n i i y y y y y y y y12112)ˆˆ)(ˆ2ˆ()()SSE SSR y y y y ni i i n i i +=-+-=∑∑==1212)ˆˆ(1)21)2(r r n t --=;(2)2221ˆˆ)2/(1/t L n SSE SSR F xx ==-=σβ证明:(1)因为2-n 22SSESSR L xx =∧∧=σβ和,所以SSTSSE SST SSRn SSESSR n n SSE t LLxxxx)()(22222-=-=-∧=∧=∧βσβ又因为SST SSR r=2,所以SST SSE SST SSR SST r =-=-21故21)2(r r n t --=得证。
(2)22222011111111ˆˆˆˆˆˆ()()(())(())nnnni i ii xx i i i i SSR y y x y y x x y x x L βββββ=====-=+-=+--=-=∑∑∑∑2212ˆ/1ˆ/(2)xx L SSR F t SSE n βσ∴===-g2.9 验证(2.63)式:()σ2xx2i Lx -x e i-n 1-1var ⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=)(证明:),()()()()(∧∧∧+==y y y y y y eiiiiiii cov 2-var var -var var ))x -y cov 2var var x y x y i1ii1i(,()()(∧∧∧+-++=βββ ⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡+-⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡++=--L x x L xx i n )()(22xx 22212i n 1x x σσσ()σ2xx2x -x in 11⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡--=L其中: ()⎪⎪⎭⎫ ⎝⎛-∧+x y cov x y i1i β,()()⎪⎪⎭⎫⎝⎛∧+=x -cov y cov x y y i 1i i β,,()()⎪⎪⎭⎫⎝⎛+⎪⎭⎫⎝⎛=∑∑==n 1i i xxii i n 1i i i y x y x y y x -cov x -n 1cov L,, ()σσ222n1Lx x xxi-+=()σ22n 1⎪⎪⎪⎭⎫ ⎝⎛+=-Lx x xxi注:各个因变量yy y n (2)1,是独立的随机变量),cov()var()var()var(Y X Y X Y X 2++=+2.10 用第9题证明2-n ie 22∑=∧σ是σ2的无偏估计量证明:()∑-=∧∧=⎪⎪⎭⎫ ⎝⎛n 1i 22y y ii2-n 1E E σ∑=⎪⎭⎫⎝⎛=n 1i 2e i 2-n 1E ()∑==ni i e 12-n 1var()σ2n1i xx2Lx -x i-n1-12-n 1∑=⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=()σ222-n 1-=n σ2= 注:[])()()var(X E X E X 22+=2.11验证22-+=n F Fr证明:)2(*)2(-⎪⎭⎫ ⎝⎛=-=n SSE SSR n SSESSR F 所以有F n SSR SSE )2(-=()2)2(11112-+=⎪⎭⎫ ⎝⎛-+=+=+==n F FF n SSR SSESSE SSR SSR SST SSR r以上表达式说明r ²与F 等价,但我们要分别引入这两个统计量,而不是只引入其中一个。