多元回归分析——估计
多元线性回归模型的估计、回归系数和回归方程的检验、标准化回归方程、预测

实验二:多元线性回归模型的估计、回归系数和回归方程的检验、标准化回归方程、预测实验题目:研究货运总量y(万吨)与工业总产量x1(亿元),农业总产值x2(亿元),居民非商品支出x3(亿元)的关系。
数据如表:1.计算y,x1,x2,x3的相关系数矩阵;2.求y关于x1,x2,x3的三元线性回归方程;3.对所求得的方程作拟合度检验4.对回归方程作显著性检验;5.对每一个回归系数作显著性检验;6.如果有的回归系数没有通过显著性检验,将其剔除,重新建立回归方程,再作回归方程的显著性检验和回归系数的显著性检验;7.求出新回归方程的每一个回归系数的置信水平为95%的置信区间;8.求标准化回归方程;9.求当x01=75,x1=42, x2=3.1时的y的预测值,给定置信水平为95%,用SPSS 软件计算精确置信区间,手工计算近似预测区间?10 结合回归方程对问题作一些基本分析。
数据如下:y x1 x2 x31607035 1.02607540 2.42106540 2.02657442 3.02407238 1.22206845 1.52757842 4.01606636 2.02757044 3.22506542 3.0实验目的:掌握多元线性回归模型的估计、回归系数和回归方程的检验、标准化回归方程、预测SPSS主要操作:操作步骤类似于一元线性回归模型的方法SPSS输出结果及答案:1:y,x1,x2,x3的相关系数矩阵如下表:由上述输出结果知:y=-348.280+3.754x1+7.101x2+12.447x3 3模型汇总b模型R R 方调整 R 方标准估计的误差1 .898a.806 .708 23.44188a. 预测变量: (常量), 居民非商品支出X3(亿元), 工业总产值X1(亿元), 农业总产值X2(亿元)。
b. 因变量: 货运总量Y(万吨)由上述输出结果知:调整R square=0.708,拟合的较好4Anova b模型平方和df 均方 F Sig.1 回归13655.370 3 4551.790 8.283 .015a残差3297.130 6 549.522总计16952.500 9a. 预测变量: (常量), 居民非商品支出X3(亿元), 工业总产值X1(亿元), 农业总产值X2(亿元)。
★多元线性回归模型的估计

§3.2 多元线性回归模型的估计同一元回归模型的估计一样,多元回归模型参数估计的任务仍有两项:一是求得反映变量之间数量关系的结构参数的估计量jβˆ(j=1,2,…,k );二是求得随机误差项的方差估计2ˆσ。
模型(3.1.1)或(3.1.2)在满足§3.1所列的基本假设的情况下,可以采用普通最小二乘法、最大或然法或者矩估计法估计参数。
一、普通最小二乘估计随机抽取被解释变量和解释变量的n 组样本观测值: k j n i X Y ji i ,2,1,0,,,2,1),,(== 如果样本函数的参数估计值已经得到,则有:Kiki i i i X X X Y ββββˆˆˆˆˆ22110++++= i=1,2,…,n (3.2.1) 那么,根据最小二乘原理,参数估计值应该是下列方程组的解⎪⎪⎪⎪⎪⎩⎪⎪⎪⎪⎪⎨⎧====0ˆ0ˆ0ˆ0ˆ21Q Q Q Q kβ∂∂β∂∂β∂∂β∂∂(3.2.2)其中 2112)ˆ(∑∑==-==ni ii ni iY Y eQ 2122110))ˆˆˆˆ((∑=++++-=ni kik i i iX X X Yββββ (3.2.3) 于是得到关于待估参数估计值的正规方程组:⎪⎪⎪⎩⎪⎪⎪⎨⎧∑=++++∑∑=++++∑∑=++++∑∑=++++∑kii ki ki k i i i i i ki k i i i i i i ki k i i iki k i i X Y X X X X X Y X X X X X Y X X X X Y X X X )ˆˆˆˆ()ˆˆˆˆ()ˆˆˆˆ()ˆˆˆˆ(221102222110112211022110ββββββββββββββββ (3.2.4) 解该(k+1)个方程组成的线性代数方程组,即可得到(k+1)个待估参数的估计值k j j,,2,1,0,ˆ =β。
(3.2.4)式的矩阵形式如下:⎪⎪⎪⎪⎪⎭⎫⎝⎛⎪⎪⎪⎪⎪⎭⎫⎝⎛=⎪⎪⎪⎪⎪⎭⎫ ⎝⎛⎪⎪⎪⎪⎪⎭⎫⎝⎛∑∑∑∑∑∑∑∑n kn k k n k ki iki ki ki i ii kii Y Y Y X X X X X X X X X XXX XX X Xn212111211102112111111ˆˆˆβββ即: Y X βX)X ('='ˆ (3.2.5) 由于X X '满秩,故有Y X X X β''=-1)(ˆ (3.2.6) 将上述过程用矩阵表示如下:根据最小二乘原理,需寻找一组参数估计值βˆ,使得残差平方和 )ˆ()ˆ(12βX Y βX Y e e -'-='==∑=ni i e Q 最小。
多元线性回归模型的估计与解释

多元线性回归模型的估计与解释多元线性回归是一种广泛应用于统计学和机器学习领域的预测模型。
与简单线性回归模型相比,多元线性回归模型允许我们将多个自变量引入到模型中,以更准确地解释因变量的变化。
一、多元线性回归模型的基本原理多元线性回归模型的基本原理是建立一个包含多个自变量的线性方程,通过对样本数据进行参数估计,求解出各个自变量的系数,从而得到一个可以预测因变量的模型。
其数学表达形式为:Y = β0 + β1X1 + β2X2 + ... + βnXn + ε其中,Y为因变量,X1、X2、...、Xn为自变量,β0、β1、β2、...、βn为模型的系数,ε为误差项。
二、多元线性回归模型的估计方法1. 最小二乘法估计最小二乘法是最常用的多元线性回归模型估计方法。
它通过使残差平方和最小化来确定模型的系数。
残差即观测值与预测值之间的差异,最小二乘法通过找到使残差平方和最小的系数组合来拟合数据。
2. 矩阵求解方法多元线性回归模型也可以通过矩阵求解方法进行参数估计。
将自变量和因变量分别构成矩阵,利用矩阵运算,可以直接求解出模型的系数。
三、多元线性回归模型的解释多元线性回归模型可以通过系数估计来解释自变量与因变量之间的关系。
系数的符号表示了自变量对因变量的影响方向,而系数的大小则表示了自变量对因变量的影响程度。
此外,多元线性回归模型还可以通过假设检验来验证模型的显著性。
假设检验包括对模型整体的显著性检验和对各个自变量的显著性检验。
对于整体的显著性检验,一般采用F检验或R方检验。
F检验通过比较回归平方和和残差平方和的比值来判断模型是否显著。
对于各个自变量的显著性检验,一般采用t检验,通过检验系数的置信区间与预先设定的显著性水平进行比较,来判断自变量的系数是否显著不为零。
通过解释模型的系数和做假设检验,我们可以对多元线性回归模型进行全面的解释和评估。
四、多元线性回归模型的应用多元线性回归模型在实际应用中具有广泛的应用价值。
武汉大学 计量经济学 多元回归分析:估计

ˆ 1 ˆ 2
(x
1i
x1 )( yi y ) ( x2i x2 ) 2 ( x2i x2 )( yi y ) (x1i x1 )( x2i x2 ) x2 )( yi y ) ( x1i x1 ) 2 ( x1i x1 )( yi y ) (x1i x1 )( x2i x2 ) (x1i x1 )( x2i x2 ) ( x1i x1 )2 ( x2i x2 )2
2
(x
(x1i x1 )( x2i x2 ) ( x1i x1 )2 ( x2i x2 )2
Note 3: 违背MLR.10的几种情形
c o n s 0 1 in c 2 in c 2 u 并 不 违 背 M L R .1 0
(1) 同一变量在不同单位的度量下几次进入同一回归方程。 y 0 1 x1 2 x2 3 x3 u x3 5x2 (2) 一个解释变量以隐蔽的方式成为另一变量的倍数, 如 log cons 0 1 log inc 2 log inc2 u (3) 一个解释变量恰好能表述成其他几个解释变量的线性函数 如 VoteA 0 1 exp endA 2 exp endB 3total exp end u 其中 total exp end exp endA exp endB 此时,试图在其他条件不变的情况下解释某个参数就会出现问题。
ˆ ( x 2 n( x ) 2 ) ˆ ( x x nx .x ) y x . y x n i 1i 1 1 2 1 1 1i 2 1i 2 i
OLS估计量求解
整理后得, (5) ( x1i x1 )( yi y ) ˆ1 ( x1i x1 )2 ˆ2 ( x1i x1 )( x2i x2 )
3多元线性回归模型参数估计

3多元线性回归模型参数估计多元线性回归是一种用于预测多个自变量与因变量之间关系的统计模型。
其模型形式为:Y=β0+β1X1+β2X2+...+βnXn+ε,其中Y是因变量,X1、X2、..、Xn是自变量,β0、β1、β2、..、βn是模型的参数,ε是误差项。
多元线性回归模型参数的估计可以使用最小二乘法(Ordinary Least Squares,OLS)来进行。
最小二乘法的基本思想是找到一组参数估计值,使得模型预测值与实际观测值之间的平方差最小。
参数估计过程如下:1.根据已有数据收集或实验,获取因变量Y和自变量X1、X2、..、Xn的观测值。
2.假设模型为线性关系,即Y=β0+β1X1+β2X2+...+βnXn+ε。
3.使用最小二乘法,计算参数估计值β0、β1、β2、..、βn:对于任意一组参数估计值β0、β1、β2、..、βn,计算出模型对于所有观测值的预测值Y'=β0+β1X1+β2X2+...+βnXn。
计算观测值Y与预测值Y'之间的平方差的和,即残差平方和(RSS,Residual Sum of Squares)。
寻找使得RSS最小的参数估计值β0、β1、β2、..、βn。
4.使用统计方法计算参数估计值的显著性:计算回归平方和(Total Sum of Squares, TSS)和残差平方和(Residual Sum of Squares, RSS)。
计算决定系数(Coefficient of Determination, R^2):R^2 = (TSS - RSS) / TSS。
计算F统计量:F=(R^2/k)/((1-R^2)/(n-k-1)),其中k为自变量的个数,n为观测值的个数。
根据F统计量的显著性,判断多元线性回归模型是否合理。
多元线性回归模型参数估计的准确性和显著性可以使用统计假设检验来判断。
常见的参数估计的显著性检验方法包括t检验和F检验。
t检验用于判断单个参数是否显著,F检验用于判断整个回归模型是否显著。
多元线性回归模型参数估计

多元线性回归模型参数估计多元线性回归是一种用于建立自变量与因变量之间关系的统计模型。
它可以被视为一种预测模型,通过对多个自变量进行线性加权组合,来预测因变量的值。
多元线性回归模型的参数估计是指利用已知的数据,通过最小化误差的平方和来估计回归模型中未知参数的过程。
本文将介绍多元线性回归模型参数估计的基本原理和方法。
Y=β0+β1X1+β2X2+...+βpXp+ε其中,Y是因变量,X1、X2、..、Xp是自变量,β0、β1、β2、..、βp是回归系数,ε是残差项。
参数估计的目标是找到使得误差的平方和最小的回归系数。
最常用的方法是最小二乘法(Ordinary Least Squares, OLS)。
最小二乘法通过最小化残差的平方和来确定回归系数的值。
残差是观测值与回归模型预测值之间的差异。
为了进行最小二乘法参数估计,需要计算回归模型的预测值。
预测值可以表示为:Y^=β0+β1X1+β2X2+...+βpXp其中,Y^是因变量的预测值。
参数估计的目标可以表示为:argmin(∑(Y - Y^)²)通过对目标函数进行求导,可以得到参数的估计值:β=(X^TX)^-1X^TY其中,X是自变量的矩阵,Y是因变量的向量,^T表示矩阵的转置,^-1表示矩阵的逆。
然而,在实际应用中,数据往往存在噪声和异常值,这可能导致参数估计的不准确性。
为了解决这个问题,可以采用正则化方法,如岭回归(Ridge Regression)和LASSO回归(Least Absolute Shrinkage and Selection Operator Regression)。
这些方法通过在目标函数中引入正则化项,可以降低估计结果对噪声和异常值的敏感性。
岭回归通过在目标函数中引入L2范数,可以限制回归系数的幅度。
LASSO回归通过引入L1范数,可以使得一些回归系数等于零,从而实现变量选择。
这些正则化方法可以平衡模型的拟合能力与泛化能力,提高参数估计的准确性。
第2章多元回归分析

y = b0 + b1x1 + b2x2 + . . . bkxk + u
1
Multiple Regression Analysis
y = b0 + b1x1 + b2x2 + . . . bkxk + u
1. Estimation
2
Parallels with Simple Regression
fIrno mthethgeefniersrtalocrdaeser cwointhd iktioinnd, ewpeencdanengtevt akriab1 les,
lwineeasreeeqkueasttiiomnastienskbˆ0,1bˆu1,n k n,obˆwk
tynˆheryebiˆf0orbeˆb,0ˆ1mx1ibnˆ1ixmi1 izebˆtkhxekbˆskuxmik of
The STATA command
Use [path]wage1.dta (insheet using [path]wage1.raw/wage1.txt) Reg wage educ exper tenure Reg lwage educ exper tenure
7
A “Partialling Out” Interpretation
8
“Partialling Out” continued
Previous equation implies that regressing y on x1 and x2 gives same effect of x1 as regressing y on residuals from a regression of x1 on x2
报告中的回归分析和参数估计

报告中的回归分析和参数估计引言:在现代数据分析中,回归分析和参数估计是非常重要的统计方法。
回归分析可以用来研究变量之间的关系,并进行预测和解释。
参数估计则是通过样本数据对总体参数进行估计,从而进行统计推断和假设检验。
本报告将详细讨论回归分析和参数估计的相关概念和方法,并介绍其在实际研究中的应用。
一、线性回归分析1.1 简介线性回归分析是一种通过对自变量与因变量之间的线性关系进行建模和预测的方法。
该方法假设自变量和因变量之间存在线性关系,并基于最小二乘法拟合回归模型。
在报告中,我们将介绍线性回归的基本原理和模型建立的步骤。
1.2 模型建立与拟合在进行线性回归分析时,首先需要选择适当的自变量和因变量,并建立回归模型。
然后,使用最小二乘法估计回归系数,并对模型的拟合程度进行评估。
本节将详细介绍模型建立和参数估计的过程,并提供实例进行说明。
一、多元回归分析2.1 简介多元回归分析是一种通过考虑多个自变量对因变量的影响进行建模和预测的方法。
该方法可以帮助我们理解多个自变量对因变量的作用,并进行相应的预测和解释。
在报告中,我们将介绍多元回归的基本原理和模型建立的步骤。
2.2 模型选择与解释在进行多元回归分析时,需要选择适当的自变量,并构建回归模型。
然后,使用最小二乘法估计回归系数,并进行模型选择和解释。
本节将详细介绍模型选择和解释的方法,并提供实例进行说明。
三、参数估计方法3.1 最小二乘估计最小二乘估计是一种常用的参数估计方法,通过最小化观测值与回归模型估计值之间的残差平方和,来估计参数的值。
在报告中,我们将介绍最小二乘估计的原理和步骤,并讨论其在回归分析中的应用。
3.2 最大似然估计最大似然估计是一种基于概率模型的参数估计方法,通过寻找使观测数据出现概率最大的参数值,来估计参数的值。
在报告中,我们将介绍最大似然估计的原理和步骤,并讨论其在回归分析中的应用。
四、回归分析与实际应用4.1 经济学研究中的回归分析回归分析在经济学研究中广泛应用,可以帮助我们理解经济变量之间的关系,并进行经济政策的预测和评估。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
(3.2)的例子类似于工资方程。其零条件均值的 假定为E(u︱expend,avginc)=0,它意味着,影 响学生考试成绩的因素——学校或学生的个 人特征——总体上与学生的平均开支和平均 家庭收入无关。 在 (3.4)中的二次消费函数,对零条件均值假 定的解释则略有不同。直接照写, (3.5)就变 成了E(u︱inc,inc2)=0。因为一旦知道了inc,那 就会知道inc2,所以在预期表达式中包括inc2 项是多此一举:E(u︱inc,inc2)=0等价于E(u︱ inc)=0。虽然在表述这个假定时让inc2和inc一 起出现在预期项中并没有错,但E(u︱inc)=0更 简明扼要。
普通最小二乘法的操作和解释
即将解决的问题:将普通最小二乘法用于一个 特定的数据集时,在计算和代数上会有些什么 特征及讨论如何解释所估计的方程。 如何得到OLS估计值? 先考虑对含有两个自变量模型的估计。被估 计的OLS方程在形式上与简单回归情况下的 方程相似:
ˆ ˆ ˆ ˆ y 0 1 x1 2 x2
多元回归分析——估计
模型 与简单回归的相似点 多元回归的意义 多元回归的最小二乘法 多元回归的代数性质 多元回归的统计性质 遗漏变量 拟合度 多重共线性
引子
使用简单的回归分析,可以把因变量y解释成一 个自变量x的函数。然而在实际的经验研究中使 用简单回归分析的主要缺陷是,它很难得到x在 其他条件不变情况下对y的影响:因为关键假定 SLR.3(所有其他影响y的因素都与x不相关)通 常都不现实。 很自然,如果我们在模型中多增加一些有助于 解释y的因素,那么,y的变动就能更多地得到 解释。因此,多元回归分析可用于建立更好的 因变量预测模型。
cons 1 2 2 inc inc
换句话说,收入对消费的边际效应取决于β2、 β1和收入水平。这个例子表明,在任何一个特 定应用中,对自变量的定义都是至关重要的
在含有两个自变量的模型中,u与x1和x2如何 相关的关键假定是,E(u︱x1, x2)=0 ……(3.5) 意味着,对总体中x1和x2的任何值,非观测因 素的平均都等于零。 如何解释前面例子中条件均值为零的假定:
定义y= log(salary),x1= log(sales),x2= ceoten和x3= ceoten2,得一多元回归模型(k=3)。试解释参数。
参数β1是(其他条件不变情况下)薪水对销售量的 弹性。如果β3=0,那么在其他条件不变情况下, 100β2就表示ceoten增加一年导致salary提高的百 分数。当β3≠0时,ceoten对salary的影响则复杂一 些。
多元回归的术语类似于简单回归的术语。恰如 简单回归中一样,变量u表示误差项(error term) 或干扰项(disturbance)。它包括除x1,x2, x3,…,xk之外仍影响y的一些因素。无论在我 们的模型中包含了多少个解释变量,总有一些 因素我们无法包括进来,而所有这些因素就包 括在u中。 多元线性回归模型中的“线性”一词,意味着 方程(3.6)是其诸参数βj的一个线性函数。多元 线性回归的许多运用中都涉及到主要变量之间 的非线性关系。
在(3.1) 中,这个假定是E(u︱educ,exper)=0。 意味着,影响wage的其他因素都与educ和exper 无关。因此,如果我们认为天生能力是u的一部 分,那我们就需要假定,对工人总体中受教育和 工作经历的各种组合,其平均能力水平都相同。 这可能正确也可能不正确,但我们将看到,这正 是为了判断普通最小二乘法是否导致无偏估计量 而需要知道的问题。
机械地看,用普通最小二乘法去估计方 程(3.1)和(3.4) ,应该没有什么差别。每个 方程都可以写成像(3.3)那样的方程。但重 要的差别在于,人们对参数的解释。
(3.1)中,β1是educ在其他条件不变情况下对 wage的影响。而方程(3.4)中的参数β1则没有这 样的解释。换句话说,度量inc在保持inc2不变 的情况下对cons的影响是毫无意义的,如果inc 变化,则inc2也一定会变化!相反,相对收入变 化的消费变化——即边际消费倾向——可近似为:
与仅联系wage和educ的简单回归分析相比,方程 (3.1)有效地把exper从误差项中取出并把它明确地 放到方程之中。所以系数β2度量了exper在其他条 件不变情况下对工资的影响,这点也有意义。 就像在简单回归中一样,我们将不得不对(3.1)中 的u如何与自变量educ和exper相关做出假定。但 像我们在第3.2节中将看到的那样,有一点我们 充满信心:因为(3.1)中明确地包含了工作经历, 所以我们就能在保持工作经历不变的情况下,度 量教育对工资的影响。如果将工作经历放到误差 项的简单回归分析中,我们就不得不假定工作经 历与受教育水平无关,显然这是一个脆弱的假定。
前面两个例子已经说明,除主要关心的变量外, 如何把其他的可观测因素也包括在回归模型中。 一般地,我们可以把含有两个自变量的模型写 作 y=β0+β1 x1+β2 x2+u ……(3.3) 其中,β0是截距,β1度量了在其他条件不变 情况下y相对x1的变化,而β2 则度量了在其 他条件不变情况下y相对x2的变化
多元回归模型的关键假定
关键假定用条件预期的形式可以表示为 E(u︱x1,x2, … , xk)=0……(3.8) (3.8)要求不可观测的误差项中所有的因素都与 解释变量无关。它还意味着,已经正确地表述 了被解释变量和解释变量之间的函数关系。 任何一个导致u与某个自变量相关的问题,都 会导致(3.8)式不成立。假定条件(3.8)式还表明 OLS是无偏的,而如果方程中省略了一个关键 变量,所得到的结论便会产生偏误。
多元回归与简单回归的相似点
0 仍然是截距 1 到 k 都成为斜率参数
u 仍然是误差项(或称扰动项) 仍然需要做一个条件期望为0的假设,现在假 设:E(u|x1,x2, …,xk) = 0 仍然最小化残差的平方和,所以现在有k+1 个 一阶条件
课堂问题
设想CEO的薪水(salary)与企业的销售量和CEO在 这个企业的任期相关:log(salary)=β0+β1 log(sales)+β2 ceoten+β3 ceoten2 +u ……(3.7)
多元回归分析(multiple regression analysis)允许我 们明确地控制许多其他也同时影响因变量的因素, 所以它更适合于其他条件不变情况下的分析。在 使用非实验数据的情况下,这对检验经济理论和 评价经济政策都很重要。多元回归模型能够容纳 许多可能相关的解释变量,在简单回归分析可能 误导的情况下,可以寄希望于多元回归模型来推 断因果关系。 多元回归分析的另外一个优点是,它可以用以添 加相当一般化的函数关系。在简单的回归模型中, 方程中只能出现单一个解释变量的一个函数。如 我们将看到的那样,多元回归模型的灵活性则大 得多。
ˆ ˆ ˆ ( yi 0 1 xi 1 k xik ) 0
i 1 n
n
ˆ ˆ ˆ xi 1 ( yi 0 1 xi 1 k xik ) 0
i 1 n
ˆ ˆ ˆ xi 2 ( yi 0 1 xi 1 k xik ) 0
一般的多元线性回归模型(multiple linear regression model,也称为多元回归模型)在总 体中可以写成 y=β0+β1 x1+β2 x2+β3 x3+…+βk xk +u ……(3.6)
其中β0为截距(intercept),β1是与x1相联系的 参数,β2是与x2相联系的参数,等等。由于有k个 自变量和一个截距项,所以方程(3.6)包含了k+1 个(未知的)总体参数。为了表达上的简便,把这 种不同于截距的参数称为斜率参数(slope parameter),尽管它们并不一定表示斜率。[如方 程(3.4),其中β1和β2本身都不是斜率,但它们 一起决定了消费与收入之关系的斜率。]
问题 用定罪概率(prbconv)和宣判监禁的平均时间长 度(avgsen)来解释城市谋杀率(murdrate)的一个 简单模型: murdrate=β0+β1prbconv +β2 avgsen+u u中包含了一些什么因素?你认为关键假定(3.5) 有可能成立吗? 因素包括了年龄和性别分布、警力规模(或更 一般地,投入到与犯罪做斗争的资源)、人口 和一般历史因素。这些因素当然有可能与 prbconv和avgsen相关,这时就意味着(3.5)不成 立。比如,某些在预防犯罪和执法方面投入较 多气力的城市,其警力规模可能与prbconv和 avgsen都相关。
多元回归分析对推广变量之间的函数关系也有 帮助。例如:假设家庭消费(cons)是家庭收入 (inc)的一个二次函数: cons=β0+β1inc+β2inc2+u ……(3.4) 其中u包括了影响消费的其他因素,在这个模 型中,消费只取决于收入这一个观测变量; 所以看上去,一个简单的回归分析就可以对 付。但简单回归不能处理这个模型,因为它 包括了收入的两个函数inc和inc2(因此就有 三个参数β0、β1和β2)。尽管如此,通过 令x1=inc和x2=inc2,消费函数还是可以很容 易地写成一个含两个自变量的回归模型。
使用多元回归的动因
先用两个例子来说明,如何用多元回归分析来 解决简单回归所不能解决的问题。 wage =β 0+β 1educ+β 2exper+u ……(3.1) 其中exper是在劳动市场上以年计的工作经 历。 则工资wage由受教育水平和工作经历这两个解 释变量或自变量及那些观测不到的其他因素来 决定。我们首要感兴趣的,是在保持所有其他 影响工资的因素不变情况下,educ对wage的影 响;即我们只对参数β 1感兴趣。
多元回归分析模型
y = 0 + 1x1 + 2x2 + . . . kxk + u