第八章一元线性回归分析
一元回归及简单相关分析PPT课件

不同NaCI含量对单位叶面积干物重影响的散点图
增加每一NaCI含量下观测次数(10次重复观测值及平均值如下)
土壤NaCI含量 / g.kg-1
0
0.8
1.6
2.4
3.2
4.0
4.8
1
80
90
95
115
130
115
135
2
100
85
89
94
106
125
137
3
75
107
115
103
103
128
128
(df: n大-2, n小-2)
F >Fα/2时,拒绝H0,说明两回归线的总体方差不一致,差异显著;
F<Fα/2时,接受H0,说明两回归线有一共同的总体方差,估计值为:
MS e
n1
2MSe1 n2 n1 2 n2
2MSe2 2
⑵ 检验b1和b2有无显著差异:
H0: β1-β2=0
HA: β1-β2≠0
n
用SXY表示。
n
xi
i 1 n
x yi
y
示X的。校正平方和,用SXX表
xi x 2
i 1
n
表Y的示总。校正平方和,用SYY
b S XY
yi y 2
i 1
S XX
⑵ α的最小二乘估计:
a y bx
x
1 n
n i 1
xi
y
1 n
n i 1
yi
四、回归方程的计算实例
【例10.1】根据下表中的数据,计算干物重在NaCI含量上的回归 方程。
S S X1X1
X2X2
一元线性回归分析

一元线性回归分析摘要:一元线性回归分析是一种常用的预测和建模技术,广泛应用于各个领域,如经济学、统计学、金融学等。
本文将详细介绍一元线性回归分析的基本概念、模型建立、参数估计和模型检验等方面内容,并通过一个具体的案例来说明如何应用一元线性回归分析进行数据分析和预测。
1. 引言1.1 背景一元线性回归分析是通过建立一个线性模型,来描述自变量和因变量之间的关系。
通过分析模型的拟合程度和参数估计值,我们可以了解自变量对因变量的影响,并进行预测和决策。
1.2 目的本文的目的是介绍一元线性回归分析的基本原理、建模过程和应用方法,帮助读者了解和应用这一常用的数据分析技术。
2. 一元线性回归模型2.1 模型表达式一元线性回归模型的基本形式为:Y = β0 + β1X + ε其中,Y是因变量,X是自变量,β0和β1是回归系数,ε是误差项。
2.2 模型假设一元线性回归模型的基本假设包括:- 线性关系假设:自变量X与因变量Y之间存在线性关系。
- 独立性假设:每个观测值之间相互独立。
- 正态性假设:误差项ε服从正态分布。
- 同方差性假设:每个自变量取值下的误差项具有相同的方差。
3. 一元线性回归分析步骤3.1 数据收集和整理在进行一元线性回归分析之前,需要收集相关的自变量和因变量数据,并对数据进行整理和清洗,以保证数据的准确性和可用性。
3.2 模型建立通过将数据代入一元线性回归模型的表达式,可以得到回归方程的具体形式。
根据实际需求和数据特点,选择适当的变量和函数形式,建立最优的回归模型。
3.3 参数估计利用最小二乘法或最大似然法等统计方法,估计回归模型中的参数。
通过最小化观测值与回归模型预测值之间的差异,找到最优的参数估计值。
3.4 模型检验通过对回归模型的拟合程度进行检验,评估模型的准确性和可靠性。
常用的检验方法包括:残差分析、显著性检验、回归系数的显著性检验等。
4. 一元线性回归分析实例为了更好地理解一元线性回归分析的应用,我们以房价和房屋面积之间的关系为例进行分析。
一元线性回归分析

S xx xi2 nx 2 218500 10 1452 8250 S xy xi yi nx y 101570 10 145 67.3
i 1
3985 ˆ S xy 3985 0.483 b S xx 8250 ˆ ˆ a y xb 67.3 145 0.483 2.735
这里45.394>2.306,即|t|值在H0的拒绝域内,故 拒绝H0 ,说明回归效果是显著的。 b的置信度为0.95(=0.05)的置信区间为 0.934 0.934 (b, b ) 0.483 2.306 , 0.483 2.306 8250 8250
i 1 n 2 n
2
ˆ ˆ yi y yi yi
i 1 i 1
2
S回 Qe
18
线性回归的方差分析
回归平方和
残差平方和
ˆ S回 yi y
i 1 n
n
2
ˆ Qe yi yi
i 1
2
Syy自由度为n-1, Qe自由度为n-2, S回自由度为1
平方和 1924.6 7.5 1932.1
自由度
均方
F比
回归 残差 总和
1 8 9
1924.6 0.94
2047.4
30
对=0.01,查出F0.01(1,8)=11.26 因为2047.3 >>11.26,所以回归效果是 非常显著的。
六、利用回归方程进行预报(预测) 回归问题中Y是随机变量,x是普通 变量。回归方程 y a bx 是Y对x的依赖 ˆ ˆ ˆ 关系的一个估计。对给定的x值,用回归 方程确定Y的值,叫预报。
第八章8.2一元线性回归模型及其应用PPT课件(人教版)

三、非线性回归
例3 下表为收集到的一组数据: x 21 23 25 27 29 32 35 y 7 11 21 24 66 115 325 (1)作出x与y的散点图,并猜测x与y之间的关系;
解 作出散点图如图,从散点图可以看出x 与y不具有线性相关关系,根据已有知识可 以发现样本点散布在某一条指数函数型曲线 y=c1ec2x的周围,其中c1,c2为待定的参数.
年份
2015 202X 202X 202X 202X
时间代号t
1
2
3
4
5
储蓄存款y(千亿元) 5
6
7
8
10
(1)求 y 关于 t 的经验回归方程y^=b^ t+a^ ;
n
tiyi-n t y
i=1
参考公式:b^ =
n
t2i -n
t2
,a^ =
y
-b^
t
i=1
解 由题意可知,n=5, t =1nn ti=155=3, i=1
来比较两个模型的拟合效果,R2 越 大 ,模型
n
yi- y 2
i=1
拟合效果越好,R2 越 小 ,模型拟合效果越差.
思考 利用经验回归方程求得的函数值一定是真实值吗? 答案 不一定,他只是真实值的一个预测估计值.
思考辨析 判断正误
SI KAO BIAN XI PAN DUAN ZHENG WU
知识点四 对模型刻画数据效果的分析
1.残差图法
在残差图中,如果残差比较均匀地集中在以 横轴为对称轴的水平带状
区域内 ,则说明经验回归方程较好地刻画了两个变量的关系.
2.残差平方和法
n
(yi-y^i)2
残差平方和 i=1
一元线性回归

一元线性回归
一、回归分析的基本思想 二、一元线性回归的数学模型 三、可化为一元线性回归的问题 四、小结
一、回归分析的基本思想
确定性关系 变量之间的关系 相 关 关 系
S πr 2
身高和体重
确定性关系 相关关系
相关关系的特征是:变量之间的关系很难用一 种精确的方法表示出来.
确定性关系和相关关系的联系
n
xi x
2 ( x x ) j j 1 n
var( y ) i
2
2
2 ( x x ) j j 1 n
1 xi x ˆ 0 y 1 x ( x ) yi n lxx
1 xi x ˆ Var ( 0 ) x lxx n
由于存在测量误差等原因,确定性关系在实际 问题中往往通过相关关系表示出来;另一方面,当对 事物内部规律了解得更加深刻时,相关关系也有可 能转化为确定性关系. 回归分析——处理变量之间的相关关系的一 种数学方法,它是最常用的数理统计方法.
回 归 分 析
线性回归分析
非线性回归分析
一元线性回归分析
多元线性回归分析 β1 = Nhomakorabea(x
i=1 n
n
i
x )( yi y ) ,
2 ( x x ) i i=1
β0 = y β1 x,
1 n 1 n 其中 x xi , y yi . n i 1 n i 1
记
l xx = ( xi x )2 ,
i=1
n
l yy = ( yi y )2 ,
2 x x x 2 2 i ˆ ˆ ˆ cov(y , 1 ) x cov(1 , 1 ) x nlxx l xx l xx
一元线性回归分析的作用方法步骤

一元线性回归分析的作用方法步骤一元线性回归分析是一种用来探究两个变量之间关系的统计方法。
它基于一个假设,即两个变量之间存在线性关系。
以下是一元线性回归分析的一般步骤:1. 数据收集:首先,需要收集所需的数据。
需要考虑收集的数据是否与研究目的相关,并确保数据的准确性和完整性。
2. 变量定义:定义自变量和因变量。
自变量是用来预测因变量的变量,而因变量是我们想要预测或解释的变量。
3. 数据探索:进行数据探索,包括数据的描述性统计和绘图。
这一步可以帮助我们了解数据的分布、异常值和离群点。
4. 模型选择:选择适当的线性模型。
这可以通过查看散点图、相关性分析和领域知识来完成。
通常,一个线性模型可以用以下方程表示:Y = β0 + β1X + ε,其中Y是因变量,X是自变量,β0和β1是回归系数,ε是误差项。
5. 模型估计:使用最小二乘法来估计回归系数。
最小二乘法的目标是找到最佳拟合直线,使得预测值与实际值之间的残差平方和最小化。
6. 模型评估:评估模型的拟合优度。
常用的指标包括R平方值和调整R平方值。
R平方值介于0和1之间,表示因变量变异性的百分比可以由自变量解释。
调整R平方值是对R平方值的修正,考虑了自变量的数量和样本量。
7. 模型解释:根据回归系数的估计值,解释自变量对因变量的影响。
根据回归系数的正负和大小,可以确定变量之间的关系是正向还是负向,并量化这种关系的强度。
8. 结果验证:验证模型的有效性和稳健性。
这可以通过对新数据集的预测进行测试,或使用交叉验证的方法来完成。
9. 结果解释:对模型结果进行解释,提供有关回归系数的结论,并解释模型对现实世界问题的意义。
总结来说,一元线性回归分析的方法步骤包括数据收集、变量定义、数据探索、模型选择、模型估计、模型评估、模型解释、结果验证和结果解释。
它们相互关联,构成了一元线性回归分析的完整过程。
一元线性回归模型.ppt

yˆ aˆ bˆx
(2)
称此方程为y关于x的回归方程 .
y=a+bx+ε, ε ~N(0, )2 (1)
现对模型(1)中的变量x , y进行了n次独 立观察, 得样本
(x1,y1),…,(xn,yn) (3) 据(1)式, 此样本的构造可由方程
yi a bxi i , i=1,2, …,n (4) 来描述. 这里 i 是第i次观察时随机误
事实上, 还有许多其它因素对y产生影 响,如当年的平均气温、当年的降雨量等等, 都是影响y取什么值的随机因素.
如果我们只研究x和y的关系, 可以假定有 如下结构式:
y =a+bx+ε
其中a和b是未知常数, 称回归系数, ε表示 其它随机因素对灌溉面积的影响.
实际中常假定ε服从正态分布N(0,σ2), 即
E( ) 0 D( ) 2
, 0
2未
知
通常称
y=a+bx+ε, ε ~N(0, )2 (1)
为一元线性回归模型.
由(1)式, 我们不难算得y的数学期望:
E(y)=a+bx
该式表示当x已知时,可以精确地算出E(y).
由于ε是不可控制的随机因素,通常就用E(y) 作为y的估计, 记作 . 这yˆ 样我们得到
年序
1 2 3 4 5 6 7 8 9 10
最大积雪深度x(米) 5.1 3.5 7.1 6.2 8.8 7.8 4.5 5.6 8.0 6.4
灌溉面积y(公顷) 1907 1287 2693 2373 3260 3000 1947 2273 3113 2493
为了研究这些数据中所蕴含的规律性,
这种大量存在的变量间既互相联系但又不 是完全确定的关系,称为相关关系.
第八章 相关与回归分析-一元线性回归

12
1、散点图
不良贷款
14
12
10
8
6
4
2
0 0
100
200
300
400
贷款余额 不良贷款与贷款余额的散点图
14
12
10
8 6
4
2
0 0
10
20
30
40
贷款项目个数
不良贷款与贷款项目个数的散点图不来自贷款不良贷款14
12
10
8
6
4
2
0 0
10
20
30
累计应收贷款
不良贷款与累计应收贷款的散点图
14
2
本章主要内容
➢ 相关分析
• 相关关系度量 • 相关关系显著性检验
➢ 一元线性回归分析
• 一元线性回归模型 • 参数的最小二乘估计 • 回归直线的拟合优度 • 显著性检验
➢ 利用回归方程进行预测
➢ 残差分析
3
第一节 直线相关分析 一、变量间的关系
函数关系
相关关系
函数关系的例子
▪ 某种商品的销售额(y)与销售量(x)之间的关系可 表示为 y = px (p 为单价)
儿子与父亲的身高关系:Y=33.73+0.516X(英寸)
24
一、概述——什么是回归分析(Regression )?
1. 从一组样本数据出发,确定变量之间的数学关系式 2. 对这些关系式的可信程度进行各种统计检验,并从
影响某一特定变量的诸多变量中找出哪些变量的影 响显著,哪些不显著 3. 利用所求的关系式,根据一个或几个变量的取值来 预测或控制另一个特定变量的取值,并给出这种预 测或控制的精确程度
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
§3一元线性回归分析客观事物总是普遍联系和相互依存的,它们之间的数量联系一般分为两种类型:一类是确定性关系,即函数关系;另一类是不确定的关系,称之为相关关系.前一类关系我们在数学分析中已进行了大量研究.第二类关系在我们的生活实践中也大量存在,如身高与体重、播种面积与总产量、劳动生产率与工资水平等关系.这些变量之间有一些联系,但没有确切到可以严格确定的程度,即前一个量不能惟一确定后一个量的值.又如,城市生活用电量y 与气温X 有很大的关系,在夏天气温很高或冬天气温很低时,由于空调、冰箱等家用电器的使用,用电量就高.相反,在春秋季节气温不高也不低,用电量就相对少.但我们不能由气温X 这一个量准确地决定用电量Y .回归分析就是研究相关关系的一种数学工具,它着重于寻找变量之间近似的函数关系.8.3.1.回归分析的基本概念回归分析作为一种统计方法,是利用两个或两个以上变量之间的关系,由一个或几个变量来表示另一个变量.被表示的这个变量往往是我们研究的一个指标变量,常称为因变量或响应变量,记之为Y .与之有关的另一些变量可记为1X ,2X , ,p X ,称为自变量或预报变量.由1X ,2X , ,p X 可以部分地决定Y 的值,但这种决定不很确切,这种关系就是所谓的“相关关系”.我们可以设想Y 的值由两部分组成:一部分是由1X ,2X , ,p X 能够决定的部分,它是12p ( X ,X ,,X )f 的函数,记为12p ( X ,X ,,X )f .而另一部分则是由包括随机因素在内的其他众多未加考虑的因素所产生的影响,这一部分的诸多因素不再区别,所造成的对Y 的影响一起被称为随机误差,记之为ε.于是得到如下模型: Y =12p ( X ,X ,,X )f +ε这里ε是随机变量,一般要求满足某些假定,如()E ε=0,函数12p ( X ,X ,,X )f 称为理论回归函数,它描述了Y 随自变量12p X ,X ,,X 变化的平均擘况. Y =12p ( X ,X ,,X )f称为回归方程.这种确定的函数关系可用来近似代替复杂的相关关系.回归分析的任务就在于根据12p X ,X ,,X 和Y 的观察值去估计理论回归函数,并讨论与之有关的种种统计推断问题,如假设检验问题和估计问题.回归分析所用方法在相当大的程度上取决于模型的假定.(1)若回归函数12p ( X ,X ,,X )f 的数学形式并无特殊假定,称为非参数回归. (2)假定12p ( X ,X ,,X )f 的数学形式已知,只是其中若干个参数未知,需要通过观测值去估计,称为参数回归.应用上最重要、理论上发展得最完善的是 12p ( X ,X ,,X )f 为线性函数的情形,即12p ( X ,X ,,X )f =0β+1β1X +…+P p X β, (8.3.1)称为“线性回归”.若1p =,则称为一元线性回归.若根据观测值已估计了0β,1β, ,P β,设为0ˆβ,1ˆβ, ,ˆp β,称 Y =0ˆβ+1ˆβ1X + +ˆp βp X 为经验回归方程.这里“经验”两字表示这个回归方程是由特定的观测值而得到的.回归分析的应用,简单地可归纳为以下几个方面:(1)估计回归函数f .如考虑亩产量Y 与播种量1X 和施肥量2X 的相关关系,需求出Y 对1X , 2X 的回归函数12(,)f X X ,当给定播种量1X =1x ,施肥量2X =2x ,则12(,)f x x 就是平均亩产量的值.(2)预测.当自变量X =(1X ,2X , ,pX)T在取定的情况下,比如0X =(10x ,20x ,…,0p x )T,去预测因变量Y 将取的值0y . Y 的预测值往往就取回归函数在(10x ,20x , ,0p x )T处的估计ˆf (10x ,20x ,, 0p x ).(3)控制.在这类应用中,不妨把自变量解释为输入值,因变量解释为输出值,通过估计出的经验回归方程Y =ˆf (1X ,2X , ,p X )以调节1X ,2X ,…,p X 的值达到把输出值Y 控制在给定的水平0y 的目的.最后简单介绍一下“回归”这一名称的由来.这个术语是英国生物学家兼统计学家高尔顿(F .Galton)在1886年左右提出来的.他在研究子代的身高与父母的身高的关系时,收集了1078对父母及其成年儿子的身高数据.高尔顿以父母之平均身高X 作为自变量,以成年儿子的身高Y 作为因变量,将(,)X Y 值标在直角坐标系内,发现二者有近乎直线的关系,总的趋势是X 增加时Y 倾向于增加,这与人们的常识是一致的.用他的数据可以计算出儿子身高Y 与父母平均身高X 的经验关系350.5Y X=+. (8.3.2) 高尔顿算出1078个X 值的算术平均值为X =68英寸(1英寸=2.54厘米),1078个Y 值的算术平均值为69英寸,子代身高平均增加了1英寸.按常理推想,当父母的平均身高为x 英寸,子代的平均身高也要增加1英寸,即变为1x +英寸,但事实上不然.按(8.3.2)计算,父母身高平均72英寸(注意比平均身高68英寸要高),子代平均身高为71英寸,而并非73英寸,与父母相比有变矮的倾向.父母身高平均为64英寸(注意比平均身高68英寸要矮),子代平均身高为67英寸,比预计的64+1=65(英寸)要多,与父母相比有增高的趋势.这种现象不是个别的,它反映了一般规律.高尔顿对这个结论的解释是:大自然有一种约束力,使人类身高的分布在一定时期内相对稳定而不产生两极分化,这就是所谓的回归效应,人的身高因约束力而“回归于中心”.正是通过这个例子,高尔顿引入了“回归”一词.人们把(8.3.2)所表示的直线称为回归直线.其实两变量间有回归效应的现象并非普遍现象,更多的相关关系不具有这一特征,特别是涉及多个自变量的情况时,回归效应不复存在.因此称谓“线性回归模型”、“经验回归方程”等概念中的“回归”一词并非总有特定意义,只是一种习惯说法而已.8.3.2.一元线性回归模型考虑因变量y 和一个自变量x 的一元线性回归,假设回归模型为 y =0β+1i x βε+, ()0E ε=, 20()Var εσ<=<∞ (8.3.3)其中ε为随机误差,其均值为0,方差为2σ,y 是随机变量,x 是非随机变量(除非特别声明,我们考虑的回归分析中一律把自变量视为非随机的),0β,1β和2σ都是未知参数.0β称为常数项或截距,1β称为回归系数.(8.3.3)式称为理论模型.现设对模型(8.3.3)中的变量x ,y 进行了n 次独立观察,得到样本值(1x ,1y ), (2x ,2y ),…,(n x ,n y ),从而i y =0β十1β1x +i ε (i =1,2,…,n ), (8.3.4)其中i ε是第i 次观察随机误差ε所取之值,它是不能观察到的.对i ε (i =1,2,…,n)最常用的假定是:(1)误差项的均值为零,即()i E ε= 0 (i =1,2,…n );(2)误差项具有等方差,即2()i Var εσ= (1,2,)i n = (8.3.5)(3)误差项彼此不相关,即(,)i j C ov εε=0 (;,1,2,,)i j i j n ≠=通常称假定(8.3.5)为Gauss-Markov 假定.在这三条假定中,(1)表明误差项不包含任何系统的影响因素,视测值i y 在均值()i E y 的上下波动完全是随机的.(2)要求i ε等方差,也即要求在不同次的观测中i y 在其均值附近波动程度的大小是一样的.(3)则等价于要求不同次的观测是不相关的.统计学中把(8.3.4)式及假设(8.3.5)合一起称为一元线性回归模型,它给出了样本观测值(i x ,i y )(i =1,2,…n)的概率性质,并可以对理论模型(8.3.3)进行统计推断.可见,理论模型(8.3.3) 只起了一个背景的作用.对i ε的进一步假定是2(0,)(1,2,,)i N i n εσ= (8.3.6) 这是一个比Gauss —Markov 假设更强的假设,指明了误差项所服从的分布.由(8.3.4)式有20101(,)i i i i y x N x ββεββσ=+++ (1,2,,)i n = , 且12,,,n y y y 相互独立.本章只讨论如下的一元线性回归模型201,(0,)1,2,,)i i i i i y x N i n ββεεσε=++⎧⎪⎨=⎪⎩ 且相互独立( (9.3.7)在多数应用问题中,我们选择x 与y 之间的线性回归形式很难有充分根据,在很大的程度上要依靠数据本身.将独立试验的几个观测值(,)(1,2,,)i i x y i n = 在直角坐标系中描出相应的一点,所得图形称为散点图,如图9—1所示.散点图中的点虽杂乱无章,但当它们大体呈现出一种直线走向的趋势时,选取线性回归函数是比较合理的.否则的话,我们应选取适当形式的曲线来拟合这些点,用曲线方程反映x ,y 之间的相关关系才更精确些.图9—1 观测数据的散点图考虑模型(8.3.7),如果由样本(,)(1,2,,)i i x y i n = 得到参数夕01,ββ的估计01ˆˆ,ββ,则称方程01y x ββ=+ 为y 关于x 的线性回归方程或回归方程,其图形称为回归直线.对于模型(8.3.7)将从下列各方面逐一研究.1)未知参数01,,ββσ2及的估计(1) 01,ββ的估计——最小二乘法.回归分析的主要任务就是要建立能够近似反映,x y 的相关关系的经验回归函数.这里“经验”是指回归函数是由当前的样本观测值得出的,也就是根据数据(,)(1,2,,)i i x y i n = 由模型(8.3.7)去估计0β,1β.怎样给出的估计才是合理的呢?我们要定出一个准则,以衡量由此所导致的偏差,希望偏差越小越好.假若以10,ββ作为01,ββ的估计时,偏差 10()(1,2,,)i i y x i n ββ-+= 的绝对值越小,说明用 10i x ββ+代替iy 时误差越小.考虑到数学处理上的方便,衡量这些偏差大小的一个合理的指标为它们的平方和(通过平方去掉差值正负符号的影响).记201011(,)(),nii i Q yx ββββ==--∑ (8.3.8)则01(,)Q ββ反映了n 次观察中总的偏差程度,称为残差平方和.若 0β, 1β使Q( 0β, 1β)越小,则模型拟合数据越好,因此只需极小化Q(01,ββ),以所得的01ˆˆ,ββ作为01,ββ的相应估计.所谓最小二乘法就是按照这一思路,通过使残差平方和达到最小来估计回归系数的一种方法.这一重要方法一般归功于德国大数学家高斯在1799年~1809年间的工作.用最小二乘法导出的估计有一些良好性质,因而该法在数理统计中有广泛的应用.对于模型(8.3.7),最小二乘法与我们常用的最大似然估计法所得到的结果是一致的.因为12,,,n y y y 的联合概率密度为201211()2ni i i L y x ββσ=⎡⎤=∏---⎢⎥⎣⎦201211exp ()2nni i i y x ββσ=⎡⎤⎛=--⎢⎥⎝⎣⎦∑求使L 达到极大值的01,ββ,只需极小化2011()ni i i y x ββ=--∑,这个和不是别的,正是我们上述的残差平方和01(,)Q ββ.利用多元函数求极值的方法,分别求01(,)Q ββ关于01,ββ的偏导数,并令它们分别等于零:011001112()0,2()0.ni i i ni i i i Qy x Q y x x ββββββ==∂⎧=---=⎪∂⎪⎨∂⎪=---=⎪∂⎩∑∑ 整理得0120111,(),n ni i ii i n nx ny nx X X Y ββββ==+=⎧⎪⎨+=⎪⎩∑∑ (8.3.9)其中x =1111,nnii i i X y y nn===∑∑.方程组(8.3.9)称为正规方程组。