最小二乘法原理的几何解释

合集下载

最小二乘法定义

最小二乘法定义

最小二乘法定义最小二乘法(Least Squares Method,简称LS)是指在数学中一种最常见的数据拟合方法,它是一种统计学意义上的估计方法,用来找出未知变量和已知变量之间的关系,其中模型参数是通过最小化数据集误差的平方和来估计的。

一、定义:最小二乘法(Least Squares Method)是指在数学中最常见的数据拟合方法,它是一种统计学意义上的估计方法,用来确定未知变量与已知变量之间的关系,其中模型参数是通过最小化数据集误差的平方和来估计的。

二、基本原理:最小二乘法的基本原理是利用数据点与一个被称为“模型函数”的预设函数之间的差异,来从中估计出模型函数的参数。

具体来说,这一差异可以以误差的平方和来衡量,最小二乘法就是最小这一平方和的方法。

三、步骤:1. 构造未知变量的模型函数,其中当需要拟合的参数数目大于等于给定数据点的个数时,就会导致一定的形式多项式模型函数有正解;2. 求解模型函数的最小平方误差的最优解,即求解参数的数值;3. 根据最优解找出最小平方误差的值;4. 对模型函数进行评价,判断是否尽可能地满足数据点;5. 若满足,则用找出的模型函数来预报未来的参数变化情况。

四、应用:1. 拟合统计图形:通过最小二乘法,可以得到曲线拟合的参数,绘制出统计图形的曲线,用来剖析统计数据;2. 回归分析:可以用最小二乘法预测变量和另一变量之间的关系,如:股票收益与股价价格之间的关系,从而得到有用的分析结果;3. 模型拟合:最小二乘法可以估计精确数据模型参数,这些模型参数可与实验数据相同;4. 图像分析:最小二乘法可用于分析图像特征,如:平面图像的特征提取与比较,目标图像分类,等;5. 信号处理:最小二乘法的应用也可扩展到信号处理领域,用该方法对信号和噪声之间的关系进行拟合,来消除信号中的噪声。

最小二乘法概述

最小二乘法概述

最小二乘法一、简介最小二乘法,又称最小平方法,是一种数学技术。

它通过最小误差的平方和寻找数据函数的最佳匹配。

最小二乘法是提供“观测组合”的主要工具之一,它依据对某事件的大量观测而获得“最佳”结果或“最可能”表现形式。

如已知两变量为线性关系bx a y +=,对其进行)2(>n n 次观测而获得n 对数据。

若将这n 对数据代入方程求解a ,b 之值则无确定解。

最小二乘法提供了一个求解方法,其基本思想就是寻找“最接近”这n 个观测点的直线。

最小二乘法不仅是19世纪最重要的统计方法,而且还可以称为数理统计学之灵魂。

相关回归分析、方差分析和线性模型理论等数理统计学的几大分支都以最小二乘法为理论基础。

作为其进一步发展或纠正其不足而采取的对策,不少近现代的数理统计学分支也是在最小二乘法基础上衍生出来的。

最小二乘法之于数理统计学,有如微积分之于数学,这并非夸张之辞。

统计学应用的几个分支如相关分析、回归分析、方差分析和线性模型理论等,其关键都在于最小二乘法的应用不少现代的统计学研究是在此法的基础上衍生出来,作为其进一步发展或纠正其不足之处而采取的对策,如回归分析中一系列修正最小二乘法而产生的估计方法等就是最好的例子。

二、创立思想勒让德在先驱者解线性方程组的基础上,以整体的思想方法创立了最小二乘法;高斯由寻找随机误差函数为突破,以独特的概率思想导出了正态分布,详尽地阐述了最小二乘法的理论依据。

最小二乘法(OLSE)的思想就是要使得观测点和估计点的距离平方和达到最小,在各方程的误差之间建立一种平衡,从而防止某一极端误差,对决定参数的估计值取得支配地位,有助于揭示系统的更接近真实的状态。

这里的“二乘”指的是用平方来度量观测点与估计点的远近,“最小”指的是参数的估计值要保证各个观测点与估计点的距离的平方和达到最小。

三、原理设一组数据(,)i i x y (1,2,,)i n = ,现用近似曲线)(x y ϕ=拟合这组数据,“拟合得最好”的标准是所选择的()x ϕ在i x 处的函数值()i x ϕ(1,2,,)i n = 与i y (1,2,,)i n = 相差很小,即偏差(也称残差)()i i x y ϕ-(1,2,,)i n = 都很小.一种方法是使偏差之和()1ni i i x y ϕ=⎡⎤⎣⎦∑-很小来保证每个偏差都很小.但偏差有正有负,在求和的时候可能相互抵消.为了避免这种情况,还可使偏差的绝对值之和()1||ni i i x y ϕ=-∑为最小.但这个式子中有绝对值符号,不便于分析讨论.由于任何实数的平方都是正数或零,因而我们可选择使“偏差平方和21ni i i x y ϕ=-∑[()]最小”的原则来保证每个偏差的绝对值都很小,从而得到最佳拟合曲线y =()x ϕ.这种“偏差平方和最小”的原则称为最小二乘原则,而按最小二乘法原则拟合曲线的方法称为最小二乘法或称最小二乘曲线拟合法.一般而言,所求得的拟合函数可以使不同的函数类,拟合曲线()x ϕ都是由m 个线性无关函数()1x ϕ,()2x ϕ ,…, ()m x ϕ的线性组合而成,即()()()()1122m m x a x a x a x ϕϕϕϕ=+++…)1(-<n m ,其中1a ,2a ,…,m a 为待定系数.线性无关函数()1x ϕ,()2x ϕ ,…()m x ϕ,称为基函数,常用的基函数有: 多项式:1,x , 2x ,…,m x ;三角函数: sin x ,sin 2x ,…,sin mx ;指数函数:x x x m e e e λλλ,,,21 ,x λ2e,…,x λme.最小二乘法又称曲线拟合,所谓“ 拟合” ,即不要求所作的曲线完全通过所有的数据点,只要求所得的近似曲线能反映数据的基本趋势,它的实质是离散情况下的最小平方逼近.四、运用曲线拟合做最小二乘法 1 一元线性拟合已知实测到的一组数据(,)i i x y (1,2,,)i n = ,求作这组数据所成的一元线性关系式.设线性关系式为y a bx =+,求出a 和b 即可.法一:即要满足则)(令,0,0,,12=∂∂=∂∂--=∑=bsa sb a bx a y s ni i i ,则,a b 要满足s a ∂∂=0,sb∂∂=0.即 11()()ni i i n i i ii sy a bx a s y a bx x b==∂⎧--⎪⎪∂⎨∂⎪--⎪∂⎩∑∑=-2=0=-2=0化简得112111n n i i i i nn ni i i i i i i b a x y n n a x b x x y =====⎧⎪⎪⎨⎪⎪⎩∑∑∑∑∑1+=+= 从中解出1112211111n n n i i i ii i i n n i i i i n n i ii i n x y x yb n x x b a y x n n =======⎧⎪⎪⎪⎛⎫ ⎪⎨⎝⎭⎪⎪⎪⎩∑∑∑∑∑∑∑-=-=- (1) 法二:将i x ,i y 代入y a bx =+得矛盾方程组1122n y a bx y a bx y a bx n=+⎧⎪=+⎪⎨⎪⎪=+⎩ (2) 令A =12111n x x x ⎛⎫ ⎪⎪ ⎪ ⎪⎝⎭ ,B =12n y y y ⎛⎫⎪ ⎪ ⎪ ⎪⎝⎭,则(2)式可写成b B A a ⎛=⎫⎪⎝⎭,则对应的正规方程组为TTa b A B A A ⎛=⎫ ⎪⎝⎭,所以a b ⎛⎫ ⎪⎝⎭=1()T TA A AB -,其中A 称为结构矩阵,B 称为数据矩阵,T A A 称为信息矩阵,TA B 称为常数矩阵.2 多元线性拟合设变量y 与n 个变量1x ,2x ,…,n x (1n ≥)内在联系是线性的,即有如下关系式∑=+=nj j j x a a y 10,设j x 的第i 次测量值为ij x ,对应的函数值为i y (1,2,,)i m = ,则偏差平方和为s ='220111()()mm ni i i i ij i i j y y y a a x ===-=--∑∑∑,为了使s 取最小值得正规方程组011001111011202020m n i j ij i j m n i j ij i i j m n i j ij in i j ns y a a x a s y a a x x a s y a a x x a ======⎧∂⎛⎫=---=⎪ ⎪∂⎝⎭⎪⎪∂⎛⎫=---=⎪⎪∂⎨⎝⎭⎪⎪⎪∂⎛⎫=---=⎪ ⎪∂⎝⎭⎩∑∑∑∑∑∑ (3) 即011101111n m mij j i j i i mn m mik ij ik jik i i j i i ma x a y x a x x a x y =======⎧⎛⎫+= ⎪⎪⎝⎭⎪⎨⎛⎫⎪+= ⎪⎪⎝⎭⎩∑∑∑∑∑∑∑1,2,,k n = . (4) 将实验数据(,)i i x y 代入(4)式,即得m a a a ,,,10 .3 指数函数拟合科学实验得到一组数据(,)i i x y (1,2,,)i n = 时,还可以考虑用指数函数为基函数来拟合,此时设拟合函数具有形式bxy ae =(,a b 为待定系数).对上式两端取自然对数可得:ln ln y a bx =+ (9)令Y =ln y ,0ln b a =,则(9)式可转化为一元线性函数形式0Y b bx =+,此时将指数函数拟合转化成了一元线性拟合,利用一元线性拟合中的两种方法均可求出0b 和b ,继而根据0b a e =可求出a ,从而得出因变量y 与自变量x 之间的函数关系式0b bx bx y ae e +==4 对数函数拟合科学实验得到一组数据(,)i i x y (1,2,,)i n = 时,还可以考虑用对数函数为基函数来拟合,此时设拟合函数具有形式ln y a b x =+(0)x >(,a b 为待定系数).0b >时,y 随x 增大而增大,先快后慢;0b <时,y 随x 增大而减小,先快后慢.当以y 和ln x 绘制的散点图呈直线趋势时,可考虑采用对数函数描述y 与x 之间的非线性关系,式中的b 和a 分别为斜率和截距.这时令X =ln x ,就可以利用一元线性拟合的方法来求解.更一般的对数函数还可设为y =()ln a b x k ++,式中k 为一常量.五 举例例1 使电流通过2Ω的电阻,用伏特表测量电阻两端的电压V .测得数据如下表:t I /A1 2 4 6 8 10 t V /V1.83.78.212.015.820.2试用最小二乘法建立I 与V 之间的一元经验公式(有效数字保留到小数点后第3位). 解:可取一次线性关系式V a bI =+作为I 与V 之间的一元经验公式. 将数据代入得矛盾方程组1.82 3.748.2612.0815.81020.2a b a b a b a b a b a b +=⎧⎪+=⎪⎪+=⎨+=⎪⎪+=⎪+=⎩ 令1112141618110A ⎛⎫ ⎪ ⎪ ⎪= ⎪ ⎪ ⎪ ⎪ ⎪⎝⎭, 1.83.78.212.015.820.2B ⎛⎫ ⎪ ⎪ ⎪= ⎪ ⎪ ⎪ ⎪ ⎪⎝⎭,则上述矛盾方程组可写成矩阵形式0a A B b ⎛⎫-= ⎪⎝⎭由此得出其正规方程组0T T a A A A B b ⎛⎫-= ⎪⎝⎭,将数据代入即得63161.7031221442.4a b ⎛⎫⎛⎫⎛⎫-= ⎪⎪ ⎪⎝⎭⎝⎭⎝⎭,解之得0.212.032a b =-⎧⎨=⎩,故所求经验公式为0.2152.V I =-+. 例 2 在在开发一种抗过敏性的新药时,要对不同剂量的药效进行实验.10名患者各服用了该新药的一个特定的剂量.药物消失时立即纪录.观测值列于下表中.x 是剂量,y 是症状消除持续的日数.用7个不同的剂量, 其中3个剂量重复给两名患者.试给出y 与x 之间的一元经验公式(保留3位有效数字).1 2 3 4 5 6 7 8 9 10 ∑ /i x mg334566788959/i y d9 5 12 9 14 16 22 18 24 22 1512i x 9 9 16 25 36 36 49 64 64 81 389i i x y271548458496154144192198 1003解:可设y 与x 之间的经验公式为y a bx =+. 由上表可知,101i i x =∑59=,101i i y =∑151=,101i i i x y =∑1003=,1021i i x =∑389=,2101i i x =⎛⎫ ⎪⎝⎭∑3481= 再由(1)式可求得,1010101112101021110101003591512.7410389348110i i i ii i i i i i i x y x y b x x =====-⨯-⨯===⨯-⎛⎫- ⎪⎝⎭∑∑∑∑∑10101111 2.7415159 1.0710101010i i i i b a y x ===-=⨯-⨯=-∑∑所以y 与x 之间的经验公式为 1.07 2.74y x =-+.最小二乘法能将从实验中得出的一大堆看上去杂乱无章的数据中找出一定的规律,拟合成一条曲线来反映所给数据特点。

最小二乘法基本原理

最小二乘法基本原理

最小二乘法基本原理
最小二乘法是一种常用的回归分析方法,用于估计数据中的未知参数。

其基本原理是通过最小化实际观测值与估计值之间的残差平方和,来找到一个最佳拟合曲线或者平面。

在进行最小二乘法拟合时,通常会假设观测误差服从正态分布。

具体而言,最小二乘法寻找到的估计值是使得实际观测值与拟合值之间的差的平方和最小的参数值。

也就是说,最小二乘法通过调整参数的取值,使得拟合曲线与实际观测值之间的误差最小化。

在回归分析中,通常会假设数据服从一个特定的函数形式,例如线性函数、多项式函数等。

根据这个假设,最小二乘法将找到最合适的函数参数,使得这个函数能够最好地拟合数据。

最小二乘法的步骤包括以下几个方面:
1. 根据数据和所假设的函数形式建立回归模型;
2. 计算模型的预测值;
3. 计算实际观测值与预测值之间的残差;
4. 将残差平方和最小化,求解最佳参数值;
5. 利用最佳参数值建立最优拟合曲线。

最小二乘法的优点是简单易用,并且在经济学、统计学和工程学等领域都有广泛应用。

但需要注意的是,最小二乘法所得到的估计值并不一定是真实参数的最优估计,它只是使得残差平方和最小的一组参数估计。

因此,在使用最小二乘法时,需要对模型的合理性进行评估,并考虑其他可能的回归分析方法。

总体最小二乘与经典最小二乘法的几何解释

总体最小二乘与经典最小二乘法的几何解释

Science &Technology Vision科技视界0引言总体最小二乘问题不是近期才提出,其起源可以追溯到19世纪下半叶,此时只考虑单变量问题。

总体最小二乘(Total Least Squares,TLS)这一术语直到上世纪末在中由G.Golub and C.Van Loan 提出。

总体最小二乘问题在起步阶段主要限制在统计学研究领域且只研究单变量问题,在此领域有称其为“正交回归(orthogonal regression )”或者“误差变量回归(errors in variables(EIV)regression )”问题。

Adcock、Pearson、Koopmans、Madansky、York 等等,对单变量总体最小二乘问题在统计学领域的发展做出了巨大的贡献。

在20世纪七八十年代左右,Sprent 和Gleser 将单变量问题发展为多变量和多维度问题。

G.Golub 首次将其引入到数字分析(numerical analysis)领域,利用奇异值分解(singular value decomposition,SVD)方法对其本身及算法进行分析。

Staar 从几何角度对SVD 方法的属性进行了分析得到相同的观点。

由于Golub 的算法只能解决常规总体最小二乘问题(下文将对其进行分析),很多情况下不能得到唯一解甚至无解。

为能适应更加广义的总体最小二乘问题,Van Huffel and Vandewalle 提出广义SVD 算法来解决广义总体最小二乘问题,并就广义(非常规总体最小二乘)问题进行属性分析。

本文分析了总体最小二乘和经典最小二乘法的基本理论,并对两种方法进行了几何解释,从而来比较他们之间的特点。

1原理推导1.1经典最小二乘法在测绘中经典最小二乘就是利用m 个观测值在误差平方和最小原则下求取n 个参数和m 观测值本身的最可靠值。

如下:Ax=b (1)A 是m×n 维不受误差影响的系数矩阵,b 是m×1维受到误差影响的观测矢量,根据如下准则来求取x 的最可靠值,‖b-b'‖2=min (2)‖•‖2指的是欧式空间距离,b’是b 的最佳估计值。

最小二乘法的基本原理

最小二乘法的基本原理

最小二乘法的基本原理最小二乘法是一种常用的数学方法,用于拟合数据和估计参数。

它的基本原理是通过最小化实际观测值与理论值之间的差异来找到最优的拟合曲线或者参数估计。

在实际应用中,最小二乘法被广泛应用于各种领域,例如经济学、统计学、工程学等。

首先,让我们来看一下最小二乘法的基本概念。

在最小二乘法中,我们通常会有一组观测数据,我们希望找到一个函数或者模型来描述这些数据。

假设我们有一组数据点{(x1, y1), (x2,y2), ..., (xn, yn)},我们希望找到一个函数y = f(x)来拟合这些数据。

最小二乘法的目标就是找到一个函数f(x),使得所有数据点到f(x)的距离之和最小。

为了实现这一目标,我们需要定义一个衡量拟合程度的指标。

通常情况下,我们会使用残差平方和作为衡量指标。

残差指的是每个观测数据点的实际值与拟合值之间的差异,残差平方和则是所有残差的平方之和。

最小二乘法的核心思想就是通过最小化残差平方和来找到最优的拟合函数。

在实际操作中,我们可以通过求解偏导数为0的方程组来得到最小二乘法的解析解,也可以利用数值计算方法来求解。

无论采用哪种方法,最终得到的拟合函数都是使得残差平方和最小的函数。

最小二乘法的优点在于它具有较好的数学性质和稳定性。

它对异常值具有一定的鲁棒性,能够有效地减小异常值对拟合结果的影响。

另外,最小二乘法还可以用于估计参数,例如在线性回归模型中,最小二乘法可以用来估计回归系数。

然而,最小二乘法也存在一些局限性。

首先,它对数据的分布和误差的性质有一定的要求,如果数据不满足最小二乘法的假设条件,拟合结果可能会出现偏差。

其次,最小二乘法在处理大规模数据时,计算量较大,效率较低。

总的来说,最小二乘法是一种简单而有效的数据拟合和参数估计方法。

它的基本原理清晰易懂,应用范围广泛。

在实际应用中,我们需要根据具体问题的特点选择合适的拟合模型和方法,以达到最佳的拟合效果和参数估计结果。

最小二乘法原理

最小二乘法原理

最小二乘法原理
最小二乘法是一种用于拟合实验数据的统计算法,它通过最小化实际观测值与理论曲线之间的残差平方和来确定拟合曲线的最佳参数值。

该方法常应用于曲线拟合、回归分析和数据降维等领域。

最小二乘法的基本原理是基于线性回归模型:假设数据之间存在线性关系,并且实验误差服从正态分布。

为了找到最佳拟合曲线,首先假设拟合曲线的表达式,通常是一个线性方程。

然后利用实际观测值与拟合曲线之间的残差,通过最小化残差平方和来确定最佳的参数估计。

残差即为实际观测值与拟合曲线预测值之间的差异。

最小二乘法的优点在于它能够提供最优的参数估计,并且结果易于解释和理解。

通过将实际观测值与理论曲线进行比较,我们可以评估拟合的好坏程度,并对数据的线性关系进行量化分析。

此外,最小二乘法可以通过引入惩罚项来应对过拟合问题,增加模型的泛化能力。

最小二乘法在实际应用中具有广泛的应用,例如金融学中的资产定价模型、经济学中的需求曲线估计、物理学中的运动学拟合等。

尽管最小二乘法在某些情况下可能存在局限性,但它仍然是一种简单而强大的统计方法,能够提供有关数据关系的重要信息。

最小二乘法的应用及原理解析

最小二乘法的应用及原理解析

最小二乘法的应用及原理解析最小二乘法,英文称为 Least Squares Method,是一种经典的数学优化技术,广泛应用于数据拟合、信号处理、机器学习、统计分析等领域。

本文将从应用角度出发,介绍最小二乘法的基本原理、优缺点以及实际应用中的具体操作流程。

一、最小二乘法的基本原理最小二乘法的基本思路是:已知一组样本数据(x1,y1),(x2,y2),...(xn,yn),要求找到一条曲线(如直线、多项式等),使得该曲线与样本数据的误差平方和最小。

其数学表示式为:$min {\sum_{i=1}^{n}(y_i-\hat{y}_i)^2}$其中,$\hat{y}_i$是曲线在$x_i$处的预测值,代表曲线对样本数据的拟合程度。

显然,当误差平方和最小时,该曲线与样本数据的拟合效果最好,也就是最小二乘法的优化目标。

最小二乘法的求解方法有多种,比较常用的有矩阵求导法、正规方程法、QR分解法等。

这里以正规方程法为例进行介绍。

正规方程法的思路是:将目标函数中的误差平方和展开,取它的一阶导数为零,求得最优解的系数矩阵。

具体过程如下:1.将样本数据表示为矩阵形式,即 $X=[1,x_1,x_2,...,x_n]^T$。

2.构建方程组 $X^TX\beta=X^TY$,其中$\beta=[\beta_0,\beta_1,...,\beta_p]$是待求系数矩阵。

3.求解方程组,得到最优解的系数矩阵 $\beta$。

最小二乘法的优点是:对于线性问题,最小二乘法是一种解析解,可以求得精确解。

同时,最小二乘法易于理解、简单易用,可以快速拟合实际数据,避免过度拟合和欠拟合。

二、最小二乘法的优缺点最小二乘法虽然有很好的拟合效果,但是也存在一些不足之处:1.对异常值敏感。

最小二乘法基于误差平方和的最小化,如果样本中存在离群值或噪声,会对最终结果产生较大影响,导致拟合结果不准确。

2.对线性假设敏感。

最小二乘法只适用于线性问题,如果样本数据的真实规律是非线性的,则拟合效果会大打折扣。

最小二乘法(least sqaure method)

最小二乘法(least sqaure method)

最小二乘法(least sqauremethod)专栏文章汇总文章结构如下:1:最小二乘法的原理与要解决的问题2 :最小二乘法的矩阵法解法3:最小二乘法的几何解释4:最小二乘法的局限性和适用场景5:案例python实现6:参考文献1:最小二乘法的原理与要解决的问题最小二乘法是由勒让德在19世纪发现的,形式如下式:标函数 = \sum(观测值-理论值)^2\\观测值就是我们的多组样本,理论值就是我们的假设拟合函数。

目标函数也就是在机器学习中常说的损失函数,我们的目标是得到使目标函数最小化时候的拟合函数的模型。

举一个最简单的线性回归的简单例子,比如我们有 m 个只有一个特征的样本: (x_i, y_i)(i=1, 2, 3...,m)样本采用一般的 h_{\theta}(x) 为 n 次的多项式拟合,h_{\theta}(x)=\theta_0+\theta_1x+\theta_2x^2+...\theta_nx^n,\theta(\theta_0,\theta_1,\theta_2,...,\theta_n) 为参数最小二乘法就是要找到一组\theta(\theta_0,\theta_1,\theta_2,...,\theta_n) 使得\sum_{i=1}^n(h_{\theta}(x_i)-y_i)^2 (残差平方和) 最小,即,求 min\sum_{i=1}^n(h_{\theta}(x_i)-y_i)^22 :最小二乘法的矩阵法解法最小二乘法的代数法解法就是对 \theta_i 求偏导数,令偏导数为0,再解方程组,得到 \theta_i 。

矩阵法比代数法要简洁,下面主要讲解下矩阵法解法,这里用多元线性回归例子来描:假设函数h_{\theta}(x_1,x_2,...x_n)=\theta_0+\theta_1x_1+...+\t heta_nx_n 的矩阵表达方式为:h_{\theta}(\mathbf{x})=\mathbf{X}\theta\\其中,假设函数 h_{\theta}(\mathbf{x})=\mathbf{X}\theta 为 m\times1 的向量, \theta 为 n\times1 的向量,里面有 n 个代数法的模型参数。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

1 1 2 2 8 1 11 1 5 7 2 6 2 6
Macer
MCR
6
P
a2
11 6
a1
1 2
图 7
解出了最近似的解为(1/2,11/6)。从列的角度,我们就可以用 a1 和 a2 的线性组合来表示 P ,如 图 7 所示。 那么最优的直线的斜率和截距就是我们解出的 k=1/2,b=11/6=1.8333。如图 8。
b
S
a1
a2
图 5
找不到完美的解,就只能找到一个最接近的解。所以我们想在平面 S 上找一个最接近向量 b 的 向量来代替向量 b ,记这个替代品向量为 P 。就是过向量 b 的终点做平面 S 的垂线(也就是做 投影),垂足就是代替向量 P 的终点。 P 与 b 之间的误差 e b P 。
Macer
为了从几何的角度解释最小二乘法,我们必须先回顾一下线性方程组的几何意义。线性方 程组可以从行和列两个角度看。我们先看行的角度。 从行的角度看 从这种角度看线性方程组是高中老师教我们的。请看以下方程组,它表示平面上的两条直 线。 x1 x2 3 直线 a (1) x1 x2 1 直线b 线性方程组的解就是这两条直线的交点, x1 1, x2 2 。
1 k b 2 0 k b 2 2 k b 3
从图 3 直观的看,没有一条直线可以同时过这三个点,所以这个方程是无解的。怎么解一个 无解的方程组呢?下面好戏开始了。为了表述方便,我们换一下符号,用 x1 表示 k ,用 x2 表 示 b 。即: 1 x1 x2 2 (4) 0 x1 x2 2 2 x x 3 1 2 写成矩阵的形式:
MCR
5
e
b
P
S
图 6
原来的方程为 Ax b 是无解的,我们用 P 代替 b 后, P 在 a1和 a2 所在的平面上,所以现在方程 ˆ P 就一定是有解的啦。 Ax
ˆ? 接下来到了最关键的时候了,怎么解出 x
我们知道, P 与 b 之间的误差为:
ˆ e b P b Ax
(5)
讲完了列的角度,终于要进入最小二乘法了!
Macer
MCR
最小二乘法的几何解释
我们从一个最简单的例子开始,已知平面上有 3 个点(1,2),(0,2),(2,3),
4 3 2 1 0 0 1 图 3 2 3
3
我们想用一条直线去拟合它。像高中时一样,设这条直线的方程为 y kx b 。我们希望这条直 线可以同时通过这三个点,也就是这条直线的参数要满足:
图 9
这里只是举了一个简单的不能再简单的例子来说明做小二乘法的原理。 它简单到可以画出列向 量的图,对于更高维的向量,列向量的图就画不出来了,但它任然存在于一个高维的空间里。
ˆ AT A AT b 任然适用。 公式 x
1
Macer
1 1 0 2 ˆ x 0 1 1 1 2
1 1 2 1 1 0 2 5 3 8 1 1 1 1 2 3 3 7 3 1
4
3
y = 0.5x + 1.8333
2
1
0
0
1
图 8
2
3
Macer
MCR
7
图 8 既不是行的角度, 也不是列的角度, 它只是问题的来源, 那如果从行的角度看方程(4), 是什么样子的,方程的每一行都是一条直线,三条直线不相交于一点,我们的解是图 9 中的 圆点,是中间三角形的重心?质心?不知道呀看起来有点像。
AT e 0
(6)
ˆ AT b ,这就是传说的超 ˆ 0 ,化简一下就是 AT Ax 把(5)带入(6)中,结果出来了, AT b Ax
ˆ AT A AT b 。 定方程的解法,这么简单就推出来了!所以最佳的近似解就是 x
1
这里你是否担心 AT A 不可逆?不会的, 只要 A 的每一列是线性无关的, 那么 AT A 就是一个可逆 的对称的方阵。这样,按公式解出的
x2
x1
图 1
没什么大不了的,这谁都知道。但是怎么从列的角度看待线性方程组呢?我相信大部分人对从 列的角度看线性方程组是感到陌生的。 从列的角度看 ห้องสมุดไป่ตู้把方程(1)写成矩阵的形式,得到(2)式。
1 -1
1 x1 3 1 x2 1 b
一但化成列的形式,我们就很自然想到把向量 a1 a2和b 画到图上。
Macer
MCR
4
b
a1
a2
图 4
要找到解,就要找到 a1和 a2 的一个线性组合,使得组合后的向量刚好等于 b 。可惜的是任何的 只可能出现在 a1和 a2 所在的平面 S 上 (这个平面 S 就是传说中的向量空间) , a1和 a2 线性组合, 但是向量 b 不在平面 S 上,如图 5。不可能找到解,怎么办呢?
图 2
很神奇对不对,向量 a1 的 1 倍加上向量 a2 的 2 倍刚好等于向量 b ,而倍数 1 和 2,就是我们要求 的 x1 和 x2 。 那么从列的角度看线性方程组 Ax b 的解,就是为系数矩阵 A 里的每一列都寻找一个合适 的倍数,使每一列乘上这个倍数后再相加刚好等于向量 b ,这个倍数就是解。官方语言就是找 到 A 里的列向量的一个线性组合。只要学会了从列的角度看待一个线性方程组,接下的推导就 很简单了。
MCR
1
最小二乘法原理的几何解释
这篇文章用通俗易懂的语言,从几何的角度解释了最小二乘法的解为什么是
ˆ AT A AT b , x 只要高中生的知识水平就可以了, 彻底颠覆代几老师那种枯燥的上课方式 !
1
请在安静的时候花上 10 多分钟看看,你的线性代数水平会上一个档次的,这是真的。
线性方程组的几何意义
1 0 2
1 2 x1 1 2 x2 3 1 A x b
从列的角度看:
1 1 2 0 x 1 x 2 1 2 2 1 3 a1 x1 a2 x2 b
要想使 P 与 b 之间的差距最小,那么 e 一定是垂直于平面 S 的,也就是要垂直于 a1 和 a2 。想一 想在高中时是怎么表示两个向量垂直的?只要他们的点乘等于 0 就行了。也就是 e a1 0, e a2 0 ,用矩阵表示出来就是 a1T e 0, a2T e 0 。即:
2
(3)
怎么拆的?矩阵乘法好像不是这个样子的!放心吧,矩阵乘法就是这个样子的,只是这种写法 我们在代几课上不常见, 但矩阵乘法的意义就是这个样子的。 表示向量 a1 的 x1 倍加上向量 a2 的
x2 倍等于向量 b 。 x1 和 x2 我们在看行图像的时候已经求出来了, x1 1, x2 2 。于是我们把向量 a1 ,向量 a2 和向量 b 画到图 2 上。
(2)
a1 a2
得到(3)式。
从列的方向看矩阵, 可以看到 a1 a2 b 三个列向量, 这样看还不是很明显, 干脆把(2)式再拆开,
Macer
MCR
1 1 3 -1 x1 1 x2 1 a1 x1 a2 x2 b
相关文档
最新文档