线性模型的广义最小二乘估计递推算法
递推最小二乘法原理

递推最小二乘法原理递推最小二乘法(Recursive Least Squares, 简称RLS)是一种经典的参数估计方法,广泛应用于信号处理、通信系统、自适应滤波等领域。
它通过不断迭代更新参数,逐步逼近最优解,具有快速收敛、适应性强的特点。
本文将从最小二乘法出发,介绍递推最小二乘法的原理及其应用。
最小二乘法(Least Squares)是一种常见的参数估计方法,用于寻找一组参数,使得模型预测值与观测值之间的误差平方和最小。
对于线性模型,最小二乘法可以通过求解正规方程或者利用矩阵运算的方式得到最优参数。
然而,在实际应用中,数据通常是逐步到来的,因此需要一种能够动态更新参数的方法,于是递推最小二乘法应运而生。
递推最小二乘法的基本原理是利用递推的方式不断更新参数,以逼近最优解。
在每一时刻,根据当前的观测数据和先前的参数估计,通过递推公式计算出新的参数估计值,从而实现参数的动态更新。
这样的方法不仅能够适应数据的动态变化,还能够实现快速的收敛,适用于实时系统和非平稳环境下的参数估计。
递推最小二乘法的核心思想是利用指数加权的方式对历史数据进行处理,赋予近期数据更大的权重,从而更好地适应数据的变化。
通过引入遗忘因子(Forgetting Factor),可以控制历史数据对参数估计的影响程度,使得算法更具灵活性和适应性。
同时,递推最小二乘法还可以结合正交分解等技术,进一步提高计算效率和数值稳定性。
在实际应用中,递推最小二乘法被广泛应用于自适应滤波、信道均衡、系统辨识等领域。
例如,在自适应滤波中,递推最小二乘法可以根据接收信号的实际情况,动态调整滤波器的参数,实现信号的实时去噪和增强。
在通信系统中,递推最小二乘法可以用于自适应调制解调器的设计,提高系统的抗干扰能力和适应性。
此外,递推最小二乘法还被广泛应用于雷达跟踪、无线定位等领域,发挥着重要作用。
总之,递推最小二乘法作为一种经典的参数估计方法,具有快速收敛、适应性强的特点,在信号处理、通信系统、自适应滤波等领域有着重要的应用。
递推最小二乘法_协方差矩阵_概述说明以及解释

递推最小二乘法协方差矩阵概述说明以及解释1. 引言1.1 概述在统计学和计量经济学中,递推最小二乘法(Recursive Least Squares,简称RLS)是一种常用的参数估计方法。
它通过不断更新样本数据进行参数的估计,并且可以适用于非静态数据场景。
协方差矩阵是统计分析中重要的概念,它描述了变量之间的线性关系强度和方向,并且在许多领域具有广泛应用。
1.2 文章结构本文首先介绍递推最小二乘法的定义和原理,在此基础上详细解释算法的步骤以及其应用领域。
接着,我们将引入协方差矩阵的概念并介绍其计算方法,同时探讨了它在实际问题中所起到的作用和应用场景。
最后,我们将对递推最小二乘法与协方差矩阵之间的关系进行解释,并通过实例分析来说明它们如何相互影响。
1.3 目的本文旨在全面介绍递推最小二乘法和协方差矩阵,并深入探讨它们之间的联系。
通过对这两个概念及其应用的理解,我们可以更好地理解参数估计方法和变量间关系的描述与分析。
此外,我们还将展望相关领域未来可能的研究方向,以促进学术和实践的进一步发展。
2. 递推最小二乘法2.1 定义和原理:递推最小二乘法是一种用于估计线性模型参数的方法。
它可以通过历史数据的不断更新来逐步拟合模型,以使得估计值与观测值之间的误差达到最小化。
该方法可以被形式化地描述为以下步骤:1. 初始化模型参数的初始值。
2. 从历史数据中选择一个样本,并使用当前参数估计出该样本对应的输出值。
3. 计算该样本的预测误差。
4. 根据预测误差对参数进行调整,使得预测误差尽量减小。
5. 重复步骤2至4,直到所有样本都被处理过一遍,或者满足终止条件。
递推最小二乘法是基于最小二乘原理,即将真实观测值与模型预测值之间的差异平方求和并最小化这个目标函数。
通过迭代地更新参数,递推最小二乘法可以逐渐优化模型,并获得更准确的参数估计。
2.2 算法步骤:具体而言,在每次迭代中,递推最小二乘法按照以下步骤进行操作:1. 根据历史数据选择一个样本,并根据当前的参数估计出预测值。
广义最小二乘法和递推最小二乘法

广义最小二乘法和递推最小二乘法
广义最小二乘法和递推最小二乘法是最小二乘法算法的改进版本。
最小二乘法
是一种常见的统计学技术,它有效地估计未知参数集,也可以用于回归分析。
本文旨在详细介绍广义最小二乘法和递推最小二乘法。
首先让我们了解最小二乘法。
最小二乘法(Least Squares)是一种最常用的
方法,其中未知参数的估计量是穷举法的最优估计,这是一种很有效的技术。
最小二乘法的求解过程中,以平方的残差来最小化两个估计量的差异,以求得最优参数。
然而,最小二乘法有时也会出现缺陷,其中一个原因是可能会把噪声干扰包含
在结果中,另一个原因是它依赖被观测值的方差,而方差受因素影响。
因此,有了广义最小二乘法。
广义最小二乘法是在最小二乘法的基础上改进的算法。
在广义最小二乘法中,
我们通过加入惩罚参数来最小化残差,以对噪声进行抑制。
惩罚参数的加入,使得预测变更的安全降低,同时噪声的影响也可以得以抑制。
因此,广义最小二乘法在回归分析中也有广泛的应用。
此外,基于最小二乘法的另一种增强方法是“递推最小二乘法”。
递推最小二
乘法是将最小二乘法算法进行改良,从而改善对噪声的抑制能力。
和广义最小二乘法一样,递推最小二乘法也需要惩罚参数的加入。
递推最小二乘法也通过持续更新未知参数,来达到最小化残差的目的,从而能有效地抑制噪声。
以上就是本文要陈述的关于广义最小二乘法和递推最小二乘法的改进方法以及
它们的比较。
从技术上讲,广义最小二乘法和递推最小二乘法都比最小二乘法更能抑制噪声和拟合回归曲线,因此,它们在回归分析中都有广泛的应用。
递推最小二乘法原理

递推最小二乘法原理递推最小二乘法(Recursive Least Squares, 简称RLS)是一种经典的自适应滤波算法,它在信号处理、通信系统、控制系统等领域得到了广泛的应用。
本文将介绍递推最小二乘法的原理及其在实际应用中的一些特点。
首先,让我们来了解一下最小二乘法。
最小二乘法是一种数学优化方法,用于寻找一组参数,使得给定的模型与观测数据之间的误差平方和最小。
在线性回归问题中,最小二乘法可以用来拟合一个线性模型,以最小化观测数据与模型预测值之间的差异。
最小二乘法的基本思想是通过最小化误差的平方和来寻找最优的参数。
递推最小二乘法是最小二乘法的一种变种,它的特点在于可以实时地更新参数估计,适用于需要动态调整的系统。
在实际应用中,由于系统参数可能随时间变化,传统的最小二乘法在每次参数更新时都需要重新计算整个数据集,计算复杂度较高,不适合实时性要求高的场景。
而递推最小二乘法则可以通过递推的方式,实时地更新参数估计,适用于动态环境下的参数估计问题。
递推最小二乘法的原理可以用数学公式来描述。
假设我们有一个线性模型,\[y_k = \theta^T x_k + e_k\]其中\(y_k\)是观测数据,\(x_k\)是输入向量,\(\theta\)是待估计的参数,\(e_k\)是噪声。
我们的目标是通过观测数据\(y_k\)和输入向量\(x_k\)来估计参数\(\theta\)。
递推最小二乘法的核心思想是通过递推的方式,实时地更新参数\(\theta\)的估计值。
具体来说,我们可以通过以下递推公式来更新参数\(\theta\)的估计值,\[\theta_k =\theta_{k-1} + \frac{P_{k-1}x_k}{1 + x_k^T P_{k-1} x_k}(y_k x_k^T \theta_{k-1})\]其中\(\theta_k\)是第\(k\)次的参数估计值,\(\theta_{k-1}\)是第\(k-1\)次的参数估计值,\(P_{k-1}\)是第\(k-1\)次的参数估计误差的协方差矩阵。
广义最小二乘法

4.5 广义最小二乘法(GLS ) GLS----Generalized Least Squares 1. 基本原理广义最小二乘法的基本思想在于引入一个所谓成形滤波器(白化滤波器),把相关噪声)(k ξ转化成白噪声)(k ε。
由方程(4-4)、(4-5),系统的差分方程可以表示为)()()()()(11k k u z b k y z a ξ+=-- (4-114)式中n n z a z a z a z a ----++++=ΛΛ221111)(nn z b z b z b b z b ----++++=ΛΛ221101)(如果知道有色噪声序列)(k ξ的相关性,则可以把)(k ξ看成白噪声通过线性系统后所得的结果。
这种线性系统通常称为成形滤波器,其差分方程为)()()()(11_k z d k zc εξ---= (4-115)式中)(k ε是均值为零的白噪声序列,)()(11_---z d 、z c 是1-z 的多项式。
令 _111212_1()()1()m m c z f z f z f z f z d z ------==+++L L (4-116)有 )()(1)()()()(11k z f k k k z f εξεξ--==或 (4-117)即1212(1)()()m m f z f z f z k k ξε---++++=L L (4-118)或)()()2()1()(21k m k f k f k f k m εξξξξ+-------=ΛΛ ()1,,n k n N =++L L(4-119)这一噪声模型(自回归模型)的阶m ,一般事先是不知道的,实际经验表明,若指定m为2或3,就可以获得令人满意的描述)(k ξ的模型。
把方程(4-119)看作输入为零的差分方程,并由此式来写出N 个方程。
⎪⎪⎭⎪⎪⎬⎫⎪⎪⎩⎪⎪⎨⎧++-+---+--+-=+++-+---+-=+++-+-----=+)()()2()1()()2()2()()1()2()1()1()1()()1(212121N n m N n f N n f N n f N n n m n f n f n f n n m n f n f n f n m m m εξξξξεξξξξεξξξξΛΛM ΛΛΛΛ写成向量矩阵形式为εξ+Ω=f (4-120)其中⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡++=)()1(N n n ξξξM ,⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=m f f f M 1,⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡++=)()1(N n n εεεM ,⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡-+--+--+--+--+--+----=Ω)()2()1()2()()1()1()1()(m N n N n N n m n n n m n n n ξξξξξξξξξM Λ(4-120)式所示的线性组合关系是辨识问题的基本表达形式,称作最小二乘格式。
广义最小二乘法的推导

广义最小二乘法的推导1. 引言广义最小二乘法(Generalized Least Squares, GLS)是一种用于解决线性回归问题的方法。
与最小二乘法相比,GLS可以处理数据中存在异方差(heteroscedasticity)和自相关(autocorrelation)的情况,提高了回归模型的准确性和效果。
在本文中,我们将详细推导广义最小二乘法的数学原理和推导过程。
首先,我们将介绍最小二乘法的基本概念和原理,然后讨论广义最小二乘法的推导过程,并最后给出一个示例来说明广义最小二乘法的应用。
2. 最小二乘法最小二乘法是一种常用的用于拟合线性回归模型的方法。
其基本思想是通过最小化残差平方和来选择最优的回归系数。
对于一个具有n个数据点的线性回归模型:Y=Xβ+ε其中,Y是n维的因变量向量,X是n行p列的自变量矩阵,β是p维的系数向量,ε是n维的误差向量。
最小二乘法的目标是找到最优的β,使得残差平方和最小:εTεminβ通过对目标函数求导,并令导数等于零,可以得到最优解的闭式解表达式:β̂=(X T X)−1X T Y其中,β̂表示最优的回归系数。
3. 广义最小二乘法最小二乘法假设误差项具有同方差且不相关的性质,然而在实际问题中,数据往往存在异方差和自相关的情况。
为了解决这些问题,我们引入广义最小二乘法。
3.1 异方差问题当误差项具有异方差性质时,最小二乘法的估计结果可能是偏误的。
为了解决异方差问题,我们可以对误差项进行加权处理。
假设误差项的方差为σi2,我们可以使用加权最小二乘法来估计回归系数。
目标函数可以表示为:minεT Wεβ其中,W是一个对角矩阵,对角线元素为σi−2。
通过对目标函数求导,并令导数等于零,可以得到最优解的闭式解表达式:β̂GLS=(X T WX)−1X T WYβ̂GLS表示广义最小二乘法的估计系数。
3.2 自相关问题当误差项存在自相关性质时,最小二乘法的估计结果也可能是偏误的。
线性模型的广义最小二乘估计递推算法

= :
∑ ∑ o n :=P + J + n %X X
用 P 左乘 上式 两端 得
数据建 立模 型后 , 得 到 一 批 新 的 数 据 , 新 问 又 纳 题是 已获 得一 批 样 本 资 料 建 立 了 统 计模 型得 到 了最 4- 乘估 计 , 后 又 获 得第 二批 样 本 资料 , ' 而 将 两批信 息 整合 在 一 起 的得 到 线 性 模 型 的最 小 二 乘估计 , 而得 到 的广 义最 小二 乘估 计. 从
r O >0为参数 , 为待定参数.为了估计参数 J B ,
用 广义 最小 二乘 法 的正规 方程
所 以 ,+O x 1一O rx ~ 为 , r x 的逆 . r ( r p) p x 一O x p
在根 据样 本资 料建 立线 性 统计 模 型 时 , 纳新 样本 资料 就 是在 已获 得 的一 批 样 本 资 料 后 建 立
样 本 资料 , 再利 用第 一批 样本 资 料 运算 所 得 的结
果, 将两批资料 的信息 整合在一 起建立 统计模
3 0
哈尔滨师范大学 自然科学学报
21年 第2 01 7卷
型 , 而求得 最 小 二 乘 估 计 的递 推 算 法. 进 吐故 样
=
本资料是把陈旧的没有信息价值 的样本资料 剔
第2 7卷
第 3期
哈尔滨师 范大学 自然科 学学报
NAT URA S I L C ENC S J URNAL OF HARB N E O I NORMAL UN VE I I RSTY
V 12 ,N . 0 1 o.7 o32 1
线 性 模 型 的广 义 最 小 二乘 估 计 递 推 算 法
各类最小二乘法比较

---------------------------------------------------------------最新资料推荐------------------------------------------------------各类最小二乘法比较最小二乘法(LS)最小二乘是一种最基本的辨识方法,最小二乘法可以用于线性系统,也可以用于非线性系统;可用于离线估计和在线估计。
在随机情况下,利用最小二乘法时,并不要求观测数据提供其概率统计方法的信息,而其估计结果,却有相当好的统计特性。
但它具有两方面的缺陷:一是当模型噪声是有色噪声时,最小二乘估计不是无偏、一致估计;二是随着数据的增长,将出现所谓的数据饱和现象。
针对这两个问题,出现了相应的辨识算法,如遗忘因子法、限定记忆法、偏差补偿法、增广最小二乘、广义最小二乘、辅助变量法、二步法及多级最小二乘法等。
广义最小二乘法(GLS)广义最小二乘法(GLS)广义最小二乘法的基本思想在于引入一个所谓成形滤波器(白化滤波器),把相关噪声转化成白噪声。
优:能够克服当存在有色噪声干扰时,基本最小二乘估计的有偏性,估计效果较好,在实际中得到较好的应用。
缺:1、计算量大,每个循环要调用两次最小二乘法及一次数据滤波,2、求差分方程的参数估值,是一个非线性最优化问题,不一定总能1 / 3保证算法对最优解的收敛性。
广义最小二乘法本质上是一种逐次逼近法。
对于循环程序的收敛性还没有给出证明。
3、GLS 算法的最小二乘指标函数 J 中可能存在一个以上局部极小值,(特别在信噪比不大时,J 可能是多举的)。
GLS 方法的估计结果往往取决于所选用参数的初始估值。
参数估计初值应选得尽量接近优参数。
在没有验前信息的情况下,最小二乘估值被认为是最好的初始条件。
4、广义最小二乘法的收敛速度不是很高。
递推最小二乘法(RLS)递推最小二乘法(RLS)优点:1、无需存储全部数据,取得一组观测数据便可估计一次参数,而且都能在一个采样周期中完成,所需计算量小,占用的存储空间小。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
- 1)
+ σ nn X n( y n -
^ XT n β( n - 1 ) ) 在上式两边同时左乘 P n 得 ^ ( n) = β ^ ( n - 1 ) + σ nn P n X n( y n - X T ^ β n β( n - 1 ) ) ( 4)
n -1 另外 P n = n -1 n -1 ji T σ Xj Xi ∑ ∑ i=1 j=1 -1 nn T + σ nn X n X T n = Pn -1 + σ Xn Xn n
nn T σ Pn -1 Xn Xn Pn -1 nn T 1 + σ Xn Pn -1 Xn T
x i2 , …, x ip ) , i = 1, 2, …, n, X T = ( X1 , X2 , …, Xn ) ,
-1 -1 -1 ^ ( n - 1) 、 Pn = X T ∑ X, Xn 、 若β 则 ∑ 已知,
第 27 卷 第3 期
哈尔滨师范大学自然科学学报 NATURAL SCIENCES JOURNAL OF HARBIN NORMAL UNIVERSITY
Vol. 27 ,No. 3 2011
线性模型的广义最小二乘估计递推算法
=
第3 期
n n n n
线性模型的广义最小二乘估计递推算法
31
ji σ Xj yi ∑ ∑ i =1 j =1
- σmm Xm ym =
ij T σ Xi Xj ^ β( n) ∑ ∑ i = 1, i≠mj = 1, j≠m
+
mm T^ ( n) - σ mm X m y m . σ Xm Xm β 所以两边同时右乘 p n -m 得到 ^ ( n - m) = β ^ ^ ( n) + σ mm p n -m X m( X T β m β( n) - y m )
-1
用广义最小二乘法的正规方程 -1 ^ = XT ∑ -1 y ( X T ∑ X) β 参数 β 的广义最小二乘估计为
收稿日期: 2011-02-14 * 通讯作者, E-mail: xuwenke2004@ sina. com
样本资料就是在已获得的一批样本资料后建立 线性模型得到最小二乘估计, 而后又获得第二批 样本资料, 再利用第一批样本资料运算所得的结 果, 将两批资料的信息整合在一起建立统计模
T 所以 I + σpx( 1 - σx px)
( 1)
∑
X 为 n × p 阶列满秩 其中 y 为 n 维的因变量, 矩阵, ε 为 n 维误差项, ∑ 为 n × n 的正定阵,
2 σ > 0 为参数, β 为待定参数. 为了估计参数 β,
x T 为 I - σpxx T 的逆. 在根据样本资料建立线性统计模型时 , 纳新
给出了线性模型普通最
( I - σpxx T )
-1
= I + σpx( 1 - σx T px)
-1
xT .
小二乘估计的递推公式. 给出了线性模型的广义 最小二乘估计的递推公式.
1
线性模型的建立
Y = Xβ + ε 设广义线性模型: E ( ε) = 0 cov( ε) = σ
2
{
证明 因 ( I - σpxx T) [ I + σpx( 1 - σx T px) - 1 x T] = I + σpx( 1 - σx T px) - 1 x T - σpxx T - 2 T T -1 T σ pxx px( 1 - σx px) x = I - σpxx T + σ( px - σpxx T px) ( 1 - T -1 T σx px) x = I - σpxx T + σpxx T =I
刘洪伟, 徐文科
( 东北林业大学) *
【摘要 】 基于广义线性模型, 讨论了新增样品后其系数的广义最小二乘估计 与原有的样品其系数的广义最小二乘估计之间的关系 , 在此基础上, 讨论剔除某个 过时的样品后, 其系数的广义最小二乘估计与原有样品的系数的广义最小二乘估 计之间的关系, 最后研究新增样品、 剔除样品和原有样品它们三个的系数的广义最 小二乘估计之间的关系. 关键词: 线性模型; 广义最小二乘估计; 递推算法
新增加了第 n 个样品后其系数的广义最小二乘 ^ ( n) 有如下式子 估计 β ^ ( n) = β ^ ^ ( n - 1 ) + σ nn P n X n( y n - X T β n β( n - 1 ) ) 其中 P n = P n - 1 -
nn T σ Pn -1 Xn Xn Pn -1 , nn T 1 + σ Xn Pn -1 Xn n ×n
∑
-1
= ( σ ij )
, i, j = 1, 2, …, n.
n
Pn = Pn -1 -
( 5)
证明
-1
由代数的知识可知
n
多元线性模型吐故样本资料广义最小二乘
XT ∑ X = 即 同理
n -1
∑ ∑ X i σij X Τ j
i=1 j=1 n n
估计递推算法 若按不同批次得到样本资料后, 从全部的样 本中剔除早期的样本资料, 在这里若 m = 1 时, 则 剔除最早纳入的一个样品, 只留下近期的样本资 料. 这样建立的线性模型就是吐故问题. 这里给 出的是剔除第 m 个样品. XT x i2 , 定理 2 对于线性模型 ( 1 ) , i = ( x i1 , ^ …, x ip ) , i = 1, 2, …, n, pm , Xm , y m 已知, 若 β( n) , 则剔除第 m 个样品后其系数的广义最小二乘估 ^ ( n - m) 有如下式子 计β ^ ( n - m) = β ^ ^ ( n) + σ mm P n -m X m( X T β m β( n) - ym ) ( 3) 其 中
+ σ mm X m X T m
Pn +1 = Pn - 由( 7 )
-1 mm = Pn Xm XT -m + σ m
则
-1 mm I = Pn Pn Pn Xm XT -m + σ m
( 1 - σ mm P n X m X T m ) P n -m = P n (I
T n +1
P n -m = P n + σ P n X m X P n -m ( I - σ mm P n X m X T m ) P n -m = P n 由引理 1 可知 ( 7)
2
2. 1
广义最小二乘估计估计递推算法
多元线性模型纳新样本资料广义最小二乘
∑ ∑ σji X j X T i = i=1 j=1
估计递推算法 在统计中往往遇到这样的问题, 根据所给的 数据建立模型后, 又得到一批新的数据, 纳新问 题是已获得一批样本资料建立了统计模型得到 了最小二乘估计, 而后又获得第二批样本资料, 将两批信息整合在一起的得到线性模型的最小 二乘估计, 从而得到 β 的广义最小二乘估计. 定理 1
证明 由( 4 ) 可知 ^ ^ ( n) + σ ( n + 1) ( n + 1) P n + 1 X n + 1 ( y n + 1 - ( n + 1 ) =β β ^ XT n + 1 β( n) ) 由( 6 ) ^ ( n - m) = β ^ ( n) + σ mm p n -m X m( X T ^ β m β( n) - y m ) 代入上式得 mm T ^ β( n + 1) = ^ β( n - m) - σ pn -m Xm( Xm ^ β( n) - ( n + 1) ( n + 1) T ^ ym ) + σ P n + 1 X n + 1( y n + 1 - X n + 1 β( n) ) 由( 5 ) 可得到
令
-1 Pn =
∑ ∑ σij X i X T j i=1 j=1
n n ij σ Xi yi ∑ ∑ i=1 j=1
-1 ^ Pn β( n) = n -1 n -1
= = =
∑ ∑ σij X i y j i=1 j=1
n -1 n -1 i=1 j=1 n -1 n -1
+ σ nn X n y n
^ = ( X T ∑ - 1 X) β
-1
XT ∑ y
-1
0
引言
根据原有数据建立了线性模型, 得到了原有
随着新增样品的不 样品其系数的最小二乘估计, 断涌入, 需要重新建立样品其系数的最小二乘估 实现的有效方法是利用将原有样品和新增样 计, 品结合在一起重新构造模型, 但这种方法计算量 李世达, 陈土生 较大,
=(σ )
ij
n ×n
, i, j = 1,
^ - 1 ) + σ nn X n X T n β( n -
nn
由( 3 ) 可知
n n
^ ( n - 1) + σ Xn yn 1) - σ Xn X β
-1 ^ Pn - m) - 1 β( n
=
ij σ Xi yj ∑ ∑ i = 1, i≠m j = 1 , j≠ m
T 在线性模型 ( 1 ) 中, 令 X i = ( x i1 ,
用 P n 左乘上式两端得
-1 nn T I = Pn Pn -1 + σ Pn Xn Xn 再用 P n - 1 右乘上式两端得
P n - 1 - P n = σ nn P n X n ·X T n Pn -1 再用 X n 右乘上式两端得 P n - 1 X n = P n X n + σ nn P n X n X T n Pn -1 Xn = P n X n( 1 + σ nn X T n Pn -1 Xn ) Pn -1 Xn = Pn Xn 则 1 + σ nn X T n Pn -1 Xn 再用 X n P n - 1 右乘上式两端 Pn -1 Xn XT n Pn -1 = Pn Xn XT n Pn -1 = nn T 1 + σ Xn Pn -1 Xn ( Pn -1 - Pn ) 则 2. 2 1 nn σ