几种最小二乘法递推算法的小结

合集下载

各类最小二乘算法

各类最小二乘算法

β N −1 H* = N 0
β N −2
β 2( N −1) WN = 0
β 2( N −2)
0 ⋱ 1
三、递推算法 ∵
k θ(k ) = ∑ β i =1

2(k −i) h (i )h T (i )
2随着采样次数的增多数据量不断增加ls估计有可能出现所谓的数据饱和现象导致递推算法不能接近参数真二关于数据饱和现象的分析所谓数据饱和现象就是随着时间的推移采集到的数据越来越多新数据所提供的信息被淹没在老数据的海洋之中
Ⅴ 各种最小二乘类参数辨识算法 §1 概 述
最小二乘类参数辨识算法(一次完成算法、递推算法) 最小二乘类参数辨识算法 (一次完成算法 、 递推算法 ) 是一种 最基本和常用的参数估计方法。但研究和应用表明, 最基本和常用的参数估计方法。 但研究和应用表明, 这一算 法仍存在明显的不足。 法仍存在明显的不足。 一、LS 算法的主要不足之处 1、当模型噪声为有色噪声时,LS 估计不再是无偏估计、一致 、当模型噪声为有色噪声时, 估计不再是无偏估计、 估计。 估计。 2、随着采样次数的增多,数据量不断增加,LS估计有可能出 、随着采样次数的增多,数据量不断增加, 估计有可能出 现所谓的“数据饱和”现象, 现所谓的“数据饱和”现象,导致递推算法不能接近参数真 值。
于是有: 于是有:
α P ( k ) P − 1 ( k − 1) = I − P ( k ) h ( k ) h T ( k )
则:
ˆ θ ( k ) = P ( k ) H * T Z * = P ( k ) α H * −1T Z * −1 + h ( k ) z ( k ) k k k k

推导最小二乘法的两种方法

推导最小二乘法的两种方法

推导最小二乘法的两种方法最小二乘法是一种常见的数据拟合方法,用于找到一条直线,使得该直线与一组数据之间的最小距离等于零。

下面将介绍两种推导最小二乘法的方法。

方法一:基于样本点的距离我们可以从样本点出发,构造一条直线,使得该直线与样本点的距离等于零。

具体来说,设样本点为 (x_i, y_i),我们希望构造的直线为:y = ax + b其中 a 和 b 是待求的直线的参数。

为了找到 a 和 b,我们可以对样本点进行距离计算,得到:d = |y_i - ax_i + b|我们希望 d 等于零,即 y_i - ax_i + b = 0。

解这个方程,可以得到 a = (y_i - b) / x_i,b = y_i。

因此,我们得到一条直线的参数为:a = (y_i - b) / x_i,b = y_i该直线与样本点的距离就是:d = |y_i - ax_i + b| = |y_i - (y_i - b) / x_i + b| = (y_i - b) / x_i + b方法二:基于最小二乘法的公式另一种推导最小二乘法的方法是利用最小二乘法的公式。

最小二乘法的公式是:最小二乘法 = 1 / (n - 1) * Σ (y - y_i)^2 / (x - x_i)^2其中 n 是样本数,y_i 和 x_i 是样本点的坐标。

我们希望找到一条直线,使得该直线的斜率 k 满足:k * (x - x_i) = (y - y_i)即 k * (x - x_i) = y - y_i我们要求 k * (x - x_i) 最小,即要求 y - y_i 最小。

因此,我们可以构造一组数据,使得 y - y_i 最小。

具体来说,设 y_j = y_i + c,其中 c 是常数。

我们可以构造一条直线:k * (x - x_i) = y - y_i = y_j - c其中 k * (x - x_i) 就是直线的斜率。

该直线与样本点的距离就是:d = |y_i - ax_i + b| = |y_j - c - (ax_i + b)| = |ax_i - y_j - c|我们希望 d 最小,即要求 ax_i - y_j - c 最小。

最小二乘法公式的多种推导方法

最小二乘法公式的多种推导方法

最小二乘法公式的多种推导方法最小二乘法是统计学中用来求两个线性相关变量的回归直线方程的一种方法,因其推导方法比较复杂,高中数学《必修3》简单介绍了最小二乘法的思想,直接给出了回归直线斜率a和截距b的计算公式,省略了公式的推导过程。

中学数学教师没有引起足够的重视。

在文[1]中作者的困惑之一就是“公式推导,教不教?”,为了加强学生学习能力的培养和数学思想方法的渗透,让师生更好的了解数学发展的价值,公式推导,不仅要教,而且要好好的教。

下面给出几种公式推导的方法,供教学参考。

给出一组具有线性相关关系的数据(x1,y1),(x2,y2),…,(xn,yn),且实数xi不全相等,求回归直线y=ax+b的斜率a和截距b,使得所有点相对于该直线的偏差平方和达到最小。

设实数xi不全相等,所求直线方程为y=ax+b要确定a,b,使函数f(a,b)=∑ni=1(axi+b-yi)2最小。

方法1[2]由于f(a,b)=∑ni=1[yi-axi-(-a)+(-a)-b]2=∑ni=1{[yi-axi-(-a)]2+2[yi-axi-(-a)]×[(-a)-b]+[(-a)-b]2}=∑ni=1[yi-axi-(-a)]2+2∑ni=1[yi-axi-(-a)]×[(-a)-b]+n[(-a)-b]2,注意到∑ni=1[yi-axi-(-a)][(-a)-b]=(-a-b)∑ni=1[yi-axi-(-a)]=(-a-b)[∑ni=1yi-a∑ni=1xi-n(-a)]=(-a-b)[n-na-n(-a)]=0,因此f(a,b)=∑ni=1[yi-axi-(-a)]2+n[(-a)-b]2=a2∑ni=1(xi-)2-2a∑ni=1(xi-)(yi-)+∑ni=1(yi-)2+n(-a-b)2=n(-a-b)2+∑ni=1(xi-)2[a-∑ni=1(xi-)(yi-)∑ni=1(xi-)2]2-[∑ni=1(xi-)(yi-)]2∑ni=1(xi-)2+∑ni=1(yi-)2在上式中,后两项和a,b无关,而前两项为非负数,因此要使f取得最小值,当且仅当前两项的值均为0,即a=∑ni=1(xi-)(yi-)∑ni=1(xi-)2,b=-a(其中x=1n∑ni=1xi,y=1n∑ni=1yi,(x,y)称为样本点的中心。

几种最小二乘法递推算法的小结

几种最小二乘法递推算法的小结

几种最小二乘法递推算法的小结最小二乘法是一种常见的参数估计方法,广泛应用于各个领域的数学和统计模型的拟合问题。

在实际应用中,我们常常需要递推地计算最小二乘法的结果,以便能够在实时数据到来的情况下,快速地更新参数估计值。

以下是几种常见的最小二乘法递推算法的小结。

1. 递推最小二乘法(Recursive least squares, RLS)递推最小二乘法是一种在线参数估计方法,可以在每次新数据到来时,快速地更新参数估计值。

RLS算法利用递推的方式,将历史数据和新数据的信息结合起来,从而得到最新的参数估计值。

该算法基于递归迭代过程,迭代公式中的权重矩阵可以由历史数据的协方差矩阵递推得到。

递推最小二乘法具有良好的收敛性和较低的计算复杂度。

2.递推最小二乘法的变种算法(RLS的变种算法)递推最小二乘法的变种算法是对传统的RLS算法进行改进和优化的方法。

其中,经典的改进算法有递归正交最小二乘法(Recursive orthogonal least squares, ROLS)和递推快速QR分解法(Recursive fast QR factorization, RFQR)。

ROLS算法通过引入正交化处理,解决了经典RLS算法中信号相关性较高时,参数估计不稳定的问题。

RFQR算法则通过对历史数据进行快速QR分解的方法,进一步提高了算法的计算速度,并降低了计算复杂度。

3. 渐进最小二乘法(Asymptotic least squares, ALS)渐进最小二乘法是一种常见的在线参数估计算法,用于解决参数估计问题的收敛速度较慢的情况。

ALS算法通过估计参数的渐进协方差矩阵,然后利用资料增益矩阵计算最新的参数估计值。

由于ALS算法不需要存储和计算全部历史数据的相关矩阵,因此可以在实时数据到来的情况下,快速地进行参数估计。

4. 数据辅助递推最小二乘法(Data-augmented recursive least squares, DARLS)数据辅助递推最小二乘法是一种常见的递推最小二乘法的改进算法,适用于当历史数据缺失或者不完整时。

递推最小二乘估计

递推最小二乘估计
设A、C和(A+BCD)均为非奇异方阵,则 [A + BCD]-1 = A-1 -A-1B[C-1 + DA-1B]-1DA-1 推论:当D=BT时,有 [A+BCBT ]-1 = A-1-A-1B[C-1 +BTA-1B]-1 BTA-1
当C=I 时, [A+BD]-1 = A-1 -A-1B[I +DA-1B]-1DA-1
理论。 • 高斯仅用1小时就算出了谷神星的
轨道形状,并进行了预测
•1794年,高斯提出了最小二乘的思想。
1:引言
最小二乘法(Least Square)Gauss 1795年提出 在预测卫星和彗星运动的轨道时,需要处理由望远镜获得的观测数 据,以估计天体运动的六个参数。
Gauss在《天体运动理论》一书中写道:“未知量的最大概值是这 样的数值,它使各实测值与计算值之差的平方乘以度量其精度的数 值后,所得的和值达到最小。” ——著名的最小二乘思想 在系统辨识中,LS已成功应用于系统参数估计。 在自校正控制中,LS是应用最广泛的算法之一。
2:原理
2:原理
2:原理
2:原理
2:原理
3:特点
3:特点
(1):无需存储全部数据,取得一组观测数据便 可估计一次参数,而且都能在一个采样周期中完 成,所需计算量小,占用的存储空间小。
(2):具有一定的实时处理能力
谢谢
递推最小二乘估计(RLS)
董博南
一:最小二乘法回顾
二:递推最小二乘估计
一:最小二乘法回顾
1:引言 2:原理
3:特点
1:引言
• 1801年初,天文学家皮亚齐发现了谷神星。
•1801年末,天文爱好者奥博斯,在高斯预 言的时间里,再次发现谷神星。 •1802年又成功地预测了智神星的轨道。

广义最小二乘法和递推最小二乘法

广义最小二乘法和递推最小二乘法

广义最小二乘法和递推最小二乘法
广义最小二乘法和递推最小二乘法是最小二乘法算法的改进版本。

最小二乘法
是一种常见的统计学技术,它有效地估计未知参数集,也可以用于回归分析。

本文旨在详细介绍广义最小二乘法和递推最小二乘法。

首先让我们了解最小二乘法。

最小二乘法(Least Squares)是一种最常用的
方法,其中未知参数的估计量是穷举法的最优估计,这是一种很有效的技术。

最小二乘法的求解过程中,以平方的残差来最小化两个估计量的差异,以求得最优参数。

然而,最小二乘法有时也会出现缺陷,其中一个原因是可能会把噪声干扰包含
在结果中,另一个原因是它依赖被观测值的方差,而方差受因素影响。

因此,有了广义最小二乘法。

广义最小二乘法是在最小二乘法的基础上改进的算法。

在广义最小二乘法中,
我们通过加入惩罚参数来最小化残差,以对噪声进行抑制。

惩罚参数的加入,使得预测变更的安全降低,同时噪声的影响也可以得以抑制。

因此,广义最小二乘法在回归分析中也有广泛的应用。

此外,基于最小二乘法的另一种增强方法是“递推最小二乘法”。

递推最小二
乘法是将最小二乘法算法进行改良,从而改善对噪声的抑制能力。

和广义最小二乘法一样,递推最小二乘法也需要惩罚参数的加入。

递推最小二乘法也通过持续更新未知参数,来达到最小化残差的目的,从而能有效地抑制噪声。

以上就是本文要陈述的关于广义最小二乘法和递推最小二乘法的改进方法以及
它们的比较。

从技术上讲,广义最小二乘法和递推最小二乘法都比最小二乘法更能抑制噪声和拟合回归曲线,因此,它们在回归分析中都有广泛的应用。

递推最小二乘法原理

递推最小二乘法原理递推最小二乘法(Recursive Least Squares, 简称RLS)是一种经典的自适应滤波算法,它在信号处理、通信系统、控制系统等领域得到了广泛的应用。

本文将介绍递推最小二乘法的原理及其在实际应用中的一些特点。

首先,让我们来了解一下最小二乘法。

最小二乘法是一种数学优化方法,用于寻找一组参数,使得给定的模型与观测数据之间的误差平方和最小。

在线性回归问题中,最小二乘法可以用来拟合一个线性模型,以最小化观测数据与模型预测值之间的差异。

最小二乘法的基本思想是通过最小化误差的平方和来寻找最优的参数。

递推最小二乘法是最小二乘法的一种变种,它的特点在于可以实时地更新参数估计,适用于需要动态调整的系统。

在实际应用中,由于系统参数可能随时间变化,传统的最小二乘法在每次参数更新时都需要重新计算整个数据集,计算复杂度较高,不适合实时性要求高的场景。

而递推最小二乘法则可以通过递推的方式,实时地更新参数估计,适用于动态环境下的参数估计问题。

递推最小二乘法的原理可以用数学公式来描述。

假设我们有一个线性模型,\[y_k = \theta^T x_k + e_k\]其中\(y_k\)是观测数据,\(x_k\)是输入向量,\(\theta\)是待估计的参数,\(e_k\)是噪声。

我们的目标是通过观测数据\(y_k\)和输入向量\(x_k\)来估计参数\(\theta\)。

递推最小二乘法的核心思想是通过递推的方式,实时地更新参数\(\theta\)的估计值。

具体来说,我们可以通过以下递推公式来更新参数\(\theta\)的估计值,\[\theta_k =\theta_{k-1} + \frac{P_{k-1}x_k}{1 + x_k^T P_{k-1} x_k}(y_k x_k^T \theta_{k-1})\]其中\(\theta_k\)是第\(k\)次的参数估计值,\(\theta_{k-1}\)是第\(k-1\)次的参数估计值,\(P_{k-1}\)是第\(k-1\)次的参数估计误差的协方差矩阵。

递推最小二乘法


取二 E ( ) 为 的 合目 函 相 的 的 合目 函 : =, j 作 新 拟 标 数, 应 新 拟 标 数为 Dw
jO ( ) J 艺z艺:( 】 习回 ) Q 加 司一 一 e } j = 。+ G 阶川 = D叭
权最小二乘拟合。 (3 ) (3 0 把式( .和( .) 3 9 3 1 代入式(3 3 . . ( .) 3 1 则有: .
度函数。 下面仅举出第一种计算相关函数法的计算过程。 用这个方法进行相关分析辨识
系统模型的计算分为三个步骤:
1 根 输 和 出 随 数 计 相 函 R )互 关 数 = ) ) 据 入 输 的 机 据 算自 关 数 , 和 相 函 R令; , 卜 r
2 求 ,) R(的 立 变 Sj 凡行) ) *: s)傅 叶 换 x 、 (和 3 , r () 。; ) 0 和
把 宪G 做型,把一实值模值差 “ O 模值并每点测与型之 j 州 ( )
: E . = J j() =( , - + , j )P ( Q. -
( ..1 331 )
称为拟合误 差,再取全部采样频率。上的 拟合误差s 平方和厂作为 , 的 拟合目 标函数。
,rn 、。、下不二不} '-厂 J ‘ Bol }. v\ 、 G , l . W厂 _ _ : Vw } k 一YE t-L]1 G ) ' 二 ' U i - -, ' i
二 ( + ( v } jr ) u mm )
( ..0 33 1 )
现要定数, 以d2 由j(所示频特 在 参bi, i., ’ j 表的率性 确 p. 及, 使 ( . bm . 得 劣 ) . . b dn . 0 d
函 与 验 得 频 特 加 + ) 接 如 把P 和Q , 做 测 而 数 实 求 的 率 性p ) .最 近。 果 阮) () 实 值, M .叫

递推的最小二乘法

T
1
说明: 公式①的物理意义
( N 1) WLS ( N ) 在以前观测的基础上对本次观测值的预测
T 0 y ( N 1) ( N 1) WLS ( N ) 预测误差,说明 WLS ( N )与实际参数(N)的偏差 T

进行递推,起动问题:
. 一般选 WLS (0)=0,相应的P(0) I = = 0
递推的最小二乘法
最小二乘估计:
LS ( ) Y
T 1 T
加权的最小二乘估计:

WLS ( W ) WY
T 1 T
Y:所有观测数据的全体,所以以上都是成批处理观测数据的一次完成算法,是离 线辨识方法。优点:辨识精度高;缺点:计算量大(特别是高阶矩阵求逆),对 计算机内存要求高,不能在线辨识!

WLS ( N )


WLS ( N 1)

的递推公式过程(略P191)
递推公式:
T ★ ① WLS ( N 1) WLS ( N ) L( N 1) y ( N 1) ( N 1) WLS ( N ) ② L( N 1) P( N 1) ( N 1) ( N 1)

1、递推的最小二乘法基本思想:
• 本次(新)的估计值
(k )

=上次(老)的估计值
(k 1)

+修正项

可以观察随着时间的推移,新的输入、输出信息不断增加的情况下,参数估计的变化情况,特别适用于 在线实时辨识。

设原先得到的参数估计用 WLS ( N ) 表示,则
WLS ( N ) ( T ( N )W ( N ) ( N )) 1 T ( N )W ( N )Y ( N )

递推最小二乘法

递推最小二乘法递推最小二乘法是一种避免精度损失的迭代计算方法,在最小二乘法的基础上加以改进,主要用于拟合复杂的数据,解决拟合时出现精度下降问题。

一、什么是递推最小二乘法递推最小二乘法是一种迭代计算方法,利用多项式曲线拟合曲线数据,对于某个曲线,只需要实施最小二乘法的迭代计算,而不需要考虑精度的损失。

递推最小二乘法的主要工作是根据给定的拟合曲线,把它拟合到数据集中,从而使数据集距离拟合曲线最小。

二、递推最小二乘法的原理递推最小二乘法的核心原理是,利用多项式拟合曲线,按照“最小二乘法”的原理,以当前拟合曲线为参照,不断进行前进和后退,以达到拟合曲线将数据集中的数据最佳拟合的目的。

这个最佳拟合目标就是实现拟合曲线与数据集之间的最小误差,其中,最小误差就是拟合曲线与实际数据集之间的最小差值。

递推最小二乘法的实现方式主要有两种,一种是基于递推的方式,另一种是基于函数的方式。

前者大致的实现方法是:先计算出多项式拟合曲线的每一个系数,然后再利用这些系数计算出多项式拟合曲线的最终拟合曲线,最后比较拟合曲线与实际数据集之间的实际差异,根据差异再调整系数,不断循环,直到最后拟合曲线与实际数据集之间的实际差异达到预期值为止。

函数的实现方式也很类似,只是在计算过程中,会使用函数的方式,将拟合曲线的系数表示为函数的形式,然后再比较拟合曲线与实际数据集之间的实际差异,根据差异再调整函数系数,最后实现拟合曲线与实际数据集之间的最小差异。

三、应用递推最小二乘法在实际应用中可以用来拟合复杂的数据曲线,以求得更好的拟合效果,解决拟合时出现精度下降问题。

它具有计算量小、运算简单、拟合结果较好的优点,因此在实际应用中得到了广泛的使用,比如在众多植物物种的遗传分析中,用递推最小二乘法来拟合植物的遗传规律,以获得更准确的估计结果;在探测地球大气层时,也可以用最小二乘法来拟合大气层中的湿度数据,以获取更加准确的湿度数据;在搜索引擎中,对查询结果也可以用最小二乘法拟合出来,以获得更准确的查询结果等等。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

一、 递推最小二乘法
递推最小二乘法的一般步骤:
1. 根据输入输出序列列出最小二乘法估计的观测矩阵ϕ:
] )(u ... )1( )( ... )1([)(T b q n k k u n k y k y k ------=ϕ
没有给出输出序列的还要先算出输出序列。

本例中, 2)]-u(k 1),-u(k 2),-1),-y(k -[-y(k )(T
=k ϕ。

2. 给辨识参数θ和协方差阵P 赋初值。

一般取0θ=0或者极小的数,取σσ,20I P =特别大,本例中取σ=100。

3. 按照下式计算增益矩阵G : )
()1()(1)()1()(k k P k k k P k G T ϕϕϕ-+-= 4. 按照下式计算要辨识的参数θ:
)]1(ˆ)()()[()1(ˆ)(ˆ--+-=k k k y k G k k T θϕθθ
5. 按照下式计算新的协方差阵P :
)1()()()1()(---=k P k k G k P k P T ϕ
6. 计算辨识参数的相对变化量,看是否满足停机准则。

如满足,则不再递推;如不满足,
则从第三步开始进行下一次地推,直至满足要求为止。

停机准则:εϑϑϑ<--)
(ˆ)1(ˆ)(ˆmax k k k i i i i 本例中由于递推次数只有三十次,故不需要停机准则。

7. 分离参数:将a 1….a na b 1….b nb 从辨识参数θ中分离出来。

8. 画出被辨识参数θ的各次递推估计值图形。

为了说明噪声对递推最小二乘法结果的影响,程序5-7-2在计算模拟观测值时不加噪
声,
辨识结果为a1 =1.6417,a2 = 0.7148,b1 = 0.3900,b2 =0.3499,与真实值a1 =1.642, a2 = 0.715, b1 = 0.3900,b2 =0.35相差无几。

程序5-7-2-1在计算模拟观测值时加入了均值为0,方差为0.1的白噪声序列,由于噪
声的影响,此时的结果为变值,但变化范围较小,现任取一组结果作为辨识结果。

辨识结果为a1 =1.5371, a2 = 0.6874, b1 = 0.3756,b2 =0.3378。

程序5-7-2-2在计算模拟观测值时加入了有色噪声,有色噪声为
E(k)+1.642E(k-1)+0.715E(k-2),E(k)是均值为0,方差为0.1的白噪声序列,由于有色噪声的影响,此时的辨识结果变动范围远比白噪声时大,任取一组结果作为辨识结果。

辨识结果为a1 =1.6676, a2 = 0.7479, b1 = 0.4254,b2 =0.3965。

可以看出,基本的最小二乘法不适用于有色噪声的场合。

二、 广义最小二乘法
广义最小二乘法适用于AR 模型,它的基本思想在于对数据先进行一次白化滤波处理,然后利用基本的最小二乘法对滤波后的数据进行辨识。

广义最小二乘法的递推算法步骤如下:
1. 给定初始条件:
⎪⎪⎩⎪⎪⎨⎧====I
)0(P 0
)0(ˆ(I )0(P 0)0(ˆ(e))(2(f)e θσσθ特别大)或者极小值
2.利用
⎪⎩⎪⎨⎧==--)
()()()()()(1(f)1(f)k u z C k u k y z C k y 计算)()(k y
f 及)()(k u f 。

3.利用 ] )(...u )1( )( ... )1([)(T )()()()()(b f f q f f f n k k u n k y k y k ------=ϕ
构造滤波后的观测矩阵)()(k f ϕ。

本例中, 2)]-(k u 1),-(k u 2),-(k 1),-y -(k [-y )(T )()()()()(f f f f f k =ϕ。

4.利用下式估计递推计算1
ˆ+N θ ⎪⎪⎪⎩
⎪⎪⎪⎨⎧---=+-=--+-=)()()()()()()()()()()()()()()1()()()1()()()(1)()1()()]1(ˆ)()([)()1(ˆ)(ˆf T f f f f f N f T f f f f T f f f k P k k G k P k P k P k k k P k G k k k y k G k k ϕϕϕϕθϕθθ 5.由新得到的)(ˆk θ
计算出新的残差估计值)(ˆk e ,并构造残差数据向量 由滤波前的观测向量
] )(u ... )1( )( ... )1([)(T b a n k k u n k y k y k ------=ϕ计算出新的残差估计值)(ˆk e
)(ˆ)()()(ˆk k k y k e
T θϕ-= 残差数据向量T c e n k e k e
k )](ˆ ... )1(ˆ[)()(----=ϕ。

6. 利用下式估计递推计算)()(ˆe k θ
⎪⎪⎪⎩
⎪⎪⎪⎨⎧---=-+-=--+-=)()()()()()(1)()()()()()()()()()()1()()()1()()()1()(1)()1()(])1(ˆ)()(ˆ[)()1(ˆ)(ˆe T e e e e e e T e e e e e T e e e e k P k k G k P k P k k P k k k P k G k k k e k G k k ϕϕϕϕθϕθθ 7.返回第2步进行迭代计算,直至获得满意的辨识结果。

程序5-7-4使用广义最小二乘法,得到的结果为a1 =1.6363,a2 =0.7172,b1 = 0.3679,b2 = 0.3603,c0 =-0.6951, c1 =-0.0214,结果a1、a2、b1、b2与真实值结果a1 =1.642, a2 = 0.715, b1 = 0.39,b2 =0.35较为接近,但c0、c1与真实值1、-0.4相差较远。

三、 增广最小二乘法
增广最小二乘法是最小二乘法的一种推广,它只是扩充了参数向量θ和数据向量)(k ϕ的
维数,在辨识过程中考虑了噪声模型的参数,适用于MA 模型。

增广最小二乘法的一般步骤如下:
1.根据输入输出序列以及噪声序列列出增广最小二乘法估计的数据向量ϕ: ] )( ... )1( )( )(u ... )1( )( ... )1([)(T d b a n k k k n k k u n k y k y k --------=εεεϕ 没有给出输出序列的还要先算出输出序列。

本例中, ])2(, )1(, )( 2),-u(k 1),-u(k 2),-1),-y(k -[-y(k )(T
--=k k k k εεεϕ。

9. 给辨识参数θ和协方差阵P 赋初值。

一般取0θ=0或者极小的数,取σσ,20I P =特别大,本例中取σ=100。

10. 按照下式计算增益矩阵G : )
()1()(1)()1()(k k P k k k P k G T ϕϕϕ-+-= 11. 按照下式计算要辨识的参数θ:
)]1(ˆ)()()[()1(ˆ)(ˆ--+-=k k k y k G k k T θϕθθ
12. 按照下式计算新的协方差阵P :
)1()()()1()(---=k P k k G k P k P T ϕ
13. 计算辨识参数的相对变化量,看是否满足停机准则。

如满足,则不再递推;如不满足,
则从第三步开始进行下一次地推,直至满足要求为止。

停机准则:εϑϑϑ<--)
(ˆ)1(ˆ)(ˆmax k k k i i i i
本例中由于递推次数只有三十次,故不需要停机准则。

14. 分离参数:将a 1….a na b 1….b nb d 1…d nd 从辨识参数θ中分离出来。

15. 画出被辨识参数θ的各次递推估计值图形。

由以上可见,递推增广最小二乘法的算法与基本最小二乘法的递推算法形式是一致的,只是参数向量θ和数据向量)(k ϕ的维数扩充了m 维。

程序5-7-5在是运用增广最小二乘法来辨识系统参数,得到的结果为a1 =1.6412,a2 = 0.7144,b1 = 0.3900,b2 =0.3497,d0=0.9992,d1=1.6417,d2=0.7145与真实值a1 =1.642, a2 = 0.715, b1 = 0.3900,b2 =0.35, d0=1,d1=a1=1.642,d2=a2=0.7145相差无几。

相关文档
最新文档