自组织神经网络的优化

自组织神经网络的优化
自组织神经网络的优化

自组织多项式神经网络的优化

摘要:由组数据处理方法(GMDH )自动构建和训练的自组织多项式神经网络(SOPNN )模型仅仅优化了

SOPNN 网络顶层节点的权值,该模型的主要缺点是只进行了模型权值的部分优化。为了估计经过改善所

获得模型能达到的近似精确度,粒子群优化(PSO )已经被使用去优化所有多项式节点的权值。因为在计

算上PSO 模型通常是昂贵和耗时的,为此使用了一个更加有效的Levenberg-Marquardt (LM )算法去优化

SOPNN 。由LM 算法优化后的SOPNN 模型性能上胜过了基于ANN 和SVM 的模型。本文的研究是基于时

间约束下热动力影响的液体流动测量的元模型。通过多层叠加震荡递推关系的学习,我们演示了优化后的

SOPNN 模型的显著特性。

关键词:多项式神经网络;GMDH ;LM 算法;粒子群优化

绪论

SOPNN 网络的构建是通过将低阶多项式与多层多项式结构相结合,在这个网络中,低阶

多项式的系数用以最小化近似误差,其值是通过多项式回归获得。GMDH 模型在数字计算机

上很容易执行,对于低复杂网络,可以获得合理的近似精度。因为GMDH 在多项式回归和模

型选择中使用的是独立的数据集,致其不支持过度拟合。当将其应用于非线性行为的实时补

偿时,GMDH 和其他常见的模型所采取的策略一样,其自组织特性会去除这个复杂结构模型

和参数。

往往是通过对单个参数的测量评价SOPNN 网络的性能,例如最小方差,其主要是最小

化了模型的近似误差而并非模型的复杂度。当建立具有时间约束性应用的模型时,其约束可

以被有效的嵌入到模型选择指标中。当考虑相对于复杂度的精度时,与多层感知器(MLP )

比较,原SOPNN 模型的性能处于劣势。

由GMDH 算法优化的SOPNN 模型只是对模型权值的部分优化,因为GMDH 算法仅仅优

化了输出节点的权值。在多次训练迭代中,被多项式回归计算后的权值仍然不变。模型在被

遗传编程和反向传播(BP )训练后,其精度和预测可以有很大的提高。但是BP 往往会在局部

最小值处卡住,所以本文提出了一种更加强大的优化方法去训练其权值。

粒子群优化算法(PSO )是一种自然仿生算法,其通过模仿鸟群的飞行来优化模型的权

值。PSO 可以优化所有多项式节点的权值,在实验中用于估计原SOPNN 模型的近似能力。

因为PSO 模型在计算上是昂贵和费时的,之后,我们采用了一种更加复杂的LM 算法去优化

模型的权值。通过模拟,LM 算法的收敛速度数倍于SOPNN 模型。

1、GMDH 、PSO 、LM 算法

1.1、GMDH 算法

如下图所示是一个完全的2层前向3维系统,图中i p ,λ表示一个对应于λ层第i 个节点的

低阶低维多项式。

由于一阶或二阶二维多项式没有迅速增加所有多项式关的阶数,而且它们的处理速快,

所以我们这里采用一个二阶二维多项式。其表达式如下。

21622512423121i i i i i i i i i i i i i z z a z a z a z a z a a p λλλλλλλλλλλλλ+++++= )1(

式中1i z λ和2i z λ表示输入变量,6,...,1i i a a λλ表示通过多项式回归获得的相应的权值。

GMDH 算法假设了两个独立的数据集,一个是M 个样本的训练集,一个是N 个样本的

验证集。如下所示:

{}M i ti ti t y x D 1),(== )2(

(){}N i vi vi v y x D 1,== )3(

每一个样本都是由一个数据向量和相应的独立变量组成。),...,(,,1tik ti ti vi ti x x x R y R y =∈∈, k vi vik vi vi k ti R x x x x R x ∈=∈),,...,(,1,训练数据集用来修正系数,验证数据集用来证明多项式的近

似误差。为了求解系数6,...,1i i a a λλ,必须求解一个6个同时发生的线性方程集。如下所示:

()6

1210==??????????=-??∑k M m tm i tm ik p y a λλ )4( 式中M 是训练样本总数,tm y 是训练集第m 个独立变量值,tm i p λ表示λ层第i 个多项式相应于

数据集第m 个数据向量的值。图1中每层的可能节点总数通过以下迭代方程得出。

∑-=++-=1012

)1(λλλλλi i N N N N N 式中λk N ,...,1,0=是第λ层的节点总数。

1.2、SOPNN 权值的基本粒子群优化

给定一个n 维空间中的向量a ,N R a ∈,

N i ,...,2,1=,把SOPNN 多项式关系式),(a x p 看作是粒子,在空间中的位置由向量a 来定义。PSO 使非线性适应度函数最小化,其数学表达式:

[]2

1),()(∑=-=K k k k a x p y a e )5(

式中K 表示训练向量的总数,k x 表示第k 个m 维输入训练向量,)(k k x y y =是相应的训练值,a 表示一个N 维的向量,代表的是多项式),(a x p k 所有节点的系数。在PSO 优化初始,要对

每一个粒子的位置a 和速率v 通过以下式子进行初始化。

(7) ,...,1,,...,1,)12((6)

,...,1,,...,1,0

0N i K k L U s v N i K k L U r L a i i ki ki i i ki i ki ==-?-===-+= 式中00ki

ki v a 和分别表示第k 个粒子的初始位置和速率的第i 个分量。其中i U L i 和 分别表示搜索空间中第i 维的下界和上界。ki ki s r 和表示0到1之间的随机数。对于每一个粒子

k ,我们假定其最优位置k A 和最优适应度函数值k E 分别等于各自粒子的初始化位置和初始化

适应度函数值。指针指向拥有最优适应度值αE 的α粒子。粒子通过以下的迭代方程被操作控

制。

(9)

,...,1,...,1,,...,

1,...,1(8)

)()(11211N i K k v a a N i K k a A S c a A R c v w v j ki j ki j ki j ki i ki j ki ki ki j ki j ki ==+===-+-??+?=+++α 式中j ki

j ki a v 和分别表示第k 个粒子在第j 次迭代中的速率和位置的第i 个分量。w 代表迭代权值(0.8

1.3、SOPNN 权值的LM 优化

1.3.1、LM 算法对SOPNN 的调整

给出一个包含K 个样本的数据集,每一个样本都有一个N 维输入向量x 和一个独立变量

y 组成。该算法通过优化SOPNN 多项式关系p 的所有权值{}m a a ,...,1,从而最小化非线性适

应度函数。在每一次的迭代中LM 算法都计算了增量δ,{}m δδ,...,1估计了新的权值向量

δ+=a a ,等于{}m m m a a δδ++,...,1,从而减小了适应度函数值。新的多项式p 的计算如下所

示:

M M

k k k k a a x p a a x p a x p a x p δδδ???++???+≈+),(...),(),(),(11 )10( 通过把a 用δ+a 代替,(5)式中的适应度函数变成:

2111)),(...),(),(()(M M

k k k K k k a a x p a a x p a x p y a e δδδ???--???-

-=+∑= )11( 通过设定粒子相对于增量的倒数等于0,我们获得了一个针对m 个未知数),...,(1M δδ的一个M

维同时发生的线性方程。

M

j K k M M k k k k j k a a x p a a x p a x p y a a x p 11110)),(...),(),((),(==??????????=???????????--???--???∑δδ )12( 或者是向量形式

[])()(a P y J J J T T -=δ )13(

式中J 表示Jacobian 矩阵,在介绍一个非负的阻尼因数γ和对角矩阵J J T ,我们获得了LM 方程式。

()()

[])(a P y J J J d i a g J J T T T -=?+δγ )14( 1.3.2 粒子导数的计算

从图1可以看出每一层包含相应的节点数,第λ层的第i 个节点的特性通过相应的权值{}61,...,i i a a λλ来确定。多项式i p λ相对于它的顶层节点),(i n λ的权值的粒子导数相当于对相应的权值求偏导,例如12

1,1i i i i i z a p a p λλλλλ=??=??,多项式i p λ相对于任意层节点),(y x n 的权值的粒子导数通过下式求得xyj

xy xy i xyj i a p p p a p ?????=??λλ,式中xy p 是相对于节点),(y x n 的多项式,对应权值xyj a ,6,...,1=j 。注意

xy i p p ??λ是根据节点),(),(y x n i n 和λ所有关系的链规则计算得到。 粒子导数的链规则计算通过一个假设的SOPNN 例子说明,如图2所示。

图中的34p 可以通过以下连接的多项式关系计算得到:

)),,),,,((),),,,(),,,(((3425414321425231432141221122334a a x a x x p p a a x x p a x x p p p

式中的i p λ表示相对于顶层节点),(i n λ的多项式。i a λ表示第),(i n λ的节点的权值向量。对应于

相应的权值6,...,1,=j a ij λ。从图2中可知多项式34p 相对于多项式14p 顶层节点权值的导数为:6,...,1,)(141414252534142323341434=????????+?????=??j a p p p p p p p p p a p j

j 。 式中42561425425214

25253462334434223342,2x a p a a p p p a p a a p p ++=??++=??,式中j a 14表示对应多项式14p 顶层节点的第j 个权值。

2、时间约束应用下的SOPNN 和多层感知器模型

在某种情况下,基于第一原则的过程执行在实时性上可能是不可行的。在这种情况下,构建一种相应的元模型是合理的,为此可以使被给的计算复杂度的近似精度最大化。利用机械学习技术,为了从原始的高复杂模型获得一个元模型,我们必须从原始模型获得足够的训练和验证例子。SVM 和ANN 可以被有效的用于多维非线性适应度函数的近似。在测量和控制应用中,最大化被给的计算复杂性的近似精度常常是必须的。计算复杂度可以通过相应的执行时间得到测量。我们的模型是针对流量计算器量身定制的,这种计算器是基于执行单个的精确加,乘,除和指数运算的浮点子程序的低计算能微型计算机。在这部分我们将简洁的总结在低计算能系统中对SOPNN 和MLP 模型 中执行时间ET 的估计过程。

2.1、SOPNN 的计算复杂度

SOPNN 的执行时间ET 是通过多项式节点的总数和基本的低阶多项式的最大执行时间来定义的。SOPNN 的最大执行时间可以估计为

)(m ul m ul add add SO PNN T N T N N T ?+??= )15(

式中N 表示多项式节点的总数,mul N N add 和分别表示浮点加和浮点乘的总数,这些参数可以通过计算基本的多项式)1(得到。ms T add 50=和ms T mul 150=分别表示相应的浮点加和浮点乘的最大执行时间。如果用Horner 规则重新改写多项式)1(,那么其将变成具有5个浮点加和5个浮点乘的式子。

)()(25322614211i i i i i i i i i i i i z a a z z a z a a z a p λλλλλλλλλλλλ+++++= )16(

2.2 、MLP 的计算复杂度

我们训练由一个输出神经元和1-M 个隐层神经元构成的前向MLP ,每一个神经元都利用了S 型激励函数。MLP 结构如图3所示。对于一个由N 个输入神经元,一个输出神经元和1-M 个隐层神经元构成的MLP ,其计算流程的最大执行时间可以通过下式得出。

)())(1)(1(exp div add m ul add m lp T T T M T T N M T +++++-≤ )17(

式中div exp T T 和表示相应的浮点指数函数和浮点除的最大执行时间。上述浮点操作在流量计算

机中的值为s T s T div μμ430,3470exp ==。

3、流率误差补偿

我们调查了在不同的设备中,一种自然气体的JT 系数和等熵幂对流率测量准确性的综合效应。如图4说明了在一个管线中流动的一种自然气体通过带有拐角头的孔板的流率测量。在ISO-5167-2(2003)中详细说明了带有相应的迭代计算方案的流率方程。对自然气体的流率计算依靠多个参数,如下所示:

),,,,,,,(d D k p T P q q u u u u u u γρ?= )18(

式中u u u u k q ,,,γρ分别表示在上升气压u q 和温度u T 下的质量流率,密度,黏性和等熵幂。式中d ,和D p ?表示环绕孔板,管内直径和孔的不同压力。在上升气压和下降温度测量下,)18(式变为:

),,,,,,,(d D k p T P q q d d d u u d γρ?= )19(

式中d d d d k q ,,,γρ分别表示在上升气压u p 和下降气流温度d T 条件下的相应质量流率,密度,黏性和等熵幂。对于某种特定的自然气体和操作条件,流率d q 会和流率u q 不同,温度的下降引起JT 系数扩大,为了达到要求的测量精度,对相应的流率进行补偿是必不可少的。精确的流率补偿需要对气体的成分和流率进行复算,上述计算在低计算能嵌入系统中实时的补偿是不可能的。为了减少计算负担,我们把目光聚焦到一个低复杂度流率改正因子模型上,该模型可以直接补偿由下降流温度测量引起的流率误差。这个改正因子模型要足够的简单以求在实时性上是可行的,并且要有足够的准确度以确保达到所要求的测量精度。流率改正因子的计算式如下: d

u q q k = )20( 式中u q 表示在上升气流下的实际流率,d q 表示在下降气流下的流率。对于给定k 时,u q 可以

通过d u q k q ?=获得。通过比较未补偿的d q 和准确计算的u q ,可以获得相应的流率测量误差r E ,其表达式为:u u d r q q q E -=。我们取了一个流率改正因子的替代模型。相对于(20)式的流率改正因子,被给的替代模型sm K ,实际的流率u q 可以近似为d sm sm q K q ?=。相应的测量误差则变为 u u sm sm q q q E )(-= )21(

在由SOPNN 和MLP 改正后的模型有相等的计算复杂度,相应的近似误差被比较。注意自然气体的特性,如密度,等熵幂和速率,需要被计算,并且会在流量计算中的气体特征参数会涉及,如相对密度,组分的摩尔分数,高级热量值。在Maric 和Ivek 中详细介绍了流率误差的改正流程和改正因子模型中需要的输入参数(见表1)优化集的估计。

4、流率误差补偿模型

对于元模型的目的,精确的自然气体流率改正因子计算在软件中被完成,并在数字计算机中得以运行。训练数据集,验证数据集和测试数据集,每一个都由包含20000个改正因子的样本组成,它们是环绕应用空间(表1)的任意样本,并与Maric and Ivek 相一致。应用范围在表1中被显示。在我们的流动计算原型中,改动因子的替代模型的最大容许ET 和最大

的可接受的相对平方根误差分别被限制为30ms 和5%。

对于模型被给的最大ET ,通过(15)和(17)式可以计算出浮点操作的最大ET ,9个输入参数,SOPNN 节点和MLP 神经元的最大可接受数量。为了建立一个等价ET 不超过30ms 的模型,图3的MLP 在最大的ET 下被限制到5个神经元,由(17)可以估计得到ms T mlp 75.27≤,图5中SOPNN 模型的相应复杂度被限制为在最大ET 内的最多27个多项式节点,由(15)式可以估计得到ms T SOPNN 27≤。

获得模型的近似精度在流率改正因子应用下,被10个随机产生的测试数据集测试。每一个都有20000个样本组成,结果在图6中显示。表2中给出相对平方误差均方根(mean RRSE)和标准差(standarddeviation )。

从10个独立的测试数据集获得的结果清晰的表明模型没有过拟合图6中的MLP-LP 和表2表示被LM 算法训练的具有4+1个神经元的前向MLP 。这个SOPNN 代表了具有27个节点的自组织模型(图5),该模型被一个在模型选择上使用以下复合测量的的GMDH 算法训练。

2020)()1()(exe exe w rrs rrs w CE T T c E E c E ?-+?=

其中模型近似误差0rrs rrs E E ≤执行时间ET ,0exe exe T T ≤,权值系数10≤≤w c 。SOPNN-PSO 和SOPNN-LM 代表分别被PSO 和LM 优化的模型。从图6和表2可以看出被LM 算法训练的MLP 模型(MLP-LM)未被优化的SOPNN 模型在RRSE 上有近33%的减少,两者有着近似的复杂度。被PSO 优化的SOPNN 模型是耗时的,而且流程在计算上是昂贵的,因为高维的搜索空间(27*6=162)需要大量的粒子和迭代。

这个搜索空间的上下界额外的使流程更加复杂化。为了解决这个问题优化被划分成几个时段,每一个都有2000个产生。在每一段的开始,边界被固定在了最优粒子位置的周围。最优粒子是通过先前的段用以下方法得到:)1(),1(μμ+=-=i i i i A U A L ,式中i A 表示在第i 维空间中最优粒子的位置,i i U L 和表示第i 维搜索空间的上界和下界。μ是一个正数,μ的变化范围为0.01到1.5。在这个特殊的应用中,我们获得了μ的最佳值为1.2。SOPNN-PSO 模型将SOPNN 的准确性提高了大约20%。因为PSO 非常的慢,LM 算法对SOPNN 权值的优化已经被实施,从而加速这个收敛。

SOPNN-LM 算法可以很快的收敛,它将SOPNN 的误差减少了将近4倍(73.3%),超越了所有其他的模型。和MLP-LM 相比,其获得了超过前者60%的精确性。在LM 算法每一次的循环中,阻尼因子都会被自动的调整以最大程度的减少RRSE ,使模型拟合可以迅速的达到它的最优权值。LM 算法优化对所有的层的影响已经被观察。图7说明了在对数范围内,每一层中8个最好的排列的模型,未被优化的SOP-NN 和被LM 优化的SOPNN 的平均误差. 结果显示,与GMDH 算法优化的原模型的特征所表现的近似性能相比,SOPNN 多项式关系

提供了更好的效果。通过模拟自然气体的多种热动力特性,如摩尔热容、声速等,我们已经获得了相似的结果。

由GMDH算法优化的模型,每一个多项式节点的权值,在被回归计算后,在整个测试学习的过程中都未改变。GMDH算法为了最大化模型的近似精度,把系统内部依赖嵌入到了模型结构中。为了获得这个效果,仅仅是表现为对顶层节点多项式权值的回归。

参考文献

Ceperic, V., Gielen, G., & Baric, A.(2012). Recurrent sparse support vector regression machines trained by active learning in the time-domain. Expert Systems with Applications, 39, 10933–10942.

Chapra, S. C., & Canale, R. P. (1998). Numerical methods for engineers (3rd ed.). New York: McGraw-Hill. Eberhart, R. C., & Kennedy, J. (1995). A new optimizer using particles swarm theory. In Proceedings of the sixth international symposium on micro machine and human science, Nagoya, Japan (pp. 39–43). Piscataway, NJ: IEEE Service Center.

Ferrari, S., & Stengel, R.F. (2005). Smooth function approximation using neural 756 networks. IEEE Transactions on Neural Networks, 16(1), 24–38.

Holzmann, G., & Hauser, H. (2010). Echo state networks with ?lter neurons and a delay & sum readout. Neural Networks, 23, 244–256.

ISO-20765-1. (2005). Natural gas–Calculation of thermodynamic properties–Part1: Gas phase properties for transmission and distribution applications, Ref. No. ISO-20765-1:2005.

ISO-5167-2. (2003). Measurement of ?uid ?ow by means of pressure differential devices inserted in circular-cross section conduits running full –Part 2: Ori?ce plates, Ref. No. ISO-5167-2:2003(E).

Ivakhnenko, A. G. (1971). Polynomial theory of complex systems. IEEE Transactions on Systems Man, and Cybernetics SMC, 1(4), 364–378.

增量式神经网络聚类算法(

增量式神经网络聚类算法* 刘培磊1,2,唐晋韬1,谢松县1,王挺1 (1.国防科学技术大学 计算机学院,湖南 长沙 410073; 2.国防信息学院 信息化建设系 信息资源管理教研室,湖北 武汉 430010) 摘要:神经网络模型具有强大的问题建模能力,但是传统的反向传播算法只能进行批量监督学习,并且训练开销很大。针对传统算法的不足,提出了全新的增量式神经网络模型及其聚类算法。该模型基于生物神经学实验证据,引入了新的神经元激励函数和突触调节函数,赋予模型以坚实的统计理论基础。在此基础上,提出了一种自适应的增量式神经网络聚类算法。算法中引入“胜者得全”式竞争等学习机制,在增量聚类过程中成功避免了“遗忘灾难”问题。在经典数据集上的实验结果表明,该聚类算法与K-means 等传统聚类算法效果相当,特别是在增量学习任务的时空开销方面具有较大优势。 关键词:神经网络;增量学习;聚类算法;时间开销 中图分类号:TP393 文献标志码:A 文章编号: Incremental clustering algorithm of neural network LIU Peilei 1,2, TANG Jintao 1, XIE Songxian 1, WANG Ting 1 (1. College of Computer, National University of Defense Technology, Changsha 410073, China 2. Teaching and Research Section of Information Resource Management, Department of Information Construction, Academy of National Defense Information, Wuhan 430010, China) Abstract: Neural network model is powerful in problem modelling. But the traditional back propagating algorithm can only execute batch supervised learning, and its time expense is very high. According to these problems, we put forward a novel incremental neural network model and corresponding clustering algorithm. This model is supported by biological evidences, and it is built on the foundation of novel neuron’s activation function and synapse adjusting functi on. On this base, we put forward an adaptive incremental clustering algorithm, in which mechanisms such as “winner -take-all” are introduced. As a result, “catastrophic forgetting” problem can be successfully solved in the incremental clustering process. Experiments results on classic datasets show that this algorithm ’s performance is comparable with traditional clustering models such as K-means. Especially, its time and space expenses on incremental tasks are much lower than traditional clustering models. Keywords: neural network; incremental learning; clustering algorithm; time expense ① *收稿日期:2015-09-28 基金项目:国家自然科学基金资助项目(61532001,61472436) 作者简介:刘培磊(1984-),男,江苏连云港人,博士研究生,E-mail :plliu@https://www.360docs.net/doc/fe10169852.html, ; 王挺(通信作者),男,教授,博士,博士生导师,E-mail :tingwang@https://www.360docs.net/doc/fe10169852.html, 随着互联网和社交媒体的广泛发展,大量无标注的数据源源不断地产生 [1,2]。这些数据的海量性、无标注性、实时性等特点给传统的机器学习模型带来了很大的挑战[3]。传统的神经网络模型具有强大的问题建模能力,理论上含有足够多隐藏层神经元的神经网络可以逼近任意函数。但是主流的学习算法如BP (Back propergating )算法使用梯度下降的方法进行学习,是批量监督学习算法,即所有的训练数据必须一次性全部输入学习模型。而模型一旦训练完毕,再碰到新的输入数据时,只能将新数据与旧数据并在一起重新训练模型。这个问题被称为“遗忘灾难”[4],即新学习的内容会导致已经学习的内容的“遗忘”。 梯度下降的方法带来的另一个问题是训练的时间开销很大,难以在线处理海量的实时性数据[5]。近年热门的深度学习模型也面临类似的计算时间开销问题[6] ,因此训练规模较大的深度神经网络往往需要使用大规模并行计算集群。ART (Adaptive Resonance Theory )模型提出了一套不错的应对

9.7 机器人神经网络自适应控制

声明:应部分读者的要求,本书第9章增加“机器人神经网络自适应控制”一节,图序、公式序顺延。 9.7 机器人神经网络自适应控制 机器人学科是一门迅速发展的综合性前沿学科,受到工业界和学术界的高度重视。机器人的核心是机器人控制系统,从控制工程的角度来看,机器人是一个非线性和不确定性系统,机器人智能控制是近年来机器人控制领域研究的前沿课题,已取得了相当丰富的成果。 机器人轨迹跟踪控制系统的主要目的是通过给定各关节的驱动力矩,使得机器人的位置、速度等状态变量跟踪给定的理想轨迹。与一般的机械系统一样,当机器人的结构及其机械参数确定后,其动态特性将由动力学方程即数学模型来描述。因此,可以采用自动控制理论所提供的设计方法,采用基于数学模型的方法设计机器人控制器。但是在实际工程中,由于机器人是一个非线性和不确定性系统,很难得到机器人精确的数学模型。 采用神经网络,可实现对机器人动力学方程中未知部分的精确逼近,从而实现无需建模的控制。本节讨论如何利用神经网络控制和李雅普诺夫(Lyapunov )方法设计机器人轨迹跟踪控制的问题,以及如何分析控制系统的稳定性和收敛性。 9.7.1 机器人动力学模型及其结构特性 n 关节机械手动态方程可表示为: ()()()(),d ++++=M q q V q q q G q F q ττ (9.30) 其中,n R ∈q 为关节转动角度向量,()M q 为n n ?维正定惯性矩阵,(),V q q 为n n ?维向心哥氏力矩,()G q 为1?n 维惯性矩阵,()F q 为1?n 维摩擦力,d τ为未知有界的外加干扰,n R ∈τ为各个关节运动的转矩向量,即控制输入。 机器人动力学系统具有如下动力学特性: 特性1:惯量矩阵M(q)是对称正定阵且有界; 特性2:矩阵(),V q q 有界; 特性3:()()2,-M q C q q 是一个斜对称矩阵,即对任意向量ξ,有 ()()()2,0T -=ξ M q C q q ξ (9.31)

神经网络自适应控制

神经网络自适应控制 学院:电气工程与自动化学院 专业:控制科学与工程 姓名:兰利亚 学号: 1430041009 日期: 2015年6月25日

神经网络间接自适应控制 摘要:自适应模糊控制系统对参数变化和环境变化不敏感,能用于非线性和多变 量复杂对象,不仅收敛速度快,鲁棒性好,而且可以在运行中不断修正自己的控制 规则来改善控制性能,因而受到广泛重视。间接自适应控制是通过在线辨识的到 控制对象的模型。神经网络作为自适应控制器,具有逼近任意函数的能力。 关键词:神经网络间接自适应控制系统辨识 一、引言 自适应控制系统必须完成测量性能函数、辨识对象的动态模型、决定控制 器如何修改以及如何改变控制器的可调参数等功能。自适应控制有两种形式: 一种是直接自适应控制,另一种是间接自适应控制。直接自适应控制是根据实 际系统性能与理想性能之间的偏差,通过一定的方法来直接调整控制器的参 数。 二、间接自适应系统分析与建模 2.1系统的分析 系统过程动态方程:y(k+1)= -0.8y(k)/(1+y2(k))+u(k),参考系统模型 由三阶差分方程描述: ym(k+1)=0.8ym(k)+1.2ym(k-1)+0.2ym(k-2)+r(k) 式中,r(k)是一个有界的参考输入。如果输出误差ec(k)定义为 ec(k)=y(k)-ym(k),则控制的目的就是确定一个有界的控制输入u(k),当k趋于 正无穷时,ec(k)=0.那么在k阶段,u(k)可以从y(k)和它的过去值中计算得 到: u(k)=0.8y(k)/(1+y2(k))+0.8y(k)+1.2y(k-1)+0.2y(k-2)+r(k) (1) 于是所造成的误差方程为: ec(k+1)=0.8ec(k)+1.2ec(k-1)+0.2ec(k-2) (2) 因为参考模型是渐进稳定的,所以对任意的初始条件,它服从当k趋于无穷, ec(k)=0。在任何时刻k,用神经元网络N2计算过程的输入控制,即 u(k)=-N[y(k)]+0.8y(k)+1.2y(k-1)+0.2y(k-2)+r(k) (3) 由此产生非线性差分方程:y(k+1)=-0.8y(k)/(1+y2(k))+N[y(k)] +0.8y(k)+ 1.2y(k-1)+0.2y(k-2)+r(k) (4) 故设计的要点是设计一个神经网络来逼近0.8y(k)/(1+y2(k))。 2.2系统的建模设计过程 第一步,用BP神经网络逼近,神经网络的结构包含三层:输入层、隐含层 和输出层。BP网络的训练过程如下:正向传播是输入信号从输入层经隐层传向 输出层,若输出层得到了期望的输出,则学习算法结束;否则,转至反向传 播。 第二步,输入测试样本,对神经网络的逼近程度进行测试,将测试后的期

模糊神经网络讲义

模糊神经网络(备课笔记) 参考书: 杨纶标,高英仪。《模糊数学原理及应用》(第三版),广 州:华南理工大学出版社 彭祖赠。模糊数学及其应用。武汉:武汉科技大学 胡宝清。模糊理论基础。武汉:武汉大学出版社 王士同。模糊系统、模糊神经网络及应用程序设计。 《模糊系统、模糊神经网络及应用程序设计》 本书全面介绍了模糊系统、模糊神经网络的基本要领概念与原理,并以此为基础,介绍了大量的应用实例及编程实现实例。 顾名思义,模糊神经网络就是模糊系统和神经网络的结合,本质上就是将常规的神经网络(如前向反馈神经网络,Hopfield神经网络)赋予模糊输入信号和模糊权值。 选自【模糊神经网络P17】 预备知识 复杂的东西是难以精确化的,这使得人们所需要的精确性和问题的复杂性间形成了尖锐的矛盾。 正如模糊数学的创始人L.A.Zadeh(查德)教授(美国加利福尼亚大学)所说:“当系统的复杂性增加时,我们使它精确化的能力将减小。直到达到一个阈值,一旦超越它,复杂性和精确性将相互排斥。”这就是著名的“互克性原理”。 该原理告诉我们,复杂性越高,有意义的精确化能力就越低;而复杂性意味着因素众多,以致人们往往不可能同时考察所有因素,只能把研究对象适当简化或抽象成模型,即抓住其中的主要部分而忽略掉次要部分。当在一个被压缩了的低维因素空间考虑问题时,即使本来是明确的概念,也会变得模糊起来。或者某些抽象简化模型本身就带有概念的不清晰,如“光滑铰链”这个力学模型,什么叫“光滑”、什么叫“粗糙”就没有一个明确的定义,客观上两者之间没有绝对分明的界限;主观上,决策者对此类非程序化决策做出判断时,主要是根据他的经验、能力和直观感觉等模糊概念进行决策的。 或者判断一个人的好坏,本来有很多因素,比如人品、性格、相貌

模糊神经网络技术研究的现状及展望

模糊神经网络技术研究的现状及展望 摘要:本文对模糊神经网络技术研究的现状进行了综述,首先介绍了模糊控制技术和神经网络技术的发展,然后结合各自的特点讨论了模糊神经网络协作体的产生以及优越性,接着对模糊神经网络的常见算法、结构确定、规则的提取等进行了阐述,指出了目前模糊神经网络的研究发展中还存在的一些问题,并对模糊神经网络的发展进行了展望。 关键字:模糊控制;神经网络;模糊神经网络 引言 系统的复杂性与所要求的精确性之间存在尖锐的矛盾。为此,通过模拟人类学习和自适应能力,人们提出了智能控制的思想。控制理论专家Austrom(1991)在IFAC大会上指出:模糊逻辑控制、神经网络与专家控制是三种典型的智能控制方法。通常专家系统建立在专家经验上,并非建立在工业过程所产生的操作数据上,且一般复杂系统所具有的不精确性、不确定性就算领域专家也很难把握,这使建立专家系统非常困难。而模糊逻辑和神经网络作为两种典型的智能控制方法,各有优缺点。模糊逻辑与神经网络的融合——模糊神经网络由于吸取了模糊逻辑和神经网络的优点,避免了两者的缺点,已成为当今智能控制研究的热点之一了。 1 模糊神经网络的提出 模糊集理论由美国著名控制论专家L.A.Zadeh于1965年创立[1]。1974年,英国著名学者E.H.Mamdani将模糊逻辑和模糊语言用于工业控制,提出了模糊控制论。至今,模糊控制已成功应用在被控对象缺乏精确数学描述及系统时滞、非线性严重的场合。 人工神经网络理论萌芽于上世纪40年代并于80年代中后期重掀热潮,其基本思想是从仿生学的角度对人脑的神经系统进行功能化模拟。人工神经网络可实现联想记忆,分类和优化计算等功能,在解决高度非线性和严重不确定系统的控制问题方面,显示了巨大的优势和潜力 模糊控制系统与神经网络系统具有整体功能的等效性[2],两者都是无模型的估计器,都不需要建立任何的数学模型,只需要根据输入的采样数据去估计其需要的决策:神经网络根据学习算法,而模糊控制系统则根据专家提出的一些语言规则来进行推理决策。实际上,两者具有相同的正规数学特性,且共享同一状态空间[3]。 另一方面,模糊控制系统与神经网络系统具有各自特性的互补性[。神经网络系统完成的是从输入到输出的“黑箱式”非线性映射,但不具备像模糊控制那样的因果规律以及模糊逻辑推理的将强的知识表达能力。将两者结合,后者正好弥补前者的这点不足,而神经网络的强大自学习能力则可避免模糊控制规则和隶属函数的主观性,从而提高模糊控制的置信度。 因此,模糊逻辑和神经网络虽然有着本质上的不同,但由于两者都是用于处理不确定性问题,不精确性问题,两者又有着天然的联系。Hornik和White(1989)证明了神经网络的函数映射能力[4];Kosko(1992)证明了可加性模糊系统的模糊逼近定理(FAT,Fuzzy Approximation Theorem)[5];Wang和Mendel(1992)、Buckley和Hayashi(1993)、Dubots 和Grabish(1993)、Watkins(1994)证明了各种可加性和非可加性模糊系统的模糊逼近定理[6]。这说明模糊逻辑和神经网络有着密切联系,正是由于这类理论上的共性,才使模糊逻辑

MATLAB和神经网络自适应控制

自动控制理的研究离不开人类社会的发展。电子计算机的迅速发展、计算和信息处理的水平提高不断地促使着自动控制理论向更复杂的方向发展。自适应控制的提出是针对系统的非线性、不确定性、复杂性。它的研究主要目标不再是被控对象而是控制系统本身。自上世纪年代初神经网络控制系统,提出了基于理论和应用方面都有了新的突破。 MATLAB简介 MATLAB是美国MathWorks公司开发的用于教育、工程与科学计算的软件产品,它向用户提供从概念设计、数据分析、算法开发、建模仿真到实时实现的理想集成环境,是国际控制界公认的标准计算软件。经过十多年的不断地完善和扩充,MATLAB已经拥有了数十个工具箱和功能模块,可以实现数值分析、优化、统计偏微分方程数值解、自动控制、信号处理、图像处理、声音处理、系统建模等诸多领域的计算和图形显示功能。 MATLAB提供了一种用于编程的高级语言——M语言。M语言是一种面向科学与工程计算的高级语言,其最大的特点是简单和直接。它允许用数学形式的语言编写程序,MATLAB的程序文件和脚本文件通常保存为后缀为“.m”的文件,可以称之为M文件。MATLAB是一种基于不限维数组数据类型的内部交互系统,它既能够进行矩阵和向量计算,也能够采用特定的方法在标量语言中编写程序。它采用一些常用的数学符号来表示问题及其解决方案,将计算、可视化和编程等功能集成于一个简单、易用的开发环境中,为用户工作平台的管理和数据的输入/输出提供了便利的方法,同时还提供了M文件的扩展和管理工具。 神经网络自适应控制 人工神经网络ANN( Ar tif icial Neur al Netw ork) 简称神经网络,是在现代神经学的基础上提出来的,是对人脑或自然神经网络基本特征的抽象和模拟。神经网络很早之前就被证明出来有逼近任意连续有界非线性函数的特殊能力。因此它有很多优点,比如强鲁棒性、容错性、强自适应能力强等。复杂的系统控制提供了一条全新的思路和选择。神经网络控制系统的结构形式有很多种,本文着重介绍神经网络自适应控制方法。一般包括补偿器和自适应处理单元。自适应控制系统的本质是一个非线性随机控制系统,很难为其找到合适的数学模型。为了充分发挥出自适应控制系统的优越性能,提高控制系统的鲁实时性、容错性、鲁棒性以及控制系统参数的自适应能力,能更有效地实现对一些非线性复杂过程系统的

第4章 SOM自组织特征映射神经网络

第4章 SOM 自组织特征映射神经网络 生物学研究表明,在人脑的感觉通道上,神经元的组织原理是有序排列的。当外界的特定时空信息输入时,大脑皮层的特定区域兴奋,而且类似的外界信息在对应的区域是连续映像的。生物视网膜中有许多特定的细胞对特定的图形比较敏感,当视网膜中有若干个接收单元同时受特定模式刺激时,就使大脑皮层中的特定神经元开始兴奋,输入模式接近,与之对应的兴奋神经元也接近;在听觉通道上,神经元在结构排列上与频率的关系十分密切,对于某个频率,特定的神经元具有最大的响应,位置相邻的神经元具有相近的频率特征,而远离的神经元具有的频率特征差别也较大。大脑皮层中神经元的这种响应特点不是先天安排好的,而是通过后天的学习自组织形成的。 据此芬兰Helsinki 大学的Kohonen T.教授提出了一种自组织特征映射网络(Self-organizing feature Map ,SOM ),又称Kohonen 网络[1-5]。Kohonen 认为,一个神经网络接受外界输入模式时,将会分为不同的对应区域,各区域对输入模式有不同的响应特征,而这个过程是自动完成的。SOM 网络正是根据这一看法提出的,其特点与人脑的自组织特性相类似。 4.1 竞争学习算法基础[6] 4.1.1 自组织神经网络结构 1.定义 自组织神经网络是无导师学习网络。它通过自动寻找样本中的内在规律和本质属性,自组织、自适应地改变网络参数与结构。 2.结构 层次型结构,具有竞争层。典型结构:输入层+竞争层。如图4-1所示。 竞争层 输入 层 图4-1 自组织神经网络结构

· 输入层:接受外界信息,将输入模式向竞争层传递,起“观察”作用。 竞争层:负责对输入模式进行“分析比较”,寻找规律,并归类。 4.1.2 自组织神经网络的原理 1.分类与输入模式的相似性 分类是在类别知识等导师信号的指导下,将待识别的输入模式分配到各自的模式类中,无导师指导的分类称为聚类,聚类的目的是将相似的模式样本划归一类,而将不相似的分离开来,实现模式样本的类内相似性和类间分离性。由于无导师学习的训练样本中不含期望输出,因此对于某一输入模式样本应属于哪一类并没有任何先验知识。对于一组输入模式,只能根据它们之间的相似程度来分为若干类,因此,相似性是输入模式的聚类依据。 2.相似性测量 神经网络的输入模式向量的相似性测量可用向量之间的距离来衡量。常用的方法有欧氏距离法和余弦法两种。 (1)欧式距离法 设i X X ,为两向量,其间的欧式距离 T i i i X X X X X X d ))((--= -= (4-1) d 越小,X 与i X 越接近,两者越相似,当0=d 时,i X X =;以T d =(常数)为判据,可对输入向量模式进行聚类分析: 由于312312,,d d d 均小于T ,465645,,d d d 均小于T ,而)6,5,4(1=>i T d i , )6,5,4(2=>i T d i , )6,5,4(3=>i T d i , 故将输入模式654321,,,,,X X X X X X 分为类1和类2两大类,如图4-2所示。 (2)余弦法 设i X X ,为两向量,其间的夹角余弦 i T X X XX = ?cos (4-2) ?越小,X 与i X 越接近,两者越相似;当?=0时,?cos =1,i X X =;同样以0??=为 判据可进行聚类分析。

SOM神经网络

SOM神经网络

第4章 SOM自组织特征映射神经网络 生物学研究表明,在人脑的感觉通道上,神经元的组织原理是有序排列的。当外界的特定时空信息输入时,大脑皮层的特定区域兴奋,而且类似的外界信息在对应的区域是连续映像的。生物视网膜中有许多特定的细胞对特定的图形比较敏感,当视网膜中有若干个接收单元同时受特定模式刺激时,就使大脑皮层中的特定神经元开始兴奋,输入模式接近,与之对应的兴奋神经元也接近;在听觉通道上,神经元在结构排列上与频率的关系十分密切,对于某个频率,特定的神经元具有最大的响应,位置相邻的神经元具有相近的频率特征,而远离的神经元具有的频率特征差别也较大。大脑皮层中神经元的这种响应特点不是先天安排好的,而是通过后天的学习自组织形成的。 据此芬兰Helsinki大学的Kohonen T.教授提出了一种自组织特征映射网络(Self-organizing feature Map,SOM),又称Kohonen网络[1-5]。Kohonen认为,一个神经网络接受外界输入模式时,将会分为不同的对应区

域,各区域对输入模式有不同的响应特征,而这个过程是自动完成的。SOM网络正是根据这一看法提出的,其特点与人脑的自组织特性相类似。 4.1 竞争学习算法基础[6] 4.1.1 自组织神经网络结构 1.定义 自组织神经网络是无导师学习网络。它通过自动寻找样本中的内在规律和本质属性,自组织、自适应地改变网络参数与结构。 2.结构 层次型结构,具有竞争层。典型结构:输入层+竞争层。如图4-1所示。 … 竞争层 … 图4-1 自组织神经网络结构 ·输入层:接受外界信息,将输入模式向竞争 层传递,起“观察”作用。

模糊神经网络在智能控制中的应用研究

模糊神经网络在智能控制中的应用研究1 郑子杰,王虎 武汉理工大学信息工程学院,武汉 (430070) E-mail :zhzijie.27@https://www.360docs.net/doc/fe10169852.html, 摘 要:本文简要介绍了神经网络(Neural Network )及模糊神经网络(Fuzzy Neural Network )的特点以及发展状况,并给出了模糊神经网络在智能控制中的几种应用,同时指出了今后研究中有待解决的一些问题,并对模糊神经网络技术将来的发展及其在工程上的应用作了展望。 关键词:神经网络,模糊神经网络,FFNC ,智能控制 中图分类号: TP183 文献标识码:A 1. 神经网络简介 神经网络是仿效生物处理模式以获得智能信息处理功能的理论。神经网络着眼于脑的微观网络结构,通过大量神经元的复杂连接,采用由底到顶的方法,通过自学习、自组织和非线性动力学所形成的并行分布方式,来处理难于语言化的模式信息[1]。自1943年第一个神经网络模型—MP 模型被提出至今,神经网络的发展十分迅速,特别是1982年提出的Hopfield 神经网络模型和1985年Rumelhart 提出的反向传播算法BP ,使Hopfield 的模型和多层前馈型神经网络成为用途广泛的神经网络模型,在语音识别、模式识别、图像处理和工业控制等领域的应用颇有成效。 神经网络的核心由其基本结构、学习规则及其工作方式三大部分组成。 1.1 基本结构 神经网络是由大量神经元广泛互连而成的复杂网络系统。单一神经元可以有许多输入、输出。神经元之间的相互作用通过连接的权值体现。神经元的输出是其输入的函数。常用的函数类型有:线性函数、Sigmoid 型函数和阈值型函数[2]。虽然单个神经元的结构和功能极其简单和有限,而大量神经元构成的网络系统其行为却是丰富多彩的。图1表示出单个神经元和Hopfield 模型的结构。 在图1(a)中, i u 为神经元的内部状态, i θ为阈值,i x 为输入信号, ij w 表示从j u 到i u 连接的权值, i s 表示外部输入信号,则神经元的输入为-i i j j i i n e t w x s θ=+∑,输出为 ()i i y f n e t =,其中f 是神经元的转 换函数。 在图1(b)中。Hopfield 模型是由许多神经元构成的互连网络,适当选取神经元兴奋模式的初始状态,则网络的状态将逐渐到达一个极小点即稳定点、从而可以联想出稳定点处的样本。 神经网络的基本特征是: (1)大规模并行处理。神经网络能同时处理与决策有关的因素,虽然单个神经元的动作速度不快,但网络的总体处理速度极快。 1本课题得到教育部重点项目(03120)(基于FSOC 嵌入式微控制器设计与研究)的资助。

机械臂神经网络自适应控制

机械臂神经网络自适应控制 一.前言 由于经典控制方法和现代控制方法在控制机器人这种复杂系统时所表现的种种不足,近年来,越来越多的学者开始将智能控制方法引入机器人控制,实现机器人控制的智能化。主要的控制方法有:模糊控制Fc,神经网络控制NNc,专家控制Ec等等。对于复杂的环境和复杂的任务,如何将人工智能技术中较少依赖模型的求解方法与常规的控制方法来结合,正是智能控制所要解决的问题。因此,智能控制系统必须具有模拟人类学习和自适应、自组织的能力。现代智能控制技术的进步,为机器人技术的发展尤其是智能机器人技术的研究与发展提供了可能。神经网络的研究已经有30多年的历史,它是介于符号推理与数值计算之间的一种数学工具,具有很好的学习能力和适应能力,适合于用作智能控制的工具,所以神经网络控制是智能控制的一个重要方面。由于神经网络在许多方面试图模拟人脑的功能。因此神经网络控制并不依赖精确的数学模型,并且神经网络对信息的并行处理能力和快速性,适于机器人的实时控制。神经网络的本质非线性特性为机器人的非线性控制带来了希望。神经网络可通过训练获得学习能力,能够解决那些用数学模型或规则描述难以处理或无法处理的控制过程。同时神经网络还具有很强的自适应能力和信息综合能力,因而能同时处理大量的不同类型的控制输人,解决输入信息之间的互补性和冗余性问题,实现信息融合处理。这就特别适用于像机器人这样具有复杂的不确定性系统、大系统和多变量高度非线性系统的控制。近年来,神经网络在机器人控制中得到了广泛的应用。 二、机械臂系统设计 机械臂是一个多输人多输出、强耦合的复杂机电系统,要对其实现精确的控制比较困难。为此,先不考虑机械臂的动态控制,只对其进行运动控制,使其能够准确的跟踪给定的轨迹曲线。其基本的控制结构,如图1所示。 (一)机械臂的模型设计 本文针对两关节机械臂进行设计,两关节机械臂的控制图如下 n一连杆平面机械臂的动力学模型如下式: (2-1)其中分别代表各关节的角度位置、角速度以及角加速度; 为惯性矩阵;为向心矩阵;为重力向量;代表控制输入向 量。

相关系数,回归模型,自组织竞争神经网络

高等教育学费标准的研究 摘要 本文从搜集有关普通高等学校学费数据开始,从学生个人支付能力和学校办学利益获得能力两个主要方面出发,分别通过对这两个方面的深入研究从而制定出各自有关高等教育学费的标准,最后再综合考虑这两个主要因素,进一步深入并细化,从而求得最优解。 模块Ⅰ中,我们将焦点锁定在从学生个人支付能力角度制定合理的学费标准。我们从选取的数据和相关资料出发,发现1996年《高等学校收费管理暂行办法》规定高等学校学费占生均教育培养的成本比例最高不得超过25%,而由数据得到图形可知,从2002年开始学费占教育经费的比例超过了25%,并且生均学费和人均GDP 的比例要远远超过美国的10%到15%。由此可见,我国的学费的收取过高。紧接着,我们从个人支付能力角度出发,研究GDP 和学费的关系。并因此制定了修正参数,由此来获取生均学费的修正指标。随后,我们分析了高校专业的相关系数,从个人支付能力角度,探讨高校收费与专业的关系,进一步 得到了高校收费标准1i i y G R Q = Q R G y ig g i =1 在模块Ⅱ中,我们从学校办学利益获得能力出发,利用回归分析对学生应交的学杂费与教育经费总计、国家预算内教育经费、社会团体和公民个人办学经验、社会捐投资和其他费用的关系,发现学杂费与教育经费总计成正相关,与其他几项费用成负相关。对此产生的数据验证分析符合标准。然后,再根据专业相关系数来确定学校收取学费的标准。从而,得到了学校办学利益的收费标准2i i i y y R = 。 在模块Ⅲ中,为了获取最优解,我们综合了前面两个模块所制定的收费指标,并分别给予不同权系数,得到最终学费的表达式12i i C ay by =+。然后,我们从学 校收费指标的权系数b 考虑,利用神经网络得到的区域划分,根据不同区域而计算出的权系数b 的范围。最终得到的表达式 ]12345**(1)(1.0502 1.1959 1.3108 1.36360.7929)**b i i C R G Q b x x x x x R =-+----;由此便可得到综合学费标准C 的取值范围。然后,我们随机选取了同一区域不同专业,并根据表达式计算这些专业的学费,结果发现对社会收益大,个人收益小的专业如地质学的学费范围为:3469.8~3506.3元之间;对社会收益小,个人收益大的专业如广告设计的学费范围为:7931.0~8014.5元之间。与通常高校实现的一刀切政策有了明显的优点。 最后,我们从本论文研究方向考虑,为优化高校费用标准的制定提出参考意见,如建立反馈制度和特殊生补贴制度的建议。 【关键字】相关系数 回归模型 自组织竞争神经网络

一种递归模糊神经网络自适应控制方法

一种递归模糊神经网络自适应控制方法 毛六平,王耀南,孙 炜,戴瑜兴 (湖南大学电气与信息工程学院,湖南长沙410082) 摘 要: 构造了一种递归模糊神经网络(RFNN ),该RFNN 利用递归神经网络实现模糊推理,并通过在网络的第 一层添加了反馈连接,使网络具有了动态信息处理能力.基于所设计的RFNN ,提出了一种自适应控制方案,在该控制方案中,采用了两个RFNN 分别用于对被控对象进行辨识和控制.将所提出的自适应控制方案应用于交流伺服系统,并给出了仿真实验结果,验证了所提方法的有效性. 关键词: 递归模糊神经网络;自适应控制;交流伺服中图分类号: TP183 文献标识码: A 文章编号: 037222112(2006)1222285203 An Adaptive Control Using Recurrent Fuzzy Neural Network M AO Liu 2ping ,W ANG Y ao 2nan ,S UN Wei ,DAI Y u 2xin (College o f Electrical and Information Engineering ,Hunan University ,Changsha ,Hunan 410082,China ) Abstract : A kind of recurrent fuzzy neural network (RFNN )is constructed ,in which ,recurrent neural network is used to re 2alize fuzzy inference temporal relations are embedded in the network by adding feedback connections on the first layer of the network.On the basis of the proposed RFNN ,an adaptive control scheme is proposed ,in which ,two proposed RFNNs are used to i 2dentify and control plant respectively.Simulation experiments are made by applying proposed adaptive control scheme on AC servo control problem to confirm its effectiveness. K ey words : recurrent fuzzy neural network ;adaptive control ;AC servo 1 引言 近年来,人们开始越来越多地将神经网络用于辨识和控 制动态系统[1~3].神经网络在信号的传播方向上,可以分为前馈神经网络和递归神经网络.前馈神经网络能够以任意精度逼近任意的连续函数,但是前馈神经网络是一个静态的映射,它不能反映动态的映射.尽管这个问题可以通过增加延时环节来解决,但是那样会使前馈神经网络增加大量的神经元来代表时域的动态响应.而且,由于前馈神经网络的权值修正与网络的内部信息无关,使得网络对函数的逼近效果过分依赖于训练数据的好坏.而另一方面,递归神经网络[4~7]能够很好地反映动态映射关系,并且能够存储网络的内部信息用于训练网络的权值.递归神经网络有一个内部的反馈环,它能够捕获系统的动态响应而不必在外部添加延时反馈环节.由于递归神经网络能够反映动态映射关系,它在处理参数漂移、强干扰、非线性、不确定性等问题时表现出了优异的性能.然而递归神经网络也有它的缺陷,和前馈神经网络一样,它的知识表达能力也很差,并且缺乏有效的构造方法来选择网络结构和确定神经元的参数. 递归模糊神经网络(RFNN )[8,9]是一种改进的递归神经网络,它利用递归网络来实现模糊推理,从而同时具有递归神经网络和模糊逻辑的优点.它不仅可以很好地反映动态映射关系,还具有定性知识表达的能力,可以用人类专家的语言控制规则来训练网络,并且使网络的内部知识具有明确的物理意 义,从而可以很容易地确定网络的结构和神经元的参数. 本文构造了一种RFNN ,在所设计的网络中,通过在网络的第一层加入反馈连接来存储暂态信息.基于该RFNN ,本文还提出了一种自适应控制方法,在该控制方法中,两个RFNN 被分别用于对被控对象进行辨识和控制.为了验证所提方法的有效性,本文将所提控制方法用于交流伺服系统的控制,并给出了仿真实验结果. 2 RFNN 的结构 所提RFNN 的结构如图1所示,网络包含n 个输入节点,对每个输入定义了m 个语言词集节点,另外有l 条控制规则 节点和p 个输出节点.用u (k )i 、O (k ) i 分别代表第k 层的第i 个节点的输入和输出,则网络内部的信号传递过程和各层之间的输入输出关系可以描述如下: 第一层:这一层的节点将输入变量引入网络.与以往国内外的研究不同,本文将反馈连接加入这一层中.第一层的输入输出关系可以描述为:O (1)i (k )=u (1)i (k )=x (1)i (k )+w (1)i (k )?O (1)i (k -1), i =1,…,n (1) 之所以将反馈连接加入这一层,是因为在以往的模糊神经网络控制器中,控制器往往是根据系统的误差及其对时间的导数来决定控制的行为,在第一层中加入暂态反馈环,则只需要以系统的误差作为网络的输入就可以反映这种关系,这样做不仅可以简化网络的结构,而且具有明显的物理意义,使 收稿日期:2005207201;修回日期:2006206218 基金项目:国家自然科学基金项目(N o.60075008);湖南省自然科学基金(N o.06JJ50121)   第12期2006年12月 电 子 学 报 ACT A E LECTRONICA SINICA V ol.34 N o.12 Dec. 2006

神经网络自适应控制地原理

神经网络自适应控制的原理 自适应控制是一种特殊的反馈控制,它不是一般的系统状态反馈或输出反馈,即使对于现行定常的控制对象,自适应控制亦是非线性时变反馈控制系统。这种系统中的过程状态可划分为两种类型,一类状态变化速度快,另一类状态变化速度慢。慢变化状态可视为参数,这里包含了两个时间尺度概念:适用于常规 反馈控制的快时间尺度以及适用于更新调节参数的慢时间尺度,这意味着自适应 控制系统存在某种类型的闭环系统性能反馈。原理图如下: 图2-7自适应控制机构框图 人工神经网络(简称ANN)是也简称为神经网络(NNS )或称作连接模型,是对人脑或自然神经网络若干基本特性的抽象和模拟。人工神经网络以对大脑的 生理研究成果为基础的,其目的在于模拟大脑的某些机理与机制,实现某个方面 的功能。人工神经网络下的定义就是:“人工神经网络是由人工建立的以有向图为拓扑结构的动态系统,它通过对连续或断续的输入作状态相应而进行信息处理。”这一定义是恰当的。 人工神经网络的研究,可以追溯到1957年Rosenblatt提出的感知器模型。目前在神经网络研究方法上已形流派,最富有成果的研究工作包括:多层网络BP算法,Hopfield网络模型,自适应共振理论,自组织特征映射理论等。它虽然反映了人脑功能的基本特征,但远不是自然神经网络的逼真描写,而只是它的某种简化抽象和模拟。神经网络的研究可以分为理论研究和应用研究两大方面。理论研究可分为以下两类: (1)利用神经生理与认知科学研究人类思维以及智能机理。 (2)利用神经基础理论的研究成果,用数理方法探索功能更加完善、性能更加优越的神经

网络模型,深入研究网络算法和性能,女口:稳定性、收敛性、容错性、 鲁棒性等;开发新的网络数理理论。 应用研究可分为以下两类: (1) 神经网络的软件模拟和硬件实现的研究。 (2) 神经网络在各个领域中应用的研究。 神经网络具有以下?特点: (1) 能够充分逼近任何复杂的非线性关系; (2) 全部定性或定量的信息都均匀分布存在于网络内的各神经元,因此有很强 的容错性和鲁棒性; (3) 使用并行分布处理的方式,让大量运算成可以快速完成; 神经网络自适应的一般结构 神经网络自适应控制有两种基本结构形式,一种是神网络模型参考自适应 控制 (NNMRAC ),—种是神经网络自校正控制(NNSTC )。神经网络模型参考自 适应控制又分为直接型与间接型。结构如图(2 -8 )所示。构造一个参考模型使 其输出为期望输出,控制的目的是使y 跟踪。 (a )直接型 (b)间接型 图2-8神经网络模型参考自适应控制结构 y

竞争型神经网络与自组织神经网络

竞争型神经网络是基于无监督学习的神经网络的一种重要类型,作为基本的网络形式,构成了其他一些具有组织能力的网络,如学习向量量化网络、自组织映射网络、自适应共振理论网络等。与其它类型的神经网络和学习规则相比,竞争型神经网络具有结构简单、学习算法简便、运算速度快等特点。竞争型神经网络模拟生物神经网络系统依靠神经元之间的兴奋、协调与抑制、竞争的方式进行信息处理。一个竞争神经网络可以解释为:在这个神经网络中,当一个神经元兴奋后,会通过它的分支对其他神经元产生抑制,从而使神经元之间出现竞争。当多个神经元受到抑制,兴奋最强的神经细胞“战胜”了其它神经元的抑制作用脱颖而出,成为竞争的胜利者,这时兴奋最强的神经元的净输入被设定为 1,所有其他的神经元的净输入被设定为 0,也就是所谓的“成者为王,败者为寇”。一般说来,竞争神经网络包含两类状态变量:短期记忆变元(STM)和长期记忆变元(LTM)。STM 描述了快速变化的神经元动力学行为,而 LTM 描述了无监督的神经细胞突触的缓慢行为。因为人类的记忆有长期记忆(LTM)和短期记忆(STM)之分,因此包含长时和短时记忆的竞争神经网络在理论研究和工程应用中受到广泛关注。 竞争性神经网络模型图 自组织特征映射神经网络(简称SOM),是由输入层和输出层组成的单层神经网络,主要用于对输入向量进行区域分类。SOM是一种无导师聚类,能将一维输入模式在输出层映射成二维离散图形,此图形分布在网格中,网格大小由m*n 表示,并保持其拓扑结构不变,从而使有相似特征的神经元彼此靠近,不同特征的神经元彼此远离,最终实现区分识别样品的目的。SOM 通过学习输入向量的分布情况和拓扑结构,靠多个神经元的协同作用来完成模式分类。当神经网络接受外界输入模式时,神经网络就会将其分布在不同的对应区域,并且记忆各区域对输入模式的不同响应特征,使各神经元形成有序的空间分布。当输入不同的样品光谱时,网络中的神经元便随机兴奋,经过SOM 训练后神经元在输出层有序排列,作用相近的神经元相互靠近,作用不同的神经元相互远离。在神经网络的应用中,对于待识别的输入模式属于哪一类并没有任何先验知识,只能是把相似的模式样品划归为一类,而将不相似的分离开,从而实现样品的类内相似性和类间

利用simulink对自适应控制系统模型进行仿真分析

第一章前言 1.1 课题的意义: 本毕业设计旨在学习并比较各种自适应控制算法,掌握matlab语言,利用simulink对自适应控制系统模型进行仿真分析。 自适应控制是人们要求越来越高的控制性能和针对被控系统的高度复杂化,高度不确定性的情况下产生的,是人工智能渗入到应用科技领域的必然结果。并在常规控制理论的基础上得到进一步的发展和提高。进入21世纪以来,智能控制技术和远程监测技术继续飞速发展,逐渐被应用到电力、交通和物流等领域。从卫星智能控制,到智能家居机器人;从公共场所的无线报警系统,到家用煤气、自来水等数据的采集。可以说,智能控制技术和远程监测技术己经渗透到了人们日常生活之中,节约了大量的人力和物力,给人们的日常生活带来了极大的便利。目前,自适应控制的研究以认知科学、心理学、社会学、系统学、语言学和哲学为基础,有效的把数字技术、远程通信、计算机网络、数据库、计算机图形学、语音与听觉、机器人学、过程控制等技术有机的结合,提供了解决复杂问题的有效手段。 自适应控制是在人们在追求高控制性能、高度复杂化和高度不确定性的被控系统情况下产生的,是人工智能渗入到应用科技领域的必然结果,并在常规控制理论的基础上得到进一步的发展和提高。主要研究对象从单输入、单输出的常系数线性系统,发展为多输入、多输出的复杂控制系统。自适应控制理论的产生为解决复杂系统控制问题开辟了新的途径,成为当下控制领域的研究和发展热点。 1.2 国内外研究概况及发展趋势: 1943年,心理学家W·Mcculloch和数理逻辑学家W·Pitts在分析、总结神经元基本特性的基础上首先提出神经元的数学模型。此模型沿用至今,并且直接影响着这一领域研究的进展。因而,他们两人可称为人工神经网络研究的先驱。1945年冯·诺依曼领导的设计小组试制成功存储程序式电子计算机,标志着电子计算机时代的开始。1948年,他在研究工作中比较了人脑结构与存储程序式计算机的根本区别,提出了以简单神经元构成的再生自动机网络结构。但是,由于指令存储式计算机技术的发展非常迅速,迫使他放弃了神经网络研究的新途径,继续投身于指令存储式计算机技术的研究,并在此领域作出了巨大贡献。虽然,冯·诺依曼的名字是与普通计算机联系在一起的,但他也是人工神经网络研究的先驱之一。

相关文档
最新文档