BP神经网络实例

合集下载

bp神经网络实例分析

bp神经网络实例分析

数据集划分
01
02
03
训练集
用于训练神经网络,占总 数据的70%-90%。
验证集
用于调整超参数和选择最 佳模型,占估模型的性能,占 总数据的10%-30%。
03
BP神经网络模型构建
神经元模型
神经元模型
神经元是神经网络的基本单元, 它模拟了生物神经元的基本功能,
误差计算
根据实际输出与期望输出计算误差。
权值调整
根据误差反向传播算法调整各层的权值和阈值。
迭代训练
重复前向传播和权值调整过程,直到达到预设的迭代次 数或误差要求。
02
BP神经网络实例选择与数据准备
实例选择
选择一个具有代表性的问题
为了展示BP神经网络的应用,选择一个具有代表性的问题,例如 分类、回归或聚类等。
成。
节点数量
02
每一层的节点数量需要根据具体问题来确定,过多的节点可能
导致过拟合,而节点过少则可能无法充分提取数据特征。
连接权重
03
连接权重是神经网络中非常重要的参数,它决定了神经元之间
的连接强度和信息传递方式。
激活函数选择
激活函数的作用
激活函数用于引入非线性特性,使得神经网络能够更好地处理复 杂的非线性问题。
误差反向传播
当实际输出与期望输出不符时,进入 误差反向传播阶段,误差信号从输出 层开始逐层向输入层传播,并根据误 差调整各层的权值和阈值。
训练过程
数据准备
准备训练数据和测试数据,并对数据进行预 处理,如归一化等。
网络初始化
为各层神经元设置初始权值和阈值。
前向传播
输入样本数据,通过正向传播计算每一层的输出 值。
3

BP神经网络实例分析

BP神经网络实例分析

j1
a1(i)f(u1(i))=
1 1exp(u1(i))
i 1,2
同理,输出神经元
3
u2 (1) w2 (1, j)a1 ( j) j 1
1 a2 (1) 1 exp( u2 (1))
(3) 训练输出单元的权值
PS:利用输出层各神经元的误差项 2(1)和隐含层 各神经元的输出来修正权值。
PS:利用隐含层各神经元的误差项 各神经元的输入来修正权值。
1(p1)(i)
和输入层
1 (p 1 )(i)f'[u 1(i)]2 (p 1 )(1 )W 2 (p 1 )(1 ,i)
a 1(iቤተ መጻሕፍቲ ባይዱ1 [a 1(i)]2 (p 1 )(1 )W 2 (p 1 )(1 ,i)
W 1 ( p 1 ) ( i ,j ) W 1 ( p ) ( i ,j ) 1 ( p 1 ) ( i ) a 0 ( p 1 ) ( j )
取激励函数
f
(x)
1 1ex
则 f'(x)(1 ee xx)2f(x)1 [f(x)]
2 ( 1 ) (t( 1 ) a 2 ( 1 )f') (u 2 ( 1 ))
( t ( 1 ) a 2 ( 1 ) e ) u x 2 ( 1 ) / p 1 ) ( e ( u x 2 ( 1 )2 p )) (
二、具体训练步骤如下:
令p=0,p为样本编号 (1) 网络初始化
给各连接权值分别赋一个区间(0,1)内的随机数,设定
误差函数E,给定计算精度值 和最大学习次数M。
W 1 w w 1 1((1 2,,1 1 ))
w 1(1,2) w 1(2,2)
w 1(1,3) w 1(2,3)

BP人工神经网络的基本原理模型与实例

BP人工神经网络的基本原理模型与实例

BP人工神经网络的基本原理模型与实例BP(Back Propagation)人工神经网络是一种常见的人工神经网络模型,其基本原理是模拟人脑神经元之间的连接和信息传递过程,通过学习和调整权重,来实现输入和输出之间的映射关系。

BP神经网络模型基本上由三层神经元组成:输入层、隐藏层和输出层。

每个神经元都与下一层的所有神经元连接,并通过带有权重的连接传递信息。

BP神经网络的训练基于误差的反向传播,即首先通过前向传播计算输出值,然后通过计算输出误差来更新连接权重,最后通过反向传播调整隐藏层和输入层的权重。

具体来说,BP神经网络的训练过程包括以下步骤:1.初始化连接权重:随机初始化输入层与隐藏层、隐藏层与输出层之间的连接权重。

2.前向传播:将输入向量喂给输入层,通过带有权重的连接传递到隐藏层和输出层,计算得到输出值。

3.计算输出误差:将期望输出值与实际输出值进行比较,计算得到输出误差。

4.反向传播:从输出层开始,将输出误差逆向传播到隐藏层和输入层,根据误差的贡献程度,调整连接权重。

5.更新权重:根据反向传播得到的误差梯度,使用梯度下降法或其他优化算法更新连接权重。

6.重复步骤2-5直到达到停止条件,如达到最大迭代次数或误差小于一些阈值。

BP神经网络的训练过程是一个迭代的过程,通过不断调整连接权重,逐渐减小输出误差,使网络能够更好地拟合输入与输出之间的映射关系。

下面以一个简单的实例来说明BP神经网络的应用:假设我们要建立一个三层BP神经网络来预测房价,输入为房屋面积和房间数,输出为价格。

我们训练集中包含一些房屋信息和对应的价格。

1.初始化连接权重:随机初始化输入层与隐藏层、隐藏层与输出层之间的连接权重。

2.前向传播:将输入的房屋面积和房间数喂给输入层,通过带有权重的连接传递到隐藏层和输出层,计算得到价格的预测值。

3.计算输出误差:将预测的价格与实际价格进行比较,计算得到输出误差。

4.反向传播:从输出层开始,将输出误差逆向传播到隐藏层和输入层,根据误差的贡献程度,调整连接权重。

BP神经网络模型应用实例

BP神经网络模型应用实例

BP神经网络模型第1节基本原理简介近年来全球性的神经网络研究热潮的再度兴起,不仅仅是因为神经科学本身取得了巨大的进展.更主要的原因在于发展新型计算机和人工智能新途径的迫切需要.迄今为止在需要人工智能解决的许多问题中,人脑远比计算机聪明的多,要开创具有智能的新一代计算机,就必须了解人脑,研究人脑神经网络系统信息处理的机制.另一方面,基于神经科学研究成果基础上发展出来的人工神经网络模型,反映了人脑功能的若干基本特性,开拓了神经网络用于计算机的新途径.它对传统的计算机结构和人工智能是一个有力的挑战,引起了各方面专家的极大关注.目前,已发展了几十种神经网络,例如Hopficld模型,Feldmann等的连接型网络模型,Hinton等的玻尔茨曼机模型,以及Rumelhart等的多层感知机模型和Kohonen的自组织网络模型等等。

在这众多神经网络模型中,应用最广泛的是多层感知机神经网络。

多层感知机神经网络的研究始于50年代,但一直进展不大。

直到1985年,Rumelhart等人提出了误差反向传递学习算法(即BP算),实现了Minsky的多层网络设想,如图34-1所示。

BP 算法不仅有输入层节点、输出层节点,还可有1个或多个隐含层节点。

对于输入信号,要先向前传播到隐含层节点,经作用函数后,再把隐节点的输出信号传播到输出节点,最后给出输出结果。

节点的作用的激励函数通常选取S 型函数,如Qx e x f /11)(-+=式中Q 为调整激励函数形式的Sigmoid 参数。

该算法的学习过程由正向传播和反向传播组成。

在正向传播过程中,输入信息从输入层经隐含层逐层处理,并传向输出层。

每一层神经元的状态只影响下一层神经输入层 中间层 输出层 图34-1 BP 神经网络模型元的状态。

如果输出层得不到期望的输出,则转入反向传播,将误差信号沿原来的连接通道返回,通过修改各层神经元的权值,使得误差信号最小。

社含有n 个节点的任意网络,各节点之特性为Sigmoid 型。

BP神经网络详解与实例_2样版

BP神经网络详解与实例_2样版

kjkjkhjk
10
脑神经信息活动的特征
(1)巨量并行性。
(2)信息处理和存储单元结合在一起。
(3)自组织自学习功能。
kjkjkhjk
11
神经网络基本模型
电脉冲 输 入 树 突 细胞体 信息处理 形成 轴突 传输 突 触 输 出
图 12.2 生物神经元功能模型
kjkjkhjk
12

神经元的数学模型
kjkjkhjk 4
ANN研究的目的和意义
(1)通过揭示物理平面与认知平面之间的映射,了 解它们相互联系和相互作用的机理,从而揭示思 维的本质,探索智能的本源。 (2)争取构造出尽可能与人脑具有相似功能的计算
机,即ANN计算机。
(3)研究仿照脑神经系统的人工神经网络,将在模
式识别、组合优化和决策判断等方面取得传统计
kjkjkhjk 16
2、神经网络的数学模型

众多神经元之间组合形成神经网络,例如下图 的含有中间层(隐层)的B-P网络
kjkjkhjk
17
clk
c
k j
k cq
W11
c1 Wp1 … W1j cj Wpj Wij Wi1
… …
W1q cq
输出层LC
Wiq Wpq
W V1p bp Vhp V np
15
kjkjkhjk


e x ex f ( x) x , x e e
1 f ( x) 1.
注:若将阈值看作是一个权系数,-1是一个固定的 输入,另有m-1个正常的输入,则(1)式也可表 示为:
y f ( wi xi )
i 1
m
(1)
• 参数识别:假设函数形式已知,则可以从已有的 输入输出数据确定出权系数及阈值。

BP神经网络MATLAB实例

BP神经网络MATLAB实例
clc
% NEWFF——生成一个新的前向神经网络
% TRAIN——对 BP 神经网络进行训练
% SIM——对 BP 神经网络进行仿真
pause
% 敲任意键开始
clc
% 定义训练样本
% P 为输入矢量
P=[-1, -2, 3, 1; -1, 1, 5, -3];
inputbias=net.b{1}
% 当前网络层权值和阈值
layerWeights=net.LW{2,1}
layerbias=net.b{2}
pause
clc
% 设置训练参数
net.trainParam.show = 50;
net.trainParam.lr = 0.05;
pause;
clc
echo off
下面给出了网络的某次训练结果,可见,当训练至第 136 步时,训练提前停止,此时的网络误差为 0.0102565。给出了训练后的仿真数据拟合曲线,效果是相当满意的。
[net,tr]=train(net,P,T,[],[],val);
clc
elseif(choice==2)
echo on
clc
% 采用贝叶斯正则化算法 TRAINBR
net.trainFcn='trainbr';
pause
clc
% 对 BP 网络进行仿真
A = sim(net,P)
% 计算仿真误差
E = T - A
MSE=mse(E)
pause
clc
echo off
例2 采用贝叶斯正则化算法提高 BP 网络的推广能力。在本例中,我们采用两种训练方法,即 L-M 优化算法(trainlm)和贝叶斯正则化算法(trainbr),用以训练 BP 网络,使其能够拟合某一附加有白噪声的正弦样本数据。其中,样本数据可以采用如下MATLAB 语句生成:

神经网络BP算法案例

神经网络BP算法案例

的记录是被我们所忽略的。
所有满足最小支持度3的1项频繁集如下 (其中巧克力、 香蕉、葡萄的支持度为1,不满足条件)
支持度
销售内容
3
4 4 5 7
冰淇淋
咖啡 果酱 牛奶 面包
所有满足最小支持度3的2项频繁集 如下 :
支持度 3 销售内容 面包 咖啡 面包 冰淇淋 面包 牛奶 面包 果酱
递 归 执 行
的,比如在一个超市中会存在这样的概念 层次:蒙牛牌牛奶是牛奶,伊利牌牛奶是 牛奶,王子牌饼干是饼干,康师傅牌饼干 是饼干等。
• 可以用有向无环图 (directed acyclic graph ) 表示概念层次,如下:
从有向无环图 (directed acyclic graph )可以 看出—— 如果我们只是在数据基本层发掘关系, {蒙牛牌牛奶,王子牌饼干},{蒙牛牌牛 奶,康师傅牌饼干},{伊利牌牛奶,王子 牌饼干},{伊利牌牛奶,康师傅牌饼干} 都不符合最小支持度。不过如果我们上升一 个层级,可能会发现{牛奶,饼干} 的关 联规则是有一定支持度的。这样我们就可以 在较高的概念层次上发现关联规则。
w14 4 w46 6 5 w35
. . ..
w34
w56
. . .
3
图1 两层前馈神经网络
2
神经网络BP算法案例
• 首先算出单元4、5、6的输入、输出,具体结果见 表1,然后计算4、5、6的误差,见表2;NT中每条 有向加权边的新权重、每个隐藏层与输出层单元 的新偏置见表3。
图2 两层前馈神经网络
W35
0.2+0.9×(-0.0065)×1=0.194
0.1+0.9×0.1311=0.218 0.2+0.9×(-0.0065)=0.194

BP人工神经网络试验报告一

BP人工神经网络试验报告一

BP⼈⼯神经⽹络试验报告⼀学号:北京⼯商⼤学⼈⼯神经⽹络实验报告实验⼀基于BP算法的XX及Matlab实现院(系)专业学⽣姓名成绩指导教师2011年10⽉⼀、实验⽬的:1、熟悉MATLAB 中神经⽹络⼯具箱的使⽤⽅法;2、了解BP 神经⽹络各种优化算法的原理;3、掌握BP 神经⽹络各种优化算法的特点;4、掌握使⽤BP 神经⽹络各种优化算法解决实际问题的⽅法。

⼆、实验内容:1 案例背景1.1 BP 神经⽹络概述BP 神经⽹络是⼀种多层前馈神经⽹络,该⽹络的主要特点是信号前向传递,误差反向传播。

在前向传递中,输⼊信号从输⼊层经隐含层逐层处理,直⾄输出层。

每⼀层的神经元状态只影响下⼀层神经元状态。

如果输出层得不到期望输出,则转⼊反向传播,根据预测误差调整⽹络权值和阈值,从⽽使BP 神经⽹络预测输出不断逼近期望输出。

BP 神经⽹络的拓扑结构如图1.1所⽰。

图1.1 BP 神经⽹络拓扑结构图图1.1中1x ,2x , ……n x 是BP 神经⽹络的输⼊值1y ,2y , ……n y 是BP 神经的预测值,ij ω和jk ω为BP 神经⽹络权值。

从图1.1可以看出,BP 神经⽹络可以看成⼀个⾮线性函数,⽹络输⼊值和预测值分别为该函数的⾃变量和因变量。

当输⼊节点数为n ,输出节点数为m 时,BP 神经⽹络就表达了从n 个⾃变量到m 个因变量的函数映射关系。

BP 神经⽹络预测前⾸先要训练⽹络,通过训练使⽹络具有联想记忆和预测能⼒。

BP 神经⽹络的训练过程包括以下⼏个步骤。

步骤1:⽹络初始化。

根据系统输⼊输出序列()y x ,确定⽹络输⼊层节点数n 、隐含层节点数l ,输出层节点数m ,初始化输⼊层、隐含层和输出层神经元之间的连接权值ij ω和式中, l 为隐含层节点数; f 为隐含层激励函数,该函数有多种表达形式,本章所选函数为:步骤3:输出层输出计算。

根据隐含层输出H ,连接权值jk ω和阈值b ,计算BP 神经⽹络预测输出O 。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

BP神经网络实例智能控制第一章BP神经网络基本原理一、BP神经网络基本概念1、人工神经网络人工神经网络ANN(Artificial Neural Network),是对人类大脑系统的一阶特性的一种描述。

简单地讲,它是一个数学模型,可以用电子线路来实现,也可以用计算机程序来模拟,是人工智能研究地一种方法。

近年来发展迅速并逐渐成熟的一种人工智能技术,其来源于对神经元细胞的模拟。

人工神经网络具有以下三个特点:信息分布表示,运算全局并行与局部操作,信息非线性处理。

由于这三个特点,使得由人工神经网络构成的分类器具有强大的数据拟和与泛化能力,因而广泛运用于模式识别与机器学习领域。

神经网络模式识别的过程分为两步:首先是学习过程,通过大量的训练样本,对网络进行训练,根据某种学习规则不断对连接权值进行调节,然后使网络具有某种期望的输出,这种输出就可以将训练样本正确分类到其所属类别中去,此时可以认为网络是学习到了输入数据或样本间的内在规律。

接下来是分类过程,应用前面学习过程所训练好的权值,对任意送入网络的样本进行分类。

人工神经网络模型各种各样,目前已有数十种。

他们从各个角度对生物神经系统的不同层次进行了描述和模拟。

代表模型有感知机、多层映射BP网、RBF 网络、HoPfiled模型、Boit~机等等。

虽然人工神经网络有很多模型,但按神经元的连接方式只有两种型态:没有反馈的前向网络和相互结合型网络。

前向网络是多层映射网络,每一层中的神经元只接受来自前一层神经元的信号,因此信号的传播是单方向的。

BP网络是这类网络中最典型的例子。

在相互结合型网络中,任意两个神经元都可能有连接,因此输入信号要在网络中往返传递,从某一初态开始,经过若干变化,渐渐趋于某一稳定状态或进入周期震荡等其它状态,这方面典型的网络有Hopfiled模型等。

12、BP 神经网络BP 算法是利用输出层的误差来估计输出层的直接前导层的误差,再用这个误差 估计更前一层的误差。

如此下去,就获得了所有其他各层的误差估计。

这样就形成了将输出端表现出的误差沿着与输入信号传送相反的方向逐级向网络的输入端传递的过程。

因此,人们就又将此算法称为向后传播算法,简称BP 算法。

如下图所示:算法过程为(1)设置各权值和阈值的初始值()[0]l ji w ,()[0](0,1,...,)l j l L θ=为小随机数。

(2)输入训练样本(),q q I d ,对每个样本进行(3)~(5)步。

(3)计算各个网络层的实际输出()()()(1)()()()l l l l l x f s f w x θ-==+(4)计算训练误差()()'()()()l l l j qj j j d x f s ∂=-,输出层1()'()(1)(1)1()l n l l l l j j kj k f s w +++=∂=∂∑,隐含层和输入层(5)修正权值和阈值(1)()()(1)()()[1][]([][1])l l l l l l ji ji j i ji ji w k w k x w k w k μη+-+=+∂+--(1)()()()()[1][]([][1])l l l l l j j j j j k k k k θθμηθθ++=+∂+--(6)当样本集中的所有样本都经历了(3)~(5)步后,即完成了 一个训练周期(Epoch ),计算性能指标1E=E Qq q =∑,其中()211E 2mq qj qj j d x ==-∑。

(7)如果性能指标满足精度要求,即E ε≤,那么训练结束,否则,转到(2),继续下一个训练周期。

ε是小的正数,根据实际情况而定,例如0.013、流程图根据BP 网络的算法,我们可得流程图如下。

第二章 BP 神经网络实例分析一、实例要求1、1()cos(),(0,2)f x x x π=∈取九个点来训练网络,然后得出拟合曲线。

2、2()sin(),(0,2)f x x x π=∈取适当数量训练点来训练网络,然后得出拟合曲线3、()3sin sin ,;,(10,10)x yf x y x y x y=⋅∈- 取11*11个点来训练网络,并用21*21个点测试拟合的曲面。

二、计算结果如下1、第一个函数:1()cos(),(0,2)f x x x π=∈(2)学习率为0.2,训练次数为3300时训练过程如学习曲线所示,圈圈为学习后产生的,折线为标准函数点连线。

检验过程如检验曲线所示,点序列为拟合曲线上的点,曲线为标准函数曲线。

误差曲线如右图所示。

(2)学习率为0.01,训练次数为3300时的曲线。

从函数1可以看出,学习率比较大时,曲线收敛比较快,可以比较快速达到精度要求。

但实际上,学习率比较大时(即收敛步长比较大),容易超出收敛边界,反而收敛导致不稳定,甚至发散。

2、第二个函数:2()sin(),(0,2)f x x x π=∈(1)学习率为0.2,样本点数为10,学习次数为5000时的曲线如下:(2)学习率为0.2,样本点数为30,学习次数为5000时的曲线如下:从函数2可以看出,样本点个数越多时,曲线精度越高。

但学习时间会有所增加。

3、第三个函数()3sin sin ,;,(10,10)x yf x y x y x y=⋅∈- 学习率为0.1,动量项学习率为0.05,训练次数为5000,训练样本数为11*11。

图形如下:附:程序源代码第一个和第二个函数的程序:%此BP网络为两层隐含层,每个隐含层4个节点。

输入输出各一层%输入层和输出层均采用恒等函数,隐含层采用S形函数clear all;close all;b=0.01; %精度要求a=0.2; %学习率c=2;Num=30; %训练样本数N=3300; %训练次数Nj=80; %检验样本数o0=rand(2,1); %输入层阈值o1=rand(4,1); %第一层隐含层阈值o2=rand(4,1); %第二层隐含层阈值o3=rand(1,1); %输出层阈值w1=rand(4,2); %输入信号为两个w2=rand(4,4); %第一层隐含层与第二层隐含层的权系数w3=rand(1,4); %第二层隐含层与输出层的权系数syms x y; %符号变量,用于两个输入值%fcn=cos(x); %被学习的函数fcn=abs(sin(x));x0=0:2*pi/(Num-1):2*pi; %输入的训练样本y0=0:2*pi/(Num-1):2*pi;x=x0;y=y0;X(1,:)=x0;X(2,:)=y0;yf=eval(fcn); %输出的训练样本x3=zeros(1,Num);time=0;for j=1:1:Nfor i=1:1:Num%前向计算:s1=w1*X(:,i)-o1;x1=1./(1+exp(-s1)); %第一层隐含层输出s2=w2*x1-o2;x2=1./(1+exp(-s2)); %第二层隐含层输出s3=w3*x2-o3;%x3=1./(1+exp(-s3)); %输出层输出x3(i)=s3;%反向计算:%e3=(yf(i)-x3)./(exp(s3)+2+exp(-s3)); %输出层误差e3=yf(i)-x3(i);e2=((w3)'*e3)./(exp(s2)+2+exp(-s2)); %第二层隐含层误差 e1=((w2)'*e2)./(exp(s1)+2+exp(-s1)); %第一层隐含层误差%权值和阈值修正w3=w3+a*e3*(x2)'; %权值修正w2=w2+a*e2*(x1)';w1=w1+a*e1*(X(:,i))';o3=o3-a*e3; %阈值修正o2=o2-a*e2;o1=o1-a*e1;endE(j)=0.5*((yf-x3)*(yf-x3)'); %方差time=time+1; %记录学习次数if E(j)<bbreakendend%检验m=0:2*pi/(Nj-1):2*pi;n=0:2*pi/(Nj-1):2*pi;x=m;y=n;ym=eval(fcn); %期望输出M(1,:)=x;M(2,:)=y;m3=zeros(1,Nj);for i=1:1:NjS1=w1*M(:,i)-o1;m1=1./(1+exp(-S1)); %第一层隐含层输出S2=w2*m1-o2;m2=1./(1+exp(-S2)); %第二层隐含层输出S3=w3*m2-o3;%m3(i)=1./(1+exp(-S3)); %输出层输出m3(i)=S3;endfigure(1);plot(m,ym,'g-');hold onplot(m,m3,'r.'); title('检验曲线');xlabel('x');ylabel('y=cos(x) ');figure(2);plot(x0,yf,'b-');hold onplot(x0,x3,'ro'); title('学习曲线');xlabel('x');ylabel('y=cos(x)');k=1:time;figure(3);plot(k,E); title('误差曲线');xlabel('训练次数');ylabel('误差值');第三个函数的程序%此BP网络为两层隐含层,每个隐含层10个节点。

输入输出各一层%输入层和输出层均采用恒等函数,隐含层采用S形函数clear all;close all;b=0.05; %精度要求a=0.1; %学习率c=0.05; %动量项学习率Num=11; %训练样本数N=5000; %训练次数Nj=21; %检验样本数o0=rand(2,1); %输入层阈值o1=rand(10,1); %第一层隐含层阈值o2=rand(10,1); %第二层隐含层阈值o3=rand(1,1); %输出层阈值w1=rand(10,2); %输入层与第一层隐含层的权系数w2=rand(10,10); %第一层隐含层与第二层隐含层的权系数w3=rand(1,10); %第二层隐含层与输出层的权系数o1_before=zeros(4,1); %用于存储前一次的阈值o2_before=zeros(4,1);o3_before=zeros(1,1);w1_before=zeros(4,2); %用于存储前一次的权值w2_before=zeros(4,4);w3_before=zeros(1,4);o1_next=zeros(4,1); %用于存储后一次的阈值o2_next=zeros(4,1);o3_next=zeros(1,1);w1_next=zeros(4,2); %用于存储后一次的权值w2_next=zeros(4,4);w3_next=zeros(1,4);[x0,y0]=meshgrid(-10:20/(Num-1)-0.001:10); %输入的训练样本yf=(sin(x0).*sin(y0))./(x0.*y0); %被学习的函数x3=zeros(Num,Num);time=0;E=zeros(1,N);for j=1:1:Nfor i=1:1:Numfor h=1:1:NumX=zeros(2,1);X(1,:)=x0(i,h);X(2,:)=y0(i,h);%前向计算:s1=w1*X-o1;x1=1./(1+exp(-s1)); %第一层隐含层输出s2=w2*x1-o2;x2=1./(1+exp(-s2)); %第二层隐含层输出s3=w3*x2-o3;%x3=1./(1+exp(-s3)); %输出层输出x3(i,h)=s3;%反向计算:%e3=(yf(i)-x3)./(exp(s3)+2+exp(-s3)); %输出层误差e3=yf(i)-x3(i);e2=((w3)'*e3)./(exp(s2)+2+exp(-s2)); %第二层隐含层误差 e1=((w2)'*e2)./(exp(s1)+2+exp(-s1)); %第一层隐含层误差 w3_next=w3+a*e3*(x2)'+c*(w3-w3_before); %权值修正w2_next=w2+a*e2*(x1)'+c*(w2-w2_before);w1_next=w1+a*e1*X'+c*(w1-w1_before);o3_next=o3-a*e3+c*(o3-o3_before); %阈值修正o2_next=o2-a*e2+c*(o2-o2_before);o1_next=o1-a*e1+c*(o1-o1_before);w1_before=w1;w2_before=w2;w3_before=w3;o1_before=o1;o2_before=o2;o3_before=o3;w1=w1_next;w2=w2_next;w3=w3_next;o1=o1_next;o2=o2_next;o3=o3_next;d=yf(i,h);y=x3(i,h);E(j)=E(j)+0.5*((d-y)^2); %方差endendtime=time+1; %记录学习次数if E(j)<bbreakendend%检验[m,n]=meshgrid(-10:(20/(Nj-1)-0.001):10);ym=(sin(m).*sin(n))./(m.*n);m3=zeros(Nj,Nj);for i=1:1:Njfor j=1:1:NjM=zeros(2,1);M(1,:)=m(i,j);M(2,:)=n(i,j);S1=w1*M-o1;m1=1./(1+exp(-S1)); %第一层隐含层输出S2=w2*m1-o2;m2=1./(1+exp(-S2)); %第二层隐含层输出S3=w3*m2-o3;m3(i,j)=S3; %输出层输出endendfigure(1);surf(x0,y0,yf);title('学习期望输出');grid on;figure(2);surf(x0,y0,x3);title('学习实际输出');grid on;figure(3);subplot(221);surf(m,n,ym);title('检验期望输出');grid on; subplot(222);surf(m,n,m3);title('检验实际输出');grid on;k=1:time;subplot(212);title('误差曲线');plot(k,E);。

相关文档
最新文档