BP算法的改进

合集下载

基本 BP 神经网络算法改进研究

基本 BP 神经网络算法改进研究
A r t i f i c i a l I n t e l l i g e n c e・ 人工智能
基本 E I P神经 网络算法 改进研 究
文/ 顾润龙
键词】B P 神经 网络 算 法 改进
随着 科学 技 术的 飞速 发展 ,人 工神 经 网 I 得 到了迅速 的发展 ,它成 为了智能领域 中 [ 要 组成部分之一 ,现 已被应 用到多个领域 t B P神经 网络算 法模型 是人 工神经 网络 卜 _ ‘ 个典型算法 ,它具有 较强的非线性映射 f ,对 解决一些非线性 问题 具有重要作用 , 它 的网络拓扑结构较为 简单 ,还具有较高 搓 精度 以及较强的可操作性 。
收 敛 速 度 过慢
在标 准 B P网络学 习的过程 中,其学 习速 : 敛 的速度 较慢 ,这种 情况容易导 致 B P算 l 出现一个 持续时间较长的输 出误差平 台。
不 能确 保 收 敛 的 最 优 结 果
标准 B P网络算法是 一个针对数值 优化 的 } 性 优化问题 ,它不可避免 的也会存在局部 、 值 的问题 。BP网络会 沿着一 个局部 的方 改善 极值 ,然后希望使 输出的误差函数 、 化 的一组全局解 ,但通常得 不到这一组全 l 二 是得 到一个局部 的极小值 ,不能达到使 I 的误差 函数最小化的 目的 。
具 有 一 定 的 不稳 定 性
标 准的 B P算法具有 一定的不稳 定性 ,这 P网络 与人 脑 的主 要 区别 之一 ,BP在 完 练进入 新的学习模式 时,其 训练好的连接 数就 会被打乱 ,导致训练好 的记 忆消失 , 的学 习模 式也会被打破 ,只 能学 习新的模 而 人在 学习新的知识 时,不 会对 原有记忆 太大 的影响 , 人 的大脑 系统是 比较稳定的。

标准BP算法及改进的BP算法标准BP算法及改进的BP算法应用(1)

标准BP算法及改进的BP算法标准BP算法及改进的BP算法应用(1)
➢ 网络的层数
➢ 隐含层神经元数
➢ 初始权值的选取 ➢ 学习速率 ➢ 期望误差的选取
22
2020/3/6
网络的层数
理论上已经证明:具有偏差和至少一个S型隐含层 加上一个线性输出层的网络,能够逼近任何有理函 数
定理:
增加层数主要可以进一步的降低误差,提高精度, 但同时也使网络复杂化,从而增加了网络权值的训 练时间。
%输入向量P和目标向量T
P = -1:0.1:1
T = [-0.96 -0.577 -0.0729 0.377 0.641 0.66 0.461 0.1336 -0.201 -0.434 -0.5 -0.393 0.1647 0.0988 0.3072 0.396 0.3449 0.1816 -0.0312 -0.2183 -0.3201 ];
4.3 BP学习算法
假设输入为P,输入神经元有r个,隐含层内有s1个神经 元,激活函数为F1,输出层内有s2个神经元,对应的激 活函数为F2,输出为A,目标矢量为T
12
2020/3/6
4.3 BP学习算法
信息的正向传递
隐含层中第i个神经元的输出
输出层第k个神经元的输出
定义误差函数
13
4.4.2应用举例
1、用BP神经网络实现两类模式分类 p=[1 -1 -2 -4;2 1 1 0]; t=[0 1 1 0]; %创建BP网络和定义训练函数及参数 NodeNum=8;%隐含层节点数 TypeNum=1;%输出维数 Epochs=1000;%训练次数 TF1='logsig'; TF2='logsig';
D1=deltatan(A1,D2,W2);
[dWl,dBl]=learnbp(P,D1,lr);

标准BP算法及改进的BP算法

标准BP算法及改进的BP算法

自适应学习速率应用
P = -1:0.1:1 T = [-0.96 -0.577 -0.0729 0.377 0.641 0.66 [0.461 0.1336 -0.201 -0.434 -0.5 -0.393 -0.1647 0.0988 0.3072 0.396 0.3449 0.1816 -0.0312 0.2183 -0.3201 ]; [R,Q] = size(P); [S2,Q] = size(T); S1 = 5; [W1,B1] = rands(S1,R); [W2,B2] = rands(S2,S1);
10
2
Performance is 0.0199998, Goal is 0.02
10 Training-Blue Goal-Black
1
10
0
10
-1
10
-2
0
100
200
300 400 664 Epochs
500
600
采用动量法时的训练误差记录
1.3 自适应学习率调整法
在BP算法中,网络权值的调整取决于学习 BP算法中,网络权值的调整取决于学习 速率和梯度。在标准BP 速率和梯度。在标准BP 算法中,学习速率 是不变的。 而在自适应学习率调整法中,通常学习速 率的调整准则是:检查权值的修正是否真 正降低了误差函数,如果确实如此,则说 明所选的学习率小了,可对其增加一个量; 若不是则说明产生了过调,那么就应减小 学习速率的值。
标准BP算法及改进的 标准BP算法及改进的BP 算法及改进的BP 算法应用
1.1 标准的BP算法 标准的BP算法
BP标准的BP算法是基于梯度下降法,通过 BP标准的BP算法是基于梯度下降法,通过 计算目标函数对网络权值和阈值的梯度进 行修正。 X(k + 1 ) = X(k) - µ∆F( X(K) ) X(K)为由网络所有权值和阈值所形成的向 X(K)为由网络所有权值和阈值所形成的向 量; µ为学习速率; ∆F( X(K) )为目标函数的梯度; )为目标函数的梯度;

BP网络算法的问题及改进

BP网络算法的问题及改进

经验选取的。
4.对于新加入的样本, 要影响到已经学完的样本。
5.描 述 每 个 输 入 特 征 样 本 的 数 目 要 求 必 须 相 同 。
( 二) 改进 BP 算法
1.改进算法描述 为了克服传统 BP 算法收敛速度慢且容易陷入
局部极小的问题, 我们对标准 BP 算法进行了改进。改进主要有两点:
(1) 自适应学习率 学习速率 & 的选择很重要, & 大则收敛快, 但
果当前的误差梯度修正方向正确, 就增大学习率, 加入动量项; 否则减
小学习率, 甩掉动量项, 从而使学习速度加快, 效率有较大提高。
3.改进算法流程图 改进 BP 算法的流程图如图 1 所示。
图 3 改进学习率 BP 算法误差曲线图 Figure 4- 3 Improve d le a rn ra te a rithme tic e rror curve
当△E<0; &=&
(5- 5)
当△E<0; &=0
(5- 6)
其中△E=E(t)- E(t- 1)
(5- 7)
2.改进之处 与 BP 算法相比, 本算法有两点改进:
(1)降低权值修改频率, 使权 值 沿 总 体 误 差 最 小 的 方 向 调 整 , 使 总
误差收敛的速度加快。
(2)根据情况确定学习速率, 即让学习速率 ! 和 动 量 项 & 可 变 , 如
类, 在实际应用中也取得了较好的效果, 但它仍存在着以下问题:
1.学 习 算 法 的 收 敛 速 度 很 慢 。
2.局部极小: 从数学角度看, BP 网络的学习 过 程 使 用 的 是 最 速 下
降梯度法, 所以不可避免的会遇到优化过程中最常见的局部极小问

BP算法及BP改进算法

BP算法及BP改进算法

BP算法及BP改进算法BP算法通过不断调整网络的权重和偏置,以最小化网络输出与实际输出之间的误差。

算法包含两个主要步骤:前向传播和反向传播。

在前向传播阶段,输入信号通过神经网络的各个层,直至到达输出层。

每一层都对输入信号进行加权求和,并通过激活函数进行非线性映射,然后传递给下一层。

最终,网络将产生一个预测输出。

在反向传播阶段,算法计算输出误差,并根据该误差调整网络权重和偏置。

误差通过比较网络预测输出与实际输出之间的差异得到。

然后,误差从输出层向输入层反向传播,根据权重的贡献程度进行分配,并相应地更新权重和偏置。

尽管BP算法在训练神经网络方面非常成功,但也存在一些问题。

其中之一是局部极小值问题,即算法可能在梯度下降的过程中陷入一个局部最小值,并无法找到全局最小值。

为了解决这个问题,已经提出了一些BP的改进算法。

其中一种改进算法是Momentum算法。

Momentum算法在误差梯度的基础上引入了一个动量项,该项记录了前一次权重更新所带来的动量。

它可以帮助算法跳出局部最小值,并在梯度下降的过程中加速更新。

该算法通过在权重更新中添加当前梯度和上一次更新的动量的乘积,实现对网络优化的加速。

另一种改进算法是Adaptive Learning Rate算法。

传统的BP算法在每次权重更新中使用固定的学习率。

然而,不同的权重可能具有不同的学习速度要求。

Adaptive Learning Rate算法通过根据权重梯度的大小动态地调整学习率,以使网络能够更快地收敛。

还有一种改进算法是正则化算法,其中最常用的是L1和L2正则化。

正则化通过在误差函数中添加一个惩罚项,以限制权重的大小。

这有助于防止过拟合现象的发生,并提高网络的泛化能力。

除了这些改进算法,还有许多其他的技术被用于改进BP算法。

例如,一些算法结合了遗传算法和BP算法,以从初始权重的随机样本中找到最佳的。

还有一些算法,如RPROP和QuickProp,通过引入自适应的权重更新规则来加速训练过程。

BP神经网络的不足及改进后的应用

BP神经网络的不足及改进后的应用
BP神经网络的不足及改进 后的应用
主要内容


BP神经网络简介 BP学习算法的不足 两种BP学习算法的改进方法 基于改进BP神经网络的应用
1 BP神经网络简介



神经网络在实际应用中分为训练阶段和使用阶 段 训练阶段,是使用适当的学习算法调整某种结 构的网络的参数,使得被训练的网络能够对样 本有很好的拟合作用。 BP神经网络也包括了训练和使用这两个阶段。 它是前馈型神经网络,采用的是BP学习算法 (后向传播学习算法)。
所有样本训练完毕?
否 是
选择下一个输入样本
结束
2 BP学习算法的不足

理论上BP网络能够逼近任意非线性函数,但 由于神经网络训练学习中许多参数的选择没有 理论依据,使得实际中神经网络的应用具有局 限性
2 BP学习算法的不足

BP算法存在局限性与缺点的主要原因是其本 身存在很多不足之处,主要有:
学习过程收敛速度慢 所得到的网络容错能力差 误差和函数可能有局部极小值 学习率不稳定 (BP算法学习速度慢、容错能力差、算法不完备)
4 基于改进BP神经网络的应用

神经网络在车牌字符识别中的应用


一种基于改进BP神经网络的字符识别系统,克服传 统BP算法最终进化至最优解较慢和神经网络易陷入 局部极小值的权限 通过采用改进的BP算法,大大提高了识别的速度和 精确度
4 基于改进BP神经网络的应用

此应用中采用的BP神经网络结构和设计
4 基于改进BP神经网络的应用

采用13特征提取法来提取样本的特征向量作为 BP网络的输入,提取步骤:

把字符平均分成8分,统计每一份中黑色像素点的 个数作为8个特征 统计水平方向中间两列和竖直方向两列的黑色像素 点的个数作为4个特征 统计所有黑的像素点的个数作为第13个特征

最新 BP神经网络算法及其改进的几个方法-精品

BP神经网络算法及其改进的几个方法1 概述人工神经网络(Artificial Neural Networks,ANN),是基于人类大脑的生物活动所提出的,是一个模型。

它由众多节点通过一定的方式互联组成,是一个规模巨大、自适应的系统。

其中有一种学习算法是误差传递学习算法即BP 算法。

BP算法是人工智能最常用到的学习方法,从一定意义上来讲,BP算法的提出,终结了多层网络在学习训练算法上的空白史,是在实际应用中最有效的网络训练方法,对ANN的应用和发展起到了决定性的作用。

BP算法是使用从输出层得到的误差来估算前一层的误差,再利用该误差估算更前一层的误差。

依次进行,就会获得其他所有各层的估算误差。

这样就实现了将从输出层的得到误差沿着与输入信号传送相反的方向逐级向网络的输入端传递的过程[1]。

但是,BP算法也存在着不可忽视的缺陷。

基于此,该文总结介绍了BP的改进方法。

2 BP算法的基本思想2.1 BP算法的基本原理BP算法是有监督指导的算法,它的学习训练过程一般分为两步:首先是输入样本的正向传递;第二步误差的反向传递;其中信号正向传递,基本思想是样本值从输入层输入,经输入层传入隐藏层,最后通过输出层输出,中间层对样本数据进行处理操作,利用各层的权值和激活函数对数据进行操作然后在输出层获得输出[2];接下来就是反向传递,算法得到的实际输出值与期望目标输出之间必然会有误差,根据误差的大小来决定下一步的工作。

如果误差值较小满足训练的精度要求,则认为在输出层得到的值满足要求,停止训练;反之,则将该误差传递给隐藏层进行训练,按照梯度下降的方式,对权值和阈值进行调整,接着进行循环,直到误差值满足精度要求停止训练[3]。

3 BP算法的缺陷尽管BP算法有着显著的优点,但是在实际应用过程中,BP算法会出现很多问题。

尤其是下面的问题,对BP神经网络更好的发展有很大影响。

有的甚至会导致算法崩溃。

3.1 收敛速度的问题BP算法在进行训练学习时,收敛速度慢,特别是在网络训练达到一定的精度时,BP算法就会出现一个长时间的误差“平原”,算法的收敛速度会下降到极慢[4]。

BP神经网络算法

BP神经网络算法
1


一、BP神经网络算法概述
二、BP神经网络算法原理
三、BP神经网络算法特点及改进
2
一.BP神经网络算法概述
BP神经网络(Back-Propagation Neural Network),即误差
后向传播神经网络,是一种按误差逆向传播算法训练的多层前馈网
络,是目前应用最广泛的网络模型之一。
11
二.BP神经网络算法原理
图5 Tan-Sigmoid函数在(-4,4)范围内的函数曲线
12
二.BP神经网络算法原理
激活函数性质:
① 非线性
② 可导性:神经网络的优化是基于梯度的,求解梯度需要确保函
数可导。
③ 单调性:激活函数是单调的,否则不能保证神经网络抽象的优
化问题转化为凸优化问题。
④ 输出范围有限:激活函数的输出值范围有限时,基于梯度的方

= 1 ෍
=1
7
,
= 1,2,3 … , q
二.BP神经网络算法原理
输出层节点的输出为:

j = 2 ෍ ,
= 1,2,3. . . ,
=1
至此,BP网络完成了n维空间向量对m维空间的近似映射。
图2 三层神经网络的拓扑结构
8
二.BP神经网络算法原理
BP神经网络是多层前馈型神经网络中的一种,属于人工神经网
络的一类,理论可以对任何一种非线性输入输出关系进行模仿,因
此 被 广 泛 应 用 在 分 类 识 别 ( classification ) 、 回 归
(regression)、压缩(compression)、逼近(fitting)等领域。
在工程应用中,大约80%的神经网络模型都选择采用BP神经网

BP算法的改进(可打印修改)

BP算法的改进附加动量法附加动量法使网络在修正其权值时,不仅考虑误差在梯度上的作用,而且考虑在误差曲面上变化趋势的影响。

在没有附加动量的作用下,网络可能陷入浅的局部极小值,利用附加动量的作用有可能滑过这些极小值。

该方法是在反向传播法的基础上在每一个权值(或阈值)的变化上加上一项正比于前次权值(或阈值)变化量的值,并根据反向传播法来产生新的权值(或阈值)变化。

带有附加动量因子的权值和阈值调节公式为:其中k为训练次数,mc为动量因子,一般取0.95左右。

附加动量法的实质是将最后一次权值(或阈值)变化的影响,通过一个动量因子来传递。

当动量因子取值为零时,权值(或阈值)的变化仅是根据梯度下降法产生;当动量因子取值为1时,新的权值(或阈值)变化则是设置为最后一次权值(或阈值)的变化,而依梯度法产生的变化部分则被忽略掉了。

以此方式,当增加了动量项后,促使权值的调节向着误差曲面底部的平均方向变化,当网络权值进入误差曲面底部的平坦区时, i将变得很小,于是,从而防止了的出现,有助于使网络从误差曲面的局部极小值中跳出。

根据附加动量法的设计原则,当修正的权值在误差中导致太大的增长结果时,新的权值应被取消而不被采用,并使动量作用停止下来,以使网络不进入较大误差曲面;当新的误差变化率对其旧值超过一个事先设定的最大误差变化率时,也得取消所计算的权值变化。

其最大误差变化率可以是任何大于或等于1的值。

典型的取值取1.04。

所以,在进行附加动量法的训练程序设计时,必须加进条件判断以正确使用其权值修正公式。

训练程序设计中采用动量法的判断条件为:E(k)为第k步误差平方和。

V = net.iw{1,1}%输入层到中间层权值theta1 = net.b{1}%中间层各神经元阈值W = net.lw{2,1}%中间层到输出层权值theta2 = net.b{2}%输出层各神经元阈值。

BP算法及BP改进算法

智能算法应用平台设计说明书目录12 神经网络BP算法 (3)13 神经网络BP改进算法 (4)1神经网络BP算法神经元网络专家系统由开发环境和运行环境两部分组成(见图12-1)。

开发环境由3部分组成:①确定系统框架;②学习样本;③神经元学习,通过样本学习得到知识库。

运行环境实质上是一个专家系统,它由5部分组成:①实际问题参数;②输入模式的转换;③推理机;④知识库;⑤输出模式的转换。

输入输出模式转换是指神经元的输入与输出要求以(-∞,+∞)区间的数值形式表示。

推理机是基于神经元的信息处理过程,包括神经元的输入和输出。

知识库是由BP网络通过对样本的学习而得到的各神经元之间的连接权值,其学习过程如图12-2所示。

确定系统框架包括完成对神经元网络的拓扑结构设计、神经元作用函数和阈值选择。

本文的神经元作用函数采用Sigmoid函数,阈值取为。

图12-1 神经元网络专家系统结构图图12-2 BP网络学习框图最好的分类图为PLS ,在此空间研究优化信息。

使用PLS-BPN 用训练样本建模,输入元为PLS 计算出来的训练样本的得分, 输出元为熔剂量, 用留N 法交叉检验,确定网络结构为输入元5个、隐节点15个和输出节点1个。

2 神经网络BP 改进算法本文所建模型采用含输入层、隐含层和输出层的三层网络。

其结构如图13-1所示。

设有n 个样本、m 个变量、t 个目标量、r 个隐含层单元数,ij x 、ij xˆ、il h 、ik y ˆ 、ik y (i =1, 2, …, n ;j =1, 2,…, m ; l =1, 2,…, r ; k =1, 2,…, t )为样本的输入变量、输入层输出值、隐含层的输出值、输出层输出值及目标量(或称期望值),pq w (pq =jl 或lk )、e ϑ(e =j , l ,或k )为网络连接权值。

对样本采用进行批处理的方法进行网络训练,训练算法如下:1)给权值随机赋一较小值;阈值j ϑ=0,l ϑ=ml w ,k ϑ=rk w ; 2)在已知n 个学习样本中,顺序取样本进行预处理后用于训练网络;3)激励函数取Sigmod 函数,分别计算输入层输出值、隐含层和输出层的输出ij xˆ、il h 、ik y ;4)定义i mn λ(mn =lk 或者jl ,)分别为隐层误差和输出层误差,对已知样本的教师可得:)ˆ1(ˆ)ˆ(ik ik ik ik i lk y y yy -⨯⨯-=λ (13-1) ∑=-⨯⨯⨯=tk ij il lk i lk i jlxh w 0)ˆ1(λλ(13-2)并记下各层输出及误差的值。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
式 分类 问题 ,教 师信号 通 常为 1或 0 ,所 以
H 一 :0 .5
对 于模 式 P,输 出层 的接 近 程度 A 定 义 为
A p备
A 随着 网络计算 输 出与期 望输 出的接 近而减 小 ,所 以 g 会 按照 如下 的规 则进 行 调整 : ,
g { f一 一 Ag
第 l卷年 6 期 2 3 第2 1 01 月
辽 宁师 专 学 报
J u n l fLi o i g Te c e sColg o r a a n n a h r l e o e
V0.1 .2 】 3 N0
J n .2 0 1 1 u
【 术 研 究】 学
的输入 信号太 高或 太低 以致 于所 有 隐含 层 的神经元 产生 了非 常接 近传 递 函数边 界值 的输 出 ,当然 ,这种 情
况 下 网络没 能取得 它 的期望 值 . 本文 在对 B P算法 进行 总体 分 析 的基 础 上 ,采 用一 系列 修改传 递 函数 的方 式 对其 进 行改 进 ,基本 克 服 了B P算法 上容 易陷入 局部 极 小值 以及 收敛 速度 较慢 等缺点 ,取 得 了较好 的收敛 效果 .
B P算法 的改进
张 俭
( 口职 业技 术 学 院 ,辽 宁 营 口 15 0 ) 营 1 0 0
摘 要 :针 对 多层 神 经 网 络 中 由 于 隐 含 层 神 经 元 饱 和 而 } 起 的 局 部 极 小 值 问 题 ,提 出 一种 改进 的 B 算 l P 法. 每 一种 训 练 模 式在 隐含 层 的 神 经 元 都 采 用 各 自 的传递 函 数 ,该 改进 算 法 的 思 想 是 当 网 络 输 出 没有 取 得 期 望 的结 果 时 ,修 改 传 递 函数 以 防止 隐含 层 神 经 元饱 和 ,这 种 改进 的算 法 既 不用 改 变 网络 的拓 扑 结 构 ,也 不 会 消耗 更 多 的计 算 时 间. 关 键 词 :神 经 网络 ;B P算 法 ;局 部 极 小 ;饱 和 ;增 益 参 数 中 图分 类号 :T 1 3 P 8 文 献 标 识 码 :A 文章编号 :
参考文献 :
图2迭代次数与样本均方 误差关系 图 ( p c 50 0 E oh= 0 0 )
[ ]Mat 1 r nT H,Ho r i wadBD,MakH .神经 网络设计 [ .北京 :机械工业 出版 社 ,2 0 .3 6 8 . r B M] 0 2 8 —3 8 [ ]王永庆.人工智能原理 与方 法 [ .西安 :西安交通大学 出版社 ,2 0 .2 1 9 . 2 M] 0 1 9 —2 9 []WagC,P ie eJC 3 n r i .Triig nu a nt r swi d iv os h ei dsg a J .I E rn .Nerl np a n e rl ewok t a d ien i i teds e in l[3 E E T as n h t en r ua N t rs 9 9 1 () 1 1 —1 1 . ewok ,1 9 , 0 6 :5 1 5 7 ( 稿 人 李树 东,责 任 编 辑 王 巍 ) 审 ( 接 2 上 O页 )
2 3 在教 学 内容过 渡处创 设教 学情境 . 教 师利 用多 媒体课 件 恰 当 、 自然地 进行 教学 内容 的过渡 ,对 新 旧知识 的衔 接起 到 桥梁 和纽带 作用 .创 设 教学 情境 时 ,注意不 要产 生 知识 “ 断层 ” ,要从 一个 已学 知 识 点 自然 过 渡 到新 的知 识点 .通 过 多媒 体课 件演示 ,学 生可 以直 观地 观察 到数 学方 法在 相关 学科研 究 中的重 要作 用 ,能激 发 学生 的兴 趣 ,增0
其他
然后将 新计 算 出 的 g 用 于训 练模 式 P时隐含 层 的所 有神 经元 . 由上 述 的公 式可 以看 出 ,g 在 应 用于所 有模 式后 会调 整 回 1 0 . ,这 种情 况 会发 生在 网络计 算输 出接 近 期 望输 出时 ,所 以网络 的拓 扑结 构不 会 变 ,而且 不需要 大量 的附加 运算 .
利用数 学软 件制 作 图表 ,从 量 与形 两方 面将 枯燥 、抽 象 的数 学 概念 和 理 论 变 得 直观 、形 象 、生 动. 个 知 一 识点可 用 多种方 式表示 ,教师 同时 进行 点评 与注 释 ,从 而有 助 于学生 的理 解 和接 受 ,激发 学生学 习数学 的
兴趣 .
实验 结果 表 明 ,改进 后 的 B P算 法有 效地 避免 了局 部极 小值 问题 .
4 结 论
l _ 是针 对多 层前 馈神 经 网络 提 出的改 进算 法及实 验效 果. 在这 个改 进 算法 中 ,每一 种训 练模式 在 2- ,1 就 隐含层 的神 经元 中都 有 它 自己的传 递 函数 ,在 学习 的过 程 中 ,传递 函数 会 随着 g 的变 化 而 调 整 ,这 种 调 整是 为了避 免 由于隐 含层 神经 元饱 和 而引起 的局 部极 小值 问题 ,当网络 计算 输 出接 近教 师信 号 的时候 ,g
第三 步 :使 用 近似 的最 速下 降法 更新 权值 和偏 置值
收 稿 日期 :2 1一 O— 2 01 1 O 作 者 简 介 :张 俭 (9 0 ) 1 8 - ,女 ,辽 宁 营 口市 人 ,讲 师 ,主要 从 事 计 算 机 教 学 方 面研 究 .
3 8
辽 宁师 专 学报
2 1 年 第 2期 01


B P算 法 的 改进
会 调整 回它 的初 始值 1 0 上述 的实 验表 明 ,这种 改进 的 B .. P算法 在避 免局 部极 小 值 问题 上是 非常有 效 的 , 但是 对于更 多 的大 问题 和应 用 还需 要进 一步分 析 .
Eoh p c
图1迭代次数与样本均方误差关系图 ( p c 1 0 0 E o h= 0 0 )
W ( + 1 = W ( ) a ( 一 1 忌 )= = 志一 5 口 )
b 忌 1 = b ) — s ( + ) = ( — 口 =
2 改进 算法 的描述
对每个模式 都调整 隐含层 的 S形的传递 函数 ,这就可 以使 连接隐含 层和输 出层 的权值得 到协调 的修改.
取传 递 函数
,) ( 赤 z
义另 外两个 参数 ,一 个是
其 中 g为增 益参数 ,g通常设 为 1 0 . ,这 时 厂( ) z 即为对 数 一S型 函数 lg i. 令 g o sg 为模 式 P下 的 g 值.g 的值根 据输 出层 的期 望输 出和 网络 计算 输 出 的接 近程 度进行 调 整 ,为 了得 到 g 的值 ,我们 需 要定 e= ma ( t ~0j) p= x 1 J p1 = p 其中 t ,O 分 别为 期望 输 出和 网络 的计算 输 出. p j 另一 个参 数 H 为 不 同教师 信号 的平 均值 ,对 于一 个 给定 的学 习任务 ,H 是 个 常数 . 对于 大 多数 的模
见附图 1 .
( )在 E oh 00 0 o l . 0 2 p c =5 0 ,g a =0 0 0l时 ,学习结 果对 比表 见表 2 ,选 代 次数 与样 本均 方程差 关系 图
见 附图 2 .
表 1 学 习结 果 对 比 表 ( p c = 1 0 ) E o h 00 0 表 2 学 习结 果 对 比表 ( p c  ̄5 0 ) E oh 00 0
3 实 验 结 果 及 分 析
以下用异 或 问题对 改 进 的 算 法 进行 验证 ,收 到 了很 好 的效 果 ,算 法 用 MATL AB实 现. 实验 中采 用 2 —1 —2 结构 的神 经 网络 ,学 习率 a . ,初 始权值 和偏 置值 随 机取 ( 1 0 1 O 之 间 的数 ,程 序开始 时 , =0 1 一 . ,. ) 取 g =10 = . ,实 验结 果如 下 l = ( )在 E oh =1 0 ,g a 一0 0 01时 ,学 习结 果对 比表 见表 1 1 p c : 00 0 o l . 0 = ,选 代 次数 与样本 均 方误差关 系 图
的主动 性 和积 极性 . 2 4 在巩 固练 习处创 设教 学情境 .
0 引 言
B P算 法 因其 结构 性 能好 ,拥有 较 强 的信 息 处理 能力 以及 自学 能 力 等 优 点 ,在 模 式识 别 、分类 、函数 逼 近 、数据 压缩 、智 能控 制及 系统 建模 等方 面得 到越来 越 广泛 的应 用.但 是 由于问题 本 身的复 杂性 和计算 机在 时间 、空 间上 的局 限性 ,B P算 法也 凸显 了其 不足 之处 ,例 如 在 学 习算 法 中其 收敛 速 度 较慢 且存 在 局 部极值 问题 ,网络 的初始 权值 以及 隐含 层单 元数 需要 根据 经验选 取 等 问题 有 待 于进一 步解 决[ . 】 ] B P算法 很难解 决局 部极 小 值 的问题 ,而 目前 存在 的 大多 数算 法 都 是 通过 修 改 学 习模 型来 解决 ,这 些 方 法 虽然克 服 了陷入局 部极 小 值 的趋势 ,但 是对 权值进 行 的多种 多样 的随机 调整 不能 有效 地避 免局部 极小 值 ,而且在 合理 的重复 次数 内 ,网络并 不 能收敛 于全局 最小 值 .我 们 已经 注意 到一些 局 部极小 值问题 与 ] 隐含层 的神 经元饱 和有 着密 切 的关 系 :一旦 隐含层 的神 经元饱 和 ,隐含层 神经 元就 会 失去对 输入信 号 的精 确 性 ,而且信 息 的传播 也会 受堵 ,甚 至会 使 网络失 去学 习能力 . 这里所 说 的 隐含层 神 经元饱 和是 指隐含层
其错 误部 分反方 向传 递 ,在 反方 向传 递过 程 中将错 误信 号分别 给 予各个 单 元处 理 ,从 而获得 其 中的误差信 号. 反复第 一输 入输 出过 程 和第二 误 差调 整过程 直 到输 出期望值 为 止. 当然 在实 际 的生 活过程 中,人 们会 有一 个错 误 的容 忍度 问题 ,在 反 复 的调整 纠错 过程 中人们 也可 以提前 设 定循 环 次数 以及将 误 差减小 到可 以 接受 的程 度.B P算法 的一 般 步骤 为 : 第一 步 :通 过 网络将 输入 向前 传 播
相关文档
最新文档