一种BP神经网络学习率的优化设计
BP神经网络分类器优化技术研究

BP神经网络分类器优化技术研究BP神经网络是一种常用的深度学习模型,具有强大的非线性映射能力和自适应学习能力。
然而,其性能受到多种因素影响,如网络结构、学习率、迭代次数等。
因此,研究如何优化BP神经网络分类器的性能,提高其准确率和泛化能力,具有重要意义。
BP神经网络分类器是一种有监督学习算法,通过反向传播算法调整网络权重,使输出结果更接近目标值。
然而,传统的BP神经网络分类器存在一些问题,如易陷入局部最小值、过拟合等。
因此,研究如何优化BP神经网络分类器的性能,提高其鲁棒性和泛化能力,具有重要意义。
为了提高BP神经网络分类器的性能,许多研究者提出了各种优化算法和技巧。
例如,有些人通过改变网络结构,增加隐藏层或神经元数量,以提高模型的表达能力。
有些人通过采用不同的激活函数,如ReLU、sigmoid等,以提高模型的非线性映射能力。
还有些人通过引入正则化项,如LL2正则化,以减少过拟合现象。
本文提出了一种基于遗传算法的BP神经网络分类器优化方法。
该方法采用遗传算法自动调整网络结构、学习率、迭代次数等超参数,以获得最佳的网络性能。
具体实现步骤如下:初始化BP神经网络分类器的超参数,如学习率、迭代次数等。
利用遗传算法自动调整超参数,以获得最佳的网络性能。
具体来说,通过交叉、变异等操作,生成新的超参数组合,并计算其适应度值(即网络性能的评价指标,如准确率、召回率等)。
选择适应度值较高的超参数组合进行进一步优化,直到达到预设的停止条件(如迭代次数或准确率阈值)。
通过对比实验,我们发现采用遗传算法优化的BP神经网络分类器在处理多种数据集时,均取得了比传统BP神经网络分类器更好的性能。
具体来说,实验结果显示,优化后的BP神经网络分类器在准确率、召回率等指标上均有显著提高,同时过拟合现象也得到了有效控制。
尽管我们采用遗传算法优化了BP神经网络分类器的性能,但是仍存在一些问题需要进一步探讨。
例如,如何更有效地评价网络性能,以及如何处理不同类型的数据集等问题。
BP神经网络优化的基本方法

BP神经网络优化的基本方法
1.神经网络调优:
(1) 选择合适的网络结构:神经网络优化的首要之务是选择一个合适的
网络结构,尽可能给出正确高效的结果,并且能够有效的优化解决模
型的问题。
一般来说,在计算机视觉任务中,可采用经典的CNN和RNN网络结构。
(2) 提高网络深度:网络深度是指神经网络中隐层的数目。
一般来说,
网络深度越深,网络的表达能力就越强,模型的精度也就越高。
然而,当网络的深度较大时,会出现梯度消失或梯度爆炸的情况,所以,要
在参数调优的过程中,控制网络的深度。
(3) 模型参数调优:另外还需要调整模型的各个参数,如学习率,优化
器类型,正则化等,以便有效提高模型的性能。
2.模型融合:
(1) 考虑不同特征模型之间的不同:一组特定任务上的模型融合模型,
既可以提高模型性能,也可以降低结果输出的方差。
同时还应该考虑
不同模型之间的差异,并结合起来形成不同的模型组合,以获得最优
模型。
(2) 考虑多种融合方式:除了考虑不同模型之间的模型融合外,还可以
考虑模型融合的不同种类,如加权模型融合,投票模型融合,stacking 模型融合。
(3) 使用效果评估工具:融合多种模型后,要使用有效的效果评估工具对融合结果进行评估。
可以从准确率,召回率,F1分数等方面对模型进行评估,以确定最佳模型融合方案。
一种BP神经网络的改进算法及其应用

图1 声波孔隙度确定流程图
经过传统BP网络运算后的结果如图2所示。
图2 传统BP算法迭代误差曲线
从图2中可以看出,当网络进行到第488次迭代时,即可获得满足精度要求的结果。
而从图3中可以看出BP网络具有很强的拟合能力。
图3 基于传统BP算法的拟合结果
下面利用改进共轭梯度法重新设计网络,再对相同的数据进行仿真训练,图4表示训练误差曲线,图5表示网络计算出的孔隙度与岩心孔隙度的对比情况。
从这三张图中可以
(下转第64页)
图4 易混淆字符有区别的部分
注:红色方框内区域即为矩形区域P
(上接第61页)
看出,改进后的共轭梯度BP算法不仅实现了预期目标,完成了岩层孔隙度的计算,而且网络的收敛速度也快于传统的BP网络,从图中可见在第70次迭代时即可完成计算,说明了改进后的BP网络的优越性。
图4 改进共轭梯度BP算法的迭代误差曲线
4 结 语
通过上文的例子可以看到,改进共轭梯度BP算法不仅能够达成神经网络的设计目标,而且运算速度与运算精度都有所提升。
在实际应用时,改进共轭梯度BP算法能够从误
图5 基于改进共轭梯度BP算法的预测结果
参考文献
[1]蔡正国,程露.共轭梯度神经网络的研究[J].西安交通大学学报,1995,29(8):72-76.
[2]丛爽.面向MATLAB工具箱的神经网络理论及应用
合肥:中国科学技术大学出版社,1998.。
标准的BP神经网络算法程序MATLAB

count=1;
while (count<=maxcount) %结束条件1迭代1000次
c=1;
while (c<=samplenum)
for k=1:outputNums
d(k)=expectlist(c,k); %获得期望输出的向量,d(1:3)表示一个期望向量内 的值
end
break;
end
count=count+1;%训练次数加1
end%第一个while结束
error(maxcount+1)=error(maxcount);
p=1:count;
pp=p/50;
plot(pp,error(p),"-"); %显示误差
deltv(i,j)=alpha*yitay(j)*x(i); %同上deltw
v(i,j)=v(i,j)+deltv(i,j)+a*dv(i,j);
dv(i,j)=deltv(i,j);
end
end
c=c+1;
end%第二个while结束;表示一次BP训练结束
double tmp;
for i=1:inputNums
x(i)=samplelist(c,i); %获得输入的向量(数据),x(1:3)表一个训练向量
字串4
end
%Forward();
for j=1:hideNums
net=0.0;
for i=1:inputNums
net=net+x(i)*v(i,j);
dw=zeros(hideNums,outputNums); %10*3
浅析BP神经网络算法的改进和优化

浅析BP神经网络算法的改进和优化摘要:本文简要介绍了BP神经网络的缺点,着重强调了BP神经网络的算法改进,并且,利用Matlab仿真了各种改进算法的学习速度,从结果看改进后的BP神经网络能较好地解决针BP算法学习速度慢的缺点。
关键词:神经网络;BP算法;学习速度1BP算法的缺点虽然神经网络模型已成功应用于模式识别、函数逼近、时间序列预测等领域。
并且BP网络也是目前应用最为广泛的一种神经网络模型,它具有思路清晰,结构严谨,可操作性强等优点。
但是由于BP学习算法仅改变网络的连接值和阀值,不改变网络的拓扑结构,因此BP网络在处理具体问题时还存在如下问题[1]:1.1网络的麻痹现象。
在网络训练过程中,加权调得较大可能迫使所有的或大部分节点的加权和输出较大,从而操作在S压缩函数的饱和区,此时函数在其导数非常小的区域,即函数的导数值很小或趋近0,由于在计算加权修正量的公式中,这使得调节几乎停顿下来,通常为了避免这种现象,将训练速率减小,但又增加了训练时间。
1.2网络学习收敛速度比较慢。
由于BP算法的学习复杂性是样本规模的指数函数,如果网络规模较大或学习样本较多时,往往需要很长的学习时间,甚至学习无法完成,这个主要由于学习速率太小所造成的;可采用变化的学习速率或者自适应的学习速率加以改进。
1.3易陷入局部极小值。
BP算法可以使网络权值收敛到一个解,但它并不能保证所求解为误差超平面的最小解,很可能是局部极小解;这是因为BP算法采用的是梯度下降法,训练是从某一起点沿误差函数的斜面逐渐达到误差的极小值,对于复杂的网络,其误差函数为多维空间的曲面,就像一个碗,其碗底是最小值点,但是这个碗的表面凹凸不平的,因而在对其进行训练的过程中,可能陷入某一小谷区,而这一小谷区产生一个局部最小值,由此点向各个方向变化均使误差增加,以至于使训练无法逃出这一局部最小值。
为了解决BP网络训练的以上缺点,人们提出了多种有益的改进。
改进方法主要有两类:第一类是基于启发式学习方法的改进算法:如附加动量的BP算法、自适应学习率BP算法、弹性BP算法等;第二类是基于数值优化的改进算法:如共扼梯度法、拟牛顿法和Levenberg-Marquardt(LM)法等。
毕业设计论文基于遗传算法的BP神经网络的优化问题研究.doc

编号:审定成绩:重庆邮电大学毕业设计(论文)设计(论文)题目:基于遗传算法的BP神经网络的优化问题研究学院名称:学生姓名:专业:班级:学号:指导教师:答辩组负责人:填表时间:2010年06月重庆邮电大学教务处制摘要本文的主要研究工作如下:1、介绍了遗传算法的起源、发展和应用,阐述了遗传算法的基本操作,基本原理和遗传算法的特点。
2、介绍了人工神经网络的发展,基本原理,BP神经网络的结构以及BP算法。
3、利用遗传算法全局搜索能力强的特点与人工神经网络模型学习能力强的特点,把遗传算法用于神经网络初始权重的优化,设计出混合GA-BP算法,可以在一定程度上克服神经网络模型训练中普遍存在的局部极小点问题。
4、对某型导弹测试设备故障诊断建立神经网络,用GA直接训练BP神经网络权值,然后与纯BP算法相比较。
再用改进的GA-BP算法进行神经网络训练和检验,运用Matlab软件进行仿真,结果表明,用改进的GA-BP算法优化神经网络无论从收敛速度、误差及精度都明显高于未进行优化的BP神经网络,将两者结合从而得到比现有学习算法更好的学习效果。
【关键词】神经网络BP算法遗传算法ABSTRACTThe main research work is as follows:1. Describing the origin of the genetic algorithm, development and application, explain the basic operations of genetic algorithm, the basic principles and characteristics of genetic algorithms.2. Describing the development of artificial neural network, the basic principle, BP neural network structure and BP.3. Using the genetic algorithm global search capability of the characteristics and learning ability of artificial neural network model with strong features, the genetic algorithm for neural network initial weights of the optimization, design hybrid GA-BP algorithm, to a certain extent, overcome nerves ubiquitous network model training local minimum problem.4. A missile test on the fault diagnosis of neural network, trained with the GA directly to BP neural network weights, and then compared with the pure BP algorithm. Then the improved GA-BP algorithm neural network training and testing, use of Matlab software simulation results show that the improved GA-BP algorithm to optimize neural network in terms of convergence rate, error and accuracy were significantly higher than optimized BP neural network, a combination of both to be better than existing learning algorithm learning.Key words:neural network back-propagation algorithms genetic algorithms目录第一章绪论 (1)1.1 遗传算法的起源 (1)1.2 遗传算法的发展和应用 (1)1.2.1 遗传算法的发展过程 (1)1.2.2 遗传算法的应用领域 (2)1.3 基于遗传算法的BP神经网络 (3)1.4 本章小结 (4)第二章遗传算法 (5)2.1 遗传算法基本操作 (5)2.1.1 选择(Selection) (5)2.1.2 交叉(Crossover) (6)2.1.3 变异(Mutation) (7)2.2 遗传算法基本思想 (8)2.3 遗传算法的特点 (9)2.3.1 常规的寻优算法 (9)2.3.2 遗传算法与常规寻优算法的比较 (10)2.4 本章小结 (11)第三章神经网络 (12)3.1 人工神经网络发展 (12)3.2 神经网络基本原理 (12)3.2.1 神经元模型 (12)3.2.2 神经网络结构及工作方式 (14)3.2.3 神经网络原理概要 (15)3.3 BP神经网络 (15)3.4 本章小结 (21)第四章遗传算法优化BP神经网络 (22)4.1 遗传算法优化神经网络概述 (22)4.1.1 用遗传算法优化神经网络结构 (22)4.1.2 用遗传算法优化神经网络连接权值 (22)4.2 GA-BP优化方案及算法实现 (23)4.3 GA-BP仿真实现 (24)4.3.1 用GA直接训练BP网络的权值算法 (25)4.3.2 纯BP算法 (26)4.3.3 GA训练BP网络的权值与纯BP算法的比较 (28)4.3.4 混合GA-BP算法 (28)4.4 本章小结 (31)结论 (32)致谢 (33)参考文献 (34)附录 (35)1 英文原文 (35)2 英文翻译 (42)3 源程序 (47)第一章绪论1.1 遗传算法的起源从生物学上看,生物个体是由细胞组成的,而细胞则主要由细胞膜、细胞质、和细胞核构成。
神经网络中的优化算法与学习率调整策略

神经网络中的优化算法与学习率调整策略神经网络是一种模仿人脑神经系统的计算模型,通过多层神经元之间的连接和信息传递,实现对复杂问题的学习和处理。
然而,在神经网络的训练过程中,如何优化网络的参数以提高其性能成为一个关键问题。
而优化算法和学习率调整策略则是解决这一问题的重要手段。
一、优化算法神经网络的优化算法主要用于寻找最优的网络参数,以使得网络的输出与真实值之间的误差最小化。
常见的优化算法有梯度下降法、随机梯度下降法和Adam算法等。
1. 梯度下降法梯度下降法是一种基于梯度信息的优化算法,通过迭代更新网络参数,以使得损失函数逐渐减小。
具体而言,梯度下降法通过计算损失函数对参数的偏导数,然后按照负梯度方向更新参数。
这样,网络的参数会逐渐朝着损失函数的最小值移动,从而实现对网络的优化。
2. 随机梯度下降法随机梯度下降法是梯度下降法的一种改进方法,其主要区别在于每次迭代只使用一个样本来计算梯度。
相比于梯度下降法,随机梯度下降法的计算速度更快,但也更容易陷入局部最优解。
为了解决这个问题,可以采用一些改进的随机梯度下降算法,如随机梯度下降法的动量法和自适应学习率的随机梯度下降法。
3. Adam算法Adam算法是一种自适应学习率的优化算法,它结合了动量法和自适应学习率的思想。
Adam算法通过计算梯度的一阶矩估计和二阶矩估计来自适应地调整学习率。
这样,网络的参数可以在不同的方向上以不同的速度进行更新,从而更好地适应不同的数据分布和损失函数。
二、学习率调整策略学习率是神经网络训练中的一个重要超参数,它控制了参数更新的步长。
合适的学习率可以加快网络的收敛速度,而过大或过小的学习率则会导致网络性能的下降。
因此,如何调整学习率是神经网络训练中的一个关键问题。
1. 固定学习率固定学习率是最简单的学习率调整策略,它将学习率设置为一个固定的常数。
然而,在实际应用中,由于数据分布的不同和网络的复杂性,固定学习率往往无法满足网络的训练需求。
BP神经网络的优化算法研究

计算机与现代化2009年第1期J I S UANJ I Y U X I A NDA I HUA 总第161期文章编号: 1006 22475 ( 2009) 0120073 203B P神经网络的优化算法研究张山,何建农(福州大学数学与计算机科学学院,福建福州350002 )摘要: B P学习算法通常具有收敛速度慢,易陷入局部极小值等缺点; 遗传算法是全局优化算法,具有较强的全局搜索性能,但它在实际应用中容易产生早熟收敛的问题,且在进化后期搜索效率较低; 模拟退火算法具有摆脱局部最优点的能力,能抑制遗传算法的早熟现象。
因此,本文在B P算法结合遗传算法的同时,再加入模拟退火算法,可以有效地缓解遗传算法的选择压力。
关键词:遗传算法; 模拟退火算法; 神经网络中图分类号: TP183文献标识码: ARe s ea r ch on O p t i m i zed A lgor ith m for BP Neura l Ne t work sZ HAN G Shan , H E J ian2nong( C o l lege of M a t he m a t ic s and Comp u t e r Sc i ence, Fuzhou U n i ve r sity, Fuzhou 350002 , Ch i na)A b stra c t:B P lea rn ing a lgo rith m conve rge s sl ow and the s o lu ti on g o t is u sua lly l oca l op ti m a l s o lu ti on. Gene tic A lg o rith m is gl oba lop ti m iza ti on a lgo rith m and ha s str ong gl oba l sea rch ab ility. B u t it can ea sily cau se p re m a tu re conve rgence p r ob le m s in p rac tica l app lica ti on and the effic ien t of sea rch in la te r evo lu ti on is l ow. Si m u lted A nnea ling A lg o rith m ha s the advan tage s of av o id ge tting the l oca l op ti m a l s o lu ti on and p re m a tu re conve rgence p r ob le m. S o B P a lg o rith m co m b ine s Gene tic A lg o rith m and Si m u la ted A n2 nea l ing A lgo r ith m can effec t ive l y ea s e the p re s su r e of gene t ic a l go r ith m se l ec t i on p re s su r e.Key word s: gene t ic a l go r ith m; si m u l a t ed annea l ing a l go r ith m; B P neu r a l ne t w o r k s0 引言据统计, 近些年在神经网络学习算法中, B P 算法[ 1 ]是应用最广泛的算法之一。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
第22卷第3期湖 北 工 业 大 学 学 报2007年06月V ol.22N o.3 Journal of H ubei U niversity of T echnology Jun.2007[收稿日期]2007-03-20[基金项目]湖北省自然科学基金项目(2004ABA065).[作者简介]刘幺和(1954-),男,湖北武汉人,湖北工业大学教授,美国ASM E 和IEEE 专业会员,研究方向:智能控制.[文章编号]1003-4684(2007)0320001203一种B P 神经网络学习率的优化设计刘幺和1,陈 睿1,彭 伟2,周 蕾1(1湖北工业大学机械工程学院,湖北武汉430068;2湖北工业大学计算机学院,湖北武汉430068)[摘 要]考虑到结构优化设计的实用性和模糊性.在大量智能计算的基础上,提出了一种动态BP 神经网络的学习率优化方法,该方法如同Rough 集理论的数据分类简约功能去掉了多余属性的样本数据一样,从而使神经网络拓扑结构优化.实验表明,这种方法简单、实用且快速收敛.[关键词]BP 网络;优化设计;学习率[中图分类号]TP183[文献标识码]A 目前,智能计算在结构优化设计中已经得到广泛应用.智能计算是根据人和动物的3大系统(神经系统、遗传系统、免疫系统)特性,提出恰当的数学模型来进行智能计算.Rumelhart 等提出的误差反向传播(Back Propagation )学习算法是训练神经网络的强有力的工具.但是BP 算法存在收敛速度慢、易陷入局部极小等缺点,所以对BP 算法的改进是一个重要的研究课题.其中对学习率的研究是很重要的一个部分.如果学习率太小,收敛性容易得到保证,但收敛速度太慢;学习率太大,学习速度快,但可能导致振荡或发散[1].因而一个固定学习率不可能很好地适用于网络的整个学习过程.为实现快速而有效的学习收敛过程,人们提出了许多自适应地调节学习率的方法(自适应调节学习率,即在网络的学习过程中,学习率随着环境状态的变化不断自动调整).1 BP 神经网络BP 网络可实现输入空间到输出空间的非线性映射,它采用了优化算法中的梯度下降法,把一组样本的I/O 问题变为非线性优化问题,B P 神经网络模型一般由输入层、中间层、输出层构成(图1),该方法的数学原理和推导方法见文献[2].算法的执行步骤如下[2].1)对权系数W ij 置初值.对各层的权系数W ij 置一个较小的非零随机数,但其中W i ,n+1=-θ.2)输入一个样本X =(X 1,X 2,…,X n ),以及对应的期望输出Y =(Y 1,Y 2,…,Y n ).3)计算各层的输出.对于第k 层第i 个神经元的输出X k i ,有图1 BP 神经网络模型4)求各层的学习误差d k i .对于输出层k =m ,有d m i =X m i (1-X m i )(X mi -Y i ).对于其他各层,有d k i =X k i (1-X ki )・∑tW li・d k+l l . 5)修正权系数W ij 和阀值θ有ΔW ij (t +l )=ΔW ij (t )-η・d k i ・X k-1j.其中,ΔW ij (t )=-η・d k i ・X k-1j+αΔW ij (t -l )=W ij (t )-W ij (t -l ). 6)当求出了各层各个权系数之后,可按给定品质指标判别是否满足要求.如果满足要求,则算法结束;如果未满足要求,则返回3)执行.该学习算法,对于任一给定的样本X p=(X p1, X p2,…,X pn)和期望输出Y p=(X p1,Y p2,…,Y pn)都要执行,直到满足所有输入输出要求为止.2 遗传算法和免疫算法在结构优化中的应用 遗传算法是模拟生物在自然环境中的遗传和进化过程而形成的一种自适应全局优化概率搜索算法,其主要运算过程如下所示.步骤一:初始化.设置进化代数计算器t=0;设置最大进化代数T;随机生成M个个体作为初始群体P(0).步骤二:个体评价.计算群体P(t)中各个个体的适应度.步骤三:选择运算.将选择算子作用于群体.步骤四:交叉运算.将交叉算子作用于群体.步骤五:变异运算.将变异算子作用于群体.群体P(t)经过选择、交叉、变异运算后得到下一代的群体.群体P(t+1).步骤六:终止条件判断.若t≤T,则t=t+1,转到步骤二;若t>T,则以进化过程中得到的具有最大适应度的个体作为最优解输出,终止运算.基本免疫算法基于生物免疫系统基本机制,模仿了人体的免疫系统,它从体细胞理论和网络理论得到启发,实现了类似于生物免疫系统的抗原识别、细胞分化、记忆和自我调节的功能.如果将免疫算法与求解优化问题的一般搜索方法相比较,那么抗原、抗体、抗原和抗体之间的亲和性分别对应于优化问题的目标函数、优化解、解与目标函数的匹配程度.3 BP网络学习率的优化模型BP算法理论具有依据可靠、推导过程严谨、精度较高、通用性较好等优点,但是B P模型存在收敛速度缓慢、容易陷入局部极小值、难以确定隐层节点的数目等缺点[3].目前,有大量学者和研究人员试图采用遗传算法和免疫算法对B P网络学习率进行优化,建立了大量的数学模型.[4]但这些模型往往公式复杂、结构繁琐,既不利于学习和计算,也不利于计算机建模.针对以上的问题,笔者在大量遗传算法和免疫算法的实验基础上,提出一种简单优化方法将学习率的变化公式η=Ae-λn.其中n为迭代次数,A和λ的取值根据实际情况选择,一般情况下,1≤A≤50,0.001≤λ≤0.0001.鉴于工程应用的复杂性和结构优化的模糊性,对应不同的系统和实际要求,得出不同的取值范围.4 计算机仿真利用BP网络函数逼近的功能对B P网络及两种改进算法的性能进行比较,采用的神经网络有6个输入节点,6个隐藏节点和6个输出节点,共三层.输入样本为{0,0,0,0,0,0},输出样本为:{0.11,0.73,0.29,0.81,0.54,0.64}.训练最大步数取5000步,目标误差定为0.01,固定学习率定为2,A选为8.1,λ选为0.001.表1是BP 网络和优化算法的训练结果比较.表1 BP网络和优化算法的训练结果迭代次数结果误差基本BP网络960.001048优化学习率的BP网络190.0010705 结论以上实验仿真结果可以看出,在相同的误差要求下,优化过学习率的模型较之标准B P模型,训练次数明显减少,训练时间大大减短,而且结构简单,适用于计算机建模,该方法如同Rough集理论的数据分类简约功能去掉了多余属性的样本数据一样,从而使神经网络拓扑结构优化,快速收敛.[ 参 考 文 献 ][1] 武美先,张学良,温淑花,等.BP神经网络的双学习率自适应学习算法[J].现代制造工程,2005(10):29-32.[2] 史忠植.智能科学[M].北京:清华大学出版社,2006.[3] 杨东侯,年晓红,杨胜跃.两种改进的BP神经网络学习算法[J].长沙大学学报,2004,18(4):54-57. [4] 龚 安,张 敏.BP网络自适应学习率研究[J].科学技术与工程:2006,6(1):64-66.2湖 北 工 业 大 学 学 报2007年第3期 Optim al Design for Learning R ate of BP N eutral N et w orkL IU Yao 2he 1,C H EN Rui 1,PEN G Wei 2,ZHOU Lei 1(1S chool of Mechanical Engi n.,H ubei Univ.of Technolog y ,W u H an 430068,Chi na;2S chool of Com p uter ,H ubei Univ.of Technolog y ,W uhan 430068,Chi na )Abstract :Because of t he p racticability and f uzziness of optimum st ruct ure designing ,a kind of dynamic BP neural networks learning rate optimization is presented in t his paper on t he basis of a great amount of intel 2ligent calculation.The experimental result s show t hat t his met hod is simple ,f unctional and rapid in con 2vergence.K eyw ords :B P neut ral networkl ;optimal design ;learning rate[责任编辑:张岩芳]“高精度贴片机自动对准系统的开发研究”通过鉴定 该项目由机械工程学院测试计量技术及仪器学科带头人、博导钟毓宁教授负责,2004年获得武汉市科技攻关项目立项。
经过三年的研究,研制出基于机器视觉的自动对准系统样机。
项目组开发了利用小波变换、尺度映射、分层搜索预处理和亚象素边缘提取等多种算法的图像处理软件;提出并实现了一种利用正交光栅对CCD 自动对准系统进行高精度标定的方法;采用准对称光学系统和二维运动控制系统,开发了一套基于通用硬件的实时视觉细微定位和控制系统,实现了芯片和基底的自动对准。
4月26日,在由武汉市科技局组织的鉴定中,鉴定委员会一致认为,该项目已完成项目计划任务书所规定的各项任务,在CCD 自动对准系统高精度标定和图像快速精确匹配方面达到了国际先进水平。
3 第22卷第3期 刘幺和等 一种BP 神经网络学习率的优化设计。