基于BP神经网络的边缘检测算法

合集下载

BP神经网络算法步骤

BP神经网络算法步骤

BP神经网络算法步骤
<br>一、概述
BP神经网络(Back Propagation Neural Network,BPNN)是一种经
典的人工神经网络,其发展始于上世纪80年代。

BP神经网络的原理是按
照误差反向传播算法,以及前馈神经网络的模型,利用反向传播方法来调
整网络各层的权值。

由于其具有自动学习和非线性特性,BP神经网络被
广泛应用在很多和人工智能、计算智能紧密相关的诸如计算机视觉、自然
语言处理、语音识别等领域。

<br>二、BP神经网络的结构
BP神经网络经常使用的是一种多层前馈结构,它可以由输入层,若
干隐藏层,以及输出层三部分组成。

其中,输入层是输入信号的正向传输
路径,将输入信号正向传送至隐藏层,在隐藏层中神经元以其中一种复杂
模式对输入信号进行处理,并将其正向传送至输出层,在输出层中将获得
的输出信号和设定的模式进行比较,以获得预期的输出结果。

<br>三、BP神经网络的学习过程
BP神经网络的学习过程包括正向传播和反向传播两个阶段。

其中,
正向传播是指从输入层到隐藏层和输出层,利用现有的训练数据,根据神
经网络结构,计算出网络每一层上各结点的的激活值,从而得到输出结果。

正向传播的过程是完全可以确定的。

BP神经网络算法

BP神经网络算法

BP神经网络算法一、算法原理在BP神经网络中,每个神经元都与上一层的所有神经元以及下一层的所有神经元相连。

每个连接都有一个权重,表示信息传递的强度或权重。

算法流程:1.初始化权重和阈值:通过随机初始化权重和阈值,为网络赋予初值。

2.前向传播:从输入层开始,通过激活函数计算每个神经元的输出值,并将输出传递到下一层。

重复该过程,直到达到输出层。

3.计算误差:将输出层的输出值与期望输出进行比较,计算输出误差。

4.反向传播:根据误差反向传播,调整网络参数。

通过链式求导法则,计算每层的误差并更新对应的权重和阈值。

5.重复训练:不断重复前向传播和反向传播的过程,直到达到预设的训练次数或误差限度。

优缺点:1.优点:(1)非线性建模能力强:BP神经网络能够很好地处理非线性问题,具有较强的拟合能力。

(2)自适应性:网络参数可以在训练过程中自动调整,逐渐逼近期望输出。

(3)灵活性:可以通过调整网络结构和参数来适应不同的问题和任务。

(4)并行计算:网络中的神经元之间存在并行计算的特点,能够提高训练速度。

2.缺点:(1)容易陷入局部最优点:由于BP神经网络使用梯度下降算法进行权重调整,容易陷入局部最优点,导致模型精度不高。

(2)训练耗时:BP神经网络的训练过程需要大量的计算资源和耗时,特别是对于较大规模的网络和复杂的输入数据。

(3)需要大量样本:BP神经网络对于训练样本的要求较高,需要足够多的训练样本以避免过拟合或欠拟合的情况。

三、应用领域1.模式识别:BP神经网络可以用于图像识别、手写字符识别、语音识别等方面,具有优秀的分类能力。

2.预测与回归:BP神经网络可以应用于股票预测、销量预测、房价预测等问题,进行趋势预测和数据拟合。

3.控制系统:BP神经网络可以用于自适应控制、智能控制、机器人运动控制等方面,提高系统的稳定性和精度。

4.数据挖掘:BP神经网络可以应用于聚类分析、异常检测、关联规则挖掘等方面,发现数据中的隐藏信息和规律。

BP神经网络算法预测模型

BP神经网络算法预测模型

BP神经网络算法预测模型
BP神经网络(Back Propagation Neural Network,BPNN)是一种常
用的人工神经网络,它是1986年由Rumelhart和McClelland首次提出的,主要用于处理有结构的或无结构的、离散的或连续的输入和输出的信息。

它属于多层前馈神经网络,各层之间存在权值关系,其中权值是由算法本
身计算出来的。

BP神经网络借助“反向传播”(Back Propagation)来
实现权值的更新,其核心思想是根据网络的输出,将错误信息以“反馈”
的方式传递到前面的每一层,通过现行的误差迭代传播至输入层,用来更
新每一层的权值,以达到错误最小的网络。

BP神经网络的框架,可以有输入层、隐含层和输出层等组成。

其中
输入层的节点数即为输入数据的维数,输出层的节点个数就是可以输出的
维数,而隐含层的节点数可以由设计者自由设定。

每一层之间的权值是
BP神经网络算法预测模型中最重要的参数,它决定了神经网络的预测精度。

BP神经网络的训练步骤主要有以下几步:首先,规定模型的参数,
包括节点数,层数,权值,学习率等;其次,以训练数据为输入,初始化
权值,通过计算决定输出层的输出及误差;然后,使用反向传播算法,从
输出层向前,层层地将误差反馈到前一层。

BP神经网络学习及算法

BP神经网络学习及算法

BP神经网络学习及算法1.前向传播:在BP神经网络中,前向传播用于将输入数据从输入层传递到输出层,其中包括两个主要步骤:输入层到隐藏层的传播和隐藏层到输出层的传播。

(1)输入层到隐藏层的传播:首先,输入数据通过输入层的神经元进行传递。

每个输入层神经元都与隐藏层神经元连接,并且每个连接都有一个对应的权值。

输入数据乘以对应的权值,并通过激活函数进行处理,得到隐藏层神经元的输出。

(2)隐藏层到输出层的传播:隐藏层的输出被传递到输出层的神经元。

同样,每个隐藏层神经元与输出层神经元连接,并有对应的权值。

隐藏层输出乘以对应的权值,并通过激活函数处理,得到输出层神经元的输出。

2.反向传播:在前向传播后,可以计算出网络的输出值。

接下来,需要计算输出和期望输出之间的误差,并将误差通过反向传播的方式传递回隐藏层和输入层,以更新权值。

(1)计算误差:使用误差函数(通常为均方差函数)计算网络输出与期望输出之间的误差。

误差函数的具体形式根据问题的特点而定。

(2)反向传播误差:从输出层开始,将误差通过反向传播的方式传递回隐藏层和输入层。

首先,计算输出层神经元的误差,然后将误差按照权值比例分配给连接到该神经元的隐藏层神经元,并计算隐藏层神经元的误差。

依此类推,直到计算出输入层神经元的误差。

(3)更新权值:利用误差和学习率来更新网络中的权值。

通过梯度下降法,沿着误差最速下降的方向对权值和阈值进行更新。

权值的更新公式为:Δwij = ηδjxi,其中η为学习率,δj为神经元的误差,xi为连接该神经元的输入。

以上就是BP神经网络的学习算法。

在实际应用中,还需要考虑一些其他的优化方法和技巧,比如动量法、自适应学习率和正则化等,以提高网络的性能和稳定性。

此外,BP神经网络也存在一些问题,比如容易陷入局部极小值、收敛速度慢等,这些问题需要根据实际情况进行调优和改进。

图像处理中的边缘检测算法研究综述

图像处理中的边缘检测算法研究综述

G ,, f i , 】 [ .+1+.【+1/ 】 ,】 [一1 J+1+厂 ,/ 】 厂 , , +1一 ,
其局部搜索能 力不强。进行图像处理时可将两种算法相结
G j l .i l — 】 / , 1,+ [ 1 + 卜 [J f + , I 【 ,】 f i , l , [ J r + ’ + + J ( 6)
问题 的算 法 一 直是 图像 处理 与 分 析 的研 究 重点 。 该 文 介绍
了五种经典的边缘检测算子和近年来涌现出的新的边缘检
测方法。
2几种经典边缘检测算子
2 1R b rs . o et 算子 Ro e t b r s算 子 ,它是 一 个 2 × 2模 板 ,利用 局 部 差 分 检 测 比 较 陡 峭 的 边 缘 ,其 检 测 定 位 精 确 比较 高 ,但 由
G10I ( 处理 ,然后 对去 噪后 的 图像 fx) 用阶 数为 表 明左右 方 向微 0。 5 分 的合 成分 数阶 微分 算子 提取( 采 点 。实验 q的 ,该 方法在 = 2 ) l 1 1 j 边缘
2 3 P e  ̄t . rw t算子 Pe t边缘检测算子是一种类似 S b l rwi t o e边缘检测算子的 边缘模板算子 ,通过对 图像进行八个 方 向的边缘检测 ,将 其 中方 向响 应 最 大 的 作 为 边 缘 幅 度 图像 的 边 缘 。 其 定 义 如
分 产 生 的 时 候分 数 阶 微 分 就 诞 生 了 。 随 着科 学 技 术 的 飞速
G r,】 fi l + 】 2 fi l .f , l () [ : [ , 1 × [ , — + , , 】 厂 +l 】 + + 【 + 一 4
_ , , 一1一2×.[, 1一f[+1j一1 厂【一1, ] . f iJ— ] f , 】

基于深度学习的图像边缘检测算法优化

基于深度学习的图像边缘检测算法优化

基于深度学习的图像边缘检测算法优化深度学习是一种在计算机视觉领域中广泛应用的人工智能技术。

它通过建立复杂的神经网络模型,以从大量数据中学习,并在图像分类、目标检测和语义分割等任务中取得了显著的成果。

其中,图像边缘检测是计算机视觉领域中一个重要且有挑战性的任务。

在这篇文章中,我们将讨论基于深度学习的图像边缘检测算法优化的方法和技术。

在传统的图像边缘检测方法中,常用的算子包括Sobel、Canny和Laplacian等。

然而,这些传统方法往往对于复杂背景和噪声干扰较大的图像效果不佳。

而基于深度学习的边缘检测算法能够通过训练大规模数据集,自动学习图像中的特征,进而在各种复杂场景下进行更准确的边缘检测。

现如今,基于深度学习的图像边缘检测算法已经在一些任务中取得了令人瞩目的结果。

为了进一步改进这些算法的性能,研究者提出了许多优化方法。

以下是其中几种值得关注的方法:首先,网络结构的设计对算法性能有着重要的影响。

最初的深度学习边缘检测算法使用的是卷积神经网络(CNN)。

然而,由于CNN在处理前后景对比不明显的图像时效果较差,研究者们开始尝试使用全卷积神经网络(FCN)。

FCN能够在一次前向传播中输出整个图像的边缘信息,从而提高了边缘检测的准确性。

其次,数据集的选择和预处理对算法的性能至关重要。

一个好的数据集能够提供充足的训练样本,使得模型能够更好地学习到图像中的边缘信息。

同时,预处理技术如数据增强和图像归一化等也能够很大程度上改善算法的性能。

数据增强技术包括平移、旋转、缩放和翻转等操作,能够增加训练数据的多样性,提高模型的鲁棒性。

此外,损失函数的设计也是优化算法性能的关键。

传统的边缘检测算法通常使用二值化的交叉熵损失函数。

然而,这种损失函数在边缘像素数量较少的情况下容易产生类别不平衡问题。

为了解决这个问题,研究者们提出了基于Focal Loss和Dice Loss的损失函数。

这些损失函数能够有效平衡正负样本之间的数量差异,提高边缘检测的性能。

神经网络的BP算法实验报告

计算智能基础实验报告实验名称:BP神经网络算法实验班级名称:341521班专业:探测制导与控制技术姓名:***学号:********一、 实验目的1)编程实现BP 神经网络算法;2)探究BP 算法中学习因子算法收敛趋势、收敛速度之间的关系;3)修改训练后BP 神经网络部分连接权值,分析连接权值修改前和修改后对相同测试样本测试结果,理解神经网络分布存储等特点。

二、 实验要求按照下面的要求操作,然后分析不同操作后网络输出结果。

1)可修改学习因子2)可任意指定隐单元层数3)可任意指定输入层、隐含层、输出层的单元数4)可指定最大允许误差ε5)可输入学习样本(增加样本)6)可存储训练后的网络各神经元之间的连接权值矩阵;7)修改训练后的BP 神经网络部分连接权值,分析连接权值修改前和修改后对相同测试样本测试结果 。

三、 实验原理1BP 神经网络算法的基本思想误差逆传播(back propagation, BP)算法是一种计算单个权值变化引起网络性能变化的较为简单的方法。

由于BP 算法过程包含从输出节点开始,反向地向第一隐含层(即最接近输入层的隐含层)传播由总误差引起的权值修正,所以称为“反向传播”。

BP 神经网络是有教师指导训练方式的多层前馈网络,其基本思想是:从网络输入节点输入的样本信号向前传播,经隐含层节点和输出层节点处的非线性函数作用后,从输出节点获得输出。

若在输出节点得不到样本的期望输出,则建立样本的网络输出与其期望输出的误差信号,并将此误差信号沿原连接路径逆向传播,去逐层修改网络的权值和节点处阈值,这种信号正向传播与误差信号逆向传播修改权值和阈值的过程反复进行,直训练样本集的网络输出误差满足一定精度要求为止。

2 BP 神经网络算法步骤和流程BP 神经网络步骤和流程如下:1) 初始化,给各连接权{},{}ij jt W V 及阈值{},{}j t θγ赋予(-1,1)间的随机值;2) 随机选取一学习模式对1212(,),(,,)k k k k k k k n k n A a a a Y y y y ==提供给网络;3) 计算隐含层各单元的输入、输出;1n j ij i j i s w a θ==⋅-∑,()1,2,,j j b f s j p ==4) 计算输出层各单元的输入、输出;1t t jt j t j l V b γ==⋅-∑,()1,2,,t t c f l t q ==5) 计算输出层各单元的一般化误差;()(1)1,2,,k k t t tt t t d y c c c t q =-⋅-=6) 计算中间层各单元的一般化误差;1[](1)1,2,,q kk jt jt j j t e d V b b j p ==⋅⋅-=∑7) 修正中间层至输出层连接权值和输出层各单元阈值;(1)()k jt jt t j V iter V iter d b α+=+⋅⋅(1)()k t t t iter iter d γγα+=+⋅8) 修正输入层至中间层连接权值和中间层各单元阈值;(1)()kk ij ij j i W iter W iter e a β+=+⋅⋅(1)()kj j j iter iter e θθβ+=+⋅9) 随机选取下一个学习模式对提供给网络,返回步骤3),直至全部m 个模式训练完毕;10) 重新从m 个学习模式对中随机选取一个模式对,返回步骤3),直至网络全局误差函数E 小于预先设定的一个极小值,即网络收敛;或者,当训练次数大于预先设定值,强制网络停止学习(网络可能无法收敛)。

基于BP神经网络的彩色图像边缘检测方法研究


项 目资助 : 中央高校基本科研 业务费专项资金 资助项 目( D C 1 2 0 1 0 1 1 3 4 ) ; 大连 民族学院人才 引进科研 启动基金资助项 目 ( 2 0 1 1 6 2 0 3 ) ;
1 1 6 6 0 0 , C h i n a )
A b s t r a c t :T hi S a r t i c l e m a i n l y s t u d i e d t o u s e B P n e u r a l n e t w o r k t o d e t e c t t h e e d g e o f a c o l o r i m a g e . U s i n g i m p r o v e d l e a r n i n g a l g o r i t h m t o t r a i n t h e n e t w o r k , m a ki n g s a m p l e s d e c r e a s e d f r e q u e n c y o f t r a i n i n g a n d
Ed g e d e t e c t i on o f c o l o r i ma g e ba s e d o n BP ne u r a l ne t wo r ks
L i u Y u n ,Z h e n g R u i r u i *, W u Y a n j u n , X u B a o c u i , W u B a o c h u n
I t c a n c o m p a r e t h i s e d g e d e t e c t i o n a l g o r i t h m a n d t h e c o n v e n t i o n a l d e t e c t i o n a l g o r i t h m , s h o w t h e r e s u l t s o f

神经网络——BP算法


BP算法的学习过程由
正向传播和反向传播组成
BP算法是由两部分组成:信息 的正向传递与误差的反向传播。
在正向传播过程中,输入信息 从输入经隐含层逐层计算传向输 出层,每一层神经元的状态只影 响下一层神经元的状态。
如果在输出层没有得到期望
的输出,则计算输出层的误 差变化值,然后转向反向传 播,通过网络将误差信号沿 原来的连接通路反传回来修 改各层神经元的权值直至达 到期望目标。
第7 章 7.2
典型神经网络--BP
反向传播网络
Back—Propagation Network, 由于其权值的调整采用反向传播 (Backpropagation)的学习算法, 因此被称为BP网络。
BP网络
是一种单向传播的多层前向网络 其神经元的变换函数是S型函数,
因此输出量为0到1之间的连续量 它可以对非线性可微分函数进行 权值训练,从而实现输入到输出 的任意的非线性映射。
隐层输入:
xj

i
ij
xi
隐层输出采用S函数
x
'
j
1 f x j x j 1 e
yn k j 2 x j
' j
输出层输出
j 2 k 1 j 2 k j 2 j 2 k j 2 k 1
BP网络用途 1) 函数逼近:用输入矢量和相应的输出矢 量训练一个网络逼近—个函数; 2) 模式识别:用一个特定的输出矢量将它 与输入矢量联系起来; 3) 分类:把输入矢量以所定义的合适方式 进行分类; 4)数据压缩:减少输出矢量维数以便于传 输或存储。
BP网络的逼近
用于逼近的BP网络
前向传播:计算网络输出
3. 只有当希望对网络的输出 进行限制,如限制在0和1之 间,那么在输出层应当包含S 型激活函数,在一般情况下, 均是在隐含层采用S型激活函 数,而输出层采用线性激活 函数。

图像识别

图像识别技术综述随着图像处理技术的迅速发展,图像识别技术的应用领域越来越广泛。

图像处理正显著地改变着人们的生活方式和生产手段,比如人们可以借助于图像处理技术欣赏月球的景色、交通管理中的车牌照识别系统、机器人领域中的计算机视觉等。

图像识别是利用计算机对图像进行处理、分析和理解,以识别各种不同模式的目标和对像的技术。

图像识别是通过存储的信息(记忆中存储的信息)与当前的信息(当时进入感官的信息)进行比较实现对图像的识别,只有通过存储的信息与当前的信息进行比较的加工过程,才能实现对图像的识别。

前提是图像描述,描述是用数字或者符号表示图像或景物中各个目标的相关特征,甚至目标之间的关系,最终得到的是目标特征以及它们之间的关系的抽象表达。

主要涉及的技术有:图像处理技术,神经网络,模式识别,支持向量机等。

一、图像识别基本过程识别过程中对原图像矩阵进行轮廓扫描,将图像的轮廓信息保存在向量中作为特征向量,进行保存。

通过预处理和图像分割将新的读入图像转换为特征向量,与上一步已经得到的样本向量进行对比匹配,相似度最高的作为图像的识别输出。

从下图1.1可以看出,该方法主要包括两部分:训练和数字识别。

首先建立训练用样本集,实现对分类器的训练;然后对待识别的数字字符图像进行预处理、提取特征,进行识别,最后给出识别结果。

图1.1图像识别算法流程图图像识别系统的过程分为五部分:图像输入、预处理、特征提取、分类和匹配,其中预处理又可分为图像分割、图像增强、二值化等几个部分。

(1)图像输入将图像采集下来输入计算机进行处理是图像识别的首要步骤。

(2)预处理为了减少后续算法的复杂度和提高效率,图像的预处理是必不可少的。

其中背景分离是将图像区与背景分离,从而避免在没有有效信息的区域进行特征提取,加速后续处理的速度,提高图像特征提取和匹配的精度;图像增强的目的是改善图像质量,恢复其原来的结构;图像的二值化是将图像转换为二值图像。

数字图像预处理一般分为如下几个步骤:1)灰度化;2)图像二值化;3)图像分割;4)归一化调整。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

基于BP 神经网络的边缘检测算法
1 训练集的选取
在BP 神经网络的学习训练过程中,训练集样本的选取是一件非常重要的事情。

训练集的选取将直接影响网络学习训练的时间、权值矩阵与学习训练效果等。

目前,国内外有很多的学者采用神经网络的方法进行数字图像边缘检测的研究,但是尚处在试验阶段,尤其对样本的选择问题还没有很好的解决方法。

所以,在样本的选择过程中,先选择有代表性的图像作为训练图像。

例如像图1这样的图像,边缘比较明显,且边缘分布在图像的大部分区域。

图1
图1是一副256⨯256的8位的灰度BMP 图像。

这副图像边缘比较清晰,颗粒边缘分布在整副图像中,而且其纹理特征比较丰富,使神经网络得到很好训练,网络权值等网络信息会记住更多的边缘信息,可以比较好的检测图像。

把这副图像分别经过Roberts 算子、Sobel 算子、Prewitt 算子三个传统算子的边缘检测,得到三副边缘检测的边缘图像,用三副检测出来边缘图像经过比例加权,得到学习训练图像;亦即,对于图像的每一个像素,把三副图像相同像素的灰度按照预定的比例进行计算,得到的新像素的灰度值,当所有的像素计算完之后,就会得到一副新的图像,然后把这个新得到图像的灰度值输入到BP 神经网络模型进行学习训练。

2 BP 网络结构的确定
确定神经网络的结构时,除了输入层和输出层之外,关键就是要确定有几个中间层。

由于所采用的神经网络模型是BP 神经网络且结点函数是S 型函数,在实际中只采用了一个中间层。

最后,证明了一个中间层能较好的完成数字图像的边缘检测。

对于输入层结点,输入层结点数应等于输入向量的分量数目。

在图像情况下,像素的数目基本决定了输入结点的数目。

本文选用的是7⨯7的模板,有49个向量分量,即输入层结点的数目是49。

所选的模板不能太大也不能太小,如果所选的邻域模板太大的化,那么网络的规模就比较大,网络的计算量比较大,增加网络的训练以及检测时间,同时边缘的信息也可能会丢失;同时也不能太小,如果模板太小,就不能很充分地对某个像素的周围邻域很好的学习。

对于中间层的结点,其结点数目的选择非常重要。

中间层数目较少,网络将不能建立复杂的判决界,将会降低网络的分类能力,网络可能训练不出来;一旦数目太多,那么判决界只包封了训练点而失去了概括推断的能力,而且计算量很大,并增加网络的负荷,使训练时间加长,降低系统效率,训练效果不好。

开始的时候,中间层结点的个数定为6,但是发现在训练的过程中,网络训练的速度非常慢。

为了提高训练的速度,改变了结点的数目,根据经验公式,增加了中间层结点的数目。

目前中间层单元的数目取值没有一定的规则,要根据具体的问题和训练情况来决定。

根据专家和学者的经验得知,其中间层单元的数目为n
1n α=
式中m 为输出单元个数;n 为输入单元数,α为1到10之间的常数;其中n=49,m=1;于是α=8。

在实验过程中,训练出来的神经网络进行边缘检测效果不是很理想,认为网络缺少分化数据的能力,此时中间层单元的数目比较少;所以又增加了中间层单元的数目,即110n =,当中间层单元的数目为10时,效果较好。

这个时候我没有在增加中间层单元的数
目,因为在增加中间层数目将会使运算量有很大的增加,增加训练的时间和检测的
时间。

综合以上考虑,确定了如下网络拓扑结构:
49(输入结点单元个数)——10(中间层结点单元个数)——1(输出结点单元个数) 3 BP 神经网络的学习训练
学习训练是任何一个神经网络模型在应用过程中比较关键的环节。

所以,在学习训练过程中,一些参数的确定对神经网络的学习训练至关重要。

网络初始参数的设置,包括网络初始结构、连接的权值、阈值、学习率等参数的不同选取,都会对网络的收敛速度产生影响,而初始参数的选择,除了可以进行一些技术处理之外,主要还要依赖于神经网络建模者的观察与经验。

3.1 初始值的确定
对于网络的初始权值、阈值,通常的做法是从[-1,1]或[0,1]区间上随即选取一组数作为初始权值进行训练,不同的改进算法对区间的选取会有不同。

3.2 向量的归一化处理
在学习训练过程中,不能使结点输入太大,否则的话,权值的调节过小使网络不能很好的学习训练。

由于特征向量维数较大,且大部分的值都是基于灰度的都大于1,为了加快训练速度,对特征向量进行了归一化处理。

如果把特征向量看成行向量,可表示为
0148(,,...,)X x x x =
在8位的图像中,最大的灰度值是255,所以实际处理过程中,归一化结果为
'0,1,...,48255
i x X i == 由于归一化的原因,输出层计算出的结果也是在[0,1]之间的,显然,这个不是作为输出图像的像素的灰度值。

在计算出输出层的结果后,再乘以255,就是输出图像像素的实际灰度值。

3.3 网络误差的确定
对于BP 反向传播训练算法,通常使用网络误差是是我们熟知的均方差。

均方差定义如下
2
11()2N
j i j E t O ==-∑ 由于其输出节点数为一个,那么一个单元的绝对误差的平方作为神经网络的误差函数。

3.4 神经网络的训练
整个的学习训练过程见图2所示。

从这个图中就可以看出网络的学习训练是如何进行的,可以看出其权值、阈值的改变是在误差反馈的过程中,根据反馈的情况发生改变的。

由于处理的对象是图像,每输入一个样本即以每个像素周围的模板像素进行神经元网络训练一次,也就是把以某一个像素为中心的周围的49个像素的灰度值以从下向上、从左向右的顺序依次把各个像素的灰度送入输入层,进行神经网络的学习训练。

在输出层,根据“导师”提供的期望输出像素的灰度值和输出层的实际输出像素灰度值计算出网络的误差,误差沿反
向传播进一步改变每个神经元的阈值和神经元之间的连接权值,使网络能够记住更多的边缘信息。

根据训练的要求,可以停止网络的训练,训练出来的权值、阈值全部保留在后端的数据库中,以便在利用神经网络进行检测时,从后端的数据库提取出权值、阈值进行检测。

在训练的过程中,其输出层的输出像素灰度值为输入模板中心像素经神经网络计算出的像素灰度值。

那么在网络训练的过程中,于每次训练的图像是按照Roberts、Sobel和Prewitt经典算子得出得传统边缘检测图像的不同比例作为目标图像,那么每次在训练的时候,要对网络重新进行训练。

图2。

相关文档
最新文档