PNN神经网络聚类法模式分类思想
机器学习技术中的聚类算法与分类算法比较与应用案例

机器学习技术中的聚类算法与分类算法比较与应用案例机器学习技术在当今世界中得到了广泛的应用,其中聚类算法和分类算法是常见的数据分析工具。
聚类算法与分类算法在目标和方法上有所不同,可以根据不同的需求选择适合的算法。
本文将对聚类算法和分类算法进行比较,并介绍在实际应用中的一些案例。
首先,聚类算法是一种将数据分为不同组或簇的技术,其目标是通过计算数据点之间的相似性来使相似的数据点聚集在一起。
相比之下,分类算法是一种对数据进行分类的技术,将数据划分为已知类别的组。
聚类算法不需要预先标定数据的类别,而分类算法则依赖于预先确定好的类别。
由于聚类算法的无监督性质,它可以用于探索数据的结构和模式,发现隐藏在数据中的规律;而分类算法则适用于已知类别的数据分类和预测。
其次,聚类算法和分类算法的方法也有所不同。
聚类算法的常见方法包括K均值聚类、层次聚类和DBSCAN聚类等。
K均值聚类将数据分为指定数量的簇,每个簇有一个中心点,通过迭代计算数据点和中心点之间的距离来进行聚类。
层次聚类根据数据点之间的相似性构建一颗树状结构,通过切割树来达到聚类的目的。
DBSCAN聚类根据数据点之间的密度来划分簇,具有对噪声和离群点的鲁棒性。
相比之下,分类算法的常见方法包括决策树、支持向量机和神经网络等。
决策树通过一系列的规则将数据划分为不同的类别,支持向量机通过最大化数据点与分类间的边界距离来进行分类,神经网络通过多个神经元的激活来进行分类。
在实际应用中,聚类算法和分类算法都有广泛的应用案例。
以电商行业为例,聚类算法可以用于商品推荐和用户分群。
通过聚类算法,可以将具有相似购买历史和兴趣的用户聚集在一起,以便向他们提供个性化的推荐商品。
同时,聚类算法还可以对商品进行分类,识别出相似的商品,用于销售排行榜和搭配推荐。
而分类算法可以用于用户购买行为的预测和欺诈检测。
通过分类算法,可以根据用户的历史购买数据和其他特征,进行预测性分析,从而预测用户未来的购买行为。
如何使用神经网络进行聚类分析

如何使用神经网络进行聚类分析神经网络在机器学习领域中扮演着重要的角色,可以用于各种任务,包括聚类分析。
聚类分析是一种将数据集中的对象划分为相似组的方法。
在本文中,我们将探讨如何使用神经网络进行聚类分析,并介绍一些常用的神经网络模型。
首先,让我们了解一下什么是神经网络。
神经网络是一种模仿人类神经系统的计算模型,由多个神经元(节点)组成的层级结构。
每个神经元都与其他神经元相连,并通过权重来传递信息。
神经网络通过学习权重和偏差的调整,从而能够对输入数据进行分类、回归或聚类等任务。
在聚类分析中,我们希望将数据集中的对象划分为不同的组,使得每个组内的对象相似,而不同组之间的对象差异较大。
神经网络可以通过学习数据集的特征和模式,自动将对象划分为不同的聚类。
下面介绍几种常用的神经网络模型用于聚类分析。
一种常用的神经网络模型是自组织映射(Self-Organizing Map,SOM)。
SOM 是一种无监督学习算法,可以将高维数据映射到一个低维的拓扑结构中。
SOM模型由输入层和竞争层组成,竞争层中的神经元代表聚类中心。
通过调整神经元之间的权重,SOM模型可以将输入数据映射到最相似的聚类中心。
另一种常用的神经网络模型是深度自编码器(Deep Autoencoder)。
深度自编码器是一种多层神经网络,由编码器和解码器组成。
编码器将输入数据压缩为低维表示,而解码器则将低维表示重构为原始数据。
通过训练深度自编码器,可以学习到数据的潜在特征,并用于聚类分析。
除了上述两种模型,还有许多其他的神经网络模型可用于聚类分析,如卷积神经网络(Convolutional Neural Network,CNN)和循环神经网络(Recurrent Neural Network,RNN)。
这些模型在不同的数据集和任务中表现出色,可以根据具体需求选择合适的模型。
在使用神经网络进行聚类分析时,还需要注意一些问题。
首先,数据的预处理非常重要。
神经网络对数据的分布和尺度敏感,因此需要对数据进行标准化或归一化处理。
概率神经网络信用评价模型及预警研究

1 引言
利用样本的先验概率 — — — Bayes 定律和最优判定原则对新的样本进行分类 , 则产生概率神经网络 ( Probabilistic Neural Network ,简称 PNN) . PNN 是 Specht [1 ] 于 1990 年提出的一种人工神经网络模型 , 它既具 有统计分类的功能 ,又不受多元正态分布等条件的限制 , 并且在 PNN 运算过程中可读出被分类的新输入 样本的后验概率 ,从而提供了对计算结果的解释 . 这种基于统计原理的神经网络模型 ,其模式分类器是一 种自监督的前馈网络分类方法 ,这种方法无需训练网络的连接权值 ,由给定的训练样本直接构成隐单元进
2005 年 5 月
系统工程理论与实践
第5期
文章编号 :100026788 ( 2005) 0520043206
概率神经网络信用评价模型及预警研究
庞素琳
( 暨南大学数学系 ,广州 广东 510632)
摘要 : 介绍了概率神经网络 ( PNN) 方法及其分类机理 , 构造了用于识别两类模式样本的 PNN 结构 , 用 来对我国 2000 年 106 家上市公司进行两类模式分类 . 仿真结果表明 ,PNN 对训练样本有很高的分类准确 率 ,能达到 100 % ;但对测试样本的分类准确率却很低 , 只达到 69177 %. 因而使总体的分类效果偏差 , 分 类准确率只达到 87174 %. 进一步的仿真结果表明 ,该方法对我国 2001 年公布的 13 家预亏公司进行预警 分析时 ,准确率只达到 69123 %. 所以 PNN 不太适合用来对新样本的识别和预警研究 . 研究结果还表明 , PNN 在分类效果上不如 MLP ( 对相同的样本 ,多层感知器分类准确率达到 98111 %) ,但和 Yang 等的 PNN 分类效果 ( 分类准确率最高达到 74 %) 相比 ,该文给出的 PNN 结构其分类效果更好 . 所以作为一种方法上 的探讨 ,PNN 仍不失其研究的价值 . 关键词 : 概率神经网络 ; 信用评价模型 ; 模式分类 ; 财务预警 中图分类号 : F830 文献标识码 : A
概率神经网络的分类预测——基于PNN的变压器故障诊断

概率神经网络的分类预测——基于PNN的变压器故障诊断摘要:电力变压器故障诊断对变压器、电力系统的安全运行有着十分重要的意义,本文介绍了基于概率故障神经网络(PNN)在变压器故障诊断中的应用。
针对概率神经网络(PNN)模型强大的非线性分类能力,PNN能够很好地对变压器故障进行分类;文章通过对PNN神经网络的结构和原理的分析,应用PNN概率神经网络方法对变压器故障进行诊断。
关键词:变压器;概率神经网络;故障诊断0 引言变压器是电力系统中的一个重要设备,由于它对电能的经济传输、灵活分配和安全使用具有重要意义,因而它的维护检修就显得极为重要,特别是通过对其进行故障诊断为其正常运行提供可靠的依据。
故障诊断技术是借助于现代测试、监控和计算机分析等手段,研究设备在运行中或相对静止条件下的状态信息,分析设备的技术状态,诊断其故障的性质和起因,并预测故障趋势,进而确定必要对策的一种方法。
从本质上讲,故障诊断就是模式识别问题。
神经网络的出现,为故障诊断问题提供了一种新的解决途径,特别是对于实际中难以解决的数学模型的复杂系统,神经网络更显示出其独特的作用。
目前,在故障诊断方面虽然BP网络应用得最为广泛,但其网络层数及每层神经元的个数不易确定,而且在训练过程中网络容易陷入局部最小点。
本文引入一种新的人工神经网络模型——概率神经网络,使用该网络进行变压器的故障诊断,可以获得令人满意的故障诊断率,并能有效地克服BP神经网络的缺点。
本文采用概率神经网络(probabilistic neural networks)对变压器故障进行诊断。
概率神经网络结构简单、训练简洁,利用概率神经网络模型的强大的非线性分类能力,将故障样本空间映射到故障模式空间中,可形成一个具有较强容错能力和结构自适应能力的诊断网络系统,从而提高故障诊断的准确率。
在实际应用中,尤其是在解决分类问题的应用中,它的优势在于用线性学习算法来完成非线性学习算法所做的工作,同时保持非线性算法的高精度等特性。
两种截然不同的PNN

关于两个PNN杂七杂八关于PNN其实有两种说法,一种是概率神经网络(Probabilistic Neural Network),另一种是基于产品的神经网络Product-based Neural Network,所以在使用PNN的时候要格外注意,要不然你的领导你的导师都不知道你说的是哪一个,常用的是第一种PNN,概率神经网络,北京航空航天大学的王小川老师在其著作中提到的PNN也指代的是概率神经网络下面先说概率神经网络1 概率神经网络的原理概率神经网络(Probabilistic Neural Network)的网络结构类似于RBF神经网络,但不同的是,PNN是一个前向传播的网络,不需要反向传播优化参数。
这是因为PNN结合了贝叶斯决策,来判断测试样本的类别。
1.1关于贝叶斯决策1.2关于概率神经网络的结构其网络并不算很主流的3层,而是4层图中样本特征维度为3,由上图可知,PNN的网络结构分为四层:输入层,模式层、求和层、输出层。
假设训练样本为PNN各层的作用于相互之间关系描述如下:输入层:输入测试样本,节点个数等于样本的特征维度。
感觉根据实际含义输入层中节点个数的确定依据与理由也大都同BP中的相关说法相似。
模式层:计算测试样本与训练样本中的每一个样本的Gauss函数的取值,节点个数等于训练样本的个数。
机器学习模型中,超参数是在开始学习过程之前设置值的参数这个时候不得不设定一些合适的寻址算法,相关的能够使用的寻址算法其实有很多,可以是GA算法,可以是SA(模拟退火),可以是PSO(粒子群算法),可以是AFSA(人工鱼群算法),可以是萤火虫算法,相关套路很多。
求和层:求取相同类别测试样本对应的模式层节点输出之和,节点个数等于训练样本的类别个数。
训练样本的类别个数其实就是侧面反映的label的个数输出层:对上述求和层输出进行归一化处理求取测试样本对应不同类别的概率,根据概率大小判断测试样本的类别,节点个数为1。
第10章神经网络聚类方法

第10章神经网络聚类方法
神经网络聚类方法是一种以神经网络技术为根基,以聚类分析为基础
的分类算法,它可以检测出不同数据之间的相似性,从而将这些数据分类
组织起来。
它的出现主要是为了解决传统聚类方法结果效果不佳的问题。
神经网络聚类方法的基本思想是,将聚类分析问题转化为神经网络模
型的问题,用神经网络解决聚类问题,尤其是使用核函数来表示簇之间的
关系,使用反向传播算法来优化神经网络,得出最优聚类结果。
根据神经网络聚类方法的结构,可以将神经网络聚类方法分为两类:
一种是基于核映射的神经网络聚类,另一种是基于自组织映射的神经网络
聚类。
基于核映射的神经网络聚类的典型代表有核聚类神经网络,它是由一
个输入层、一个隐含层和一个输出层构成的神经网络,它的基本思想是使
用一种核函数来表示簇之间的关系,并用反向传播算法来优化该神经网络,使其能够得出较为精确的聚类结果。
基于自组织映射的神经网络聚类则由一个输入层、一个隐含层和一个
自组织映射(SOM)层构成的神经网络,其基本思想是使用一种自组织映射
函数来表示簇之间的关系,并用反向传播算法来优化该神经网络。
神经网络预测法
Step2 • 利用样本计算网络输出,得到误差
Step3
• 利用误差反向计算每一层旳sensitivty, 更新权值和阈值。直到误差满足精度 要求。
BP网络学习算法旳改善
▪ BP算法缺陷小结
➢ 易形成局部极小而得不到全局最优; ➢ 训练次数多使得学习效率低,收敛速度慢; ➢ 隐节点旳选用缺乏理论指导; ➢ 训练时学习新样本有遗忘旧样本旳趋势。
w eight
af(W,p)
期望输出 t=1---苹果 t=0---香蕉
有导师旳学习
期望输出(向量)
训练样本:{ p 1 ,t 1 } { p 2 ,t 2 } { p Q , t Q }
输入(向量)
基本思想:
对样本对(输入和期望输出)进行学习;将样本旳输 入送至神经网络,计算得到实际输出;若实际输出与 期望输出之间旳误差不满足精度要求,则调整权值W
2、创建/训练BP神经网络: newff, train 创建前需要拟定网络旳构造:
隐层数
含一种隐层旳MLP网络能够以任意精度逼近任何有理函数。 在设计BP网络时,应优先考虑3层BP网络(即有1个隐层), 靠增长隐层节点数来取得较低旳误差。
隐层节点数 拟定隐层节点数旳最基本原则:在满足精度要求旳前提
BP神经网络旳Matlab工具箱函数
2、BP神经网络训练函数:
函数train用于训练已经创建好旳BP神经网络,其调 用格式为:
[net, tr, Y, E] = train(net, P, T)
训练前旳网络,
newff产生旳BP
网络
P:输入矩阵,每行相应于一种样本旳输入向量
T:输出矩阵,每行相应于该样本旳期望输出
下取尽量少旳隐层节点数。最佳隐层神经元个数可参照如下 公式:
动态神经网络的模型
动态神经网络的模型李嘉刚(中国海洋大学信息科学与工程学院电子系,青岛264005)摘要:动态神经网络(DNN)由于具有很强的学习能力和逼近任意非线性函数的特点而被广泛应用。
本文主要介绍动态神经网络的几种常见模型,比较不同模型之间的区别,在此基础上介绍一下动态神经网络的功能及应用。
关键词:动态神经网络,动态神经网络模型神经网络按是否含有延迟或反馈环节可以分为静态神经网络和动态神经网络,含有延迟或反馈环节的神经网络称为动态神经网络。
动态神经网络主要包括Hopfield型神经网络及细胞神经网络模型。
Hopfield型神经网络模型是由N个节点全部互相联结而构成的反馈型动态网络系统。
由于它可以实现联想记忆,并能进行优化问题的求解,因而受到人们的高度重视,并对神经网络理论的研究产生了重大的影响。
细胞神经网络系统与Hopfield神经网络系统结构上有很大的相似之处,不同之处在于Hopfield神经网络系统的神经元为全联结,而细胞神经网络系统不是全联结。
反映在模型的数学表述上就在于关联矩阵的特性不一样。
特性的不一样就决定了它们的应用范围不一样。
细胞神经网络系统主要在图象处理和汉字识别等方面有良好的应用前景,因此也受到了人们的广泛关注[1]。
一、动态神经网络模型根据网络结构特点,将它们分为3类:全反馈网络结构,部分反馈网络结构以及无反馈的网络结构。
1.1全反馈网络全反馈网络的突出代表就是Hopfield 网络,是由Hopfield在1982年提出的,如图1所示,是一种单层对称全反馈的结构。
Hopfield根据系统动力学和统计力学的原理,将“能量函数”的概念引入到对称Hopfield网络的研究中,给出了网络的稳定性判据。
可以证明,采用Hebb规则进行训练的Hopfield网络系统总是朝着能量减小的方向变化,最终进入稳定状态,即收敛于某个平衡点。
由于Hopfield网络的连接是全连接,因此当节点数目比较多时,网络的结构过于复杂,而网络结构中没有隐含层,使得网络的非线性性能较差,尤其是对于复杂的非线性动态过程系统,因此在一定程度上限制了它的应用[2]。
(完整版)PNN神经网络聚类法
目录摘要 01概率神经网络 01。
1网络模型 01.2分类思想 (1)1。
3 PNN分类的优点 (2)2 PNN网络的构建 (3)2.1 构建步骤 (3)2.2 Matlab中的主要代码 (3)3 Matlab编程及结果分析 (4)3。
1 Matlab中的编程 (4)3.2 仿真结果分析 (8)3。
3 结论 (12)4 总结 (12)参考文献 (13)PNN神经网络聚类法摘要近几年来,对于神经网络的研究越来越普遍,神经网络在我们社会生活中的作用也越来越不可替代,尤其在模式识别的领域里,更是有着举足轻重的作用。
酒是由多种成分按不同的比例构成的,兑酒时需要三种原料(X,Y,Z),现在已测出不同酒中三种原料的含量,本文正是基于PNN神经网络针对酒中X、Y、Z三种含量的不同来对酒进行识别分类。
本文首先介绍了PNN神经网络的网络模型以及它对不同的模式进行分类判别的思想,然后针对本文的酒类判别的要求来构建PNN网络,并在Matlab中进行编程仿真,最后对所仿真的结果进行了分析比较,最后找出最优的模式分类。
1概率神经网络概率神经网络(Probabilistic Neural Networks,PNN)是由D。
F。
Specht在1990年提出的.主要思想是用贝叶斯决策规则,即错误分类的期望风险最小,在多维输入空间内分离决策空间。
它是一种基于统计原理的人工神经网络,它是以Parzen窗口函数为激活函数的一种前馈网络模型。
PNN吸收了径向基神经网络与经典的概率密度估计原理的优点,与传统的前馈神经网络相比,在模式分类方面尤其具有较为显著的优势.1。
1网络模型PNN的结构如图1所示,共由四层组成。
图1 概率神经网络结构概率神经网络PNN 是径向基网络的一个分支,是前馈网络的一种.它是一种有监督的网络的分类器,基于概率统计思想,由Bayes 分类规则构成,采用Parzen窗函数密度估计方法估算条件概率,进行分类模式识别.PNN 的结构模型如图,共分四层:输入层、样本层(又称模式层)、求和层和决策层(又称竞争层输出层).对应网络输入X=[x1,x2,…xm ]T ,其输出为Y=[y1,y2,…,yL ]T ,输入向量为m ,待匹配的类别数为L 。
【国家自然科学基金】_概率神经网络(pnn)_基金支持热词逐年推荐_【万方软件创新助手】_20140801
推荐指数 8 2 2 2 2 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
2010年 序号 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37
2008年 序号 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39
科研热词 推荐指数 概率神经网络 6 故障诊断 2 非负矩阵分解 1 邻接谱 1 遥感傅里叶变换红外光谱 1 语音识别 1 蒙特卡罗分析 1 自适应概率神经网络(apnn) 1 自组织神经网络 1 自组织特征映射网络 1 能量特征向量 1 耳语音 1 粗集 1 神经网络 1 特征提取 1 模糊.仿射联合不变矩 1 模式识别 1 桥梁benchmark模型 1 易挥发性有机化合物 1 损伤识别 1 损伤模式识别 1 平滑因子 1 属性约简 1 容羞电路 1 容差 1 定性分析 1 多尺度 1 图谱 1 图像分类 1 反向传播人工神经网络 1 卫星云图 1 分割 1 全局k-均值算法 1 交通标志 1 云分类 1 主成分分析法 1 sar图像 1 mfcc参数 1 matlab 1
2009年 序号 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37
科研热词 概率神经网络 电能质量 扰动 分类 s变换 高光谱 辅助驾驶系统 脑-机接口 脉冲噪声 老油田 粗集 粒子群优化 相对小波能量 独立分量分析 特征提取 浅层气藏 正演 模式识别 概率神经网络(pnn) 核主元分析(kpca) 数据融合 故障辨识 损伤识别 快速傅里叶变换 径向基 属性约简 局部特征检测模板 多属性分析 多尺度信息融合 图像处理 噪声检测 去噪 关联故障 储层 交通标志识别 中值滤波 j-mean8算法
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
目录摘要 (1)1概率神经网络 (1)1.1网络模型 (1)1.2分类思想 (2)1.3 PNN分类的优点 (3)2 PNN网络的构建 (3)2.1 构建步骤 (3)2.2 Matlab中的主要代码 (4)3 Matlab编程及结果分析 (4)3.1 Matlab中的编程 (4)3.2 仿真结果分析 (7)3.3 结论 (10)4 总结 (11)参考文献 (12)PNN神经网络聚类法摘要近几年来,对于神经网络的研究越来越普遍,神经网络在我们社会生活中的作用也越来越不可替代,尤其在模式识别的领域里,更是有着举足轻重的作用。
酒是由多种成分按不同的比例构成的,兑酒时需要三种原料(X,Y,Z),现在已测出不同酒中三种原料的含量,本文正是基于PNN神经网络针对酒中X、Y、Z三种含量的不同来对酒进行识别分类。
本文首先介绍了PNN神经网络的网络模型以及它对不同的模式进行分类判别的思想,然后针对本文的酒类判别的要求来构建PNN网络,并在Matlab中进行编程仿真,最后对所仿真的结果进行了分析比较,最后找出最优的模式分类。
1概率神经网络概率神经网络(Probabilistic Neural Networks,PNN)是由D. F. Specht在1990年提出的。
主要思想是用贝叶斯决策规则,即错误分类的期望风险最小,在多维输入空间内分离决策空间。
它是一种基于统计原理的人工神经网络,它是以Parzen 窗口函数为激活函数的一种前馈网络模型。
PNN吸收了径向基神经网络与经典的概率密度估计原理的优点,与传统的前馈神经网络相比,在模式分类方面尤其具有较为显著的优势。
1.1网络模型PNN的结构如图1所示,共由四层组成。
图1 概率神经网络结构概率神经网络PNN 是径向基网络的一个分支,是前馈网络的一种。
它是一种有监督的网络的分类器,基于概率统计思想,由Bayes 分类规则构成,采用Parzen 窗函数密度估计方法估算条件概率,进行分类模式识别。
PNN 的结构模型如图,共分四层:输入层、样本层(又称模式层)、求和层和决策层(又称竞争层输出层)。
对应网络输入X=[x1,x2,…xm]T ,其输出为Y=[y1,y2,…,yL]T ,输入向量为m ,待匹配的类别数为L 。
1.2分类思想在PNN 的神经网络模型中,输入层中的神经元数目等于学习样本中输入向量的m ,各神经元是简单的分布单元,直接将输入变量传递给样本层。
样本层的节点数由输入样本和待匹配类别的乘积决定,为m*L 。
样本层是将输入节点传来的输入进行加权求和,然后经过一个激活函数运算后,再传给求和层。
这里激活函数采用高斯函数,则输出为:))2/||(||exp(22∑--=ii i c x σθ式中i c 为径向基函数的中心,i σ表示特性函数第i 个分量对弈的开关参数。
些层中每个节点均为RBF 的中心,采用的特性函数为径向基函数—高斯函数,计算未知模式与标准模式间相似度。
求和层各单元只与相应类别的模式单元相连,各单元只依据Parzen 方法求和估计各类的概率,即其条件概率为:∑=---∏=ni L Ti mm i X X X X nC X P 122/]2)()(exp[1)2(1)|(σσ式中i C 为类别,X 为识别样本,i X 为类别i 的模式样本(在概率神经网络中做为权值),m 为向量维数,σ为平滑参数,n 为类i 的模式样本数量。
先验概率记为P(X)。
决策层节点数等于待匹配类别数,为L 。
根据各类对输入向量概率的估计,采用Bayes 分类规则,选择出具有最小“风险”的类别,即具有最大后验概率的类别,可用下式来表达其决策方法对所有i ,j ≠))(/()()|(j j i i C P C X P C P C X P则输出y(X)=i C 。
与其它方法相比较,PNN 不需进行多次充分的计算,就能稳定收敛于Bayes 优化解。
在训练模式样本一定的情况下,只需进行平滑因子的调节,网络收敛快。
平滑因子值的大小决定了模式样本点之间的影响程度,关系到概率密度分布函数的变化。
通常,网络只要求经验地给定一个平滑因子。
1.3 PNN 分类的优点PNN 是一种可用于模式分类的人工神经网络,其实质是基于贝叶斯最小风险准则发展而来的一种并行算法,相比BP 网络,其主要优点为: (1) 训练速度快;(2) 在足够训练样本下,总可以保证获得贝叶斯准则下的最优解;(3) 只考虑样本空间的概率特性,允许增加训练样本而无需重新进行长时间的训练。
2 PNN 网络的构建2.1 构建步骤第一步:采集数据;本文采集的是兑酒所需要的三种原料的数据。
第二步:训练网络;选取该厂的30个样本数据作为训练和测试的数据。
以其中的20个数据作为训练样本,以1、2、3、4四类酒作为期望输出矢量。
训练网络从而得到酒类识别的PNN 网络模型。
第三步:进行网络性能测试;网络训练完成后,10个数据作为测试样本,进行网络性能检验。
将各层神经元间的连接权值代回网络中,对训练样本进行回归模拟;当训练样本的期望值输出与PNN 网络的仿真输出完全重合时,这说明网络已训练成功,可用来预测未知样本的类别。
第四步:利用已训练好的网络进行预测;利用已建好的PNN 网络来对未知的20组样本数据进行分类。
2.2 Matlab中的主要代码用Matlab实现过程的主要源代码如下:P=[p1,p2,p3,p4,p5,p6,p7]; %输入样本Tc %类别向量T=ind2vec(Tc); %转为目标分类向量;Net=newpnn(P,T,N); %创建一个PNN, SPREAD=NY=sim(net,P); %仿真Yc=vec2ind(Y); %转为类别向量输出网络训练结束后,输出层各节点和输入模式类的特定关系已确定,因此可用作模式分类器,当输入一个SPREAD值后,网络将对输入自动进行分类。
3 Matlab编程及结果分析3.1 Matlab中的编程前30组数据用来学习,利用训练好的PNN网络来对后20组数据进行预测。
Matlab中的源程序如下:clear all;P=[2232.43 3077.87 1298.871580.1 1752.07 2463.041962.4 1594.97 1835.951495.18 1957.44 3498.021125.17 1594.39 2937.7324.22 3447.31 2145.011269.07 1910.72 2701.971802.07 1725.81 1966.351817.36 1927.4 2328.791860.45 1782.88 1875.131237.91 2055.13 3405.09688.94 2104.72 3198.511675.65 1747.23 1580.391806.02 1810.19 2191.1274.56 3288.02 2433.87307.35 3363.84 2021.611988.27 1657.51 2069.22173.92 2608.55 1803.57372.16 3077.44 2163.46576.6 2140.98 33201724.13 1704.49 1798.752501.21 2652.65 984.561656.94 1913.34 2459.07362.51 3150.03 2472565.74 2284.97 3024.581978.06 1536.13 2375.641661.06 1552.4 2005.05790.29 2419.98 3051.161557.27 1746.27 1879.13];P=P';C=[2 3 3 1 1 4 1 3 3 3 1 1 3 3 4 4 3 2 4 1 3 2 3 4 1 3 3 1 3]; T=ind2vec(C);%将类别向量C 转换为目标向量Tt1=clock;%开始计时net=newpnn(P,T,50);%网络创建A=vec2ind(sim(net,P));datat1=etime(clock,t1)save netpnn net;clear all;load netpnn net;T1=[2793.36 3009.26 1073.55 1766.08 1803.14 1895.18 1207.88 1600.62 3123.07 245.75 3373.67 2248.45 2785.36 3052.81 1035.65 315.42 3088.29 2187.12 1243.28 2451.72 3111.99 829.84 1555.91 3139.21 1347.07 2364.31 3096.88 1926.98 1507.34 1626.47 1808.57 1608.78 1565.95 1124.1 1840.98 2819.41 2661 3302.39 1710.32 1805.55 1899.09 2400.6 1130.18 1902.42 2753.7 1355.19 1566.16 2927.81 1651.14 1774.03 1725.56 2110.63 3308.04 702.06 2788.11 3395.23 1684.45 1807.61 1680.56 2356.65 1363.58 1729.44 2749.55 1992.42 1526.9 1581.42 ];T1=T1';t2=clock;y=sim(net,T1);yc=vec2ind(y);B=vec2ind(sim(net,T1));datat2=etime(clock,t2)yccolr=zeros(4,3);for i=1:4colr(i,:)=rand(1,3);endfor i=1:4a=find(yc==i)p=plot3(T1(1,a),T1(2,a),T1(3,a),'*');axis([200 3200 1200 3500 1000 3200])hold on;grid on;box;set(p,'Color',colr(i,:));endfor i=1:4,text(T1(1,i)+0.1,T1(2,i),T1(3,i),sprintf('%g',yc(i))),endtitle('Testing the network.')3.2 仿真结果分析在前面章节中我们已经提到,平滑因子N 的重要性,N的取值直接影响着我们最后的分类结果。
下面是采用不同的平滑因子所的结果:当N=1时,仿真结果如下:datat1 =1.3590datat2 =0.4840yc =1 1 1 1 1 1 1 1 1 11 1 1 1 1 1 1 1 1 1 11data1和data2分别为PNN网络的训练时间和预测时间,yc是输出的酒的类别。