7.第8章 自组织竞争神经网络

11-第三篇 第4章 如何组织神经网络

第四章 如何组织神经网络 使用人工神经网络时,将面临神经网络结构参数的选择及样本数据的预备等问题。尽管对人工神经网络作了大量研究工作,但至今仍没有一个通用的理论公式来指导这些参数的选择,这里对一些基本方法加以介绍。 4.1 输入和输出层的设计问题 4.1.1 网络信息容量与训练样本数的匹配 在用ANN 解决实际问题时,训练样本的数量在众多要求中往往难于确定,特别它还与网络参数相关,网络参数指输入层、隐层及输出层结点数。对于确定的样本数,网络参数太少则不足以表达样本中蕴涵的全部规律;而网络参数太多,则由于样本信息少而得不到充分的训练。 多层前馈网络的分类逼近能力与网络的信息容量相关,如网络信息容量用网络的权值和阈值总数n w 表示,则训练样本数P 与给定的训练误差ε之间满足下面关系: ε ω n P ≈ 上式表明,网络的信息容量与训练样本数之间存在着合理匹配关系:当实际问题不能提供较多的样本时,为了使训练误差ε不至于过大,则需设法减少n w ,换言之,网络的权值和阈值总数不能太多,这等价于输入层、隐层及输出层结点数不能太多。就输入层、输出层结点数不能太多而言,当问题的输入输出变量较多时,必须剔除那些相对不太重要的参数而选择那些重要的参数作为研究对象。 4.1.2 训练样本数据设计 训练样本的合理选择,对网络具有重要的影响。样本数据的准备工作是网络设计与训练的基础。 1、训练样本数据的要求及数量 样本数据的多少与网络的训练时间有明显关系,除了考虑样本的数量外,还要考虑以下问题: (1)训练样本数据必须包括要研究问题的全部模式。神经网络是靠样本数据来训练的,样本越全面,网络性能就越好。 (2)训练样本数据之间尽可能不相关或相关性小,否则网络没有泛化能力。 (3)输入变量必须选择那些对输出影响大,且能够控制或提取训练数据的变量。 (4)在训练样本数据中,还应适当地考虑随机噪声的影响。例如在加工线上,用神经网络识别不合格零件,在训练网络时,必须用各种不合格尺寸及不合格形状的数据来训练网络。 (5)应注意在靠近分类边界处训练样本数据的选择。在靠近边界的地方,噪声的影响容易造成网络的错误判断,因此要选用较多的训练样本数据。 (6)训练样本数据量较大时可避免过度训练,或称过度拟合。 (7)训练样本要进行筛选并避免人为因素的干扰,同时应注意训练样本中各种可能模式的平衡,不能偏重于某种类型。 1

第4章 SOM自组织特征映射神经网络

第4章 SOM 自组织特征映射神经网络 生物学研究表明,在人脑的感觉通道上,神经元的组织原理是有序排列的。当外界的特定时空信息输入时,大脑皮层的特定区域兴奋,而且类似的外界信息在对应的区域是连续映像的。生物视网膜中有许多特定的细胞对特定的图形比较敏感,当视网膜中有若干个接收单元同时受特定模式刺激时,就使大脑皮层中的特定神经元开始兴奋,输入模式接近,与之对应的兴奋神经元也接近;在听觉通道上,神经元在结构排列上与频率的关系十分密切,对于某个频率,特定的神经元具有最大的响应,位置相邻的神经元具有相近的频率特征,而远离的神经元具有的频率特征差别也较大。大脑皮层中神经元的这种响应特点不是先天安排好的,而是通过后天的学习自组织形成的。 据此芬兰Helsinki 大学的Kohonen T.教授提出了一种自组织特征映射网络(Self-organizing feature Map ,SOM ),又称Kohonen 网络[1-5]。Kohonen 认为,一个神经网络接受外界输入模式时,将会分为不同的对应区域,各区域对输入模式有不同的响应特征,而这个过程是自动完成的。SOM 网络正是根据这一看法提出的,其特点与人脑的自组织特性相类似。 4.1 竞争学习算法基础[6] 4.1.1 自组织神经网络结构 1.定义 自组织神经网络是无导师学习网络。它通过自动寻找样本中的内在规律和本质属性,自组织、自适应地改变网络参数与结构。 2.结构 层次型结构,具有竞争层。典型结构:输入层+竞争层。如图4-1所示。 竞争层 输入 层 图4-1 自组织神经网络结构

· 输入层:接受外界信息,将输入模式向竞争层传递,起“观察”作用。 竞争层:负责对输入模式进行“分析比较”,寻找规律,并归类。 4.1.2 自组织神经网络的原理 1.分类与输入模式的相似性 分类是在类别知识等导师信号的指导下,将待识别的输入模式分配到各自的模式类中,无导师指导的分类称为聚类,聚类的目的是将相似的模式样本划归一类,而将不相似的分离开来,实现模式样本的类内相似性和类间分离性。由于无导师学习的训练样本中不含期望输出,因此对于某一输入模式样本应属于哪一类并没有任何先验知识。对于一组输入模式,只能根据它们之间的相似程度来分为若干类,因此,相似性是输入模式的聚类依据。 2.相似性测量 神经网络的输入模式向量的相似性测量可用向量之间的距离来衡量。常用的方法有欧氏距离法和余弦法两种。 (1)欧式距离法 设i X X ,为两向量,其间的欧式距离 T i i i X X X X X X d ))((--= -= (4-1) d 越小,X 与i X 越接近,两者越相似,当0=d 时,i X X =;以T d =(常数)为判据,可对输入向量模式进行聚类分析: 由于312312,,d d d 均小于T ,465645,,d d d 均小于T ,而)6,5,4(1=>i T d i , )6,5,4(2=>i T d i , )6,5,4(3=>i T d i , 故将输入模式654321,,,,,X X X X X X 分为类1和类2两大类,如图4-2所示。 (2)余弦法 设i X X ,为两向量,其间的夹角余弦 i T X X XX = ?cos (4-2) ?越小,X 与i X 越接近,两者越相似;当?=0时,?cos =1,i X X =;同样以0??=为 判据可进行聚类分析。

相关系数,回归模型,自组织竞争神经网络

高等教育学费标准的研究 摘要 本文从搜集有关普通高等学校学费数据开始,从学生个人支付能力和学校办学利益获得能力两个主要方面出发,分别通过对这两个方面的深入研究从而制定出各自有关高等教育学费的标准,最后再综合考虑这两个主要因素,进一步深入并细化,从而求得最优解。 模块Ⅰ中,我们将焦点锁定在从学生个人支付能力角度制定合理的学费标准。我们从选取的数据和相关资料出发,发现1996年《高等学校收费管理暂行办法》规定高等学校学费占生均教育培养的成本比例最高不得超过25%,而由数据得到图形可知,从2002年开始学费占教育经费的比例超过了25%,并且生均学费和人均GDP 的比例要远远超过美国的10%到15%。由此可见,我国的学费的收取过高。紧接着,我们从个人支付能力角度出发,研究GDP 和学费的关系。并因此制定了修正参数,由此来获取生均学费的修正指标。随后,我们分析了高校专业的相关系数,从个人支付能力角度,探讨高校收费与专业的关系,进一步 得到了高校收费标准1i i y G R Q = Q R G y ig g i =1 在模块Ⅱ中,我们从学校办学利益获得能力出发,利用回归分析对学生应交的学杂费与教育经费总计、国家预算内教育经费、社会团体和公民个人办学经验、社会捐投资和其他费用的关系,发现学杂费与教育经费总计成正相关,与其他几项费用成负相关。对此产生的数据验证分析符合标准。然后,再根据专业相关系数来确定学校收取学费的标准。从而,得到了学校办学利益的收费标准2i i i y y R = 。 在模块Ⅲ中,为了获取最优解,我们综合了前面两个模块所制定的收费指标,并分别给予不同权系数,得到最终学费的表达式12i i C ay by =+。然后,我们从学 校收费指标的权系数b 考虑,利用神经网络得到的区域划分,根据不同区域而计算出的权系数b 的范围。最终得到的表达式 ]12345**(1)(1.0502 1.1959 1.3108 1.36360.7929)**b i i C R G Q b x x x x x R =-+----;由此便可得到综合学费标准C 的取值范围。然后,我们随机选取了同一区域不同专业,并根据表达式计算这些专业的学费,结果发现对社会收益大,个人收益小的专业如地质学的学费范围为:3469.8~3506.3元之间;对社会收益小,个人收益大的专业如广告设计的学费范围为:7931.0~8014.5元之间。与通常高校实现的一刀切政策有了明显的优点。 最后,我们从本论文研究方向考虑,为优化高校费用标准的制定提出参考意见,如建立反馈制度和特殊生补贴制度的建议。 【关键字】相关系数 回归模型 自组织竞争神经网络

SOM神经网络

SOM神经网络

第4章 SOM自组织特征映射神经网络 生物学研究表明,在人脑的感觉通道上,神经元的组织原理是有序排列的。当外界的特定时空信息输入时,大脑皮层的特定区域兴奋,而且类似的外界信息在对应的区域是连续映像的。生物视网膜中有许多特定的细胞对特定的图形比较敏感,当视网膜中有若干个接收单元同时受特定模式刺激时,就使大脑皮层中的特定神经元开始兴奋,输入模式接近,与之对应的兴奋神经元也接近;在听觉通道上,神经元在结构排列上与频率的关系十分密切,对于某个频率,特定的神经元具有最大的响应,位置相邻的神经元具有相近的频率特征,而远离的神经元具有的频率特征差别也较大。大脑皮层中神经元的这种响应特点不是先天安排好的,而是通过后天的学习自组织形成的。 据此芬兰Helsinki大学的Kohonen T.教授提出了一种自组织特征映射网络(Self-organizing feature Map,SOM),又称Kohonen网络[1-5]。Kohonen认为,一个神经网络接受外界输入模式时,将会分为不同的对应区

域,各区域对输入模式有不同的响应特征,而这个过程是自动完成的。SOM网络正是根据这一看法提出的,其特点与人脑的自组织特性相类似。 4.1 竞争学习算法基础[6] 4.1.1 自组织神经网络结构 1.定义 自组织神经网络是无导师学习网络。它通过自动寻找样本中的内在规律和本质属性,自组织、自适应地改变网络参数与结构。 2.结构 层次型结构,具有竞争层。典型结构:输入层+竞争层。如图4-1所示。 … 竞争层 … 图4-1 自组织神经网络结构 ·输入层:接受外界信息,将输入模式向竞争 层传递,起“观察”作用。

AI翻转课堂教案-第4章 人工神经网络与深度学习教案

第四章人工神经网络与深度学习课题名称:人工神经网络与深度学习 学习过程:

络曾历经质疑、批判与冷落,同时也几度繁荣并取得了许多瞩目的成就。从20世纪40年代的M-P神经元和Hebb学习规则,到50年代的Hodykin-Huxley方程感知器模型与自适应滤波器,再到60年代的自组织映射网络、神经认知机、自适应共振网络,许多神经计算模型都发展成为信号处理、计算机视觉、自然语言处理与优化计算等领域的经典方法,为该领域带来了里程碑式的影响。目前模拟人脑复杂的层次化认知特点的深度学习已经成为类脑智能中的一个重要研究方向。通过增加网络层数所构造的“深层神经网络”使机器能够获得“抽象概念”能力,在诸多领域都取得了巨大的成功,又掀起了神经网络研究和应用的一个新高潮。 (三)神经元 人脑中的信息处理单元是神经细胞,而人工神经网络的计算单元就是人工神经元,,一个人工神经元的结构如图所示。 (1)来自其他神经元的输入信号为(x1, x2, ..., xn)。 (2)每一个输入信号都有一个与之对应的突触权重(w1, w2, ..., wn),权重(weight)的高低反映了输入信号对神经元的重要性。 (3)线性聚合器(∑)将经过加权的输入信号相加,生成一个“激活电压”(activation voltage)。 (4)激活阈值(activation threshold)或bias(θ)给神经元的输出设置一个阈值。 (5)激活电位(activation potential)u是线性聚合器和激活阈值之差,如果u≥0,神经元产生的就是兴奋信号,如果u<0,神经元产生的是抑制信号。 (6)激活函数(activation function)g将神经元的输出限制在一个合理的范围内。 (7)神经元产生的输出信号(y),可以传递给与之相连的其他神经元。 将上述信息用公式可表示为:

竞争型神经网络与自组织神经网络

竞争型神经网络是基于无监督学习的神经网络的一种重要类型,作为基本的网络形式,构成了其他一些具有组织能力的网络,如学习向量量化网络、自组织映射网络、自适应共振理论网络等。与其它类型的神经网络和学习规则相比,竞争型神经网络具有结构简单、学习算法简便、运算速度快等特点。竞争型神经网络模拟生物神经网络系统依靠神经元之间的兴奋、协调与抑制、竞争的方式进行信息处理。一个竞争神经网络可以解释为:在这个神经网络中,当一个神经元兴奋后,会通过它的分支对其他神经元产生抑制,从而使神经元之间出现竞争。当多个神经元受到抑制,兴奋最强的神经细胞“战胜”了其它神经元的抑制作用脱颖而出,成为竞争的胜利者,这时兴奋最强的神经元的净输入被设定为 1,所有其他的神经元的净输入被设定为 0,也就是所谓的“成者为王,败者为寇”。一般说来,竞争神经网络包含两类状态变量:短期记忆变元(STM)和长期记忆变元(LTM)。STM 描述了快速变化的神经元动力学行为,而 LTM 描述了无监督的神经细胞突触的缓慢行为。因为人类的记忆有长期记忆(LTM)和短期记忆(STM)之分,因此包含长时和短时记忆的竞争神经网络在理论研究和工程应用中受到广泛关注。 竞争性神经网络模型图 自组织特征映射神经网络(简称SOM),是由输入层和输出层组成的单层神经网络,主要用于对输入向量进行区域分类。SOM是一种无导师聚类,能将一维输入模式在输出层映射成二维离散图形,此图形分布在网格中,网格大小由m*n 表示,并保持其拓扑结构不变,从而使有相似特征的神经元彼此靠近,不同特征的神经元彼此远离,最终实现区分识别样品的目的。SOM 通过学习输入向量的分布情况和拓扑结构,靠多个神经元的协同作用来完成模式分类。当神经网络接受外界输入模式时,神经网络就会将其分布在不同的对应区域,并且记忆各区域对输入模式的不同响应特征,使各神经元形成有序的空间分布。当输入不同的样品光谱时,网络中的神经元便随机兴奋,经过SOM 训练后神经元在输出层有序排列,作用相近的神经元相互靠近,作用不同的神经元相互远离。在神经网络的应用中,对于待识别的输入模式属于哪一类并没有任何先验知识,只能是把相似的模式样品划归为一类,而将不相似的分离开,从而实现样品的类内相似性和类间

第四章 BP神经网络

第四章BP神经网络 Minsky和Papert的论点曾使许多人对神经网络的研究失去了信心,但仍有许多学者坚持这方面的研究。Rumelhart、McClelland和他们的同事洞察到神经网络信息处理的重要性,于1985年发展了BP网络学习算法,实现了Minsky的多层网络设想。 BP网络是一种多层前馈型神经网络,其神经元的传递是S型函数,输出量为0到1之间的连续量,它可以实现从输入到输出的任意非线性映射。由于权值的调整采用反向传播学习算法,因此也常称其为BP网络(Back Propagation Network)。 目前,在人工神经网络的实际应用中,绝大部分的神经网络模型都采用BP网络慢及其变化形式。它也是前向网络的核心部分,体现了人工神经网络的精华。 BP网络主要用于以下四个方面。 1)函数逼近:用输入向量和相应的输出向量训练一个网络逼近一个函数。 2)模式识别:用一个待定的输出向量将它与输入向量联系起来。 3)分类:把输入向量所定义的合适方式进行分类。 4)数据压缩:减少输出向量维数以便于传输或存储。 2.1人工神经网络 神经科学研究表明,生物神经系统是由大量的神经细胞或神经元广泛相互连接组成的,一个神经元与另一个神经元密切接触,传递神经冲动,实习信息传递。人的大脑皮层由六个不同的功能区组成的,上面布满了大约1.4*1011个神经细胞,它相当于一万台大型计算机并行运行。所以说,人脑是一个广泛相互连接的复杂非线性系统,这种系统具有特殊的信息处理功能。人工神经网络(简称神经网络)是神经系统的模拟,包括了大脑神经系统的许多特征。研究人的大脑的目的就是试图模拟人脑信息处理机制来设计新一代智能型计算机,所以,在工程上我们所研究的都是人工神经网络(Artificial Neural Network,简称ANN)的范畴。为此,美国的神经网络学家Hecht Nielsen给出人工神经网络的一般定义:神经网络是由多个非常简单的处理单元彼此按某种方式相互连接而形成的计算机系统,该系统是靠其状态对外部输入信息的动态响应来处理信息的。因此你就,我们所指的神经网络都是指人工神经网络。 2.2发展简史 最早用数学模型对神经系统中的神经元径向理论建模的是美国心理学家麦卡洛克(W.McCulloch)和数学家皮茨(W.Pitts)。1943年,美国心理学家W.S.Mcculloch和数学家W.A.Pitts提出了一个非常简单的神经元模型——MP模型。模型将神经元当作一个功能逻辑器件来对待,从而开创了神经网络模型的理论研究。 1957年,Roscnblatt在MP模型的基础上,提出了感知器(Perceptron)的概念,并第一次把神经网络的研究从纯理论的探讨付诸于工程实现。感知器是第一个真正意义上的神经网络,包括了许多现代神经网络的基本原理,整个模型的结构大体上符合神经生理学知识。Rosenblatt给出了两层感知器的收敛定理,并提出了引入隐层处理单元的三层感知器。感知器模型的提出吸引了众多学者加入到神经网络的研究中了。 1959年,美国工程师威德罗(B.Widrow)和霍夫(M.Hoff)提出了自适应线性元件和被称为Widrow——Hoff学习规则(又称学习规则)的神经网络训练方法。它是感知器的变化形式,尤其在修正权矢量的算法上进行了改进,不仅提高了训练收敛速度,而且还做成了硬件,并将训练厚的人工神经网络成功地用于抵消通讯中的回波和噪声,成为第一个用于

自组织特征映射网络(SOM)课件

人工神经网络自组织特征映射网络简介二〇一二年十二月

目录: 1. 由自组织竞争神经网络谈起 2. 自组织特征映射网基本概念 3. 自组织特征映射网拓扑结构 4. 自组织特征映射网学习算法 5. 自组织特征映射网的应用

从自组织竞争神经网络谈起:此类网络是模拟生物神经系统“侧抑制”现象的一类人工神经网络。自组织特征映射网是此类网络的主要类型之一。 在生物神经系统中,存在着一种“侧抑制”现象,即当一个神经细胞兴奋后,会对其周围的神经细胞产生抑制作用。这种“侧抑制”使神经细胞之 间呈现出竞争。开始时可能多个细胞同时兴奋,但一个兴奋程度最强的神经 细胞会逐渐抑制周围神经细胞,其结果使其周围神经细胞兴奋度减弱,从而 兴奋度最高的细胞是这次竞争的“胜者”,而其他神经细胞在竞争中失败。 自组织竞争神经网络就是模拟 上述生物神经系统功能的人工神经 网络。如右图所示,输出层各神经 元之间都有双向连接线,各连接线 被赋予相应的权值。从而实现对生 物网络神经元相互竞争和抑制现象 的模拟。 x1x 2 x i ············

自组织竞争神经网络通过对“侧抑制”现象的模拟,具备自组织功能,能无导师学习。 自组织功能无导师学习 自组织竞争神经网络的一大特点是:具有自组织功能,能够自适应地改变网络参数和结构,从而实现无导师学习。 自组织竞争网络无导师学习方式更类似于人类大脑神经网络的学习,大大拓宽了神经网络在模式识别和和分类上的应用。 无导师指导的分类称为聚类,由于无导师学习的训练样本中不含有期望输出,因此没有任何先验的知识。 特殊网络结构 自组织竞争网的无导师指导学习是通过其特殊的网络结构实现的。自组织竞争网在结构上属于层次型网络,共同特点是都具有竞争层。 自组织竞争网络的竞争层,各神经元之间存在横向连接,各连接被赋予权值。通过竞争学习规则,达到自组织,实现对输入样本的自动分类。 特殊学习规则 竞争学习规则:竞争层神经元之间相互竞争以求被激活,结果在每一轮竞争中只有一个神经元被激活。这个被激活的神经元称为“获胜神经元”,而其它神经元的状态被抑制。然后获胜神经元及其附近神经元的对应权值将被调整以反映竞争结果。 主要的竞争学习规则有“胜者为王”和Kohonen规则等。“胜者为王”只修改获胜神经元权值,Kohonen规则修改获胜神经元邻域内各神经元权值。

自组织神经网络的优化

自组织多项式神经网络的优化 摘要:由组数据处理方法(GMDH )自动构建和训练的自组织多项式神经网络(SOPNN )模型仅仅优化了 SOPNN 网络顶层节点的权值,该模型的主要缺点是只进行了模型权值的部分优化。为了估计经过改善所 获得模型能达到的近似精确度,粒子群优化(PSO )已经被使用去优化所有多项式节点的权值。因为在计 算上PSO 模型通常是昂贵和耗时的,为此使用了一个更加有效的Levenberg-Marquardt (LM )算法去优化 SOPNN 。由LM 算法优化后的SOPNN 模型性能上胜过了基于ANN 和SVM 的模型。本文的研究是基于时 间约束下热动力影响的液体流动测量的元模型。通过多层叠加震荡递推关系的学习,我们演示了优化后的 SOPNN 模型的显著特性。 关键词:多项式神经网络;GMDH ;LM 算法;粒子群优化 绪论 SOPNN 网络的构建是通过将低阶多项式与多层多项式结构相结合,在这个网络中,低阶 多项式的系数用以最小化近似误差,其值是通过多项式回归获得。GMDH 模型在数字计算机 上很容易执行,对于低复杂网络,可以获得合理的近似精度。因为GMDH 在多项式回归和模 型选择中使用的是独立的数据集,致其不支持过度拟合。当将其应用于非线性行为的实时补 偿时,GMDH 和其他常见的模型所采取的策略一样,其自组织特性会去除这个复杂结构模型 和参数。 往往是通过对单个参数的测量评价SOPNN 网络的性能,例如最小方差,其主要是最小 化了模型的近似误差而并非模型的复杂度。当建立具有时间约束性应用的模型时,其约束可 以被有效的嵌入到模型选择指标中。当考虑相对于复杂度的精度时,与多层感知器(MLP ) 比较,原SOPNN 模型的性能处于劣势。 由GMDH 算法优化的SOPNN 模型只是对模型权值的部分优化,因为GMDH 算法仅仅优 化了输出节点的权值。在多次训练迭代中,被多项式回归计算后的权值仍然不变。模型在被 遗传编程和反向传播(BP )训练后,其精度和预测可以有很大的提高。但是BP 往往会在局部 最小值处卡住,所以本文提出了一种更加强大的优化方法去训练其权值。 粒子群优化算法(PSO )是一种自然仿生算法,其通过模仿鸟群的飞行来优化模型的权 值。PSO 可以优化所有多项式节点的权值,在实验中用于估计原SOPNN 模型的近似能力。 因为PSO 模型在计算上是昂贵和费时的,之后,我们采用了一种更加复杂的LM 算法去优化 模型的权值。通过模拟,LM 算法的收敛速度数倍于SOPNN 模型。 1、GMDH 、PSO 、LM 算法 1.1、GMDH 算法 如下图所示是一个完全的2层前向3维系统,图中i p ,λ表示一个对应于λ层第i 个节点的 低阶低维多项式。

Kohonen算法实现自组织特征映射神经网络

Kohonen算法实现自组织特征映射神经网络 Kohonen算法实现自组织特征映射神经网络 2010-12-23 14:28设有现有一个样本数据集,含有4个模式类,,,,各个类别含有5个数据,每个数据是一个二维向量[x,y]。则需要设定4个输出层神经元来构建SOM网络,由于输入数据是二维的向量,所以输入层神经元有2个。 为了使SOM网络的设计和实行过程在作图中清晰可见,对输入的样本数据集均进行归一化处理。: A = 0.8776 0.4794 0.8525 0.5227 0.8253 0.5646 0.7961 0.6052 0.7648 0.6442 : B= -0.6663 0.7457 -0.7027 0.7115 -0.7374 0.6755 -0.7702 0.6378 -0.8011 0.5985

: C= -0.5748 -0.8183 -0.5332 -0.8460 -0.4903 -0.8716 -0.4461 -0.8950 -0.4008 -0.9162 : D= 0.9602 -0.2794 0.9729 -0.2311 0.9833 -0.1822 0.9911 -0.1328 0.9965 -0.0831 第一步:设定初始初始权值w,暂时设定为位于极坐标0°,90°,180°,270°角处的四个单位向量;设定初始学习率rate1max和学习率最小值rate1min;设定初始领域半径r1max和领域半径截止值r1min;设定输出层神经元个数为4。 第二步:输入新的模式向量X,即输入以上四类数据样本集A,B,C,D为X。 接着开始Kohonen算法的迭代运算过程,求解最佳权值w即聚类中心

相关文档
最新文档