第4章 SOM自组织特征映射神经网络

合集下载

D人工神经网络复习习题

D人工神经网络复习习题

oj
2.2.2 神经元的数学模型(1/6)
我们用一个数学表达式对上述内容可进行抽象与 概括。 令xi(t)表示t时刻神经元j接收的来自神经元i的信 息输入,oj(t)表示t时刻神经元的信息输出,则神经元j 的状态可表达为
n o j (t ) f w ijx i (t ij ) Tj i 1
x1 … xi … xn
w1j wij wnj
j

2.2.1 神经元的建摸(6/6) 人工神经元的输出也同生物神经元一样仅有一个,如用 oj表示神经元j输出。 输出与输入之间的对应关系可用某种函数来表示,这种 函数称为转移函数,一般都是非线性的。
x1 … xi … xn
w1j wij wnj
j

f
第4章 竞争学习神经网络 § 4.1 竞争学习的概念与原理 § 4.1.1 基本概念 § 4.1.2 竞争学习原理 § 4.2 自组织特征映射神经网络 § 4.2.1 SOM网络的生物学基础 § 4.2.2 SOM网(络)的拓扑结构与权值调整域 § 4.2.3 自组织特征映射网(络)的运行原理与学习算法 § 4.2.3.1 运行原理 § 4.2.3.2 学习算法 § 4.2.3.3 功能分析 § 4.3 自组织特征映射网络的设计与应用 § 4.4 自适应共振理论 本章小结
第6章 反馈神经网络 § 6.1 离散型Hopfield神经网络(DHNN) § 6.1.1 网络的结构与工作方式 § 6.1.2 网络的稳定性与吸引子 § 6.1.2.1 网络的稳定性 § 6.1.2.2 吸引子与能量函数 § 6.1.2.3 吸引子的性质 § 6.1.2.4 吸引子的吸引域 § 6.1.3 网络的权值设计 § 6.1.4 网络的信息存储容量 § 6.2 连续型Hopfield神经网络(CHNN) § 6.3 Hopfield网络应用与设计实例 § 6.4 双向联想记忆(BAM)神经网络 § 6.5 随机神经网络 § 6.6 递归神经网络 本章小结

模式识别习题集答案解析

模式识别习题集答案解析

模式识别习题集答案解析1、PCA和LDA的区别?PCA是⼀种⽆监督的映射⽅法,LDA是⼀种有监督的映射⽅法。

PCA只是将整组数据映射到最⽅便表⽰这组数据的坐标轴上,映射时没有利⽤任何数据部的分类信息。

因此,虽然做了PCA后,整组数据在表⽰上更加⽅便(降低了维数并将信息损失降到了最低),但在分类上也许会变得更加困难;LDA在增加了分类信息之后,将输⼊映射到了另外⼀个坐标轴上,有了这样⼀个映射,数据之间就变得更易区分了(在低纬上就可以区分,减少了很⼤的运算量),它的⽬标是使得类别的点距离越近越好,类别间的点越远越好。

2、最⼤似然估计和贝叶斯⽅法的区别?p(x|X)是概率密度函数,X是给定的训练样本的集合,在哪种情况下,贝叶斯估计接近最⼤似然估计?最⼤似然估计把待估的参数看做是确定性的量,只是其取值未知。

利⽤已知的样本结果,反推最有可能(最⼤概率)导致这样结果的参数值(模型已知,参数未知)。

贝叶斯估计则是把待估计的参数看成是符合某种先验概率分布的随机变量。

对样本进⾏观测的过程,把先验概率密度转化为后验概率密度,利⽤样本的信息修正了对参数的初始估计值。

当训练样本数量趋于⽆穷的时候,贝叶斯⽅法将接近最⼤似然估计。

如果有⾮常多的训练样本,使得p(x|X)形成⼀个⾮常显著的尖峰,⽽先验概率p(x)⼜是均匀分布,此时两者的本质是相同的。

3、为什么模拟退⽕能够逃脱局部极⼩值?在解空间随机搜索,遇到较优解就接受,遇到较差解就按⼀定的概率决定是否接受,这个概率随时间的变化⽽降低。

实际上模拟退⽕算法也是贪⼼算法,只不过它在这个基础上增加了随机因素。

这个随机因素就是:以⼀定的概率来接受⼀个⽐单前解要差的解。

通过这个随机因素使得算法有可能跳出这个局部最优解。

4、最⼩错误率和最⼩贝叶斯风险之间的关系?基于最⼩风险的贝叶斯决策就是基于最⼩错误率的贝叶斯决策,换⾔之,可以把基于最⼩错误率决策看做是基于最⼩风险决策的⼀个特例,基于最⼩风险决策本质上就是对基于最⼩错误率公式的加权处理。

自组织映射神经网络(SOM)在图像分类中的应用

自组织映射神经网络(SOM)在图像分类中的应用

21 0 0年 3月 第 1 期
伊犁师 范学 院学报 ( 自然科学版 )
J un l f lNoma ies or a o i r l Yi UnV r ( N ̄ua ce c dt n) rl in eE io S i
M a 0l 2 O NO 1 .
11 颜 色特 征 .
收稿 日期 :2 o 一O 一l o9 2 5
监督学 习的神 经元 网络 模型 ,具有 自组织 功能 ,网
基金项 目:伊 犁师范学院科研计划项 目资助 ( B 09 7 Y 203 ).
作者简介:林玲 ( 9 5 ) ,伊犁师范学院计算机科学 系讲师,硕士 ,研 究方向:图像识别、计算机教 学 17 一 ,女
特 征 不 同,它们将 聚类 于不 同特 征 的空间区域 .
个 正式 统一 的定义 p ,一般 认 为纹 理是灰 度在 】
空 间一定 的形 式变化 而产 生 的图案 ,所谓灰 度就 是 指黑 白图像 中点 的颜 色深度 ,范 围一般 从0 5 ,  ̄2 5 白色 为25 5 ,黑色 为0 ,故黑 白图片也称 灰度 图像 , 彩色 图像 的灰度是 其转化 为 黑 白图像 后 的像 素值 . 1 形状 特征 . 3

图像 分类 是根 据 图像 中 同类景 物在 相 同的条件
下 ,应具有 相 同或 现 出同类景物 的某种 内在 的相 似性 , 即 同类 景 物 像 元 的特 征 向量 将 聚类 于 同 ~特 征 的 空间 区域 ,而不 同景物 其光谱 信息特 征和空 间信息
第1 期
林玲 ,伊力亚尔: 自 组织映射神经网络 ( O ) S M 在图像分类中的应用
4 7
络通过 自身训练 , 自动对输入模式进行分类 】通 .

SOM神经网络原理

SOM神经网络原理

1 . SOM是由输入层和竞争层组成的单层神经网络,输入层是一维的 神经元,有n个节点。竞争层是二维的神经元,按二维的形式排列成 节点矩阵,有M=m^2个节点。
视频名称:SOM神经网络理论及其matlab实现 会员:Hgsz2003
2013-10-29 10 我 版权申明:视频归原创作者跟Matlab中文论坛所有,可以在Matlab中文论坛下载或者观看,请勿转载! !
视频名称:SOM神经网络理论及其matlab实现 会员:Hgsz2003
SOM是由芬兰赫尔辛基大学神经网络专家Kohonen教授在1981年提 出的。这种网络模拟大脑神经系统自组织特征映射的功能,是一种竞 争型网络,并在学习中能无导师进行自组织学习。
2013-10-29 我 版权申明:视频归原创作者跟Matlab中文论坛所有,可以在Matlab中文论坛下载或者观看,请勿转载! !5
在网络结构上,自组织竞争网络一般是有输入和竞争层构成的单层网 络,网络没有隐藏层,输入和竞争层之间的神经元实现双向连接,同 时竞争层各神经元之间还存在横向连接。
视频名称:SOM神经网络理论及其matlab实现 会员:Hgsz2003
2013-10-29 我 版权申明:视频归原创作者跟Matlab中文论坛所有,可以在Matlab中文论坛下载或者观看,请勿转载! !4
Matlab&Simulink为美国mathworks公司注册商标!版权归mathworks公司所有!

SOM算法是一种无导师的聚类法,它能将任意维输入模式在输出层映 射成一维或者二维离散图形,并保持其拓扑结构不变,即在无导师的 情况下,通过对输入模式的自组织学习,在竞争层将分类结果表示出 来,此外,网络通过对输入模式的反复学习,可以使连接权值空间分 布密度与输入模式的概率分布趋于一致,即连接权向量空间分布能反 映输入模式的统计特征。

SOM在网络数据分析中的应用研究

SOM在网络数据分析中的应用研究
22Koo e . h nn的 S OM 简介
自组织特征映射是 K hnn o oe 提出的一种神经网络模型 。它 由两层构成,第一层是 输入层 ,负责数据的输入 ,第二层是 K hnn ooe 层,按二维形式排成一个节点矩阵, 输入
节点处于其下方,如图 1所示 。各神经元处在同一平面上,每个神经元以一个向量
择 高斯函数作 为邻 域函数 ,即
() 4
式 ()说明 , 4 以 , ) ( 表示的邻域内各神经元均 向样本 靠近。大多数情况下都选 f
h=)( )  ̄ ce一 j tx ( (p tt ).
距离 ,a t 和o( 分别是学习速率和邻域宽度 ,均随时间增加而递减。 () - ) t
( 5 )
邻域均以 B MU为中心。式 ()中,『 一 f B 与神经元 之间的拓扑 5 J ,} MU c 指
与 k均值 算法不 同,S 一 OM 用多个神经元 的 向量描 述一个 聚类 。 由于这 些 向量 可处 于多个不相 交 的球 面 中心 ,因而 S M 可将不 同球 面 内的同类数据 聚为一 类 。 O
关键 词 : 自组 织特征 映射 k均值
1引言
神 经 网络 数据 流
网络通信应用、协议 、用户数量 的快速增长 ,为网络资源 的合理分配和管理带来了
很大 困难 。传统 网络管 理方法 已很难获 得真实 的 网络 流量状况 。但数据 挖掘 方法给 网络 管理提 供 了新 的方法 ,如 通过对 网络数 据进行聚 类分析 能够发现 网络流 量 的变 化、用户 使用 网络 的模 式等 。T e emuE oa 1 k l 等人 (02 )运 用基于 共 同协作思 想的蚁群 算法 , 0 20 ,4
m =ag i{ 一 『 r m n I m,) f f

第四章自组织神经网络

第四章自组织神经网络
从上式可以看出,欲使两单位向量的欧式距离 最小,须使两向量的点积最大。即:
W ˆj*TX ˆj { m 1,2,..m a .},(W x ˆjTX ˆ)
第四章自组织神经网络
竞争学习规则——胜者为王(Winner-Take-All)
3.网络输出与权值调整
1 j j*
oj
(t
1) 0
j j*
W j* ( t 1 ) W ˆj* ( t) W j* W ˆj* ( t)( t)(X ˆ W ˆj* )
X Xi
类1
••
••
类2

••
T
••

(b)基于余弦法的相似性测量
第四章自组织神经网络
4.1.2 竞争学习原理
竞争学习规则——Winner-Take-All 网络的输出神经元之间相互竞争以求被
激活,结果在每一时刻只有一个输出神经元 被激活。这个被激活的神经元称为竞争获胜 神经元,而其它神经元的状态被抑制,故称
将不相似的分离开。
第四章自组织神经网络
4.1.1 基本概念
• 相似性测量_欧式距离法
X X i (X X i)T(X X i)
类1
类2
• •

• •
• T
(a)基于欧式距离的相似性测量
第四章自组织神经网络
• •
(b)基于
类2 • •

的相似性测量
4.1.1 基本概念
• 相似性测量_余弦法
cos XT Xi
19
43.5 -75
20
48.5 -75
第四章自组织神经网络
x5
训练 次数
1
W1
W2
18.43 -180

SOFM算法

SOFM算法

SOFM网络的工作原理是:当网络接受外界输入模式时,将会分为不同的区域,各区域对输入模式具有不同的响应特征。

也就是说,特征相近的输入模式靠得比较近,差异大的分得比较远。

在各神经元联接权值的调整过程中,最邻近的神经元相互刺激,而较远的神经元则相互抑制,更远一些的则具有较弱的刺激作用。

输入层所有神经元通过相互竞争和自适应学习,形成空间上的有序结构,从而实现输入矢量到输出矢量空间的特征映射。

SOFM的学习则使网络节点有选择地接受外界刺激模式的不同特性,从而提供了基于检测特性空间活动规律的性能描述。

其实,SOFM的学习过程就是在某个学习准则的指导下,逐步优化网络参数的过程。

该网络分为输入层和竞争层两层。

两层之间实行全互连。

它将任意维输入模式在输出层映射成一维或二维离散图形,并保持其拓扑结构不变。

在竞争层中,让竞争获胜的那个神经元c的兴奋程度最高,并使其周围VBc的区域内的神经元在不同程度上都得到兴奋,VBc是时间的函数,随着时间的增加,NBc的范围不断的减小,通过图可以直观的看出来。

SOFM的算法流程见图从上述算法可以看出,网络训练完毕后,各输出单元对应一个权值。

在分类过程中,每个分类对象必与其中一个权值的距离最近,把与同一输出单元的权值最近的点作为同一类,并由该输出单元输出,即达到了分类的目的。

SOFM分类算法:步骤1:对图像数据作归一化处理,将各点象素值归一化到区间[0,1]内,由此得到图像X=(x 1,x 2,…x n ),其中x i 为图像一点的归一化后的模式.步骤2:初始化网络连接权值W j ,其中1<=j<=M ,M 对应竞争层神经元向量元素的个数。

步骤3:选择获胜单元c,d c =j min ||x i -w j ||.步骤4:进行连接权调整邻域函数一般选用Gaussian 函数:NB(t)=exp{-d j,i (x)2)/2σ2}其中d j,i (x)表示邻域中神经元与获胜神经元间的距离,采用Euclid 距离计算;σ为邻域的有效半径,随离散时间指数衰减σ(t)=σ(0).exp(-t/τ1),t=0,1,2,∀,j=1,2,…m 的初始值,τ1为时间常数,σ(0)是σ(t)的初始值. 步骤5:按照以上步骤,反复训练每一个输入的模式值x i ,直至完成规定的训练次数.经过学习后,再次将x i 输入网络,其输出结果即为分类结果。

自组织特征映射神经网络

自组织特征映射神经网络

结合深度学习
1 2
深度自组织特征映射
将深度学习技术与自组织特征映射相结合,通过 逐层特征提取和抽象,提高分类精度和特征表达 能力。
卷积自组织特征映射
借鉴卷积神经网络的思想,设计卷积层和池化层, 对输入数据进行局部特征提取和空间信息的保留。
3
循环自组织特征映射
结合循环神经网络,实现序列数据的自组织特征 映射,解决序列分类和时间序列预测问题。
05 自组织特征映射神经网络 的发展趋势与未来展望
改进算法
优化学习率调整
通过动态调整学习率,提高神经网络的收敛速度和稳定性,减少 训练时间。
引入正则化技术
通过正则化技术,如L1、L2正则化,防止过拟合,提高模型的泛 化能力。
集成学习与多模型融合
将多个自组织特征映射神经网络集成在一起,通过多模型融合提高 分类性能。
跨领域应用拓展
01
02
03
图像识别
应用于图像分类、目标检 测等任务,提高图像处理 的自动化和智能化水平。
语音识别
应用于语音信号的特征提 取和分类,实现语音识别 系统的优化。
自然语言处理
应用于文本分类、情感分 析、机器翻译等任务,推 动自然语言处理技术的发 展。
06 自组织特征映射神经网络 与其他神经网络的比较
数据输入
卷积神经网络(CNN)特别适合处理图像等具有网格结构的数据,而SOM则适用于 各种类型的数据,包括图像、文本和数值数据。
拓扑结构
CNN的神经元排列具有固定的层次结构,而SOM的神经元可以形成任意拓扑结 构,这使得SOM在某些任务上具有更大的灵活性。
THANKS FOR WATCHING
感谢您的观看
特征提取
信息检索
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

第4章 SOM自组织特征映射神经网络生物学研究表明,在人脑的感觉通道上,神经元的组织原理是有序排列的。

当外界的特定时空信息输入时,大脑皮层的特定区域兴奋,而且类似的外界信息在对应的区域是连续映像的。

生物视网膜中有许多特定的细胞对特定的图形比较敏感,当视网膜中有若干个接收单元同时受特定模式刺激时,就使大脑皮层中的特定神经元开始兴奋,输入模式接近,与之对应的兴奋神经元也接近;在听觉通道上,神经元在结构排列上与频率的关系十分密切,对于某个频率,特定的神经元具有最大的响应,位置相邻的神经元具有相近的频率特征,而远离的神经元具有的频率特征差别也较大。

大脑皮层中神经元的这种响应特点不是先天安排好的,而是通过后天的学习自组织形成的。

据此芬兰Helsinki大学的Kohonen T.教授提出了一种自组织特征映射网络(Self-organizing feature Map,SOM),又称Kohonen网络[1-5]。

Kohonen认为,一个神经网络接受外界输入模式时,将会分为不同的对应区域,各区域对输入模式有不同的响应特征,而这个过程是自动完成的。

SOM网络正是根据这一看法提出的,其特点与人脑的自组织特性相类似。

4.1 竞争学习算法基础[6]4.1.1 自组织神经网络结构1.定义自组织神经网络是无导师学习网络。

它通过自动寻找样本中的内在规律和本质属性,自组织、自适应地改变网络参数与结构。

2.结构层次型结构,具有竞争层。

典型结构:输入层+竞争层。

如图4-1所示。

竞争层图4-1 自组织神经网络结构输入层:接受外界信息,将输入模式向竞争层传递,起“观察”作用。

竞争层:负责对输入模式进行“分析比较”,寻找规律,并归类。

4.1.2 自组织神经网络的原理1.分类与输入模式的相似性分类是在类别知识等导师信号的指导下,将待识别的输入模式分配到各自的模式类中,无导师指导的分类称为聚类,聚类的目的是将相似的模式样本划归一类,而将不相似的分离开来,实现模式样本的类内相似性和类间分离性。

由于无导师学习的训练样本中不含期望输出,因此对于某一输入模式样本应属于哪一类并没有任何先验知识。

对于一组输入模式,只能根据它们之间的相似程度来分为若干类,因此,相似性是输入模式的聚类依据。

2.相似性测量神经网络的输入模式向量的相似性测量可用向量之间的距离来衡量。

常用的方法有欧氏距离法和余弦法两种。

(1)欧式距离法设i X X ,为两向量,其间的欧式距离T i i i X X X X X X d ))((--=-= (4-1)d 越小,X 与i X 越接近,两者越相似,当0=d 时,i X X =;以T d =(常数)为判据,可对输入向量模式进行聚类分析:由于312312,,d d d 均小于T ,465645,,d d d 均小于T ,而)6,5,4(1=>i T d i , )6,5,4(2=>i T d i , )6,5,4(3=>i T d i ,故将输入模式654321,,,,,X X X X X X 分为类1和类2两大类,如图4-2所示。

(2)余弦法设i X X ,为两向量,其间的夹角余弦iTX X XX =ϕcos (4-2)ϕ越小,X 与i X 越接近,两者越相似;当ϕ=0时,ϕcos =1,i X X =;同样以0ϕϕ=为判据可进行聚类分析。

类1类2图4-2 基于欧式距离法的模式分类3.竞争学习原理竞争学习规则的生理学基础是神经细胞的侧抑制现象:当一个神经细胞兴奋后,会对其周围的神经细胞产生抑制作用。

最强的抑制作用是竞争获胜的“唯我独兴”,这种做法称为“胜者为王”(Winner-Take-All ,WTA )。

竞争学习规则就是从神经细胞的侧抑制现象获得的。

它的学习步骤为:(1)向量归一化对自组织网络中的当前输入模式向量X 、竞争层中各神经元对应的内星权向量j w (m j ,,2,1 =),全部进行归一化处理,如图4-3所示,得到X ˆ和jW ˆ: XX X=ˆ, j j j W W W =ˆ (4-3)X 1X i图4-3 向量归一化(2)寻找获胜神经元将X ˆ与竞争层所有神经元对应的内星权向量),,2,1(ˆm j W j=进行相似性比较。

最相似的神经元获胜,权向量为*ˆjW : {}jn j j WX W X ˆˆmin},,2,1{*-=-∈T j j T j T T j j j W W X W X X W X W X W X ******ˆˆˆˆ2ˆˆ)ˆ)(ˆ(ˆˆ+-=--=-⇒)ˆˆ1(2*T jX W -= )ˆˆ(max ˆˆ*T j jT jX W X W =⇒ (4-4) (3)网络输出与权调整按WTA 学习法则,获胜神经元输出为“1”,其余为0。

即:⎪⎩⎪⎨⎧≠==+**01)1(jj j j t y j (4-5)只有获胜神经元才有权调整其权向量*j W 。

其权向量学习调整如下:⎪⎩⎪⎨⎧≠=+-+=∆+=+*)(ˆ)1()ˆˆ()(ˆ)(ˆ)1(*****j j t W t W W X t W W t W t W j j j j j j j α (4-6) 10≤<α为学习率,α一般随着学习的进展而减小,即调整的程度越来越小,趋于聚类中心。

(4)重新归一化处理归一化后的权向量经过调整后,得到的新向量不再是单位向量,因此要对学习调整后的向量重新进行归一化,循环运算,直到学习率α衰减到0。

为了更好地说明竞争学习算法的聚类分析效果,下面以一具体实例进行计算[6]。

【例4-1】用竞争学习算法将下列各模式分为两类)6.0,8.0(1=X ,)9848.0,1736.0(2-=X , )707.0,707.0(3=X , )9397.0,342.0(4-=X , )8.0,6.0(5=X ,学习率α=0.5。

【解】 将上述输入模式转换为极坐标形式: 89.3611∠=X , 8012-∠=X , 4513∠=X , 7014-∠=X , 13.5315∠=X 。

如图4-4所示。

2图4-4 模式向量图要求将各模式分为两类,则竞争层为两个神经元,设两个权向量,随机初始化为单元向量: 01)0,1()0(1∠==W , 1801)0,1()0(2-∠=-=W ,其竞争学习过程如下:(1)1X=1d 89.361)0(11∠=-W X ,=2d 89.2161)0(21∠=-W X 21d d <,神经元1获胜,1W 调整。

43.18189.365.00))0(()0()1(1111∠=⨯+=-+=W X W W α 1801)0()1(22-∠==W W(2)2X=1d 43.981)1(12∠=-W X ,=2d 1001)1(22∠=-W X 21d d <,神经元1获胜,1W 调整。

8.301)43.1880(5.043.18))1(()1()2(1211-∠=--⨯+=-+=W X W W α 1801)1()2(22-∠==W W(3)3X=1d 8.751)2(13∠=-W X ,=2d 2251)2(23∠=-W X 21d d <,神经元1获胜,1W 调整。

71)8.3045(5.08.30))2(()2()3(1311∠=+⨯+-=-+=W X W W α1801)2()3(22-∠==W W(4)4X=1d 771)3(14∠=-W X ,=2d 1101)3(24∠=-W X 21d d <,神经元1获胜,1W 调整。

5.311)770(5.07))3(()3()4(1411-∠=--⨯+=-+=W X W W α 1801)3()4(22-∠==W W(5)5X=1d 63.841)4(15∠=-W X ,=2d 87.1261)4(25∠=-W X 21d d <,神经元1获胜,1W 调整。

111)5.3113.53(5.05.31))4(()4()5(1511∠≈+⨯+-=-+=W X W W α 1801)4()5(22-∠==W W(6)1X=1d 89.251)5(11∠=-W X ,=2d 89.2161)5(21∠=-W X 21d d <,神经元1获胜,1W 调整。

24189.255.011))5(()5()6(1111∠≈⨯+=-+=W X W W α 1801)5()6(22-∠==W W(7)2X=1d 1041)6(12∠=-W X ,=2d 1001)6(22∠=-W X 12d d <,神经元2获胜,2W 调整。

1301)18080(5.0180))6(()6()7(2222-∠=+-⨯+-=-+=W X W W α 241)6()7(11∠==W W(8)3X=1d 211)7(13∠=-W X ,=2d 1751)7(23∠=-W X 21d d <,神经元1获胜,1W 调整。

341)2445(5.024))7(()7()8(1311∠≈-⨯+=-+=W X W W α 1301)7()8(22-∠==W W(9)4X=1d 1041)8(14∠=-W X ,=2d 601)8(24∠=-W X 12d d <,神经元2获胜,2W 调整。

1001)13070(5.0130))8(()8()9(2422-∠=+-⨯+-=-+=W X W W α 341)8()9(11∠==W W(10)5X=1d 13.191)9(15∠=-W X ,=2d 13.1531)9(25∠=-W X 21d d <,神经元1获胜,1W 调整。

441)3413.53(5.034))9(()9()10(1511∠≈-⨯+=-+=W X W W α 1001)9()10(22-∠==W W一直循环运算下去,其前20次学习结果如表4-1所示。

表4-1 竞争学习结果学习次数W 1W 2学习次数 W 1W 21 18.43° -180° 11 40.5° -100°2 -30.8° -180° 12 40.5° -90°3 7° -180° 13 43° -90°4 -32° -180° 14 43° -81° 511°-180°1547.5°-81°(续表)学习次数W 1W 2学习次数 W 1W 26 24° -180° 16 42° -81°7 24° -130° 17 42° -80.5°8 34° -130° 18 43.5° -80.5°9 34° -100° 19 43.5° -75° 1044°-100°2048.5°-75°从表4-1可见,在运算学习20次后,网络权值1W ,2W 趋于稳定: 75,4521-→→W W 。

相关文档
最新文档