自组织特征映射神经网络(SOM)

合集下载

基于rfm分析的银行信用卡客户的行为评分模型应用自组织映射神经网络som和apriori方法

基于rfm分析的银行信用卡客户的行为评分模型应用自组织映射神经网络som和apriori方法
输入层的神经元以一维的形式排列,输入神经元的个数由输入矢量中的分量个数决 定。输出层的神经元一般以一维或者二维的形式排列,计输入层的神经元数量为n,输出 层神经元数量为m,输入的样本总数为s,第P个输入样本用矢量表示为:
Xp=(xpl,xp2,...,xpi,...,xpn)7 每个输出神经元的输出值记为撕,j=1,2,...,m。与莉个输
之前的大部分研究都是以建立准确的信用或行为的评分模型以及如何利用各种统计 方法来提高分类模型的准确度为焦点。然而,因为银行数据库的多维性,它包含有大量 的月账户记录和日交易记录,即使有了高准确度的评分模型,也会经常出现一些错误的 分类模式。
本文引入了数据挖掘的方法,建立一个基于RFM分析的数据挖掘的行为评分模型 来分析银行信用卡客户的行为,这一模型包括了对现实中的数据集进行数据处理和准备、 进行评分和客户轮廓刻画,建立的这个标准模型具有很大的实用性。两阶段的行为评分 模型的框架也是验证了实际申请中评分分析过程中数据挖掘的有效性。
由于原始数据库存在如下问题:数据不完整,存在大量的空缺值;含噪声数据,存 在大量冗余和噪声数据;数据不一致,原始数据取自各实际应用系统,而各应用系统的 数据缺乏统一标准,数据结构也有较大差异;不同的数据挖掘算法对数据有相应的要求, 因此在挖掘之前需要对原始数据进行大量的预处理工作,以减少挖掘过程中的故障,提 高数据挖掘模式的质量,降低实际挖掘所需要的时间。
The Behavioral Scoring Model of Credit Card Customers in a Bank Based on RFM
…一the Application of SOM and Apriori .
Liang Changyong Zhao Yanxia

SOM神经网络原理

SOM神经网络原理

1 . SOM是由输入层和竞争层组成的单层神经网络,输入层是一维的 神经元,有n个节点。竞争层是二维的神经元,按二维的形式排列成 节点矩阵,有M=m^2个节点。
视频名称:SOM神经网络理论及其matlab实现 会员:Hgsz2003
2013-10-29 10 我 版权申明:视频归原创作者跟Matlab中文论坛所有,可以在Matlab中文论坛下载或者观看,请勿转载! !
视频名称:SOM神经网络理论及其matlab实现 会员:Hgsz2003
SOM是由芬兰赫尔辛基大学神经网络专家Kohonen教授在1981年提 出的。这种网络模拟大脑神经系统自组织特征映射的功能,是一种竞 争型网络,并在学习中能无导师进行自组织学习。
2013-10-29 我 版权申明:视频归原创作者跟Matlab中文论坛所有,可以在Matlab中文论坛下载或者观看,请勿转载! !5
在网络结构上,自组织竞争网络一般是有输入和竞争层构成的单层网 络,网络没有隐藏层,输入和竞争层之间的神经元实现双向连接,同 时竞争层各神经元之间还存在横向连接。
视频名称:SOM神经网络理论及其matlab实现 会员:Hgsz2003
2013-10-29 我 版权申明:视频归原创作者跟Matlab中文论坛所有,可以在Matlab中文论坛下载或者观看,请勿转载! !4
Matlab&Simulink为美国mathworks公司注册商标!版权归mathworks公司所有!

SOM算法是一种无导师的聚类法,它能将任意维输入模式在输出层映 射成一维或者二维离散图形,并保持其拓扑结构不变,即在无导师的 情况下,通过对输入模式的自组织学习,在竞争层将分类结果表示出 来,此外,网络通过对输入模式的反复学习,可以使连接权值空间分 布密度与输入模式的概率分布趋于一致,即连接权向量空间分布能反 映输入模式的统计特征。

自组织特征映射神经网络(SOM)

自组织特征映射神经网络(SOM)

二、学习算法
1 算法 I: (i) 初始化:
- 各权矢量
W j 的确定
wji (0) ← Small random numbers(也可根据先验知识); , k ← 0; (ii) 输入 X(k) , 对 W 做下述操作: j c 求出 与 X(k) 最接近的权矢量 W , q 2 1/ 2 min{ W j − X (k ) = Wq − X (k ) = d q , ( X − Y = ( ∑ i ( xi − yi ) ) ) j d 定义单元 q 所在的邻域为 Nq (tk ), 将 Nq (tk ) 中各单元的权进行修改, 其它权值不变:
的改进使其与当前单元对应的权值修改次数有关随修改次数增加使关于算法的收敛性简述设可将输入样本集合划分为每个中有一个中心矢量聚类中心在物理上竞争学习算法competitivelearningcl典型的无教师学习unsupervisedlearning算法
CH.6
自组织特征映射神经网络
Neural Network
⎡P ⎢ 1,1 ⎢ P2,1 ⎢ P ⎢ ⎣ 3,1
共7396个训练矢量。 码本规模:N=512 用 SOM 网络进行矢量量化,实现图像数据压缩
(3) 学习算法
(取定 L、N) (i) 初始化: Wj (0) ← [0,255] 之间的随机数; (ii) 构造图像矢量样本集 { X(k) }, (iii) 输入 X(k), 由各 U j计算出 (iv) 由输出单元 U 在所有 out (v) (vi)
d1 U1

dj
Uj
Wj
… U N
dN
SOM
xn
dj
中,找出最小距离
(3) 于是令:
⎧1 , if j = q yj = ⎨ ⎩0 , if j ≠ q

竞争型神经网络与自组织神经网络

竞争型神经网络与自组织神经网络

竞争型神经网络是基于无监督学习的神经网络的一种重要类型,作为基本的网络形式,构成了其他一些具有组织能力的网络,如学习向量量化网络、自组织映射网络、自适应共振理论网络等。

与其它类型的神经网络和学习规则相比,竞争型神经网络具有结构简单、学习算法简便、运算速度快等特点。

竞争型神经网络模拟生物神经网络系统依靠神经元之间的兴奋、协调与抑制、竞争的方式进行信息处理。

一个竞争神经网络可以解释为:在这个神经网络中,当一个神经元兴奋后,会通过它的分支对其他神经元产生抑制,从而使神经元之间出现竞争。

当多个神经元受到抑制,兴奋最强的神经细胞“战胜”了其它神经元的抑制作用脱颖而出,成为竞争的胜利者,这时兴奋最强的神经元的净输入被设定为 1,所有其他的神经元的净输入被设定为 0,也就是所谓的“成者为王,败者为寇”。

一般说来,竞争神经网络包含两类状态变量:短期记忆变元(STM)和长期记忆变元(LTM)。

STM 描述了快速变化的神经元动力学行为,而 LTM 描述了无监督的神经细胞突触的缓慢行为。

因为人类的记忆有长期记忆(LTM)和短期记忆(STM)之分,因此包含长时和短时记忆的竞争神经网络在理论研究和工程应用中受到广泛关注。

竞争性神经网络模型图自组织特征映射神经网络(简称SOM),是由输入层和输出层组成的单层神经网络,主要用于对输入向量进行区域分类。

SOM是一种无导师聚类,能将一维输入模式在输出层映射成二维离散图形,此图形分布在网格中,网格大小由m*n 表示,并保持其拓扑结构不变,从而使有相似特征的神经元彼此靠近,不同特征的神经元彼此远离,最终实现区分识别样品的目的。

SOM 通过学习输入向量的分布情况和拓扑结构,靠多个神经元的协同作用来完成模式分类。

当神经网络接受外界输入模式时,神经网络就会将其分布在不同的对应区域,并且记忆各区域对输入模式的不同响应特征,使各神经元形成有序的空间分布。

当输入不同的样品光谱时,网络中的神经元便随机兴奋,经过SOM 训练后神经元在输出层有序排列,作用相近的神经元相互靠近,作用不同的神经元相互远离。

minisom用法

minisom用法

minisom用法
Minisom是一种用于无监督学习的Python库,它能够快速实现自组织映射(SOM)算法。

SOM是一种神经网络结构,可以将高维度数据映射到一个二维网格上,从而可视化和理解数据。

Minisom库的使用方法如下:
1. 安装和导入Minisom库。

使用pip命令安装Minisom库,然后在Python脚本中导入该库。

2. 创建SOM模型。

使用Minisom库中的SOM类创建一个SOM模型,需要指定输入数据的维度、SOM网格的大小、学习率和邻域半径等参数。

3. 训练SOM模型。

将数据输入SOM模型,使用SOM类中的train方法进行训练。

训练过程中,SOM模型会自动调整权重向量,以便将输入数据映射到SOM 网格上。

4. 可视化SOM模型。

使用Matplotlib库中的函数将SOM网格可视化。

在可视化过程中,可以通过颜色、形状等方式展示输入数据的特征。

5. 使用SOM模型进行聚类和分类。

使用SOM模型可以将数据进行聚类和分类。

可以使用SOM类中的winner方法获取每个输入数据被映射到的SOM节点,并根据节点的特征进行分类和聚类。

总之,Minisom库是一个简单易用的SOM实现工具,可以用于数
据可视化、聚类和分类等应用场景。

SOM自组织特征映射神经网络

SOM自组织特征映射神经网络

SOM⾃组织特征映射神经⽹络参考: ⽣物学研究表明,在⼈脑的感觉通道上,神经元的组织原理是有序排列的。

当外界的特定时空信息输⼊时,⼤脑⽪层的特定区域兴奋,⽽且类似的外界信息在对应的区域是连续映像的。

⽣物视⽹膜中有许多特定的细胞对特定的图形⽐较敏感,当视⽹膜中有若⼲个接收单元同时受特定模式刺激时,就使⼤脑⽪层中的特定神经元开始兴奋,输⼊模式接近,与之对应的兴奋神经元也接近;在听觉通道上,神经元在结构排列上与频率的关系⼗分密切,对于某个频率,特定的神经元具有最⼤的响应,位置相邻的神经元具有相近的频率特征,⽽远离的神经元具有的频率特征差别也较⼤。

⼤脑⽪层中神经元的这种响应特点不是先天安排好的,⽽是通过后天的学习⾃组织形成的。

据此芬兰Helsinki⼤学的Kohonen T.教授提出了⼀种⾃组织特征映射⽹络(Self-organizing feature Map,SOM),⼜称Kohonen⽹络[1-5]。

Kohonen认为,⼀个神经⽹络接受外界输⼊模式时,将会分为不同的对应区域,各区域对输⼊模式有不同的响应特征,⽽这个过程是⾃动完成的。

SOM⽹络正是根据这⼀看法提出的,其特点与⼈脑的⾃组织特性相类似。

⼀、竞争学习算法基础:1、⾃组织神经⽹络结构(1)定义 ⾃组织神经⽹络是⽆导师学习⽹络。

它通过⾃动寻找样本中的内在规律和本质属性,⾃组织、⾃适应地改变⽹络参数与结构。

(2)结构 层次型结构,具有竞争层。

典型结构:输⼊层+竞争层。

如图1所⽰。

a. 输⼊层:接受外界信息,将输⼊模式向竞争层传递,起“观察”作⽤。

b.竞争层:负责对输⼊模式进⾏“分析⽐较”,寻找规律,并归类。

⼆、⾃组织神经⽹络的原理1.分类与输⼊模式的相似性 分类是在类别知识等导师信号的指导下,将待识别的输⼊模式分配到各⾃的模式类中,⽆导师指导的分类称为聚类,聚类的⽬的是将相似的模式样本划归⼀类,⽽将不相似的分离开来,实现模式样本的类内相似性和类间分离性。

自组织特征映射神经网络

自组织特征映射神经网络

结合深度学习
1 2
深度自组织特征映射
将深度学习技术与自组织特征映射相结合,通过 逐层特征提取和抽象,提高分类精度和特征表达 能力。
卷积自组织特征映射
借鉴卷积神经网络的思想,设计卷积层和池化层, 对输入数据进行局部特征提取和空间信息的保留。
3
循环自组织特征映射
结合循环神经网络,实现序列数据的自组织特征 映射,解决序列分类和时间序列预测问题。
05 自组织特征映射神经网络 的发展趋势与未来展望
改进算法
优化学习率调整
通过动态调整学习率,提高神经网络的收敛速度和稳定性,减少 训练时间。
引入正则化技术
通过正则化技术,如L1、L2正则化,防止过拟合,提高模型的泛 化能力。
集成学习与多模型融合
将多个自组织特征映射神经网络集成在一起,通过多模型融合提高 分类性能。
跨领域应用拓展
01
02
03
图像识别
应用于图像分类、目标检 测等任务,提高图像处理 的自动化和智能化水平。
语音识别
应用于语音信号的特征提 取和分类,实现语音识别 系统的优化。
自然语言处理
应用于文本分类、情感分 析、机器翻译等任务,推 动自然语言处理技术的发 展。
06 自组织特征映射神经网络 与其他神经网络的比较
数据输入
卷积神经网络(CNN)特别适合处理图像等具有网格结构的数据,而SOM则适用于 各种类型的数据,包括图像、文本和数值数据。
拓扑结构
CNN的神经元排列具有固定的层次结构,而SOM的神经元可以形成任意拓扑结 构,这使得SOM在某些任务上具有更大的灵活性。
THANKS FOR WATCHING
感谢您的观看
特征提取
信息检索

SOM神经网络在回热系统故障诊断中的应用

SOM神经网络在回热系统故障诊断中的应用
理 论 研 究
S M神经 网络在 回热系统故障诊断 中的应用 O
李杰 ( 江苏省江南影视 艺术职业 学院 240 ) 10 0
摘要 :回热 系统是 火电厂热 力系统的核心。为 了保证 火电厂 回热 系统的正常运行 。需要 对回热 系统故障进行诊 断。对故障 的诊断 即是 故障模 式识 别。 自 组织特征映射神 经网络(O - v 用来 实现故障识 S M) - q  ̄ *: 别。首先介绍 了 o s M神 经网络 的算法,然后对曰热 系统故 障模式进行 分析 ,建 立回热 系统故障样本知识库 ,利用样本训练 网络 ,从而建立 起故 障识别诊断 系统。 关键词:回热 系统;故障;诊断 ;自组织特征映射网络 ;样本
个神 经元 将会 在其 输 出端产 生 最大 值 ,而其 它 的神经 元具 有最 小输 出值 。所 以,该 网络 能 够根 据给 出的 最大 值 的神经 元 的位置 来判 断输入 矢量所 属的 故障 。

2 自组SM 络是一 个 由全连接 的神经 元阵列 组成 的无 教师 自组织 、 自学 习网络 。 处于 空间 中不 同区域 的 神经 元有 不 同的 分工 ,当 一个 神经 网络接 受 外 界输入 模式 时 ,将 会分 为不 A s a t: e r g ne a v y t m on tt t s t o e o o r b tr c Th e e r t e s se c si e he c r f a p we 同的反应 区域,各 区域对输 入模 式具有 不 同的响应特 性。 i u pa t hema ytm . erh ai y tm a l wo l eda n sd t ln ’St r lss e Th e e t ngsse fut ud b ig o e o 自组织特 征映射 网络 的学 习算法过 程为 : war ntt e t e ma y t m ’ Sno m a p r to .n f c , u td a o i g i ra h r ls se h r lo e a n I tf l i g s s i a a n n ( )初 始化 。对N 1 个输 入神 经 元到 输 出神经 元 的连接 权值 赋 akn f a enie t ct n Sl ognz gf tr pS ido t r n f ao . e - raii a ema (OM ) e r 予较 小的权值 。选 取输 出神 经元 J pt d i i i f n eu n ua l 个邻 接神经 元的集 合 。其 中, ,
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
W j (tk + 1) = W j (tk ) + α (tk )[ X (k ) − W j (tk )] ,
其中 α (tk ) 是学习步长, 邻域 (iii)
j ∈ N j (tk )
0 < α (tk ) < 1
Nq (tk ) 的选取:
例如选在
W j − Wq ≤ N q (tk ) 内的所有的 j 单元。
⎡P ⎢ 1,1 ⎢ P2,1 ⎢ P ⎢ ⎣ 3,1
共7396个训练矢量。 码本规模:N=512 用 SOM 网络进行矢量量化,实现图像数据压缩
d2 jk ( k ) 2σ 2 ( k )
h j (k ) = e

(高斯函数)
W j (k + 1) = W j (k ) + α (k ) h j (k )[ X (k ) − W j (tk )]
一般须满足: 0 < α (tk ) < 1 此外,有的改进算法还与当前单元所对应的权值修改次数有关,与修改次数成反比。 c0 例如,设 C(j) 第 j 单元权值的修改次数,取 α (t , j ) = log
q
q
信道
接收器 SOM
Bq
图像 恢复
ˆ ( m, n, t ) P
网络
( 在发射端和接收端,
SOM网络的权 { W j
} 即是码本;
重构图象
对每个由图象数据构成的矢量 X(k), 接收 q
找出一个最接近的 Wq
在接收SOM网络中取出 Wq
ˆ ( m, n, t ) P
传输标号 q
( 通过上述方法达到图象压缩的目的; 对于多媒体数据存储问题, 将上述框图中的信道改为存储媒体即可。 举例:将多媒体图象存到光盘里, 先训练好相应的SOM网络, 将训练好的权矢量 及其一系列标号存到盘里, 播放时再利用SOM网络及其标号重构图象。 由此可节省大量存储空间。
x(t )

tk X (k ) = [ x(tk +1 ), x(tk + 2 ),..., x(tk + n )]T
t1 t2
t
然后对整个矢量统一进行量化 -- 一组一组地量化; 为什么矢量量化? 数据压缩! -- 一种非常有效的压缩方法。 举例: 用标量量化法, 将采样信号 x (t1 ) ,… ,x (tn )的值经信道传输到接收端, 用数字通信方法,设每个信号值用 8 bit表示, 传送n个信号值,需要 8n bits; ( 用矢量量化方法传输信号,原理思路如下面框图所示:
直到网络收敛为止。
( 步骤(iii) 为并行计算; ( 步骤(iv) 也可由神经网络实现并行计算。
3
应用SOM网络进行数据压缩 (1) 用SOM算法训练构成SOM网络 ; (2) 用训练好的 SOM网络按下面系统框图操作: B
矢量 构成 码本
P ( m, n, t )
B
X (k )
SOM 网络 发送端
2 1

d2 jk ( k ) 2σ 2 ( k )
--高斯函数 为要适当选取的常数。有人建议取 τ 1 =
修改权值算法:
1000 ln σ 0
W j (k + 1) = W j (k ) + α (k ) h j (k )[ X (k ) − W j (tk )] ,
其它步骤与算法 I 相同。 由上面算法 可见, 对于 对于
x1 x2
xn
Kohonen 认为神经网络在接受外界激励时, 各区域会有不同的响应特征, 各连接权会有不同的分布变化。 邻近的神经元相互激励,较远的神经元相互抑制; 响应最强的区域形成一个局部峰值 (称为Bubble—墨西哥帽)。 同时,权向量也将以某一矢量为中心形成局部区域。 SOM网络既是按此原理构成。
k
随修改次数增加,使
α (tk ) ↓ 。
三、讨论
1 关于算法的收敛性(简述) 设可将输入样本集合 { X ( k ), k = 1,..., M } 划分为 p 个子区间 每个 V j 中有一个中心矢量 于是可证明: W j 2 竞争学习算法
→ V j*
V j*
-- 聚类中心, 在物理上
j = 1,..., p
应用举例:
应用 SOM 矢量量化方法进行图像数据压缩 (06级研究生杨清山)
训练图像: Lena 图像(256×256×8 bit) 训练样本集构造:将图像分成3×3的子块,
由子块构成矢量:
⎡P ⎡P 1,1 ⎤ 1,4 ⎤ ⎤ P P ⎢ ⎥ ⎢ ⎥ 1,2 1,3 ⎥ ⎢P ⎢P 1,2 ⎥ 1,5 ⎥ P2,2 P2,3 ⎥ ⇒ X (1) = ⎢ ⎥ , X (2) = ⎢ ⎥ ," ⇒ { X (k )} ⎥ ⎢ # ⎥ ⎢ # ⎥ P3,2 P3,3 ⎥ ⎦ ⎢ P3,3 ⎥ ⎢ P3,6 ⎥ ⎣ ⎦ ⎣ ⎦
j = 1, 2,..., p
W j = X (k ), W j ≠ X (k ),
h j (k ) = 1;
h j (k ) 按高斯曲线下降,
--使得在竞争中获胜的权值得到修改的程度最大, 而离获胜者越远,权值得到修改的程度越小。 还有其它改进算法 例如: α (t ) 的改进,使其与当前单元对应的权值修改次数有关,
(3) 学习算法
(取定 L、N) (i) 初始化: Wj (0) ← [0,255] 之间的随机数; (ii) 构造图像矢量样本集 { X(k) }, (iii) 输入 X(k), 由各 U j计算出 (iv) 由输出单元 U 在所有 out (v) (vi)
d1 U1

dj
Uj
Wj
… U N
dN
SOM
T
输出层
.
.
. … …

输入层的每个节点与第 j 个输出单元之间的连接权记为:
W j = [ w j1 , w j 2 ,..., w jn ]T ,
j = 1,..., p
j =q 2 ⎧ ⎪1 , if W j − X (k ) → min yj = ⎨ ⎪ ⎩0 , otherwise
输出: 以竞争方式进行输出.在竞争中获胜的单元有输出(为 1 ); 其余单元无输出(为 0). 竞争原则: 具有与当前输入 X 距离最近的 权矢量 Wq 的单元 q 为竞争获胜者, 即
x(t )
矢量 构成
B
码本
B 信道
X (k )
发送端
从码本中找到
j*
j*
接收端
B j*
B j*
信号 恢复
ˆ (t ) x
B j* ,仅发射 j *
从码本中读出
( 原理: 在发送端从码本中找到一个最佳矢量 B j* 来代替要被传送的矢量 X ( k ) , 仅需传送标号 j * 即可。 在接收端建立相同的码本B, 为传送 X ( k ),可不必传送 B j* 本身, 亦即: j* x(t ) X ( k ) B B ˆ (t ) x
⎡P 1,1 ⎢ ⎢ P2,1 ⎢ ⎣ P3,1 P 1,2 P2,2 P3,2 P 1,3 ⎤ ⎥ P2,3 ⎥ P3,3 ⎥ ⎦
⎡P ⎡P 1,1 ⎤ 1,4 ⎤ ⎢P ⎥ ⎢P ⎥ 1,2 1,5 X (1) = ⎢ . ⎥ , X (2) = ⎢ . ⎥ , ⎢ . ⎥ ⎢ . ⎥ . . ⎢ ⎥ ⎢ ⎥ ⎣ P3,3 ⎦ ⎣ P3,6 ⎦
j*
接到 j *后, 以其为地址, 从B中读出 B j*, 用
B j* ≈ X ( k )
j*
-- 达到大规模压缩数据。
为实现矢量量化,主要包括两方面:
(1) 寻找最佳矢量 B j* ;
(2) 码本设计 (设计一个好的码本); (1) 寻找最佳矢量: 给定X(k), 如何在 { B j }中寻找一个最接近X(k)的矢量 B j* ? ( 可用最小距离准则: 计算 d j = X ( k ) − B j , 找出最小距离 d j* = min{d j } j 标号为 j * 的矢量 B j* 即为对应X(k)的最佳矢量。 解决出路:并行算法,并行机。 (2) 码本设计问题: 重要而困难的问题! • 传统方法: 例如 LBG 方法, 计算量大,不易实现。 • 神经网络方法,尤其SOM网络, 开辟新的途径,引起研究兴趣。 以图像压缩为例,讨论如何用SOM网络,解决这两个问题。 二、 SOM网络图象数据压缩方法 数字图象: NXM点阵,每像素8bit, 1 将图象数据转化为矢量数据 像素P(m,n): 0-255之间的数。用P(m,n)构成矢量 (如用3X3窗口):
二、学习算法
1 算法 I: (i) 初始化:
- 各权矢量
W j 的确定
wji (0) ← Small random numbers(也可根据先验知识); , k ← 0; (ii) 输入 X(k) , 对 W 做下述操作: j c 求出 与 X(k) 最接近的权矢量 W , q 2 1/ 2 min{ W j − X (k ) = Wq − X (k ) = d q , ( X − Y = ( ∑ i ( xi − yi ) ) ) j d 定义单元 q 所在的邻域为 Nq (tk ), 将 Nq (tk ) 中各单元的权进行修改, 其它权值不变:
k ← k + 1,
goto (ii),
直到网络收敛为止。
2 算法 II (改进算法): 在算法 I 中的 (ii).d 中采用如下算法修改权值: 首先令 d = X (k ) − W j
2 jk 2
计算 其中
h j (k ) = e σ (k ) = σ 02 e− k /τ , σ 02 , τ 1
CH.k
Learning Algorithm
h Supervised Learning NN (有监督、有教师) h 自组织特征映射 -- Self Organization Feature Mapping (SOM)
相关文档
最新文档