自组织竞争神经网络与SOM网络kohonen网络
基于rfm分析的银行信用卡客户的行为评分模型应用自组织映射神经网络som和apriori方法

Xp=(xpl,xp2,...,xpi,...,xpn)7 每个输出神经元的输出值记为撕,j=1,2,...,m。与莉个输
之前的大部分研究都是以建立准确的信用或行为的评分模型以及如何利用各种统计 方法来提高分类模型的准确度为焦点。然而,因为银行数据库的多维性,它包含有大量 的月账户记录和日交易记录,即使有了高准确度的评分模型,也会经常出现一些错误的 分类模式。
本文引入了数据挖掘的方法,建立一个基于RFM分析的数据挖掘的行为评分模型 来分析银行信用卡客户的行为,这一模型包括了对现实中的数据集进行数据处理和准备、 进行评分和客户轮廓刻画,建立的这个标准模型具有很大的实用性。两阶段的行为评分 模型的框架也是验证了实际申请中评分分析过程中数据挖掘的有效性。
由于原始数据库存在如下问题:数据不完整,存在大量的空缺值;含噪声数据,存 在大量冗余和噪声数据;数据不一致,原始数据取自各实际应用系统,而各应用系统的 数据缺乏统一标准,数据结构也有较大差异;不同的数据挖掘算法对数据有相应的要求, 因此在挖掘之前需要对原始数据进行大量的预处理工作,以减少挖掘过程中的故障,提 高数据挖掘模式的质量,降低实际挖掘所需要的时间。
The Behavioral Scoring Model of Credit Card Customers in a Bank Based on RFM
…一the Application of SOM and Apriori .
Liang Changyong Zhao Yanxia
自组织竞争神经网络

第23页
3.搜索阶段:
由Reset信号置获胜阶段无效开始,网络进入搜索 阶段。此时R为全0,G1=1 ,在C层输出端又得到了此 次输入模式X。所以,网络又进入识别及比较阶段,得 到新获胜节点(以前获胜节点不参加竞争)。这么重 复直至搜索到某一个获胜节点K,它与输入向量X充分 匹配到达满足要求为止。模式X编制到R层K节点所连 模式类别中,即按一定方法修改K节点自下而上和自上 而下权向量,使网络以后再碰到X或与X相近模式时, R层K节点能很快取得竞争胜利。若搜索了全部R层输 出节点而没有发觉有与X充分靠近模式,则增设一个R 层节点以表示X或与X相近模式。
⑥ 警戒线检测。设向量X中不为0个数用||X||表示,可
有 n || X || xi
n
||C'|| w' j *iXi i1
(5.3.1)
i 1
n
||C'|| w' j *iXi
(5.3.2)
i1
若||C||/||X||>成立,则接收j*为获胜节点,转⑦。
不然发Reset信号,置j*为0(不允许其再参加竞争),
信号1:输入X第i个分量Xi。 信号2:R层第j个单元自上而下返回信号Rj。 信号3:G1控制信号。 设C层第i个单元输出为Ci。 Ci依据“2/3规则”产 生,即Ci含有三个信号中多数相同值。 网络开始运行时, G1 =1,R层反馈信号为0。
自组织竞争神经网络
第18页
2.R 层结构:
R层功效结构相当于一个前向竞争网络,假设输出 层有m个节点,m类输入模式。输出层节点能动态增加, 以满足设置新模式类需要。设由C层自下而上连接到R 层第j个节点权向量用Wj={w1j,w2j,..,wnj} 表示。C层输出向量C沿Wj向前馈送,经过竞争在R层 输出端产生获胜节点,指示此次输入向量类别。
自组织竞争神经网络SOM

本章主要介绍自组织竞争型神经网络的结构 学习算法;及相关理论
1
第四章自组织竞争型神经网络
§4 1 前言 §4 2 竞争学习的概念和原理 §4 3自组织特征映射神经网络 §4 4自组织特征映射神经网络的设计 §4 5 对偶传播神经网络 §4 6小结
2
§4 1 前言
在生物神经系统中;存在着一种侧抑制现象;即一 个神经细胞兴奋以后;会对周围其他神经细胞产生 抑制作用 这种抑制作用会使神经细胞之间出现竞 争;其结果是某些获胜;而另一些则失败 表现形式 是获胜神经细胞兴奋;失败神经细胞抑制
在网络结构上;它一般是由输入层和竞争层构成的 两层网络 两层之间各神经元实现双向连接;而且网 络没有隐含层 有时竞争层各神经元之间还存在横 向连接
4
在学习算法上;它模拟生物神经元之间的兴奋 协调 与抑制 竞争作用的信息处理的动力学原理来指导 网络的学习与工作;而不像大多数神经网络那样是 以网络的误差或能量函数作为算法的准则
X1
0.8 0.6
X2
00.1.9783468
X3
00..770077
X4
00..3943297
X5
0.6 0.8
解:为作图方便;将上述模式转换成极坐标形式 :
X113.68o9X2180oX314.4 5X4170oX515.31o3
竞争层设两个权向量;随机初始化为单位向量:
W1(0)1010o W2(0)01118o0
7
24 -130
8
34 -130
w2
9
34 -100
10
44 -100
11
40.5 -100
12
40.5 -90
自组织竞争神经网络

dj =
n
∑ (x
i =1
i
− wi j ) 2
∆wi j = η h( j , j*)( xi − wi j )
j − j*2 h ( j , j *) = exp − σ2
自组织竞争神经网络算法能够进行有效的自适应分类,但它仍存在一些问题: 学习速度的选择使其不得不在学习速度和最终权值向量的稳定性之间进行折中。 有时有一个神经元的初始权值向量离输入向量太远以至于它从未在竞争中获胜, 因 此也从未得到学习,这将形成毫无用处的“死”神经元。
网络结构
%1.ÎÊÌâÌá³ö X=[0 1;0 1]; clusters=8; points=10; std_dev=0.05; P=nngenc(X,clusters,points,std_dev); plot(P(1,:),P(2,:),'+r'); title('ÊäÈëÏòÁ¿'); xlabel('P(1)'); ylabel('P(2)'); %2.ÍøÂçÉè¼Æ net=newc([0 1;0 1],8,.1) w=net.IW{1}; plot(P(1,:),P(2,:),'+r'); hold on; circle=plot(w(:,1),w(:,2),'ob') %3.ÍøÂçѵÁ· net.trainParam.epochs=7; net=train(net,P) w=net.IW{1}; delete(circle); plot(w(:,1),w(:,2),'ob'); %4.ÍøÂç²âÊÔ p=[0.5;0.2]; a=sim(net,p)
Kohonen神经网络在公路网布局中的应用

文章编号:1000-9779(2001)04-0047-03Kohonen 神经网络在公路网布局中的应用唐贤瑛,郭香妍(长沙交通学院,湖南长沙410076)摘要:以江苏公路网部分节点数据为例,研究Kohonen 神经网络在公路网布局中的运用。
结果证实,运用神经网络是可靠的。
关键词:公路网布局;Kohonen 网络;节点中图分类号:U412.1文献标识码:A !根据我国交通主管部门的要求,将公路网规划列为公路建设前期工作的重要组成部分。
它是确保公路网布局合理、有秩序协调发展、防止建设决策的随意性和盲目性的必要手段。
公路网规划是公路交通部门按照社会需要选定建设方案、分析方案优劣,对规划实施进行指导,从而使公路网的建设尽量满足社会需要的过程,并根据规划区域实际情况确定线路走向,以完善网络的结构的方法[1]。
公路网规划问题可归结为节点的分类问题。
传统的算法是节点规划法,即按节点的某些特征参数确定网络的联络点,进而规划线路走向。
选择节点有两种方法。
1)重要度法:重要度是区域内各节点相对重要性的一种综合量度。
用重要度来排定节点的顺序,进而选择节点。
2)动态聚类法:将区域中所有节点视为聚类分析的样本,按一定的标准将样本分成不同的类,然后根据需要逐类处理、选择节点。
本文运用神经网络模式识别方法来研究节点的分类。
Kohonen 提出一种自组织映射模型,当外界输入不同的样本到该模型中,一开始时,输入样本引起输出兴奋的细胞的位置各不相同,但自组织后会形成一些细胞群,它们分别代表了输入样本,反映了输入样本的特性。
这个映射的过程是用一个简单的竞争算法来完成的。
它可作为一种样本特征检验器,使一些无规律的样本自动分类。
本文利用Koho-nen 网络的特点,将Kohonen 网络应用于公路网布局,取得了满意的结果。
图1网络结构1Kohonen 网络的结构Kohonen 网络由输入层和输出层两层网络组成。
输入层接收输入样本;输出层(竞争层次)对输入样本进行分类。
SOM神经网络原理

1 . SOM是由输入层和竞争层组成的单层神经网络,输入层是一维的 神经元,有n个节点。竞争层是二维的神经元,按二维的形式排列成 节点矩阵,有M=m^2个节点。
视频名称:SOM神经网络理论及其matlab实现 会员:Hgsz2003
2013-10-29 10 我 版权申明:视频归原创作者跟Matlab中文论坛所有,可以在Matlab中文论坛下载或者观看,请勿转载! !
视频名称:SOM神经网络理论及其matlab实现 会员:Hgsz2003
SOM是由芬兰赫尔辛基大学神经网络专家Kohonen教授在1981年提 出的。这种网络模拟大脑神经系统自组织特征映射的功能,是一种竞 争型网络,并在学习中能无导师进行自组织学习。
2013-10-29 我 版权申明:视频归原创作者跟Matlab中文论坛所有,可以在Matlab中文论坛下载或者观看,请勿转载! !5
在网络结构上,自组织竞争网络一般是有输入和竞争层构成的单层网 络,网络没有隐藏层,输入和竞争层之间的神经元实现双向连接,同 时竞争层各神经元之间还存在横向连接。
视频名称:SOM神经网络理论及其matlab实现 会员:Hgsz2003
2013-10-29 我 版权申明:视频归原创作者跟Matlab中文论坛所有,可以在Matlab中文论坛下载或者观看,请勿转载! !4
Matlab&Simulink为美国mathworks公司注册商标!版权归mathworks公司所有!
SOM算法是一种无导师的聚类法,它能将任意维输入模式在输出层映 射成一维或者二维离散图形,并保持其拓扑结构不变,即在无导师的 情况下,通过对输入模式的自组织学习,在竞争层将分类结果表示出 来,此外,网络通过对输入模式的反复学习,可以使连接权值空间分 布密度与输入模式的概率分布趋于一致,即连接权向量空间分布能反 映输入模式的统计特征。
som+k-means两阶段聚类算法及其应用

在众多聚类算法中,K-means和自组织神经网络 (SOM)是较为经典的两种。
基于SOM的K-means两阶段聚类算法结合了这两种算法的优点。
首先,SOM算法自动进行聚类,为数据提供一个初步的聚类结构和中心点。
然后,这些初步的聚类数目和中心点作为K-means算法的初始输入,进一步进行精确的聚类,从而得到更为准确的聚类信息。
此外,某研究应用此算法对某地区电信家庭客户数据进行分析,结果显示该算法具有较好的聚类效果。
这表明SOM+K-means两阶段聚类算法在实际应用中具有较高的有效性和可靠性。
自组织神经网络

❖
PR
- Rx2 矩阵确定输入范围
❖
Di
- 第i层神经元个数,缺省为5× 8
❖ TFCN
- 拓扑函数,缺省为 'hextop'.
❖ DFCN
- 距离函数,缺省为 'linkdist'.
❖
OLR
- 排序阶段学习率,缺省为0.9.
❖ OSTEPS - 排序阶段最大学习步骤,缺省为1000.
❖
TLR
- 调整阶段学习率,缺省为0.02;
例:LVQ网络的设计
❖ 设定输入样本和期望输出 ❖ 构建并设置网络参数 ❖ 根据训练样本对网络进行训练 ❖ 用训练样本测试网络 ❖ 用新样本测试网络 ❖ 讨论比例的影响
小结
❖ 何谓自组织:没有答案的学习
❖ 自组织竞争神经网络的基本概念
神经元:输入与权值的负距离加上阈值 网络结构:竞争网络 学习方法:Kohonen和阈值学习规则 用途:聚类
❖
TND
- 调整阶段最大学习步骤,缺省为1
例八:SOFM网络的构建和训练
❖ 构建网络 ❖ 设置训练样本 待聚类样本 ❖ 观察训练前网络的状态 ❖ 根据样本进行训练
排序阶段 粗调 调整阶段 细调
❖ 观察训练后网络的状态
例九:一维SOFM网络设计
❖ 输入为二维向量,神经元分布为一维 ❖ 将二维空间的特征映射到一维拓扑结构 ❖ 步骤
* IW 1 ,1 ( q 1 )
若分类不正确:
修正第 i个神经元的权值更远离
该样本
i i - ( p ( q ) i ) * IW 1,1 ( q )
* IW 1 ,1 ( q 1 )
* IW 1 ,1 ( q 1 )
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
x
5
训 练 次 数
W1
W2
x3 x w2
1
w1
x
2
x
4
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
18.43° -180° -30.8° -180° 7° -180° -32° -180° 11° -180° 24° -180° 24° -130° 34° -130° 34° -100° 44° -100° 40.5° -100° 40.5° -90° 43° -90° 43° -81° 47.5° -81° 42° -81° 42° -80.5° 43.5° -80.5° 43.5° -75° 48.5° -75°
... x2 j
j =1
xn n x2 ∑1 j j=
T
13
向量归一化之前
*
*
* *
14
向量归一化之后
* *
*
*
15
竞争学习原理
竞争学习规则——Winner-Take-All 竞争学习规则 2.寻找获胜神经元 2.寻找获胜神经元 当网络得到一个输入模式向 量时, 量时,竞争层的所有神经元对应的内星权向量均 与其进行相似性比较, 与其进行相似性比较,并将最相似的内星权向量 判为竞争获胜神经元。 判为竞争获胜神经元。 欲使两单位向量最相似,须使其点积最大。 欲使两单位向量最相似,须使其点积最大。即:
23
x
5
训 练 次 数
W1
W2
x3 x w2 w1 x
2 1
x
4
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
18.43° -180° -30.8° -180° 7° -180° -32° -180° 11° -180° 24° -180° 24° -130° 34° -130° 34° -100° 44° -100° 40.5° -100° 40.5° -90° 43° -90° 43° -81° 47.5° -81° 42° -81° 42° -80.5° 43.5° -80.5° 43.5° -75° 48.5° -75°
4
在学习算法上,它模拟生物神经元之间的兴奋、 在学习算法上,它模拟生物神经元之间的兴奋、 协调与抑制、 协调与抑制、竞争作用的信息处理的动力学原理 来指导网络的学习与工作, 来指导网络的学习与工作,而不像大多数神经网 络那样是以网络的误差或能量函数作为算法的准 则。 竞争型神经网络构成的基本思想是网络的竞争层 各神经元竞争对输入模式响应的机会,最后仅有 各神经元竞争对输入模式响应的机会, 一个神经元成为竞争的胜者。 一个神经元成为竞争的胜者。这一获胜神经元则 表示对输入模式的分类。 表示对输入模式的分类。
2
§4.1 前言
在生物神经系统中,存在着一种侧抑制现象, 在生物神经系统中,存在着一种侧抑制现象,即 一个神经细胞兴奋以后, 一个神经细胞兴奋以后,会对周围其他神经细胞 产生抑制作用。 产生抑制作用。这种抑制作用会使神经细胞之间 出现竞争,其结果是某些获胜,而另一些则失败。 出现竞争,其结果是某些获胜,而另一些则失败。 表现形式是获胜神经细胞兴奋, 表现形式是获胜神经细胞兴奋,失败神经细胞抑 制。 自组织竞争型神经网络就是模拟上述生物神经系 统功能的人工神经网络。 统功能的人工神经网络。
6
常用的自组织网络 自组织特征映射(Self-Organizing Feature 自组织特征映射 Map)网络 网络 对偶传播(Counter propagation)网络 对偶传播 网络
返回
7
§4.2 竞争学习的概念与原理
竞争层 输入层
自组织神经网络的典型结构
8
§4.2 竞争学习的概念与原理
Take All。
12
1.向量归一化 1.向量归一化 首先将当前输入模式向量 和竞争层中各神经元对应的内星向量W X和竞争层中各神经元对应的内星向量Wj 全部进行归一化处理; (j=1,2,…,m) 全部进行归一化处理; (j=1,2, ,m)
X ˆ X= = X
x1
∑
n
3
自组织竞争型神经网络是一种无教师监督学习, 自组织竞争型神经网络是一种无教师监督学习, 具有自组织功能的神经网络。 具有自组织功能的神经网络。网络通过自身的训 能自动对输入模式进行分类。 练,能自动对输入模式进行分类。这一点与 Hopfield网络的模拟人类功能十分相似,自组织 网络的模拟人类功能十分相似, 网络的模拟人类功能十分相似 竞争型神经网络的结构及其学习规则与其他神经 网络相比有自己的特点。 网络相比有自己的特点。 在网络结构上, 在网络结构上,它一般是由输入层和竞争层构成 的两层网络。两层之间各神经元实现双向连接, 的两层网络。两层之间各神经元实现双向连接, 而且网络没有隐含层。 而且网络没有隐含层。有时竞争层各神经元之间 还存在横向连接。 还存在横向连接。
ˆ ˆ ˆ ˆ ˆ ˆ X T X − 2 W T* X + W T* W j j
T j*
=
2 (1 − W
T j*
ˆ X)
从上式可以看出,欲使两单位向量的欧式距离最小, 从上式可以看出,欲使两单位向量的欧式距离最小,须使两向 量的点积最大。 量的点积最大。即:
ˆ Tˆ ˆ Tˆ W j * X = max ( W j X )
21
x
5
训 练 次 数
W1
W2
x3 x w2
1
w1
x
2
x
4
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
18.43° -180° -30.8° -180° 7° -180° -32° -180° 11° -180° 24° -180° 24° -130° 34° -130° 34° -100° 44° -100° 40.5° -100° 40.5° -90° 43° -90° 43° -81° 47.5° -81° 42° -81° 42° -80.5° 43.5° -80.5° 43.5° -75° 48.5° -75°
竞争学习的概念 分类——分类是在类别知识等导师信号的指 分类是在类别知识等导师信号的指 分类 导下, 导下,将待识别的输入模式分配到各自的模 式类中去。 式类中去。 聚类——无导师指导的分类称为聚类,聚类 无导师指导的分类称为聚类, 聚类 无导师指导的分类称为聚类 的目的是将相似的模式样本划归一类, 的目的是将相似的模式样本划归一类,而将 不相似的分离开。
ˆ * T X = max ( W T X) ˆ ˆ Wj ˆ j
j∈{1, 2 ,..., m}
16
竞争学习规则——Winner-Take-All 竞争学习规则
ˆ ˆ X − W
j*
=
j ∈ { , 2 ,..., m 1
min
}
ˆ {X
ˆ − W
j
}
ˆ ˆ X − W j* =
=
ˆ ˆ ˆ ˆ ( X − W j* ) T ( X − W j * )
1
解:为作图方便,将上述模式转换成极坐标形式 : 为作图方便,
X1 =1∠36.89o X2 = 1∠ − 80o X 3 = 1∠44.5 X4 = 1∠ − 70o X5 = 1∠53.13o
竞争层设两个权向量,随机初始化为单位向量: 竞争层设两个权向量,随机初始化为单位向量:
− 1 1 o W1 (0) = = 1∠0 W2 (0) = = 1∠180o 0 0
*
(t )]
**ˆLeabharlann W j * (t + 1)
ˆ p (t ) X ˆ Wj ˆ Wm
*
…
*
20
用竞争学习算法将下列各模式分为2 例4.1 用竞争学习算法将下列各模式分为2类:
0.8 2 0.1736 3 0.707 4 0.342 5 0.6 X = X = 0.6 − 0.9848 X = 0.707 X = − 0.9397 X = 0.8
cos
ψ
• •
=
• • ΨT
X X
类 1
T
X X
i i
类 2 • • • • •
•
(b )基 于 余 弦 法 的 相 似 性 测 量
11
§4.2 竞争学习的概念与原理 竞争学习原理
竞争学习规则——Winner-Take-All Winner-Take竞争学习规则 Winner 网络的输出神经元之间相互竞争以求被激活, 网络的输出神经元之间相互竞争以求被激活, 结果在每一时刻只有一个输出神经元被激活。 结果在每一时刻只有一个输出神经元被激活。 这个被激活的神经元称为竞争获胜神经元, 这个被激活的神经元称为竞争获胜神经元,而 其它神经元的状态被抑制, 其它神经元的状态被抑制,故称为Winner
10
(b
• 相似性测量_余弦法 相似性测量_
两个模式向量越接近, 两个模式向量越接近,其夹角越 余弦越大。 小,余弦越大。当两个模式向量 2 完全相同时,其余弦夹角为1 完全相同时,其余弦夹角为1。 如果对同一类内各个模式向量间 的夹角作出规定, 的夹角作出规定,不允许超过某 T 一最大夹角a 一最大夹角a,则最大夹角就成 为一种聚类判据。 为一种聚类判据。同类模式向量 的夹角小于a 的夹角小于a,两类模式向量的 夹角大于a 夹角大于a。余弦法适合模式向 量长度相同和模式特征只与向量 方向相关的相似性测量。 方向相关的相似性测量。
24
x
5
训 练 次 数
W1