神经网络导论_双向联想记忆
带分布时滞的双向联想记忆神经网络周期解的存在性

强.
2 预备知识
为方便起见 , 引入 以下符号 :
]
)
鬈 ]i ) [ (I q , j
鬈 】 『
i 12… ,, V = ,, 礼 x∈R J= 12… ,, V ,, P y∈R
其中 也( , ( 是连续有界函数. s s ) )
收稿 日期: 0 90.2 20—11 资助项 目: 国家 自然科学基金 (0 70 7; 15 25 )江苏省 自然科学基金 (K 20 16 B 06 8)
16 4
应 用 泛 函 分 析 学 报
第 1 卷 3
文献 [ 中 已经对 系统 (.) 9 】 11 的模型进行 了讨论 , 但是 其中函数 和 的限制条件 比较严格. 本
会出现传输时滞的分布. 在这种情形下, 信号传输不再是即时的滞 的模型 [ 1 . 9 2 -】
本文考虑 如下带分布时滞 的 B M 神经 网络模型 : A
P
=
。 。
h () ∑p( t) ( + jt i)
分别表 示在与神经 网络不连通并 且无外部 附加 电压差的情况 下第 i 神经 元与第 J个神经元在 t时 个 刻恢复静 息状 态的速率. ( 和 ( 分别表示第 i 神经元与第 J个神 经元在 t时刻的状态变量. £ ) t ) 个 pi )q ( , ,jt 是连续 的 周期 函数: ()q ( 是 第 i 神经元与第 J个神经元在 t时刻 j( ,it 厶( J( t j) ) ) ,i t j) 个 的关联强度 ; t, ( 分别表示 第 i 神经元与第 J个神 经元在 t时刻的外部输入 .Kj 和 Sj是 厶() t ) 个 i i 时滞核 函数 , ,i g 分别表示第 个神经元与第 i 个神经元 在 t 时刻的输 出. 系统 (.) 11 的初始条 件为: x() () i = s, s y() () j8 = s, s∈( 。0, i ,,一, 一。,] =12・ 礼 8 一 。o, J= 12… , ∈( 。,l ,, P
内连式复值双向联想记忆模型及性能分析

样 拳对 成 为 其稳 定 点 , 服 了 C A 所 存 在 的补 码 问题 计 算机 模 拟 证 明 了谊模 型 比 C B M 具 有 更 高 的存 克 DB M D A
储 容 量 和 更 好 的 纠 错 性 能
关 键 词 :双 向 联 想 记 忆 : 经 网络 ; 量 函数 ; 数 域 ; 神 能 复 多值 联 想 记 忆 ; 内连 接
维普资 3 43) 0 - 2/0/ ( ) 34 0 9 2 10 0 5
 ̄02o n f a 软 件 学 塑 2 u a fowr 0Jrl St e o
! ! : 坚 堡
内连 式 复 值 双 向联 想 记 忆 模 型 及 。 分 析 陛能
在 存 储 容 量 和 纠 错 率 低 的问 题 , 补码 问题 也 未 得 到解 决
本 文 的 目的 是 在 C DBAM 的基 础 上 , 助 于 M I 借 BAM 的 思 想 , 引入 神 经 元 层 内的 自联 想 ( 内连 接 ) 实 现 两 或 来 者 的结 合 , 而 推 广 上述 两 个 模 型 , 一 方 面 可 使 M I 从 即 BAM 具 有 处 理 复 值 即 多 值 的 能力 . 同时 使 原 有 C AM 在 DB
11 修 正 内连 式 双 向联 想记 忆 模 型 .
假 定 有 坍 对 存 储 的 二 值 数 据 或 模 式 ( , ) =12… , ∈卜 lI ∈( ll , ,, . 七 ,). 一,
MI BAM 的 取 向 更新 规 则 是 :
*
收 稿 日期 :2 0 —5 l.修 改 日期 :2 0 一8 1 0 00 1 0 0 o .5
基 金 项 目 :国 家 自然 科 学 基 金 资 助 项 目(9 叭 0 4, 家 教 育 部 青 年 骨 干 教 师 资 助 项 目 . 京 大 学 计 算 机 软 件 新 技 术 国 家 重 点 6 7 0 )国 南
变时滞的双向联想记忆神经网络的全局指数稳定性

第 3 卷 7
A=da (l…a ,1 , ∈R ,J =(1…S,l , ) ig a, b… b ) ” o S, h… ∈R , ”
( 一 ()=( (l -"/) ( (一 ()g( (- 1), ( 一 ()r ,) f Y( Z ), ) t l )…, , ,) l 8 t) ( ), x t ()…, ,) . ))
d i O3 6  ̄i n1 0 —4 32 1.7 7 o :1 .99 .s . 32 8 . 1 . s 0 0 O0
文献[ 讨论 了双层双 向联想记忆神经 网络模型(A ) 1 ] B MN 的稳定性, 在此基础上, 文献[ 5得到了稳定性 的 1] . 不少判定方法, 文献【 1] 6 O分析了时滞为常数的双向联想记忆神经 网络模型指数的吸引性, — 得到了很好的结果. 但在时滞是 时间变量的情况下, 其全局吸引性和全局指数稳定性 的应用更加广泛, 但这方面的研究和文献却很 少.
=
( 1 w
, =i(,L, , ∈ , ( ,, L dg . )R M = a L… … 1 , … +
定理 2 【 如果系统( 满足下列条件 : .9 1】 I 3 )
1I() UIL“ U, )g ) l一: , ) j ̄ () j 一2 一 : “ l fu~ 2< l I l g I
{ , , J2, I) ∈0 = 辜 =… y )S 】 1m j ( s [, , - ,
其中 , : ,] R是连续函数. 卜r0
令 f :( f ,f, “ .( ) ( ) ( , ( …, f =(, )X ( , , f Y ( , ,f …, ∈R , ) ) ) ( , ,f … x ( , f Y ( , Y ( ) f ) ) ) ) )
【国家自然科学基金】_双向联想记忆_基金支持热词逐年推荐_【万方软件创新助手】_20140801

2011年 序号 1 2 3 4 5 6 7 8 9 10 11 12 13 14
2011年 科研热词 推荐指数 双向联想记忆神经网络 4 时滞 2 脉冲 1 稳定性 1 概周期解 1 时滞神经网络电路实验 1 存在性 1 周期解 1 双向联想记忆神经网络:m-矩阵 1 分布时滞 1 全局渐近稳定性 1 全局指数稳定性 1 simulink数值仿真 1 mawhin连续定理 1
2009年 序号 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27
科研热词 双向联想记忆 鲁棒稳定 鲁棒性 解析解 线形矩阵不等式 稳定性 神经网络 模糊双向联想记忆网络 概念格 有界性 时间延迟 时滞 无穷时滞 形式背景 形式概念分析 平衡点 学习算法 周期解 同步 变系数 双向联想记忆神经网络 双向联想记忆(bam)神经网络 全局渐近稳定性 三角模 lyapunov泛函:banach空间 lyapunov泛函 (lmis)
2008年 序号 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
科研热词 推荐指数 双向联想记忆神经网络 3 鲁棒稳定 2 线性矩阵不等式 2 脉冲 1 离散时滞 1 时滞双向联想记忆神经网络 1 时滞 1 时变时滞 1 指数稳定 1 指数收敛 1 周期振荡解 1 全局指数稳定 1 不确定性 1 markov跳变 1 lyapunov泛函 1 lyapunov-krasovskii函数序号 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
2014年 科研热词 推荐指数 阈值 1 脉冲神经网络 1 联想记忆 1 结构稳定性 1 粒度函数 1 神经网络 1 比例时滞 1 时标 1 平衡解 1 吸引子 1 同态映射 1 全局指数稳定性 1 ∨-t模糊双向联想记忆网络 1 lyapunov稳定性 1 brouwer不动点定理 1
基于双向联想记忆神经网络的柴油机故障诊断

输 入 样 本
故障原因
Tl
p
0.3 5 9 2
p
10 0 .0 0
m
10 0 .0 0
p 4
-04 2 .5 6
p
0. 8 5 39
p 6
10 o .O o
p 7
1O o .O 0
p s
1O o .O o
T2
- 4 7l 0.5
06 5 .1 2 0.7 2 7 8
2利 用 B M 神 经 网络 进 行 柴 油机 故 障 诊 断 . A 21 障 样 本 的 选 择 .故
柴油机供油系统常见故障主要有供油量不足 、针阀门卡死 致油孔 阻塞、 阀泄露和出油阀失效 。 针 基于上述故障 , 设定 了 8种故障模式 , 分 别是 10 供油量 ( , %供油量( , % 油量 ( , 0% T)7 5 T) 5 供 2 L)怠速油量 (4, .) r 针阀卡死 ( 油量 T )针阀卡死( 小 , 标定 油量 )针阀泄露( 和 出油 阀 , T) 失效 ( 。根据柴油机供油 系统的T作特点 , R) 采用 8 种体现柴油机运行 状况 的特征作为证据进行诊断 , 即最大压力( 。, P )次最大压 力( , P)波形 幅度 (,, P)上升沿宽度( , P)波形 宽度 ( , 大余波 的宽度 ( , P)最 P)波形的 面积 ( , p)起喷压力( 。故障样本如表 l P) 所示 。 22故障诊 断的步骤 . 将 B M网络应用 于柴油机故障诊断步骤如下 : A ( ) 取标 准 故 障 样 本 ; 1选
O 5l l . 5
O9 1 .5 2
- . O ) 05 ( 0
O4 1 _2 2
T5
第9章Hopfield神经网络与联想记忆PPT课件

9.1 神经动力学
1989年Hirsch把神经网络看成是一种非线性动力学 系统,称为神经动力学(Neurodynamics)。
确定性神经动力学将神经网络作为确定性行为,在 数学上用非线性微分方程的集合来描述系统的行为, 方程解为确定的解。
统计性神经动力学将神经网络看成被噪声所扰动, 在数学上采用随机性的非线性微分方程来描述系统 的行为,方程的解用概率表示。
反馈神经网络是一个反馈动力学系统,具有更强的计 算能力。1982年J. Hopfield提出的单层全互连含有对 称突触连接的反馈网络是最典型的反馈网络模型。 Hopfield 用能量函数的思想形成了一种新的计算方法, 阐明了神经网络与动力学的关系,并用非线性动力学 的方法来研究这种神经网络的特性,建立了神经网络 稳定性判据,并指出信息存储在网络中神经元之间的 连接上,形成了所谓的离散Hopfield网络。
第9章 Hopfield神经网络与联想记忆
前言 神经动力学 Hopfield神经网络 Hopfield神经网络 联想记忆 最优化计算 仿真实例
1
机器人智能与神经计算实验室(B) (B) (B) (B) (B)
9.0 前言
d V(t的稳态或
平衡态。
7
机器人智能与神经计算实验室(B) (B) (B) (B) (B)
N维向量所处的空间称为状态空间, 状态空间通常 指的是欧氏空间,当然也可以是其子空间,或是类 似圆、球、圆环和其他可微形式的非欧氏空间。
3
机器人智能与神经计算实验室(B) (B) (B) (B) (B)
1984年,Hopfield设计与研制了Hopfield网络模型的 电路,指出神经元可以用运算放大器来实现,所有 神经元的连接可用电子线路来模拟,称之为连续 Hopfield网络。
第5章 Hopfield神经网络与联想记忆教材

第5章Hopfield神经网络与联想记忆前面介绍了前向网络及其学习算法,对于所介绍的前向网络,从学习的观点来看,它是一个强有力的学习系统,系统结构简单、易于编程;从系统的观点来看,它是一个静态非线性映射,通过简单非线性处理单元的复合映射可获得复杂系统的非线性处理能力;从计算的观点来看,它并不是一强有力系统,缺乏丰富的动力学行为。
反馈神经网络是一个反馈动力学系统,具有更强的计算能力。
1982年美国物理学家J. Hopfield提出的单层全互连含有对称突触连接的反馈网络是最典型的反馈网络模型。
Hopfield 用能量函数的思想形成了一种新的计算方法,阐明了神经网络与动力学的关系,并用非线性动力学的方法来研究这种神经网络的特性,建立了神经网络稳定性判据,并指出信息存储在网络中神经元之间的连接上,形成了所谓的Hopfield网络,称之为离散Hopfield网络。
而且Hopfield还将该反馈网络同统计物理中的Ising模型相类比,把磁旋的向上和向下方向看成神经元的激活和抑制两种状态,把磁旋的的相互作用看成神经元的突触权值。
这种类推为大量的物理学理论和许多的物理学家进入神经网络领域铺平了道路。
1984年,Hopfield设计与研制了Hopfield网络模型的电路,指出神经元可以用运算放大器来实现,所有神经元的连接可用电子线路来模拟,称之为连续Hopfield网络。
用该电路Hopfield成功的解决了旅行商(TSP)计算难题(优化问题)。
Hopfield网络是神经网络发展历史上的一个重要的里程碑。
把神经网络看作一种非线性的动力学系统,并特别注意其稳定性研究的学科,被称为神经动力学(Neurodynamics)。
Hopfield神经网络可看作一种非线性的动力学系统,所以为了方便介绍Hopfield神经网络,本章首先简单介绍神经动力学。
前面介绍的单层前向网络和多层前向网络,其思路均是先介绍网络模型再介绍相应的学习算法。
含时滞的双向联想记忆神经网络的全局吸引性和全局指数稳定性

I I
0
●f
拓扑 的有关知识 ,易证定理 2 [1 . . 1 定理 21 如果系统( 满足下列条件 : . 3 )
1 j )f l / 一 , )g I I一 , , 1,,f1… ) ) ( -j ) J Jg 一, ) I ∈ , , =, l ( ≤ f I( ( =2 ; 2 … ,
维普资讯
第 4期
董彪等: 含时滞的双向联想记忆神经网络的全局吸引性和全局指数稳定性
71 5
=
da ( . , 一 ,∈R , ig r - , , )
F一=(一, ( 。, 一, (一) = o ( ( … g … [ I ) 1, 卜)( ), ) , 是 ) ) ) ) ) ) ,
一
(+) ( +) m n × m n矩阵 ,其 中 :( ) ,V:( … V)
a ( u t )
— —
则() 1 可改写为 :
母
,L ,
、,
_
一
:
一
() E( f )+J , f f+W (— ) o ≥0.
+
() 3
at
∑
,
2 预备知识
含 时 滞 的双 向联 想 记 忆神 经 网络 的全 局 吸 引性和 全局 指 数稳 定 性
董彪,蒋 自国,吴文权
(阿坝师范高等专科 学校数 学系,四川汶川 6 3 0 2 0 0) 摘 要 :本文研 究 了具有时滞的双向联 想记忆神经 网络模型 ,在 非线性神 经元激励 函数是 Lpc i ish z连 续的条件 下 ,通过 t
●l
I I
2
2C =A—W )
是 M一 矩阵,
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
《神经网络导论》实验二——双向联想记忆专业:信息与通信工程班级: 5030班学号: **********姓名:**一、实验目的熟悉Kosko型双向联想记忆网络的原理与结构,通过仿真实验掌握具体的实现方法,了解该网络的功能及性能,加深对该类网络的稳定状态和能量函数等概念的理解。
二、实验原理我们知道,联想记忆功能分为自联想和异联想,异联想也称为双向联想记忆,简写为BAM。
BAM存储器可存储两组矢量,若有如下N维矢量与P维矢量B:A=[a0,a1,…,a N−1]T∈{−1,1}NB=[b0,b1,…,b P−1]T∈{−1,1}P构成M对矢量(A s,B s),s=0,1,…,M-1,将它们存入BAM存储器即可进行由A到B 或由B到A的双向联想,即给定A(或B)可经联想得到对应的标准样本B(或A),当有噪声或缺损时,联想功能可使样本对复原。
其实,人脑就具有根据相关线索回忆和恢复信息的能力。
例如,片断曲调往往可以唤起人们对整个乐曲的回忆;在人群中某人的背影就足以使我们想起一位老朋友。
人工神经网络力图实现这种功能。
Kosko的BAM网络就是其中的一种。
如图1所示,与矢量A相应的一层有N个节点,另一层对应矢量B,有P个节点,两层间双向连接。
假定B到A的传输为正向,正向的权矩阵为W,反之,A 到B为反向传输,权矩阵为W T。
如果输入矢量由上层加入,且相应于网络中B的稳定状态,则经W之作用产生A稳定状态。
同理,如果输入矢量在下层,且相应于网络中A的稳定状态,经W T之作用产生B稳定状态,当输入任意矢量时,网络要经若干次迭代计算演变至稳定状态,过程可示意为:WB (t )→A (t +1) W T A (t +1)→B (t +2) WB (t +2)→A (t +3)…直至A 、B 为稳态,演变过程结束。
网络学习遵从Hebb 规则,若给定M 个双极性矢量对:(A 0,B 0),(A 1,B 1),…,(A M−1,B M−1)则正、反向权矩阵为:W =∑A s B s TM−1s=0W T =∑B s A s T M−1s=0如果BAM 网络神经元函数阈值为0,则称为齐次BAM 网络,其能量函数为: E (A,B )=−12A T WB −12B T W TA =−A T WB若神经元非线性函数为f ,则描述齐次BAM 动态特性的差分方程为: 正向联想(B ⇒A)a i (t +1)=f[∑w ijb j (t)P j=1] (1)反向联想(A ⇒B)b J (t +2)=f[∑w ij a i (t +1)N i=1] (2)三、 实验内容3.1 连接权矩阵和能量值1.连接权矩阵对于给定的4对学习样本根据Hebb 规则计算网络的连接权矩阵,这里只计算正向传输(即从B 到A )的权重连接矩阵,反向权矩阵为正向权矩阵的转置。
下面为四对学习样本A1=[1,-1,1,-1,1,-1,1,-1,1,-1,1,-1,1,-1,1]'; A2=[1,1,-1,-1,1,1,-1,-1,1,1,-1,-1,1,1,-1]'; A3=[1,1,1,-1,-1,-1,1,1,1,-1,-1,-1,1,1,1]'; A4=[1,1,1,1,-1,-1,-1,-1,1,1,1,1,-1,-1,-1]'; B1=[1,1,1,1,-1,-1,-1,-1,1,1]'; B2=[1,1,1,-1,-1,-1,1,1,1,-1]'; B3=[1,1,-1,-1,1,1,-1,-1,1,1]'; B4=[1,-1,1,-1,1,-1,1,-1,1,-1]';已知连接权矩阵的计算公式W =∑A s B s TM−1s=0,即W 为15*10的矩阵,则带入四对样本可得连接权矩阵W 为:2.能量值由实验原理可知,对于输入的一对样本A 、B ,其能量值计算公式为:E (A,B )=−12A T WB −12B T W T A =−A T WB将四对样本分别带入得能量值分别为:表二:能量值验证网络的联想能力即任选标准样本A i 输入网络进行迭代运算直至网络稳定,观察上下两层的状态是否为(A i ,B i ),同样,任选B i 输入,观察稳定后的状态。
过程可按如下所示框图描述:输入为B 输入为A按公式(1)正向联想得A 按公式(2)反向联想得B按公式(2)反向联想得B 按公式(1)正向联想得A两次联想的到的A 是否相等两次联想的到的B 是否相等稳定输出A 稳定输出B是否否是根据输入矢量的长度确定输入的是哪个矢量,进而确定进入哪个循环,判断结束的条件为网络稳定,即两次得到的所求矢量相等。
例如,当输入为矢量B 时,前一次通过正向联想和反向联想得到A i ,后一次再经过正向联想和反向联想得到A i+1,若两次得到的相等,则认为网络稳定则输出稳定矢量A ,否则,继续迭代。
双向联想网络实验框图1.实验过程随机选取某一保准矢量的若干位取反形成畸变矢量,将其输入网络迭代至稳态,观察对应的输出是否依然正确。
实验中取了如下五组数据:图中所示为输出的能量值实验一:表三:输入A1且有一位取反标准输入矢量A1=[1,-1,1,-1,1,-1,1,-1,1,-1,1,-1,1,-1,1]'标准输出矢量B1=[1,1,1,1,-1,-1,-1,-1,1,1]'一位取反的畸变矢量A1’=[1,1,1,-1,1,-1,1,-1,1,-1,1,-1,1,-1,1]'实际输出B1’=[1,1,1,1,-1,-1,-1,-1,1,1]'= B1图一:输入A1一位取反的能量变化曲线可以看出,当输入A1并且有一位取反时,网络通过联想仍能得到正确的输出B1.因此网络此时的能量与输入标准矢量(A1,B1)时能量相等。
实验二:表四:输入A1且有两位取反标准输入矢量A1=[1,-1,1,-1,1,-1,1,-1,1,-1,1,-1,1,-1,1]'标准输出矢量B1=[1,1,1,1,-1,-1,-1,-1,1,1]'两位取反的畸变矢量A1’=[1,1,1,-1,1,-1,-1,-1,1,-1,1,-1,1,-1,1]'实际输出B1’=[1,1,1,1,-1,-1,-1,-1,1,1]'= B1图二:输入A1两位取反的能量变化曲线因此网络此时的能量与输入标准矢量(A1,B1)时能量相等。
实验三:表五:输入B2且有一位取反标准输入矢量B2=[1,1,1,-1,-1,-1,1,1,1,-1]'标准输出矢量A2=[1,1,-1,-1,1,1,-1,-1,1,1,-1,-1,1,1,-1]'一位取反的畸变矢量B2’=[1,1,1,1,-1,-1,1,1,1,-1]'实际输出A2’=[1,1,-1,-1,1,1,-1,-1,1,1,-1,-1,1,1,-1]'= A2图三:输入B2一位取反的能量变化曲线可以看出,当输入B2并且有一位取反时,网络通过联想仍能得到正确的输出A2.因此网络此时的能量与输入标准矢量(B2,A2)时能量相等。
实验四:表六:输入B3且有两位取反标准输入矢量B3=[1,1,-1,-1,1,1,-1,-1,1,1]'标准输出矢量A3=[1,1,1,-1,-1,-1,1,1,1,-1,-1,-1,1,1,1]'一位取反的畸变矢量B3’=[-1,1,-1,-1,1,-1,-1,-1,1,1]'实际输出A3’=[1,1,1,-1,-1,-1,1,1,1,-1,-1,-1,1,1,1]'= A3图四:输入B3两位取反的能量变化曲线因此网络此时的能量与输入标准矢量(B3,A3)时能量相等。
实验五:表七:输入B3且有两位取反标准输入矢量B3=[1,1,-1,-1,1,1,-1,-1,1,1]'标准输出矢量A3=[1,1,1,-1,-1,-1,1,1,1,-1,-1,-1,1,1,1]'一位取反的畸变矢量B3’=[-1,1,-1,-1,1,1,-1,-1,-1,1]'实际输出A3’=[-1,-1,1,-1,-1,-1,1,1,-1,-1,-1,-1,1,1,1]'图五:输入B3两位位取反的能量变化曲线可以看出,当输入B3并且有两位取反时,网络联想此时出现错误,故此时网络的能量与输入标准矢量(B3,A3)时能量不同。
2.实验分析从实验中可以看出,当输入矢量有一位取反时,由于网络的联想功能,基本可以输出正确的结果,但是当输入有多位取反时,则会出现错误,即伪稳定状态。
当然,这只是几个简单的实验,并不能说明当输入有一位取反时就完全不会出现错误输出,也不能从此说明网络的联想能力。
下面会从统计的角度对网络的联想能力做出评估。
3.4 噪声大小对联想能力的影响本实验针对不同的输入以及不同的取反位数计算网络联想的正确率,用其表示网络的联想能力。
每次实验采取1000次输入,每次输入通过迭代得到其对应的输出,再将输出与对应的标准输出矢量比较,判断此次输出是否正确。
进而得到本次实验的正确率。
1.输入为A2.输入为B3.实验分析从实验结果中可以看出,在一行中(即输入相同时),噪声越大,正确率越低。
同时可以看出,由于矢量A的维数较多,所以当矢量B与矢量A取相同的取反位数时,可认为B矢量上的信噪比衰落更大,所以正确率下降。
而且还可以看出一个大致上的规律,当输入矢量内部变化较快(例A1,B4)时,随着噪声增加,其正确率比那些内部变化较慢(例A4)的矢量大。
3.5 伪稳定状态伪稳定状态,即当带噪声的样本输入到网络后,网络仍然迭代至一“稳定状该伪稳定状态是B2加噪声输入,输入有三位取反,输出有五位错误。
四、实验思考题1、在实验步骤4中观察网络能量E是如何变化的?根据网络机理说明原因。
通过实验可以看出,在实验过程中网络能量趋于减小,最终稳定。
这是由于双向联想网络仍是Hopfield网络,因此它仍具有Hopfield神经网络的特点,即网络能量向能量减小的方向走,直至达到极小值的稳定状态。
2、如果我们想要“擦除”存储矢量对中的某对(A i,B i),应如何调整网络?(考虑运算量)双向联想记忆网络中,要想去除某对输入的影响,只要在连接权矩阵中减去这对输入的影响即可。
即W∗=W−A i B i T3、通过总结第5步和第6步实验结果,能得出什么结论?简要解释其中的原因。
从实验结果可以看出:1)噪声越大,正确率越低2)输入矢量维数越大,网络对噪声的承受能力越好,正确率越高3)输入矢量中元素符号变化较快,在一定程度上对网络正确率有所提高五、实验总结在这次实验中,我在进行实验时,主要的难点在于判断迭代停止的条件,刚开始是想每对输入的能量值已经求得,那么稳定的输出结果就应该是对应的输入与输出应该计算得出这一对矢量对应的能量值。