【2006】小世界体系的多对多核联想记忆模型及其应用

合集下载

计算机的发展、类型及其应用领域

计算机的发展、类型及其应用领域

计算机基础知识计算机的发展、类型及其应用领域简介_____________________________________________________________________ 2一、计算的发展___________________________________________________________ 2二、计算机的组成_________________________________________________________ 31.硬件系统___________________________________________________________ 3(1)电脑最主要的三块____________________________________________ 3(2)电脑的硬件__________________________________________________ 32.软件系统 ___________________________________________________________ 5(1)系统软件____________________________________________________ 5(2)应用软件____________________________________________________ 6三、计算机的类型_________________________________________________________ 71.超级计算机_________________________________________________________ 72.微型计算机_________________________________________________________ 73.嵌入式计算机_______________________________________________________ 74.网络计算机_________________________________________________________ 8(1)服务器______________________________________________________ 8(2)工作站______________________________________________________ 8(3)集线器______________________________________________________ 8(4)交换机______________________________________________________ 8(5)路由器______________________________________________________ 95.工业控制计算机_____________________________________________________ 9四、计算机的应用领域____________________________________________________ 101.科学计算(或数值计算)______________________________________________ 102.数据处理(或信息处理)______________________________________________ 103.辅助技术(或计算机辅助设计与制造)__________________________________ 10⑴计算机辅助设计(Computer Aided Design,简称CAD)________________ 10⑵计算机辅助制造(Computer Aided Manufacturing,简称CAM)_________ 11⑶计算机辅助教学(Computer Aided Instruction,简称CAI)___________ 114.过程控制(或实时控制)______________________________________________ 115.人工智能(或智能模拟)______________________________________________ 116.网络应用__________________________________________________________ 127.多媒体技术________________________________________________________ 128.娱乐______________________________________________________________ 12简介计算机(computer)俗称电脑,是一种用于高速计算的电子计算机器,可以进行数值计算,又可以进行逻辑计算,还具有存储记忆功能。

小世界网络综述

小世界网络综述

关于小世界网络的文献综述一、小世界网络概念方面的研究Watts和Strogatz开创性的提出了小世界网络并给出了WS小世界网络模型。

小世界网络的主要特征就是具有比较小的平均路径长度和比较大的聚类系数。

所谓网络的平均路径长度,是指网络中两个节点之间最短路径的平均值。

聚类系数被用来描述网络的局部特征,它表示网络中两个节点通过各自相邻节点连接在一起的可能性,以及衡量网络中是否存在相对稳定的子系统。

规则网络具有大的特征路径长度和高聚类系数,随机网络则有短的特征路径长度和比较小的聚类系数[1]。

Guare于1967年在《今日心理学》杂志上提出了“六度分离”(Six Degrees of Separation) 理论,即“小世界现象”。

该理论认为,在社交网络中存在短路径,即人们只要知道自己认识的人,就能很快地把信息传递到任何远方目标[2]。

.Stanleymilgram的邮件试验,后来的“培根试验”,以及1998年《纽约时代周刊》的关于莱温斯基的讽刺性游戏,都表现出:似乎在庞大的网络中各要素之间的间隔实际很“近”,科学家们把这种现象称为小世界效应[3]。

研究发现,世界上任意两个人可以平均通过6个人联系在一起,人们称此现象为“六度分离”[2]。

二、小世界网络模型方面的研究W-S模型定义了两个特征值:a.特征路径的平均长度L。

它是指能使网络中各个结点相连的最少边长度的平均数,也就是上面说的小世界网络平均距离。

b.集团化系数C。

网络结点倾向于结成各种小的集团,它描述网络局部聚类特征。

稍后,Newman和WattS对上述的WS模型作了少许改动,提出了另一个相近但较好的(NW)小世界网络模型[5],其做法是不去断开原来环形初始网络的任何一条边、而只是在随机选取的节点对之间增加一条边(这时,新连接的边很可能是长程边)。

这一模烈比WS模型容易分析,因为它在形成过程中不会出现孤立的竹点簇。

其次,还有Monasson小世界网络模型[6]以及一些其它的变形模型包括BW 小世界网络模型等等[7]。

01记忆规律讲解

01记忆规律讲解

为了解决这一疑问,Sperling(1960)设计了如 下实验: 他将先前的实验称为整体报告法(whole- report procedure),要受试者报告出他所瞥 及的全部资料。改变后的实验是采用部分报 告法(partial-report procedure),要受试者 每次只报告他所瞥见的一部分资料。

(2)贮存的时限与数量
刺激材料:L B Q G R X T C Y 呈现时间:50ms 报告方式:全部报告 结果:??


但这还是不能确定感觉记忆的容量是四、五 个,是否有可能有些信息是在回忆或报告期 间丢失的,在开始回忆或报告之前,即真正 在感觉记忆时限内,是否能捕捉到更多的信 息?
(一)、短时记忆的特征

1.短时记忆代表心理上的现在。短时记忆所能记 的,都是现在发生的事情。


以甲乙两人面谈为例,甲说完第一句话,乙在回应 时必须以甲刚说的话为根据,所以甲的话就构成乙 的短时记忆。 短时记忆只是对“现在”经验的记忆。要想把短时 记忆留下来做为将来之用,那要进一步加以处理, 使之变为长时记忆。


2.短时记忆具有明确的意识。
在短时记忆阶段,当事人本身明确地意识到自己看 到的是什么,或听到的是什么,否则就构不成短时 记忆。
与短时记忆相比,长时记忆反而没有明确意识。



3.短时记忆具有心理运作功能。
短时记忆的功能,不只是对传入之信息暂时保存而 已。显然,阅读要靠短时记忆,应付考试看题目要 靠短时记忆。在这过程中伴随有积极的思维活动。 因此短时记忆具有心理运作功能,所以又称工作记 忆(working memory)。



有没有可能多于9个? 研究者将三排字母的每排变成4个,一次呈现12个, 结果报告正确的平均数是76%,就是说还是9个左右。 如果呈现时间不延长,只延长回忆时间,也就是将 声音讯号延后出现,会不会增加记忆容量? 结果非但不能增加记忆量,反而随时间延长使记忆 量减少。

软件学报

软件学报

(5) 29 (6) 2 7 (7) 25 (8) 25 (9) 25
维普资讯
基于 Hi et l r 曲线 的许 可证存储 策略及 查找算法 … … … … … … … 高 迎 b

程 涛远 王
珊 (0 ) 3 5
种抗 JE P G压缩的半脆弱图像水印算法 … … … …… … … … …… … … …李 春 黄继 武 PP分层流媒 体 中数据 分配算 法 … … … … … … … … … . 2 刘亚 杰 张鹤 颖 窦文 华 陈俊峰 T E模式 的分析和 改进 … …… …… … … …… ………… … ……… … ……… …. A 王 鹏 冯登 国 基于 自组 织聚类 的结构化 P P语义 路 由改进 算法 … … … … … … … … … … 刘 业 杨 鹏 2
基于次范畴化的汉语多义动词模糊聚类( 英文) …… … …… …… … … …- … 韩习武 赵铁军 基于邻居集 合 的 Wi MAX 网络带宽资源 调度算法 … … … … … … ” 文峰 贾维嘉 王国军 杜 基于通用 P C架构的高精度网络时延测量方法 ……… ……. 黎文伟 张大方 谢 高岗 杨金民 PM.M 协议的建模与改进 …… I S ………… …………李 丹 昊建平 崔 勇 徐 恪 刘 莹 基于特 征聚类 的路 由器异 常流量过滤 算法 … … . 孙知信 唐益慰 张 伟 宫 婧 王汝传
小世界 体系的 多对 多核联想 记忆模型及 其应用 … ………… … … … 陈 蕾 陈松 灿 张道强 基于二分频率变换的序列相似性查询处理技术 …………” 王国仁 葛 健 徐恒宇 郑若石 基于 Ga s a. emi 矩 的指纹奇异 点定位 … … … … … … … … … … … … 王 林 戴 模 u s nH r t i e 口语对话 中的语句 分组 … … … … … … … … … … … … … … … … 徐 为群 徐 波 黄泰 翼

多通道协同记忆法的介绍

多通道协同记忆法的介绍

多通道协同记忆法的介绍记不住这只是一个欺骗自己的借口,相信自己,只要有信心,我们可以记住一切。

下面店铺就为大家介绍一下关于多通道协同记忆法的介绍,欢迎大家参考和学习。

在学习中,充分调动人脑视觉中枢、听觉中枢、语言中枢、运动中枢等各个部位的积极性,协同记忆,对于提高记忆质量效果显著。

原苏联心理学家沙尔达科夫的实验证明:只听不看的记忆能力是60%,只看不听的记忆能力是70%,既看又听的记忆能力是86%。

古人读书讲究"三到",宋代学者朱熹在《训学斋视》中指出:"心不在此,则眼不看仔细,心眼既不专一,却只漫浪诵读,绝不能记,记亦不能久也。

三到之中,心到最急,心既到矣,眼、口岂不到乎?"文学家苏东坡,在多年的求知生涯中,养成了抄书的习惯。

他的抄书,往往不是为了积累资料,而是为了加强对书的内容的记忆。

这两位先贤的做法,也许是建立在对协同记忆法良好效果有深刻体验基础上的吧!协同记忆法应用于学习实践,主要应体现在把听、说、读、写、思和实际操作结合起来。

多通道协同记忆,是利用多种感觉器官协同记忆繁难重要信息的有效手段。

为了使记忆时加深大脑对繁难重要而且陌生信息的印象,让其由瞬短时记忆转化为长时记忆贮存在脑中,可以让多种感觉器官协同作战:看听写相结合,如果可能的话还可以采取触摸、嗅、尝等各种方式。

在大规模的复习中也可以考虑采用这种方法。

这种方法最主要的优点就是加深了脑在识记时对繁难重要信息的印象,延长保持时间。

但是,运用这种方法消耗的时间比较长。

"时间就是金钱"、"时间就是生命",不要扩大采用多种感觉器官去协同记忆的份额(范围),要本着"少爱多弃"的原则进行认真仔细的筛选。

平日里可以在休闲时抽挤出一小段时间去进行两种或多种感觉器官协同记忆的练习,如:①在无杂音干扰的环境中进行音乐听写,仔细地倾耳细听、默写,再反复对照;全神贯注地听一首曲子,至熟后清唱,再听,再唱,直至听唱合一。

小世界理论

小世界理论

小世界理论
小世界理论是一种用来描述社会网络关系的理论,指的是社会关系中社会元素之间的联系以及它们之间的联系强度。

这种理论最早被提出是在20世纪60年代,当时社会学家赫伯特拉罗什通过观察和研究发现了一种令人惊奇的现象,即错综复杂的社会关系网络中也存在着密切的联系,就好像这些社会元素位于同一张大网络中一样。

拉罗什的小世界理论表明,即使是非常分散的社会关系网络,其中的社会元素也有可能存在着紧密的联系。

小世界理论将社会关系网络的社会元素划分为“社会节点”和“联系节点”,社会节点指的是拥有实体形态的人类,而联系节点指的是这些人之间的联系。

然而,尽管某些社会节点和其他节点距离很远,但它们之间仍然可以通过中间节点建立联系。

拉罗什的这一发现极大地改变了人们对社会关系网络的看法,社会学家们开始深入研究该理论,并将其应用于不同的社会环境。

例如,学者可以利用小世界理论来分析社会中的朋友圈,投资圈,政治圈等等,以找出难以发现的共性和网络结构特征。

此外,小世界理论也可以用来了解和研究不同社会阶层之间的社会关系,以及社会元素如何影响彼此以及社会的发展。

在过去的几十年中,小世界理论也被广泛应用在计算机网络的研究中。

小世界理论的概念被用来描述网络中的节点之间的联系,并被用来预测可能出现的故障,以及确定网络和子网的最优拓扑结构。

总的来说,小世界理论是社会学中一种重要的理论,它让我们能
够深入了解社会网络的结构及其间的关系,而它也在计算机网络和其他领域得到了实际应用。

因此,小世界理论确实是一个有趣而又重要的理论,它为社会科学以及其他领域的研究带来了极大的价值。

多米尼克的记忆体系是什么

多米尼克的记忆体系是什么

多米尼克的记忆体系是什么多米尼克的记忆体系是什么若木4多米尼克bull;奥布莱恩,世界上最令人赞叹的记忆天才。

1991年,奥布莱恩初出茅庐,凭借着本人独创的ldquo;多米尼克系统rdquo;,在当时的首届世界记忆锦标赛上扫尽强敌,成为当年的记忆冠军,并创下新的世界记录。

此后11年间,奥布莱恩8次卫冕成功,稳居冠军宝座。

记忆训练的鼻祖托尼bull;布赞称其拥有一颗ldquo;人类迄今为止发展开发得最为深化的大脑rdquo;多米尼克其法技巧1、串联法[也叫情节法]把你要记忆的知识点串在一起,编成一段故事。

这就是一段ldquo;电影情节了rdquo;。

技巧2、转化法[也叫演员法]有一些知识比拟抽象,需要转化成比拟容易记的图像来记忆。

这就需要转化了。

电影总是需要演员的,而在电影记忆法里的演员,就是从知识点转化过来图像了。

技巧3、挂钩法[也叫舞台法]假如知识点过多,你假如从头串到最头,容易断掉。

所以,需要用到地点挂钩法。

把知识点,分成若干分段,挂上挂钩上来记忆。

这些地点的挂钩,就是你的演员表演的舞台了。

技巧4、奇特法[也叫卖点法]串联或挂钩时,你需要对本人的想象进行夸大的、搞笑的、富于情感的、有声有色的处理。

这就是奇特法。

它是保证你记得牢固的关键。

这就像电影需要有卖点一样,电影需要有能够吸引观众眼球的东西,你的记忆经过也需要。

而奇特法就是让你的整部记忆电影梦幻、奇特、十分的关键了。

它决定了你的大脑,是愿愿意牢牢地记住你的知识。

对于多米的方法而言:技巧1、串联法[也叫情节法],他有。

radic;技巧2、转化法[也叫演员法],他最突出的部分。

一般需要转化的有词语、数字、符号、字母、公式、文章。

这里是他最十分的地方,在这个部分,他独创出多米尼克体系,把100个数字,转化为一百个演员+动作+道具。

在我们常见的记忆体系里,一般一个数字是对应一个物品或生物或人物的,比方:21-鳄鱼;31鲨鱼;24-盒子。

可是,多米的特殊,就在于他在实践上发现ldquo;我由卡片记忆认识到,最有效的帮助记忆的图像是人,而不是物体。

知识创造视野中的三元交互学习

知识创造视野中的三元交互学习

现代远程教育研究 2015年4期/总136期
. 25 .
经 【理论 纬】知识创造视野中的三元交互学习
上的“客体”)是指被主体的动机活动指向的事物, 既可以是确定的东西(物质),也可以是不具体或完 全无形的东西(如一个共同的想法),用以满足在活 动中共享操作和转换。中介是由许多不同类型的工 具(包括材料工具以及精神工具,如文化、思维方 式和语言等)组成,其中计算机被认为是重要的中 介工具。活动系统并不是静态的,而是不断发展 的。活动的实质是转变对象进入到一个对现存状态 的激励过程中,从而形成新的预期或非预期的产品 的过程。活动理论为三元交互学习的协作活动提供 了理论基础,奠定了三元交互学习的活动模型。
2.如何兴起:社会理论与技术进步的双重支持 近年来,西方兴起了对知识创造学习的研究, 已经取得了显著的研究成果,其中最具代表性的是 欧洲第六框架计划支持下的“知识实践实验室” (Knowledge-Practices Laboratory, 简 称 “KP-Lab” 项目),创生出三元交互学习理论和方法。三元交 互学习的兴起吸收了社会理论的优秀成果,其中最 具代表性的是活动理论和符号理论;同时,信息技 术的发展为三元交互学习的实践提供了可能。 (1)三元交互学习的活动模型受活动理论的深 刻影响 三元交互学习活动可以用模型直观呈现,其结 构大致由三个相互联系的要素组成:一是学习的主 体,既包括个人主体,也包括社会主体;二是学习 的共享人造物,其实质是具有能动性的客体;三是 与主体和共享人造物相互作用的媒介环境。三元交 互学习的活动模型深受活动理论的影响。活动理论 (Activity Theory)关注对人类活动和工作实践的理 解,认为活动由主体、对象和中介三部分组成,为 描述和分析协作过程提供了强大的框架。其中,主 体是指从事活动的一个人或一组人。对象(即意义
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

ISSN 1000-9825, CODEN RUXUEW Journal of Software, Vol.17, No.2, February 2006, pp.223−231 DOI: 10.1360/jos170223 © 2006 by Journal of Software. All rights reserved.E-mail: jos@ Tel/Fax: +86-10-62562563小世界体系的多对多核联想记忆模型及其应用陈 蕾 1,2, 陈松灿 1+, 张道强 1,31 2 3∗(南京航空航天大学 计算机科学与工程系,江苏 南京 (南京邮电大学 计算机科学与技术系,江苏 南京210016)210003) 210093)(计算机软件新技术国家重点实验室(南京大学),江苏 南京Small World Structure Inspired Many to Many Kernel Associative Memory Models and Their ApplicationCHEN Lei1,2,1 2 3CHEN Song-Can1+,ZHANG Dao-Qiang1,3(Department of Computer Science and Engineering, Nanjing University of Aeronautics & Astronautics, Nanjing 210016, China) (Department of Computer Science and Technology, Nanjing University of Posts & Telecommunications, Nanjing 210003, China) (State Key Laboratory for Novel Software Technology (Nanjing University), Nanjing 210093, China)+ Corresponding author: Phn: +86-25-84896481 ext 12106, E-mail: s.chen@, Chen L, Chen SC, Zhang DQ. Small world structure inspired many to many kernel associative memory models and their application. Journal of Software, 2006,17(2):223−231. /1000-9825/17/ 223.htm Abstract: Kernel method is an effective and popular trick in machine learning, and small world network is a common phenomenon which exists widely in social fields. In this paper, by introducing them into Hattori et al’s multi-module associative memory for many-to-many associations ((MMA)2), a unified framework of small world structure inspired many-to-many kernel associative memory models (SWSI-M2KAMs) is proposed. The SWSI-M2KAMs not only can store patterns online without more iteration steps, but also extend the range of the processed intelligent information. More importantly, the SWSI-M2KAMs framework can develop more new many-to-many associative memory models by selecting different kernel functions and reduce models’ configuration complexity by using the sparse small world architecture. Finally, computer simulations demonstrate that the constructed models have good performance on many-to-many associative memory. Key words: neural network; many to many associative memory; kernel trick; small world theory; intelligent information processing 摘 要: 运用机器学习中新颖的核方法和社会网络中广泛存在的小世界现象,对 Hattori 等人提出的多模块多对多联想记忆模型(multi-module associative memory for many-to-many associations,简称(MMA)2)进行了改进,构建 出了一个基于小世界体系的多对多核联想记忆模型框架(small world structure inspired many to many kernel∗Supported by the National Natural Science Foundation of China under Grant Nos.60271017, 60505004 (国家自然科学基金); theJiangsu Natural Science Foundation of China under Grant No.BK2004001 (江苏省自然科学基金); the Jiangsu Planned Projects for Postdoctoral Research Funds (江苏省博士后科研资助计划) Received 2005-02-28; Accepted 2005-07-11224Journal of Software 软件学报 Vol.17, No.2, February 2006associative memory models,简称 SWSI-M2KAMs).该框架不仅克服了原模型不能联机提交训练样本且迭代次数 过多的缺陷,而且拓展了原模型的智能信息处理范围.更重要的是,通过核函数的选取,该模型框架可以衍生出更 多新的多对多联想记忆模型,而且,由于小世界结构的引入,在一定程度上简化了模型的结构复杂度.最后的计算 机模拟,证实了新的模型具有良好的多对多联想记忆功能. 关键词: 神经网络;多对多联想记忆;核方法;小世界理论;智能信息处理 文献标识码: A 中图法分类号: TP18联想记忆模型是人工神经网络研究的一个重要分支.它可以模仿人脑处理不完整、不准确、甚至非常模糊 的信息,并能够进行联想记忆,因而具有很大的潜在应用价值,如图像恢复、图像和语音处理、模式识别、分类 等.在联想记忆的研究领域中,研究人员已经提出了数十种有代表性的学习算法,这些算法实现的都是一对一或 者多对一联想,联想方式分别涉及到单向、双向和多向联想.但是,适用于智能信息处理的多对多联想记忆模型 却一直鲜有研究.而由多个事件一次联想到与之相关的多个事件,是人脑最普通的功能之一,也是实现智能信息 处理的关键.对于多对多联想而言,一个最关键的问题是如何解决待存储样本中公共项的影响,也就是一对多映 射的问题,因为对传统的联想记忆学习算法来说,公共项的存在会导致一些非常复杂的未知模式出现. 迄今为止,先后有 4 种较为典型的多对多联想记忆模型被提出来 [1−5].但是,它们都不同程度地存在着一些 不足和缺陷.例如:Hirai 等人 [1]提出的模型结构非常复杂,并且涉及到许多未定参数;文献[2,3]提出的两种方法, 由于均采用了 Hebbian 学习算法,从而导致这两种模型的存储容量都相当低.后来,Hattori 等人[4,5]在多对多联想 记忆的研究中取得了突破性的进展,提出了具有多模块结构的多对多联想记忆模型(multi-module associative memory for many-to-many associations,简称(MMA)2).由于采用了新的交集学习算法,并且利用了扩频通信中的 伪噪声编码理论,引入了模式分量的地址表示,不仅克服了公共项带来的不利影响,在存储容量上得到了较大的 提高,而且首次把它应用到智能信息处理中,显示出了良好的应用前景. 尽管如此,(MMA)2 仍然存在以下不足:(1) (MMA)2 模型所采用的交集学习算法,使得该模型的训练模式不 能联机提交,即每增加一个模式就必须重新迭代计算权值矩阵,而且迭代次数随着所存储的模式数急剧增加; (2) (MMA)2 模型仅能处理二值模式,亦即,其对多值情形失效,而很多多值情形是现实存在的;(3) (MMA)2 模型 未能在理论上保证所存储的模式能得到正确回忆. 在本文中,我们借鉴(MMA)2 模型的多模块结构构建思想,通过引用机器学习中新颖的核方法 [6]和社会网络 中广泛存在的小世界理论 [7],构建了一个基于小世界体系的多对多核联想记忆模型框架(small world structure inspired many to many kernel associative memory models,简称 SWSI-M2KAMs).SWSI-M2KAMs 模型不仅克服了 (MMA)2 模型的上述 3 点不足,而且提出了一个统一框架,通过核函数的选取,可以获得更多新的多对多联想记 忆模型.同时,由于稀疏的小世界网络结构的引入,在一定程度上简化了模型的结构复杂度,这一点对于模型的 电路实现尤为重要.最后,计算机模拟证实了 SWSI-M2KAMs 模型具有良好的多对多联想记忆功能.1多对多联想传统的联想记忆模型,无论它的联想方式是单向、双向还是多向,实现的都只能是一对一或者多对一的映射,无法实现一对多映射.而要实现多对多联想,就必须使模型具有一对多映射的基本功能.从联想方式来看,多 对多联想可分为双向多对多联想和多向多对多联想.其中,双向多对多联想处理的对象为二元模式集,例如:简 单的语义网络如(苹果,甜味)、(苹果,红色)、(苹果,水果)、(草莓,红色)、(草莓,水果)、(水果,香蕉)、(水果,桃子) 等.当输入(?,红色)时,要求输出(苹果,红色)和(草莓,红色);而当输入(苹果,?)时,要求输出(苹果,甜味)、(苹果,红 色)、(苹果,水果).这些看似简单的联想功能,由于涉及到一对多映射,在一般的双向联想记忆模型中是难以实 现的. 除了上述的双向多对多联想以外,真实世界中的智能信息处理要求的是多向多对多联想.人脑中存储的多 向 多 对 多 关 系 的 一 个 典 型 例 子 , 我 们 可 以 简 化 为 如 下 三 元 模 式 集 加 以 说 明 :(A1,B1,C1),(A1,B2,C2),(A1,B2,C3),陈蕾 等:小世界体系的多对多核联想记忆模型及其应用225表格或者图像等,当输入(A1,B2,?)时,要求输出(A1,B2,C2) (A2,B2,C4).其中的 A1,B1,C1 等字母可以代表任意的字符、 和(A1,B2,C3);而当输入(?,B2,?)时,要求输出(A1,B2,C2),(A1,B2,C3),(A2,B2,C4). 如果把上述的三元模式(A,B,C)看成一维向量(A|B|C),那么,上述的三元模式集也可以存储在单向联想记忆 模型中,但是,当仅输入公共项(例如(?,B2,?))时,该模型却不可能输出 3 个相应的正确的回忆项,这也正是传统的 联想记忆模型的局限所在.而 Hattori 等人提出的多模块结构则很好地解决了这个问题,使得传统的联想记忆模 型具备了一对多映射的功能.2核双向联想记忆模型框架(KBAMs)核方法是近年来机器学习领域研究的热点之一.它的基本思想是:通过把数据映射到高维特征空间来增加传统的线性学习器的计算能力.一个关键技巧是用核函数替换内积,从而使线性算法变成非线性.由满足 Mercer 定理 [8] 的核函数可以诱导出从输入空间到高维特征空间的隐含映射.在高维空间中,特征向量的内积可以通过 核函数用低维空间中的输入向量直接计算得到,从而避免了维数灾难(curse of dimensionality),使得计算量并没 有 随 着 维 数 升 高 而 增 加 很 多 .这 种 思 想 已 经 先 后 被 成 功 地 运 用 到 支 持 向 量 机 (SVMs)[6] 、 核 模 糊 C 均 值 (KFCM)[9]、 核主分量分析(KPCA)[10]以及核 Fisher 判别 [11]上.本文将利用上述思想去改造传统的 BAM 模型 [12], 得到核双向联想记忆模型(kernel bidirectional associative memory models,简称 KBAMs)框架. 与 原 始 BAM 的 两 层 网 络 结 构 不 同 ,KBAMs 由 3 层 结 构 组 成 , 除 了 输 入 层 X=(x1,x2,…,xn)和 输 出 层 Y=(y1,y2,…,yp)之外,还多了一个隐层.隐层的神经元个数等于存储的模式对个数 M,其功能是:从 X 到 Y 方向计算 核函数 K(Xi,X)或从 Y 到 X 方向计算核函数 K(Yi,Y).设(Xi,Yi)(i=1,...,M)为一组待存储的输入输出模式对,其中 Xi=(xi1,xi2,…,xin),Yi=(yi1,yi2,…,yip),且所有模式分量的取值范围为{1,2,…,L}.KBAMs 的回忆规则为⎡M ⎤ ⎡M ⎤ ⎢ ∑ Yi K ( X i , X ) ⎥ ⎢ ∑ X i K (Yi , Y ) ⎥ 1 ⎥ , X ′ = H ⎢ i =1 ⎥ Y ′ = H ⎢ i =M ⎢ ⎥ ⎢ M ⎥ ⎢ ∑ K(X i , X ) ⎥ ⎢ ∑ K (Yi , Y ) ⎥ ⎣ i =1 ⎦ ⎣ i =1 ⎦ 其中,H(⋅)是矢量阶梯函数,其在每个分量上的定义为 ⎧ ⎪1, xk < 1 ⎪ H ( x k ) = ⎨ L, xk > D ⎪⎢ L ⎥ ⎪⎢ xk + 0.5⎥ , D ⎦ ⎩⎣这里,L 是阶梯函数级数,D 是阶梯函数间隔.当 D→∞,L→∞且 xk > 0 时, H ( xk ) ≈ xk .(1)(2)定理 1. 对于核双向联想记忆模型 KBAMs,如果对任意 Xi,X 和 Yi,Y,都有 K(Xi,X)≥0 和 K(Yi,Y)≥0,则该模型 是稳定的. 证明 :分别构造 X 和 Y 方向上的能量函数如下:E X ( X , Y ) = ∑ X − X i K (Yi , Y ) , EY ( X , Y ) = ∑ Y − Yi K ( X i , X ) .2 2i =1 i =1 M M先证明 EX 在 X 状态改变的情况下是减少的.设(X,Y)与(X′,Y′)分别是当前和下一个状态,则两者的能量差为∆E X ( X , Y ) = (∇E X ( X , Y )T ⋅ ∆X ) = −2 ⎢∑ ( X i − X ) K (Yi , Y )⎥ ( X ′ − X )⎣ i =1 ⎦ ⎡M ⎤⎤ ⎡ ∑ X K (Y , Y ) i i = −2 ⎢∑ K (Yi , Y ) ⎢ i =1 − X ⎥⎥ ( X ′ − X ) ⎢ i =1 ⎥⎥ ⎢ ∑M K (Yi , Y ) i =1 ⎦⎦ ⎣ ⎣M T⎡M⎤T(3)⎡⎛ M x K (Y , Y ) ⎞ ∑ ik i ⎟ − x ⎤ ( x′ − x ) ⎥ = −2 ∑i =1 K (Yi , Y ) ⋅ ∑k =1 ⎢⎜ i =1 k ⎢⎜ ∑M K (Yi , Y ) ⎟ k ⎥ k i =1 ⎠ ⎝ ⎣ ⎦(M)n226Journal of Software 软件学报 Vol.17, No.2, February 2006′ 其中, x k , x k 和 xik 分别是 X , X′和 X i 的第 k 个分量.令 σ =∑i=1 xik K (Yi ,Y ) − x ,下面分 3 种情形进行讨论: k M ∑i=1 K (Yi ,Y )M1 1 ′ ≤ σ < 时,由式(1)和式(2)可知 x k = x k ,有 σ ( x ′ − x k ) = 0 . k 2 2 1 ′ 2. 当 σ < − 时, x k < x k ,有 σ ( x ′ − x k ) > 0 . k 2 1 3. 当 σ ≥ 时, x ′ > x k ,有 σ ( x ′ − x k ) > 0 . k k 2 综合上面 3 种情形 ,并且由已知条件 K (Yi , Y ) ≥0,从而有 ∆EX(X,Y)≤0,即当 X 的状态发生变化时 ,能量函数的 1. 当 −值是减小的. 类似地, ∆EY = EY ( X , Y ′) − E X ( X , Y ) ≤ 0 ,即能量函数的值也是减小的. 由已知条件易知,能量函数 EX(X,Y)和 EY(X,Y)是有下界的,又因为∆EX≤0,∆EY≤0,经过一系列演化之后,网络停 留在一个局部最小点上. 由此证明了 KBAMs 在同步更新下的稳定性.又由式(3)可知,在异步更新模式下,KBAMs 仍然是稳定的. □3基于小世界体系的核自联想记忆模型框架(SWSI-KAMs)全互连结构是联想记忆模型最普遍采用的互连方式, 在大规模的互连过程中 ,所造成的复杂性无法控制. 同时 , 全互连并不是人脑神经元的构成方式 . 神经网络模型既然是对人脑记忆功能的模仿 , 那么 , 自然应该融入更 多的生物特性.有研究表明 [7,13]:人脑神经元的构成呈现出小世界网络的结构,如图 1 所示 ,即以大量的短程连接 为主 , 少量的长程连接 ( 捷径 ) 为辅的一种稀疏网络结构 . 因此 , 本文作者在文献 [14] 中构建了一种基于小世界体 系的核自联想记忆模型(small world structure inspired kernel auto-associative memory models, SWSI-KAMs), 非 常有效地简化了传统的自联想记忆模型的全互连结构 , 并且在人脸识别中得到了应用 . 下面我们详细 说明SWSI-KAMs 的结构.(a) Regular network (a) 规则互连网络(b) Small-World network (b) 小世界互连网络(c) Random network (c) 随机互连网络Fig.1Network connection topologies[7]图1 网络互连拓扑结构[7]核自联想记忆模型实际上是前述 KBAMs 模型的特例,但由于核自联想记忆模型中神经元的排列方式可以 看作环形,所以,很容易引入稀疏的小世界体系结构对它进行改造.而对于非环形的 KBAMs 模型,其稀疏化改造 还有待进一步的研究. 假设小世界网络由 n 个神经元组成,神经元之间的连接由图 G 给出.如果边{i,j}∈G,那么从神经元 i 到 j 存 在一个连接.即⎧0, if {i, j} ∉ G D(i, j ) = ⎨ . ⎩1, if {i, j} ∈ G这里,D 是一个体现小世界结构的矩阵.初始时,网络是一封闭环(如图 1(a)所示),每个神经元仅将其输出反馈给 它的 l=αn 个最近邻,这里,α是网络的全局连接度(即实际连接占全互连连接的比例).然后 ,按照文献[7]中的方法 , 以重连概率 p 遍历网络中的所有连接一次,这样就形成了小世界网络结构(如图 1(b)所示).SWSI-KAMs 模型可由如下的回忆规则来描述:陈蕾 等:小世界体系的多对多核联想记忆模型及其应用227ˆ ˆ ⎡ ∑M X i ⋅ k ( X i , X ) ⎤ j j ⎥, X ′j = H ⎢ i =1 M ˆ ˆ ⎢ ∑ k j (X i, X ) ⎥ i =1 ⎣ ⎦ ˆ ˆ ˆ ˆ 其中, X ′j , X ij 分别表示向量 X′,Xi 的第 j 个分量, k j ( X i , X ) 中的 X i , X 分别如下计算:ˆ ˆ X i = X i o D (:, j ) ; X = X o D (:, j ) ,ˆ ˆ 这里的运算符号 o 表示点乘, D(:, j ) 表示前述距离矩阵 D 的第 j 列.这样一来,核函数 k j ( X i , X ) 的计算只涉及到部分的神经元,可以一定程度地降低全互连模型的复杂度.4基于小世界体系的多对多核联想记忆模型(SWSI-M2KAMs)在这一节中,我们将利用 KBAMs 和 SWSI-KAMs 算法代替(MMA)2 模型中的交集学习算法,构建出一类基于小世界体系的多对多核联想记忆模型(SWSI-M2KAMs)的统一框架. 4.1 SWSI-M2KAMs模型的结构SWSI-M2KAMs 模型依然采用了(MMA)2 模型的多模块结构,如图 2 所示.该模型由 4 层组成,从下到上依次分 为 : 伪 噪 声 编 码 层 (pseudo-noise pattern layer,PN) 、 输 入 输 出 层 (input/output layer,I/O) 、 预 移 位 控 制 层(pre-shift-control layer,PS)和移位控制层(shift-control layer,SC).其中,I/O 层和 PS 层包含多个模块,模块数目的多少依赖于待记忆样本的性质,由待记忆样本的模式分量数决定.layer-Control layerlayerlayerFig.2图2The structure of SWSI-M2KAMs[4] SWSI-M2KAMs 模型的结构[4]在 I/O 层,每一个模块存储着所有待记忆模式的对应模式分量,该层的神经元内部按小世界网络的方式连 接,实际上是一个稀疏的核自联想记忆模型,采用 SWSI-KAMs 模型的回忆规则,当有缺失、污损或含噪的模式 分量输入 I/O 层时,SWSI-KAMs 模型的超强纠错功能可以复原出一个正确、完整的模式分量作为 I/O 层的输 出,从而进入下一步的从 I/O 层到 PS 层的联想.此时,从 I/O 层到 PS 层的联想采用的是 KBAMs 算法,而 PS 层到SC 层实现的则是一种逻辑运算,从 SC 层到 PN 层则实现的是一种简单的移位运算(详见第 4.2 节 ).最后 ,PN 层和 I/O 层之间仍然采用的是 KBAMs 算法. 4.2 SWSI-M2KAMs模型的联想策略 下 面 , 我 们 以 包 含 公 共 项 的 三 元 模 式 集 (A1,B1,C1),(A1,B2,C2),(A1,B2,C3),(A2,B2,C4) 为 例 来 说 明SWSI-M2KAMs 模型实现多对多联想的策略:228Journal of Software 软件学报 Vol.17, No.2, February 2006首先 , 每一个待记忆模式被依序编号为 :1 — (A1,B1,C1),2 — (A1,B2,C2),3 — (A1,B2,C3),4 — (A2,B2,C4). 然后 , 待记 忆模式的每一个模式分量被翻译成地址表示向量,如 A1— (1 1 1 0),B1— (1 0 0 0),B2—(0 1 1 1),地址向量中第 i 个 元素为 1 或者 0,分别表示该模式分量是否在编号为 i 的待记忆模式的对应模块中出现过.当输入(A1,B2,?)时,只 需考虑求 A1 和 B2 对应地址向量的交集(1 1 1 0)∩(0 1 1 1)=(0 1 1 0),从而由地址向量(0 1 1 0)可知:输出项应分别 为第 2,3 个待记忆模式(A1,B2,C2)和 (A1,B2,C3).同时,为了适合 SWSI-M2KAMs 模型的编码 ,在联想记忆的过程中, 每一个待记忆模式对应着一个 m 序列的伪噪声循环码向量.假设初始 m 序列循环码记为 PN0,则 PN0 向左平移k 位后记为 PNk,用来表示第 k 个待记忆模式.例如:设初始 m 序列循环码 PN0=(1 1 1 0 1 0 0),则 (A1,B1,C1)←PN1=(1 1 0 1 0 0 1) (A1,B2,C3)←PN3=(0 1 0 0 1 1 1)文献[15]详细介绍了有关伪噪声编码的理论. 在 PS 层,每一个模块存储的是多元模式分量的地址表示向量,从 I/O 层到 PS 层的联想,实际上就是从模式 分量到它的地址表示向量的联想,遵循 KBAMs 模型的回忆规则,实现的仍然是一对一的映射,而且,KBAMs 模 型能从理论上保证满足条件的模式集得到正确的联想.在每一个模块中 ,如果 I/O 层有输入,那么,该模块的 PS 层就可以输出一个地址表示向量;如果 I/O 层没有输入,那么,该模块的 PS 层则根据预先的设定,输出一个全 1 或者全 0 向量.接着,进入下一步的逻辑运算操作. 从 PS 层到 SC 层的逻辑运算操作较为简单,它们之间神经元的连接如图 3 所示,PS 层每个模块中同一位置 的神经元都与 SC 层该位置的神经元相连.在 SC 层,每一个神经元通过实现逻辑乘或者逻辑加来异步改变其状 态 , 当其中的一个神经元被激活时 , 它将限制其他神经元激活 , 从而保证每次只可能有一个神经元被激活 . 被激 活的神经元的地址正是初始 m 序列循环码 PN0 的平移位数,平移信号被传送到 PN 层完成移位操作后,输出对 应的 PNk 向量.最后进行的一步是从 PN 层到 I/O 层的联想.PN 层的神经元与 I/O 层每一个模块的神经元各组成 一个 KBAM 模型,从 PNk 向量到模式分量的联想是一个多对一的映射,KBAM 模型可以非常好地实现这个功能.SC layer 1 2 N Logical operation(A1,B2,C2)←PN2=(1 0 1 0 0 1 1) (A2,B2,C4)←PN4=(1 0 0 1 1 1 0)12 PS layerN12 PS layerNFig.3The connection of neurons from PS layer to SC layer图3 从 PS 层到 SC 层的神经元连接5SWSI-M2KAMs 模型在多对多联想中的应用在本文的实验仿真中,如表 1 所示的 9 个三元模式作为训练数据被存储在包含 3 个模块的 SWSI-M2KAMs模型中.其中,I/O 层中第 1 个模块存储人物肖像,第 2 个模块存储水果,第 3 个模块存储景观图片,这些都是经过 裁剪后的 60×60 的 256 色灰度图像,它们之间存在典型的多对多关系.在所用的 SWSI-M2KAMs 模型中,每一个 模块的 I/O 层和 PS 层分别有 3 600 个和 9 个神经元,SC 层有 9 个神经元,PN 层有 15 个神经元,任意选取初始 m 序列循环码 PN0=[1 1 0 0 0 1 0 0 1 1 0 1 0 1 1].此外,SWSI-M2KAMs 模型中的核函数选用一个范数指数核k exp ( x, y ) = exp(−∑ | xi − yi |) ,I/O 层中 SWSI-KAM 模型的连接参数分别设置为 : 全局连接度 α =0.4, 重连概率i =1np=0.3778.由于 I/O 层含有 3 600 个神经元,如果采用传统的全互连连接,则神经元模型的结构过于复杂,对于布线工艺的实现也有很大的难度 , 因此在这里引入稀疏的小世界网络结构 , 既简化了模型结构 , 又减少了计算耗费 , 具有较大的现实意义.陈蕾 等:小世界体系的多对多核联想记忆模型及其应用229Table 1The three-tuple sample sets for training and the corresponding numbers and codes表1 用于训练的三元模式集及其对应的编号和编码Module 1 Module 2 Module 3 Pseudo-Noise code 100010011010111Pattern number 120001001101011113001001101011110401001101011110051001101011110006001101011110001701101011110001081101011110001009101011110001001仿真结果表明,SWSI-M2KAMs 模型不仅能正确实现表 1 的多对多联想,而且有较强的容噪能力,即使当输 入项被噪声污染或者被马赛克遮挡后 ,依然能够准确回忆 . 下面分别给出了 3 种满足不同要求的多对多联想 实验:1. 单输入常规联想:输入污损的单个模式分量,要求联想出所有含有该模式分量的待记忆模式.图 4 表明,即使输入的小孩肖像含有 25%的椒盐噪声,SWSI-M2KAMs 模型仍然能够正确回忆出所有包含 该肖像的第 1,2,6 号样本.(a) The initial input image with 25% salt & pepper noise (a) 含 25%椒盐噪声的初始输入(b) The first recalling sample (b) 第 1 个回忆模式(c) The second recalling sample (c) 第 2 个回忆模式(d) The third recalling sample (d) 第 3 个回忆模式Fig.4Routine association of single-input sample with salt & pepper noise图4 添加椒盐噪声后的单输入常规联想2. 多输入交集联想:输入污损的两个模式分量,要求联想出同时含有这两个模式分量的待记忆模式.图 5 表明 , 当同时输入含 0 均值、 0.05 方差高斯噪声的猕猴桃和含 25% 椒盐噪声的海滩风景图片230Journal of Software 软件学报 Vol.17, No.2, February 2006时,SWSI-M2KAMs 模型正确回忆出了第 2,8 号样本.(a) The initial input images with 25% salt & pepper noise and Gaussian noise (0 mean, 0.05 variance) (a) 含 0 均值、0.05 方差高斯噪声和 25%椒盐噪声的初始输入(b) The first recalling sample (b) 第 1 个回忆模式(c) The second recalling sample (c) 第 2 个回忆模式Fig.5Intersection association of multi-input samples with Gaussian and salt & pepper noise图5 添加高斯噪声和椒盐噪声后的多输入交集联想3. 多输入并集联想 :输入污损和遮挡的两个模式分量 ,要求同时联想出分别含有这两个模式分量的所有待记忆模式. 图 6 表明,当同时输入含 0 均值、0.04 方差高斯噪声的塔和上遮挡 30%的橙子时,SWSI-M2KAMs 模型正 确回忆出了分别含有塔和橙子的第 3,4,6,7,9 号样本.(a) The initial input images with 30% upper occlusion and Gaussian noise (0 mean, 0.04 variance) (a) 含 0 均值、0.04 方差高斯噪声和上遮挡 30%的初始输入(b) The first recalling sample (b) 第 1 个回忆模式(c) The second recalling sample (c) 第 2 个回忆模式(d) The third recalling sample (d) 第 3 个回忆模式(e) The fourth recalling sample (e) 第 4 个回忆模式(f) The fifth recalling sample (f) 第 5 个回忆模式Fig.6Union association of multi-input samples with gaussian noise and partly upper occlusion图6 添加高斯噪声和部分上遮挡后的多输入并集联想6结论本文通过运用核方法和小世界理论,构建了一个较 Hattori 的(MMA)2 更加完善的多对多联想记忆模型统一 框架:SWSI-M2KAMs.首先,SWSI-M2KAMs 具备和(MMA)2 相同的下列特点:1) 区别于传统的地址可寻址方式,联想记忆模型采用的是内容可寻址方式; 2) 能从缺失、污损的输入中正确回忆出所有的完整信息; 3) 不仅能处理多对多联想 ,而且可以通过改变移位控制层的逻辑运算和神经元被激活的方式来实现上下文和联合联想;4) 信息分布式地存储于所有的神经元中,具备很强的鲁棒性能.除此之外,SWSI-M2KAMs 模型还具备下列一些新的特点:1) 拓展了智能信息处理范围,不仅能处理二值信息,而且能处理多值信息; 2) 采用新的学习算法不仅可以联机提交待记忆样本,而且无须重新迭代计算连接权值,节省了学习时间;陈蕾 等:小世界体系的多对多核联想记忆模型及其应用2313) SWSI-M2KAMs 是一个模型框架,由于核函数选取的多样性,使得它囊括了一系列新的学习算法,从而使得针对不同的信息处理对象选取不同的学习算法成为可能;4) 它能从理论上保证所有的满足条件的待记忆模式得到正确回忆; 5) 自联想记忆模型中引入稀疏的小世界网络体系,一定程度上简化了多对多联想记忆模型的结构.致谢 在此,我们谨向对本文的工作给予支持和建议的同行表示诚挚的感谢.References:[1] Hirai Y. Mutually linked HASP’s a solution for constraint-satisfaction problem by associative processing. IEEE Trans. on Systems Man. & Cybernetics, 1985,15(3):432−442. [2] Ohsumi T, Kajiura M, Anzai Y. Multimodule neural network for associative memory. Systems and Computers in Japan, 1993, 24(13):98−108. [3] Hattori M, Hagiwara M, Nakagawa M. Improved multidirectional associative memory for training sets including common terms. In: Proc. of the IEEE and INNS Int’l Conf. on Neural Networks, Vol 2. Baltimore, 1992. 172−177. [4] [5] Hattori M, Hagiwara M. Multimodule associative memory for many-to-many associations. Neurocomputing, 1998,19(1-3):99−119. Hattori M, Hagiwara M. Associative memory for intelligent control. Mathematics and Computers in Simulation, 2000,51(3-4): 349−374. [6] Cristianini N, Shawe-Taylor J. An Introduction to Support Vector Machines And Other Kernel-Based Learning Methods. Cambridge: Cambridge University Press, 2000. [7] [8] Watts DJ, Strogatz SH. Collective dynamics of ‘small-world’ networks. Nature, 1998,393(4):440−442. Mercer J. Functions of positive and negative type, and their connection with the theory of integral equations. Trans. of the London Philosophical Society, 1909,209:415−446. [9] Zhang DQ, Chen SC. Clustering incomplete data using kernel-based fuzzy c-means algorithm. Neural Processing Letters, 2003, 18(3):155−162. [10] Scholkopf B, Smola AJ, Muller KR. Nonlinear component analysis as a kernel eigenvalue problem. Neural Computation, 1998, 10(5):1299−1319. [11] Mika S, Ratsch G, Weston J, Scholkopf B, Muller KR. Fisher discriminant analysis with kernels. In: Hu YH, Larsen J, Wilson E, Douglas S, eds. Proc. of the IEEE Neural Networks for Signal Processing Workshop. Madison: IEEE Press, 1999. 41−48. [12] [13] [14] Kosko B. Bidirectional associative memory. IEEE Trans. on SMC, 1988,18(1):49−60. Achacoso TB, Yamamoto WS. AY’s Neuroanatomy of C. elegans for Computation. Boca Raton: CRC Press, 1992. Chen SC, Chen L, Zhou ZH. A unified SWSI-KAMs framework and performance evaluation on face recognition. Neurocomputing, 2005,68:54−69. [15] Simon MK, Omura JK, Scholz RA, Levitt BK. Spread Spectrum Communications. Rochville: Computer Science Press, 1985.陈蕾(1975-),男,江 西宜 春 人 ,助教,主 要 研究领域为神经网络,模式识别.张 道强(1978-),男,博 士,讲师,主要研 究 领域为神经网络,模式识别,数据挖掘.陈松灿 (1962-),男,教授 ,博士生 导师 ,主 要 研 究 领 域 为 神 经 计 算,模 式 识 别 ,机 器 学习.。

相关文档
最新文档