一种用于复杂模式分类的电流型Hamming神经网络
hopfield神经网络及其应用教学课件

求解人员在旅行时路径最短方案的问题。
3 最短路问题
求解网格地图上从起点到目标的最短路径问题。
Hopfield神经网络在金融风险评估中的应用
应用场景
可用于预测市场波动、分析股票的波动风险、风险 指数的评估等。
数据处理
通过分析历史数据并训练神经网络模型进行预测, 可帮助投资者更好地控制风险。
优点
能够实现自我组织、自我修复和自我学习的功能,具有很强的容错能力。
2
缺点
存在模型建立时间长、计算复杂度高等问题,在大规模网络中应用受到限制。
3
发展趋势
将向更多交叉领域发展,如神经系统科学、人工智能等,同时将致力于提高网络计算效 率和准确度。
Hopfield神经网络及其应用实例介绍
电子显微镜图像处理
Hopfield神经网络在模式恢复与记忆中的应 用
图像恢复
绘画
能够自动去除损伤、扭曲等现象, 对于图像降噪也有一定效果。
将草图转化为具有更多细节和色 彩的绘画作品。
音乐恢复
将不同曲调的曲谱恢复成原音。
Hopfield神经网络在优化问题求解中的 应用
1 逆向工程
能够自动优化物理结构的技术,可应用于电路设计、芯片布局等领域。
Hopfield神经网络在交通流预测中的应 用
应用场景
能够应用于道路交通流预测、车流控制、智能交通系统等实践应用领域。
模型构建
通过分析交通流数据并构建合理的神经网络模型,可以精确预测交通流量及拥堵情况。
优势
较传统交通流预测算法更高效且具有更高的精确度。
Hopfield神经网络的优缺点与发展趋势
1
通过神经网络对显微镜图像进行 优化处理,提高图像清晰度和对 比度。
neural information processing systems介绍

neural information processing systems介绍Neural information processing systems,简称neural nets,是一种模拟人类神经系统的计算模型,用于处理和解释大量数据。
它们在许多领域都有广泛的应用,包括但不限于机器学习、人工智能、自然语言处理、图像识别等。
一、神经网络的基本原理神经网络是由多个神经元互联而成的计算系统,通过模拟人脑的工作方式,能够学习和识别复杂的数据模式。
神经元是神经网络的基本单元,它接收输入信号,通过非线性变换和权重的加权和,产生输出信号。
多个神经元的组合形成了一个复杂的网络结构,能够处理大量的输入数据,并从中提取有用的信息。
二、神经网络的类型神经网络有多种类型,包括感知机、卷积神经网络(CNN)、循环神经网络(RNN)、长短期记忆(LSTM)和Transformer等。
每种类型都有其特定的应用场景和优势,可以根据具体的问题和数据特点选择合适的网络模型。
三、神经网络的发展历程神经网络的发展经历了漫长的历程,从最初的感知机到现在的深度学习技术,经历了多次变革和优化。
在这个过程中,大量的研究者投入了大量的时间和精力,不断改进网络结构、优化训练方法、提高模型的泛化能力。
四、神经网络的应用领域神经网络的应用领域非常广泛,包括但不限于图像识别、语音识别、自然语言处理、推荐系统、机器人视觉等。
随着技术的不断发展,神经网络的应用场景也在不断扩展,为许多领域带来了革命性的变革。
五、神经网络的未来发展未来神经网络的发展将面临许多挑战和机遇。
随着数据量的不断增加和计算能力的提升,神经网络将更加深入到各个领域的应用中。
同时,如何提高模型的泛化能力、降低计算复杂度、解决过拟合问题等也是未来研究的重要方向。
此外,神经网络的算法和理论也需要不断完善和深化,为未来的应用提供更加坚实的基础。
六、结论神经信息处理系统是一种强大的计算模型,具有广泛的应用领域和巨大的发展潜力。
以下哪些算法是分类算法

哪些算法是分类算法---------------------------------------------------------------------- 下边是总结的几种常见分类算法,这里只是对几种分类算法的初步认识。
所谓分类,简单来说,就是根据文本的特征或属性,划分到已有的类别中。
常用的分类算法包括:决策树分类法,朴素的贝叶斯分类算法(native Bayesian classifier)、基于支持向量机(SVM)的分类器,神经网络法,k-最近邻法(k-nearest neighbor,kNN),模糊分类法等等1、决策树决策树是一种用于对实例进行分类的树形结构。
一种依托于策略抉择而建立起来的树。
决策树由节点(node)和有向边(directed edge)组成。
节点的类型有两种:内部节点和叶子节点。
其中,内部节点表示一个特征或属性的测试条件(用于分开具有不同特性的记录),叶子节点表示一个分类。
一旦我们构造了一个决策树模型,以它为基础来进行分类将是非常容易的。
具体做法是,从根节点开始,地实例的某一特征进行测试,根据测试结构将实例分配到其子节点(也就是选择适当的分支);沿着该分支可能达到叶子节点或者到达另一个内部节点时,那么就使用新的测试条件递归执行下去,直到抵达一个叶子节点。
当到达叶子节点时,我们便得到了最终的分类结果。
从数据产生决策树的机器学习技术叫做决策树学习, 通俗点说就是决策树,说白了,这是一种依托于分类、训练上的预测树,根据已知预测、归类未来。
分类理论的太过抽象,下面举两个浅显易懂的例子:决策树分类的思想类似于找对象。
现想象一个女孩的母亲要给这个女孩介绍男朋友,于是有了下面的对话:女儿:多大年纪了?母亲:26。
女儿:长的帅不帅?母亲:挺帅的。
女儿:收入高不?母亲:不算很高,中等情况。
女儿:是公务员不?母亲:是,在税务局上班呢。
女儿:那好,我去见见。
这个女孩的决策过程就是典型的分类树决策。
脉冲神经网络研究进展综述

脉冲神经网络研究进展综述一、本文概述随着和机器学习的飞速发展,神经网络作为其中的核心组件,已经得到了广泛的研究和应用。
然而,传统的神经网络模型在处理复杂、动态和实时的任务时,由于其计算复杂度高、能耗大等问题,面临着巨大的挑战。
脉冲神经网络(Spiking Neural Networks,SNNs)作为一种新型的神经网络模型,以其独特的脉冲编码和传输机制,为解决这些问题提供了新的思路。
本文旨在全面综述脉冲神经网络的研究进展,包括其基本原理、模型设计、训练方法以及应用领域等方面。
我们将详细介绍脉冲神经网络的基本概念和脉冲编码机制,阐述其与传统神经网络的主要区别和优势。
然后,我们将回顾脉冲神经网络模型的发展历程,分析各种模型的特点和应用场景。
接着,我们将探讨脉冲神经网络的训练方法和学习机制,包括监督学习、无监督学习和强化学习等。
我们将展示脉冲神经网络在各个领域的应用实例,如图像识别、语音识别、机器人控制等,并展望其未来的发展方向。
通过本文的综述,我们希望能够为研究者提供一个清晰、全面的脉络,以了解脉冲神经网络的研究现状和发展趋势,为未来的研究提供有益的参考和启示。
我们也期望能够激发更多研究者对脉冲神经网络的兴趣和热情,共同推动这一领域的发展。
二、脉冲神经网络的基本原理脉冲神经网络(Spiking Neural Networks,SNNs)是一种模拟生物神经网络中神经元脉冲发放行为的计算模型。
与传统的人工神经网络(Artificial Neural Networks,ANNs)不同,SNNs的神经元通过产生和传递脉冲(或称为动作电位)来进行信息的编码和传输。
这种模型更接近生物神经元的实际运作机制,因此具有更强的生物可解释性和更高的计算效率。
在SNNs中,神经元的状态通常由膜电位(Membrane Potential)来表示。
当膜电位达到某个阈值时,神经元会发放一个脉冲,并将膜电位重置为静息状态。
脉冲的发放时间和频率都可以作为信息的编码方式。
《hopfield神经网络》课件

图像识别实例
总结词
通过Hopfield神经网络,可以实现高效的图像识 别。
总结词
图像识别的准确率取决于训练样本的多样性和数 量。
详细描述
在图像识别实例中,可以将图像信息转化为神经 网络的输入,通过训练和学习,网络能够将输入 的图像信息与预存的图像模式进行匹配,从而实 现图像的快速识别。
详细描述
为了提高图像识别的准确率,需要收集大量具有 代表性的训练样本,并采用多种不同的训练方法 对网络进行训练,以增加网络的泛化能力。
神经元模型
神经元模型
Hopfield神经网络的基本单元是神经元,每个神经元通过加权输 入信号进行激活或抑制。
激活函数
神经元的输出由激活函数决定,常用的激活函数有阶跃函数和 Sigmoid函数。
权重
神经元之间的连接权重用于存储记忆模式,通过训练可以调整权重 。
能量函数
1 2 3
能量函数定义
能量函数是描述Hopfield神经网络状态的一种方 式,其值越低表示网络状态越稳定。
《Hopfield神经网 络》PPT课件
目录
CONTENTS
• Hopfield神经网络概述 • Hopfield神经网络的基本原理 • Hopfield神经网络的实现 • Hopfield神经网络的优化与改进 • Hopfield神经网络的实例分析
01 Hopfield神经网络概述
定义与特点
能量函数的性质
能量函数具有非负性、对称性、连续性和可微性 等性质,这些性质对于网络的稳定性和记忆性能 至关重要。
最小能量状态
训练过程中,网络会逐渐趋近于最小能量状态, 此时对应的模式被存储在神经元连接权重中。
稳定性分析
稳定性定义
五大神经网络模型解析

五大神经网络模型解析近年来,人工智能的快速发展使得深度学习成为了热门话题。
而深度学习的核心就在于神经网络,它是一种能够模拟人脑神经系统的计算模型。
今天,我们就来一起解析五大神经网络模型。
1.前馈神经网络(Feedforward Neural Network)前馈神经网络是最基本的神经网络模型之一。
在前馈神经网络中,信息是单向传输的,即神经元的输出只会被后续神经元接收,不会造成回流。
前馈神经网络能够拟合线性和非线性函数,因此在分类、预测等问题的解决中被广泛应用。
前馈神经网络的一大优势在于简单易用,但同时也存在一些缺点。
例如,神经网络的训练难度大、泛化能力差等问题,需要不断探索解决之道。
2.循环神经网络(Recurrent Neural Network)与前馈神经网络不同,循环神经网络的信息是可以进行回流的。
这意味着神经元的输出不仅会传向后续神经元,还会传回到之前的神经元中。
循环神经网络在时间序列数据的处理中更为常见,如自然语言处理、语音识别等。
循环神经网络的优点在于增强了神经网络处理序列数据的能力,但是它也存在着梯度消失、梯度爆炸等问题。
为了解决这些问题,一些变种的循环神经网络模型应运而生,如长短期记忆网络(LSTM)、门控循环单元(GRU)等。
3.卷积神经网络(Convolutional Neural Network)卷积神经网络是一种类似于图像处理中的卷积操作的神经网络模型。
卷积神经网络通过卷积神经层和池化层的堆叠来对输入数据进行分层提取特征,从而进一步提高分类性能。
卷积神经网络在图像、视频、语音等领域的应用非常广泛。
卷积神经网络的优点在于对于图像等数据具有先天的特征提取能力,可以自动识别边缘、角点等特征。
但是,卷积神经网络也存在着过拟合、泛化能力欠佳等问题。
4.生成对抗网络(Generative Adversarial Network)生成对抗网络可以说是最近几年最热门的神经网络模型之一。
它基于博弈论中的对抗训练模型,由两个神经网络构成:生成器和判别器。
第14章-竞争网络

14.2.2 竞争层
竞争 Hamming网络的第二层的神经元激活自己 而抑制所有其他神经元,这就叫做竞争。
为了简化本章余下部分的讨论,我们将定义 一个传输函数,来作一个递归竞争层所做的工作:
它找到最大净输入的神经元的下标,并将其 输出设置为1。所有其他的输出都设置为0。
用一个作用于第一层的竞争传输函数代替
一旦神经网络学会了如何将输入向量分类,
那么对于新向量它也将同样分类,如图14-8所示。 阴影表示每个神经元将作出响应的区域。竞争层 通过使权值向量最接近输入向量p的神经元的输 出为1为每个输入向量p指定给这些类中的一个。
2.竞争层中存在的问题
竞争网络能够进行有效的自适应分类,但它 仍存在一些问题。第一个问题就是学习速度的选 择使得不得不在学习速度和最终权值向量的稳定 性之间进行折中(见图14-9)。一个接近0的学 习速度意味着慢速的学习。然而,一旦权值向量 到达一个簇的中心,它将保持在中心附近。
相反,接近1.0的学习速度将导致快速学习。 然而,一旦权值向量到达一个簇。它将作为它所 代表的簇中的不同向量来回震荡(见图14-10)。
有时这种在快速学习和稳定性之间的折中能够 带来好处。初始训练对于快速学习可以用大的学 习速度来完成。然后学习速度可以随着训练的进 程而逐渐减少,以达到稳定的原型向量。令人遗 憾的是如果网络需不断地对输入向量的新排列作 出调整的话,这种技术就不起作用了。
当簇彼此很靠近的时候,一种更为严重的稳定 性问题产生了。在特定的情况下,一个形成某簇 原型的权值向量会“侵入”另一个权值向量的领 地,从而破坏目前的分类状况。
图14-11中的4个图说明了这个问题。两个输入向量 (图(a)中用空心圆圈表示)被提交了几次。 结果是代表中间和右边簇的权值向量移向了右边。 最后右边簇的一个向量被中心权值向量重新分类。 进一步的提交向量使中间向量移向右边,直到它 “丢失”了一些它的向量才停止,这些丢失的向 量成为左边权值向量所代表的类的一部分。
Hopfield神经网络ppt课件

2)保证所有要求记忆的稳定平衡点都能收敛 到自己;
3)使伪稳定点的数目尽可能的少; 4)使稳定点的吸引域尽可能的大。 MATLAB函数
[w,b]=solvehop(T);
.
23
连续性的Hopfield网络
CHNN是在DHNN的基础上提出的,它的原理
.
34
几点说明:
1)能量函数为反馈网络的重要概念。 根据能量函数可以方便的判断系统的稳 定性;
2)能量函数与李雅普诺夫函数的区 别在于:李氏被限定在大于零的范围内, 且要求在零点值为零;
3)Hopfield选择的能量函数,只是 保证系统稳定和渐进稳定的充分条件, 而不是必要条件,其能量函数也不是唯 一的。
1、激活函数为线性函数时
2、激活函数为非线性函数时
.
29
当激活函数为线性函数时,即
vi ui 此时系统的状态方程为:
U AU B 其中A 1 WB。
R 此系统的特征方程为:
A I 0 其中I为单位对角阵。通过对解出的特征值1, 2,, r 的不同情况,可以得到不同的系统解的情况。
.
霍普菲尔德(Hopfield) 神经网络
1、网络结构形式 2、非线性系统状态演变的形式 3、离散型的霍普菲尔德网络(DHNN) 4、连续性的霍普菲尔德网络(CHNN)
.
1
网络结构形式
Hopfield网络是单层对称全反馈网络,根据激 活函数选取的不同,可分为离散型和连续性两种 ( DHNN,CHNN)。 DHNN:作用函数为hadlim,主要用于联想记忆。 CHNN:作用函数为S型函数,主要用于优化计算。
.
19
权值修正的其它方法
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
第19卷第7期 半 导 体 学 报 V o l.19,N o.7 1998年7月 CH I N ESE JOU RNAL O F SE M I CONDU CTOR S Ju ly,1998 一种用于复杂模式分类的电流型Hamm i ng神经网络3栗国星 石秉学 路 伟(清华大学微电子学研究所 北京 100084)摘要 本文结合手写体数字识别,讨论了一种用H amm ing神经网络实现复杂模式分类的方法.文中提出了模式分解,分级模板匹配及模糊匹配技术及其电流型VL S I的实现,并着重论述了一种高精度,低复杂度,结构灵活的电流型k2W TA的实现.EEACC:1280,1285,12951 引言八十年代末神经网络热潮的兴起,为其在各个领域的应用展开了新的局面[1],尤其是在模式信息处理方面更是令人注目,但到目前为止,神经网络的实现方式仍以软件实现为主,用软件不能体现出神经网络本身固有的大规模并行性,因此人们便开始探索用VL S I来实现神经网络,在众多的神经网络模型中,H amm ing网络最易于VL S I的实现,不少研究人员已提出或制作出了H amm ing神经网络芯片,如李斌桥提出并成功地制作了一种高速高精度的电压型H amm ing神经网络芯片[2,3],U.C ilingiroglu提出了一种基于电荷型的H am2 m ing网络实现方法[4],但时序复杂,速度较慢.它们都难以实现对复杂模式的处理,为此本文提出了一种用H amm ing网络对复杂模式进行分类的方法及其电流型VL S I的实现.2 基本原理H amm ing网络较适合于二值图象或数据流的处理,它可以从其记忆的K个标准模板中选择出与输入模式较接近的一个或多个模板,较简单的H amm ing神经网络可以只有两级,其中第一级用来进行模板匹配,第二级则用来求出与输入模式较匹配的模板,也即求大网络.对于二值模板,模板匹配的定义如下: 3国家自然科学基金与高校博士点基金资助课题栗国星 男,1970年出生,博士生,研究方向为字符识别、人工神经网络与模糊逻辑应用、模拟集成电路设计石秉学 男,1936年出生,教授,博士生导师,从事人工神经网络及模糊逻辑系统及其集成电路实现,模拟集成和数 模混合集成电路与系统研究1997205205收到,1997208228定稿设输入模式X 是一个N 维的矢量,共有K 个标准模板T K ,则匹配度M d i 定义为M d i =N -∑Nj =1Xj T ij i =1,…,K其中 T ij 是第i 个模板中的第j 位值;T ij ∈{0,1},有时只使用二值模板还不能满足要求,这时可以使用实值模板,即模板的值在0和1之间,为了电路实现的方便,可以使模板的值量化为0到1之间的几个离散值,比如012,014,...,018,110等,但输入仍是二值数值,这时匹配度M d i 可定义为M d i =∑Nj =1(Xj T ′ij +X (1-T ′ij )) i =1,…,K这里 T ′ij ∈(0,1),它的选取是在片外学习得到的.这种匹配可以作为前一种匹配的推广,对于某些问题,它可能更具有实际意义.前面两种匹配度的计算,只考虑了输入模式的一维性质,当输入模式是二维信息时,为了获得更多的匹配信息,可以采用加权匹配,也可以加入相关项以增强模式的表达.图1 H amm ing 网络识别器系统框图输入模式与K 个标准模板的匹配度计算出之后,由W TA (W inner 2T ake 2A ll )选取出匹配度较大的一个或多个作为网络的最终输出.这种结构的H amm ing 神经网络,处理较复杂模式的能力不强,比如要识别一个20×20点阵的手写体数字,即使是用软件实现,由于手写体字符的变化比较大,一个类别很难用一两个模板来表达,尽管一个类别可以用较多的模板来容忍字符的变形等,这势必会使网络的规模变得十分的庞大,用VL S I 来实现更是没有可能,因为它还会受到I O 口数量的限制,为了解决这一问题,可以采用模式分解,分级匹配的办法,在我们的VL S I H amm ing 网络识别器中,正是采用了这种思想.3 电流型Hamm i ng 神经网络识别器我们设计的H amm ing 神经网络识别器结构框图如图1所示,待识别模式是一个20×20的字符点阵,该字符点阵先被分割为3×3个区域,每个区域有8×8个格点,每个区域与其相临的区域有两层格点相重合以避免一个完整特征被分割开,通过一个5×5的局部窗口逐点对待识别模式的每个区域进行扫描,每一个局部窗口内的子模式与23个特征模板同时进行匹配操作,所选取的特征包括端点,十字叉,拐角及其变形等,由23端W TA 选出匹配较好并大于给定阈值的作为对应类别特征的输出,由于不同的模板具有不同的复杂度,所以不同的模板应具有不同的阈值从而构成多阈值的模板匹配过程.由于模式的复杂性,分解后得到的子模式也很难断定它属于哪一类特征,通过实验证明,匹配度最好的前两个输出结果正确的概率极大,因此有必要使W TA 网络选取出两个结果,为此我们设计了一个k 2W TA 网络.随着扫描的不断进行,可以把得到的特征按事先规定好的特征类别进行合并和压缩从而形成流水3357期 栗国星等: 一种用于复杂模式分类的电流型H amm ing 神经网络 作业,压缩可由“或”门和触发器来实现.每个区域扫描结束后得到8类特征,每一类由一位二进制数表示,如其为“1”则表示在该区域内有这类特征,为“0”便表示没有这类特征,待9个区域全部扫描结束后,便得到8个3×3的特征图,这样共形成72位特征矢量,由此可进行第二级的模板匹配过程,为了减小电路的规模,在尽可能多地保留有用信息的情况下,可以利用自相关方法(另待发表)并借助于遗传算法把特征矢量长度进一步压缩为48,当然这种压缩是在片外完成后固定在片内的,这时每个模式类别可用一个长度为48的模板表示,对于阿拉伯数字,共有十个类别,因此共有十个模板.图2 二值模板匹配和22W TA 电路图3 匹配度与匹配电流的关系为了提高识别率,此时的模板不宜再用二值表示,这时可采用实值模板,这种模板也可叫软模板或模糊模板,这类模板也可以方便地用电流镜来实现.经过该次匹配运算之后,即可得到最终识别结果.4 单元电路的设计4.1 匹配电路与2-W TA 网络电路匹配电路有两种形式,图2上半部分用来完成模板匹配运算,下半部分是一个电流型W TA 网络,图中x 1,x 2,…,x 25是5×5子模式的输入矢量,F 1,F 2,…,F 23是每个模板所对应的输出,x i ,F j ∈{0,1}(25≥i ≥1,23≥j ≥1).对于二值模板,匹配电路中的电流镜的宽长都是一样的,电流镜中的电流的大小可由左端的偏置电路加以调节,在我们的设计中,电流镜中的电流为10ΛA .外部输入子模式的每一位控制着一个开关管,如果模板对应位为“1”,则在输入端和相应的栅极之间加一个反相器,否则直接连接到开关管的栅上.每个模板对应的阈值用虚线框内电流镜来实现,它们没有开关管的控制而直接对整个匹配电流产生贡献,其值的大小由其对应的模板所决定.图3是每一路电流为10ΛA 的情况下,对于25个输入端匹配电流与匹配度的关系曲线,由此可以看出,匹配度和匹配电流成较好的线性关系.由图中也可以看出,随着匹配度的增高,匹配电流偏离理想值越多,这是由于电流镜中PM O S 管的沟道长度调制效应引起的,因为在W TA 输入阻抗一定的情况下,随着匹配电流的增加,构成电流镜的PM O S 管的源漏之间的电压有所减小,由于沟长调制效应而使电流镜中的电流有所减小,但减小的电流在匹配电流的比重是很小的,这个偏差可以通过进一步减小W TA 的435 半 导 体 学 报 19卷输入阻抗和(或)适当增大电流镜的沟道长度来减小,这需要在性能和芯片面积之间折中考虑.图2的下半部分是一个22W TA 网络,其输入是模板匹配电路产生的匹配度电流,每一模板对应一个W TA 输入,其输出对应两个最匹配的模板.该电路主要由多输入求大(M A X )网络[5]和电流阈值单元构成,但构成NM O S 电流镜的管子M i 和M b 以及提供阈值参考电流的PM O S 电流镜的管子的尺寸的选择对整个W TA 的功能产生重要的影响,(为一个小于1的比例因子,图中是一个22W TA 的情况,.该电路不仅结构简单,而且精度较高,动态范围较大,可以工作在弱反型直至强反型区,改进的W ilson 电流镜的使用,使W TA 中的单元电路具有这种电流镜所具备的优点,其功耗也比较低,对于十一端的22图4 4输入电流型W TA 两种情况下的精度模拟W TA ,在平均输入电流为50ΛA 以上时,其功耗也只有015mW .图4是具有4个输入端的这种电流型W TA 的在大电流和小电流情况下的精度模拟,图中V (ou t 1),V(ou t 2),V (ou t 3),V (ou t 4)是输入端对应的输出,i 1,i 2,i 3,i 4是输入电流,模拟是在固定i 1,i 2,i 4,使i 3变化进行的.图4(b )的输出则分别是V (n 11),V (n 12),V (n 13),V(n 14).在小电流情况下,其精度为1ΛA 之内,在大电流情况下,其精度仍高于5ΛA ,事实上其精度与所操作的电流的平方根的倒数成正比.其收敛的速度不仅与其操作的电流大小有关,而且还与各输入端电流的差值有关,操作的电流越小,收敛速度越慢,电流差值越小,收敛速度也越慢.4.2 特征压缩电路特征压缩根据不同的要求可采取不同的压缩方法.由于模式的输入是以分时方式进行的,在每一时钟周期内对所输入的子模式与K 个标准模板进行匹配运算,求出匹配最好的两个模板作为该子模式的所对应的子特征类别,对较相似的子特征类别进行或操作合并后得到M (M <K )个大的特征类别,在我们的识别系统中,是把23个特征合并为8类特征,这样每一个区域扫描结束后便得到得到8个规模为8×8的特征向量图,整个输入模式扫描完毕后便得到9组这样的特征图,显然这些特征还不能用来进行第二级的匹配,因此还必须进行更进一步的压缩,而这次压缩也是比较有意义的,通过这次压缩不仅可以大大减小电路所需的规模,而且也可以消除模式的局部歪曲变形等.事实上这种压缩是按区域随着特征的生成在控制电路的作用下流水式进行的,每一区域扫描完毕后,得到8位特征矢量,每一位代表一个特征类别.图5是在我们的设计中所采用的压缩单元电路[6],其逻辑功能为当清零信号CL R =1时,压缩单元输出M k =0,当CL R =1时,有M j k =F j k +M j -1k ,j =1,…,64 k =1,…,8.其中F k 是在某一区域内对一个5×5子模式扫描合并后得到的第k 位特征,Υj 是时钟信号,由于有8类特征,所以5357期 栗国星等: 一种用于复杂模式分类的电流型H amm ing 神经网络 要有8个这样的单元并行工作,这样待整个模式扫描完毕后便得到8个3×3的特征图.为图5 一种特征压缩单元电路了减小电路规模,这个长度为72的特征矢量可用一定的方法作进一步的压缩,从而最终得到长度为48的特征矢量,该特征矢量可以用来进行第二级的模板匹配.4.3 软模板匹配电路和1-W TA 电路图6是软模板匹配电路和一可配置的W TA ,图中只画出了一个模板,其它模板结构与此类似.其实现方法是先选定一个参考电流镜来实现模板中的“1”,其它数值的元素便由电流镜PM O S 管的宽度之比确定(长度相同),在具体实现时,对于那些为“0”或“1”的模板元素,可以省去单元中左边或右边中的相应支路中的管子.特征码为M i (48≥i ≥1),它是二值的.该电路中的W TA 是可配置的,根据控制码CTL 的不同,它可实现12W TA 或22图6 第二级模板匹配电路及可配置W TA W TA ,这在实际应用中是很有意义的,如果一级识别达到要求,则可控制它使其完成12W TA 的功能,否则可使其成为22W TA 以便实现系统之间的级联,由于匹配最好的前两个结果正确的概率极大,这样后级便可由实现两两类别对之间分类的分类器来实现,因为两个类别之间的分类总是要容易一些,它可只使用一些局部特征便可达到分类的目的.为了实现高的可靠率,在该W TA 网络中加入了阈值电流I th 输入端,调节该阈值电流I th 便可实现识别率和可靠率之间的权衡.R i (I =0,1,…,9,J )为识别结果,其中J 为拒识信号,当J 为高电平时便表示拒识.5 结论和进一步的工作本文基于手写体数字的识别问题,提出了一种用于复杂模式分类的H amm ing 神经网络结构及其电流型VL S I 的实现,各个模块电路不仅结构简单,而且还具有灵活性高,高精度低功耗的特点.目前部分模块的电路已经画完版图,预计能于十月份进行工艺流水.由于E 2PROM 工艺的成熟,为了使制作的芯片更具有灵活性,模板电路可以用E 2PROM 来控制,这样所选用的模板以后如果不能满足要求时可以在片上进行调整,压缩电路通过引入一些由E 2PROM 实现的控制单元以使压缩电路具有一定的可配置性,这样就可以达到实现不同的合并和压缩方案以适应不同的应用要求.635 半 导 体 学 报 19卷参考文献[1] A .K .Jain et a l .,Computer ,1996,M ar .,31~44.[2] B inqiao L i ,Zh ijian L i and B ingxue Sh i ,I JCNN ’93,N agoya ,Japan ,879~882.[3] 李斌桥,李志坚,石秉学,半导体学报,1996,17(3):217~222.[4] U gur C ilingiroglu ,IEEE J .So lid 2State C ircuits ,1993,28(1):59~67.[5] C .2Y .H uang and B .2D .L iu ,E lectronics L etters ,1994,30(23):1924~1925.[6] 路伟,清华大学博士论文,1997,5.A K i nd of Curren tM ode Hamm i ng Neura lNetwork to Cla ssify Com plex Pa tternL i Guox ing ,Sh i B ingxue ,L u W ei(Institu te of M icroelectron ics ,T sing hua U n ivercity B eij ing , 100084)R eceived 5M ay 1997,revised m anuscri p t received 28A ugust 1997Abstract A m ethod to classify com p lex p attern w ith H amm ing neu ral netw o rk is p ro 2po sed on the base of handw ritten digit recogn iti on in th is p ap er .Som e techn iques such as p attern decom po siti on ,m u lti 2level tem p late m atch ing and fuzzy tem p late m atch ing and their cu rren t m ode VL S I realizati on are p u t fo rw ard ,and a cu rren t m ode k 2W TA w ith h igh p recisi on ,low com p lex ity ,s m art structu re is deep ly discu ssed .EEACC :1280,1285,12957357期 栗国星等: 一种用于复杂模式分类的电流型H amm ing 神经网络 。