9-人工神经网络(2学时)

合集下载

《人工神经网络》课件

《人工神经网络》课件
添加项标题
动量法:在梯度下降法的基础上,引入动量项,加速收敛速 度
添加项标题
RMSProp:在AdaGrad的基础上,引入指数加权移动平 均,提高了算法的稳定性和收敛速度
添加项标题
随机梯度下降法:在梯度下降法的基础上,每次只使用一个 样本进行更新,提高了训练速度
添加项标题
AdaGrad:自适应学习率算法,根据历史梯度的平方和来 调整学习率,解决了学习率衰减的问题
情感分析:分析文本中的情感 倾向,如正面评价、负面评价 等
推荐系统
推荐系统是一种基于用户历史行为 和偏好的个性化推荐服务
推荐算法:协同过滤、深度学习、 矩阵分解等
添加标题
添加标题
添加标题
添加标题
应用场景:电商、社交媒体、视频 网站等
应用效果:提高用户满意度、增加 用户粘性、提高转化率等
Part Six
类型:Sigmoid、 Tanh、ReLU等
特点:非线性、可 微分
应用:深度学习、 机器学习等领域
权重调整
权重调整的目的:优化神经网络的性能 权重调整的方法:梯度下降法、随机梯度下降法等 权重调整的步骤:计算损失函数、计算梯度、更新权重 权重调整的影响因素:学习率、批次大小、优化器等
Part Four
《人工神经网络》PPT 课件
,
汇报人:
目录
01 添 加 目 录 项 标 题 03 神 经 网 络 基 础 知 识 05 神 经 网 络 应 用 案 例 07 未 来 发 展 趋 势 与 挑 战
02 人 工 神 经 网 络 概 述 04 人 工 神 经 网 络 算 法 06 神 经 网 络 优 化 与 改 进
深度学习算法
卷积神经网络(CNN):用于图像处理和识别 循环神经网络(RNN):用于处理序列数据,如语音识别和自然语言处理 长短期记忆网络(LSTM):改进的RNN,用于处理长序列数据 生成对抗网络(GAN):用于生成新数据,如图像生成和文本生成

人工神经网络教程

人工神经网络教程

人工神经网络教程人工神经网络(Artificial Neural Network,ANN)是一种受到生物神经元系统启发的计算模型,用于模拟和处理复杂的问题。

它由许多人工神经元组成,通过连接的方式形成网络,可以进行数据的学习和预测,广泛应用于图像识别、语音识别、自然语言处理等领域。

人工神经网络的基本结构是由多层神经元组成的,包括输入层、隐藏层和输出层。

输入层接收外部的输入数据,而输出层输出结果。

隐藏层则在输入层和输出层之间进行信息的处理和传递。

每个神经元都有多个输入和一个输出,输入和输出之间通过权重进行连接。

神经元接收到输入后,通过激活函数进行处理,得出输出结果。

人工神经网络的学习过程是通过反向传播算法进行的。

首先,通过前向传播计算网络的输出结果,与期望的输出结果进行比较,计算出误差。

然后,误差通过反向传播逐层传递回输入层,并根据梯度下降算法不断调整权重,使得网络的输出结果与期望结果更加接近。

这个过程反复进行,直到网络的输出结果达到预期的精度要求。

人工神经网络有许多不同的类型,包括前馈神经网络、递归神经网络和卷积神经网络等。

前馈神经网络是最常见且简单的一种类型,每个神经元的输出只和上一层的神经元有连接。

递归神经网络具有循环连接,可以处理时序问题。

卷积神经网络主要用于图像和语音识别领域,通过卷积层和池化层等特殊结构进行特征提取。

人工神经网络的优点是可以自动从数据中学习特征,并进行预测和分类。

它具有强大的模式识别能力,可以应用于各种领域的问题。

然而,人工神经网络同时也存在一些挑战和限制。

首先,神经网络的训练和调优需要大量的数据和计算资源。

其次,网络的结构和参数需要人工设计和调整,不同问题可能需要不同的网络结构和参数设置。

此外,神经网络的过程是黑盒操作,很难解释其中的具体原理和过程。

总而言之,人工神经网络是一种强大的计算模型,可以模拟和处理复杂的问题。

它在各个领域都有广泛的应用,并且不断得到改进和优化。

人工神经网络教学课件

人工神经网络教学课件
2006年
Hinton等人提出了深度学习的概念,使得神经网络的层次和参数数量大大增加,提高了模型的表示能力和泛化能力。
1997年
Bengio等人提出了卷积神经网络(CNN),用于图像识别和处理。
感知机模型:由输入层、隐藏层和输出层组成,通过权重和激活函数实现非线性映射,完成分类或识别任务。
人工神经网络的基本结构
人工神经网络教学课件
目录
CONTENTS
人工神经网络简介人工神经网络的基本结构常见的人工神经网络模型人工神经网络的训练与优化人工神经网络的应用场景人工神经网络的未来展望
人工神经网络简介
人工神经网络是一种模拟生物神经网络结构和功能的计算模型,由多个神经元相互连接而成,通过训练和学习来处理和识别数据。
适用于小样本数据集和高维数据集
支持向量机在小样本数据集和高维数据集上表现良好,因为它主要基于数据的内积运算,而不是计算输入空间中的距离。这使得它在文本分类、生物信息学等领域得到广泛应用。
核函数的选择对模型性能影响较大
支持向量机通过核函数将输入空间映射到高维特征空间,然后在这个空间中找到最优决策边界。不同的核函数会导致不同的决策边界,因此选择合适的核函数对模型性能至关重要。
总结词
自然语言处理是人工神经网络的另一个应用领域,通过训练神经网络理解和生成自然语言文本,实现文本分类、情感分析、机器翻译等功能。
自然语言处理是利用人工神经网络对自然语言文本进行分析、理解和生成,广泛应用于搜索引擎、智能问答、新闻推荐等领域。通过训练神经网络理解和生成自然语言文本,可以实现文本分类、情感分析、机器翻译等功能,提高自然语言处理的准确性和效率。
人工神经网络具有自适应性、非线性、并行处理和鲁棒性等特点,能够处理复杂的模式识别和预测问题。

《人工神经网络》课件

《人工神经网络》课件

拟牛顿法
改进牛顿法的不足,使用正定矩阵近 似Hessian矩阵,提高优化效率。
共轭梯度法
结合梯度下降法和共轭方向的思想, 在每一步迭代中选择合适的共轭方向 进行搜索。
遗传算法
模拟生物进化过程的优化算法,通过 选择、交叉、变异等操作寻找最优解 。
正则化技术
L1正则化
对权重参数的绝对值进行惩罚总结词
自然语言处理是利用人工神经网络对自然语言文本进行分析和处理的技术。
详细描述
自然语言处理是实现人机文本交互的关键技术之一,通过训练神经网络对大量文本数据进 行学习,可以实现对文本的自动分类、情感分析、机器翻译等功能。
具体应用
在社交媒体领域,自然语言处理技术可以用于情感分析和舆情监控;在新闻媒体领域,可 以用于新闻分类和摘要生成;在机器翻译领域,可以用于实现多语言之间的自动翻译。
06
人工神经网络的未 来展望
新型神经网络模型的研究
持续探索新型神经网络模型
随着技术的不断发展,新型神经网络模型的研究将不断涌现,以解决传统模型无法处理 的复杂问题。这些新型模型可能包括更复杂的拓扑结构、更高效的参数优化方法等。
结合领域知识进行模型设计
未来的神经网络模型将更加注重与领域知识的结合,以提高模型的针对性和实用性。例 如,在医疗领域,结合医学影像和病理学知识的神经网络模型能够更准确地辅助医生进
THANKS
感谢您的观看
文字、人脸等目标的技术。
02 03
详细描述
图像识别是人工神经网络应用的重要领域之一,通过训练神经网络对大 量图像数据进行学习,可以实现对图像的自动分类、目标检测、人脸识 别等功能。
具体应用
在安防领域,图像识别技术可以用于人脸识别和视频监控;在医疗领域 ,可以用于医学影像分析;在电商领域,可以用于商品图片的自动分类 和检索。

人工神经网络基础知识

人工神经网络基础知识

x0 x0
• MP模型
可知当神经元i的输入信号加权和超过阈值时,输出为
“1”,即“兴奋”状态;反之输出为“0”,是“抑制” 状态。
激发函数的基本作用
– 控制输入对输出的激活作用 – 对输入、输出进行函数转换 – 将可能无限域的输入变换成指定的有限范围内的输出
例、实现逻辑函数“与门”(AND gate)运 算。
2 人工神经网络基础知识
2.1人工神经网络的生物学基础
人的智能来自于大脑,大脑是由大量的神经细胞或神经元 组成的。每个神经元可以看作为一个小的处理单元,这些神经 元按照某种方式互相连接起来,构成了大脑内部的生物神经元 网络,他们中各神经元之间连接的强弱,按照外部的激励信号 作自适应变化,而每个神经元又随着接收到的多个激励信号的 综合大小呈现兴奋或抑制状态。据现在的了解,大脑的学习过 程就是神经元之间连接强度随外部激励信息做自适应变化的过 程,大脑处理信息的结果确由神经元的状态表现出来。显然, 神经元是信息处理系统的最小单元。虽然神经元的类型有很多 种,但其基本结构相似。
(1)每个神经元都是一个多输入单输出的信息处理单元; (2)突触分兴奋性和抑制性两种类型; (3)神经元具有空间整合特性和阈值特性; (4)神经元输入输出间有固定的时滞,主要取决于突触延搁; (5)忽略时间整合作用和不应期; (6)神经元本身是非时变的,即其突触时延和突触强度均为常 数。
MP模型:
1
x 1ex
f(x) (1t 2
h2)1ex
f(x) 1.0
o
x
-1.0

双极 性 S型函数
3、线性函数 (1)线性作用函数:输出等于输入,即 yf(x)x
(2)饱和线性作用函数 (3)对称饱和线性作用函数

人工神经网络讲稿ppt课件

人工神经网络讲稿ppt课件

举例:2-3岁小孩能够从人群中认出父母、3-4岁能够顺利地穿过十字路 口,但最先进机器人也难以完成这项任务。
因而模仿人类思维方式能够提升机器人能力
人工神经网络讲稿
5/40
1.2 神经细胞与生物神经网络
1. 神经网络
组织形式 大脑中大约有100亿个神经元,它们相互连接,形成一个复杂庞大网络
系统。所以大脑结构是一个神经(元)网络。 依据预计,每个神经元大约与上千个神经元相互连接。 大脑所形成神经网络是由一些小网络连接而成。依据预计,全部神经元
层次结构:神经元联接按层次排列。 模块结构:主要特点是将整个网络按功效划分为不一样模块,每个模块 内部神经元紧密互联,并完成各自特定功效,模块之间再互联以完成整体功 效; 层次模块结构:将模块结构和层次结构结合起来,使之更靠近人脑神经 系统结构,这也是当前为人们广泛注意一个新型网络互联模式。 依据网络中神经元层数不一样,可将神经网络分为单层网络和多层网络; 依据同层网络神经元之间有没有相互联接以及后层神经元与前层神经元有 没有反馈作用不一样,可将神经网络分为以下各种。
Hopfield网络和BP算法出现,使得人工神经研究出现了复兴。因为人 工神经网络在信息处理方面优点,使得大批学者加入到了这一研究领域, 掀起了神经网络研究新高潮。
人工神经网络讲稿
13/40
4. 全方面发展时期(1987-现在) 1987年在美国召开了第一届国际神经网络学术大会,并宣告成立了
国际神经网络学会,与会代表1600多人。这次大会也宣告了神经网络 学科诞生。神经网络研究进入了一个转折点,其范围不停扩大,领域 几乎包含各个方面。神经网络应用使工业技术发生了很大改变,尤其 是在自动控制领域有了新突破。
互制约,从而能够将层内神经元分为几组,让每组作为一个整体来动作。

人工神经网络基本原理

人工神经网络基本原理

人工神经网络基本原理
人工神经网络(Artificial Neural Network,ANN)是一种模拟人类大脑神经元工作方式的计算模型,由多个神经元节点相互连接而成。

它可以通过学习和适应性调整来进行信息处理和模式识别。

人工神经网络由输入层、隐藏层和输出层组成。

输入层接受外部输入信号,隐藏层用于处理这些信号,输出层则给出最终的输出结果。

每个层中的神经元节点与下一层的节点相连接,并通过具有可调整权值的连接进行信息传递。

每个神经元节点接收到输入信号后,会对其进行加权求和,并通过激活函数将结果转换为输出信号。

在训练过程中,人工神经网络根据输入样本和期望输出进行学习。

通过调整连接权值,神经网络逐渐优化其输出结果,使得实际输出与期望输出之间的误差最小化。

这一过程称为反向传播算法,通过梯度下降的方式,不断更新权值以逼近最优解。

人工神经网络具有较强的非线性拟合能力和自适应学习能力,可以用于解决分类、回归、模式识别等各种问题。

它已经广泛应用于图像和语音识别、自然语言处理、金融预测、医学诊断等领域。

然而,人工神经网络也存在一些挑战和限制。

例如,过拟合问题会导致网络在训练集上表现良好但在测试集上表现较差;训练时间较长,且需要大量的训练数据和计算资源;网络结构的选择和调优需要经验和专业知识。

总的来说,人工神经网络是一种模拟人脑神经元工作方式的计算模型,具有强大的非线性拟合能力和自适应学习能力。

虽然存在一些挑战和限制,但它在许多领域中都有广泛应用和研究价值。

人工神经网络

人工神经网络

人工神经网络大脑是由约100亿个高度互联的神经元组成的,这些神经元构成一个协同处理的复杂网络结构,即神经网络,成为认知的物质与生理基础。

人工神经网络是模拟大脑构建的计算模型,由大量模拟神经元的处理单元——人工神经元构成,形成一个大规模的非线性自适应系统,拥有学习、记忆、计算以及智能处理能力,可以在一定程度上模拟人脑的信息储存、检索和处理能力。

6.1 感知机6.1.1 感知机模型1957年康奈尔大学的Rosenblatt提出了感知机的概念。

感知机模拟生物神经元,接收一个或者多个输入,处理后输出一个结果。

图6-1是感知机的示意图。

图6-1 感知机示意图感知机可以有一到多个输入,每个输入带有一个权重w,用来表示该输入的i和b构成了感知机的参数集合。

感知机重要程度,每个感知机有一个偏置b,wi计算输入的线性组合(或者叫作预激活)并将其交予激活函数f(a)得到输出y。

激活函数用于模拟生物神经元的激活与非激活状态,通常采用阶梯函数、sigmoid函数和分段线性函数及其变体。

图6-2给出了几种激活函数的定义和图形。

图6-2 几种激活函数6.1.2 感知机学习策略依据训练样本的数据确定wi 和b(不区分的时候统一记为θi)值的过程就是感知机的学习过程,其学习算法基于误差驱动。

首先,将未经学习的θi设置为0或者很小的随机值,然后对训练集中的每个样本进行分类预测,并根据预测结果更新参数值。

参数更新依据式(6-1)进行。

其中是样本j的实际类别;yj (t)是样本j的本次预测类别;xji是样本j的第i个特征;η是控制学习速率的超参数,叫作学习率。

显然,如果预测正确-yj(t)=0,则参数不需要更新,否则更新参数,这种更新规则类似于梯度下降算法。

学习遍历训练集中的每个样本称为一个训练周期(Epoch)。

如果在一个训练周期内对所有样本都分类正确,则模型达到收敛状态,停止训练;否则,进入下一周期,直至模型收敛,或者达到最大训练周期数。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

23
最常用的传递函数
Sigmoid 函数
最常用的传递函数
硬限函数(hard-limit)
阈值逻辑函数(threshold-logic)
感知器 Perceptron 问题:感知器只能解决一阶谓词逻辑问题,不能解决高阶问题。
26
多层感知器
3.反馈神经网络
反馈神经网络Back-Propagation Algorithm, LeCun 1986, Rumelhart, Hinton & Williams 1986
式中, xi(i=1,2,…,n)是输入,wi为该神经元与各输入间的连接权值,
为阈值,y为输出
22
感知器
• 连接权wij: wij>0,称为正连接,表示神经元uj对ui有激活作用 wij<0,称为负连接,表示神经元uj对ui有抑制作用 • 神经网络的各种学习算法的不同特点反映在调整权值的原则 、方法、步骤和迭代过程的参数选择上。 激励函数:通常选取下列函数之一:
15
【基础知识】
三个要素: 神经元的计算特性(传递函数) 网络的结构(连接形式) 学习规则
三要素的不同形成了各种各样的神经网模型,基本可分为三大类:
前馈网络
反馈网络 自组织网络(竞争学习网络)
前馈网络
Hebb 学习规则 基本思想:两个神经元同时兴奋时它们的连接应加强。
前馈网络典型结构
反馈网络
代表:Hopfield 网络 常用于:联想记忆(associative memory) 用于模式识别:可用于模板匹配、可用于特征选择中的优化问题。
环境
输入 神经网络
评价信息
【发展史】
1943年McCulloch(心理学家)和Pitts(数理逻辑学家)发表文章, 提出M-P模型。描述了一个简单的人工神经元模型的活动是服从二值 (兴奋和抑制)变化的。总结了神经元的基本生理特性,提出了神经 元的数学描述和网络的结构方法。—标志神经计算时代的开始 输出表达式 MP模型:
思路类似于先作向量量化(聚类),用 较少的代表点(子类)代表原样本空间,把 这些代表点进行分类。 ——LVQ(学习向量 量化) 与普通向量量化(C均值聚类)的不同: 所得到的代表点本身是有序的,且保持了所 代表的子集在原空间中相对关系。
SOM 用于非监督模式识别
自组织学习过程本身就是一个非监督学习过程SOMA(自组织分析) 基本思路: ① 用未知样本集训练SOM; ② 计算象密度图; ③ 根据象密度图划分聚类(把结点代表的小聚类合并)。 特点: 对数据分布形状少依赖性;可反映真实存在的聚类数 目,尤其适合人机合作分析(高维数据的有效二维显示) 数学上待研究的问题多: 象密度与样本分布密度之间的关系? 拓扑保持特性? 如何在SOM 平面上聚类?
神经网络的学习方法

神经网络的学习:从环境中获取知识并改进自身性能,主要指 调节网络参数使网络达到某种度量,又称为网络的训练。
学习方式:

监督学习
非监督学习 再励学习

学习规则:
误差纠正学习算法 竞争学习算法
监督学习

对训练样本集中的每一组输入能提供一组目标输出。

网络根据目标输出与实际输出误差信号来调节网络参数。
本章结束
Rosenblatt 于1950s末提出。
权值:
其中,d(t) 是向量x(t) 的正确输出。
21
感知器
神经元的工作过程:
步骤1:从各输入端接收输入信号xi 。
步骤2:根据各连接权值wi ,求出所有输入的加权和:
=ni=1wi xi - 步骤3:利用某一特征函数f进行变换,得到输出y:
y= f()=f(ni=1wi xi - )
当引入邻域相互作用后,出现自组织现象。
SOM 学习算法
SOM 用于模式识别的作法
Kohonen 芬兰语语音识别 ① 用一批(有代表性)的样本训练SOM,(自学习)使之出现自组织 特性,(形成对输入空间的映射); ② 用一批类别已知的样本(可以与训练样本集相同)去标定在SOM 上 的象,完成对各结点的分类; ③ 输入待识别样本,计算其象结点位置,用象类别标号确定样本类别
多层感知器与BP 算法(MLP&Back-Propagation Algorithm)
多层感知器结构
结点采用Sigmoid 函数
特性:可以实现任意复杂的非线性映射关系用于分类: 两层网(一个隐层)可实现空间内任意的凸形成区域的划分。 三层网(两个隐层)可实现任意形状(连续或不连续)区域划分。
BP 算法:
第9章 人工神经网络
主讲人:李君宝
哈尔滨工业大学
1.基础知识
2.前馈神经网络
3.反馈神经网络
4.自组织映射神经网络
1.基础知识
【基础知识】
自然神经网络的基本构成与特点
神经元(neuron): 细胞体(cell)、树突(dentrite)、轴突(axon)、突触(synapses)
1 y 0
x x
i i
– M-P模型能完成一定的逻辑运算。 – 第一个采用集体并行计算结构来描述人工神经元和网络工作。 – 为进一步的研究提供了依据 (可以完成布尔逻辑计算)
11
【发展史】
1949年Donala U.Hebb(心理学家)论著《The Organization of Behavior (行为自组织)》,提出突触联系强度可变的假设,认为学习的过程 最终发生在神经元之间的突触部位,突触的联系强度随着突触前后神 经元的活动而变化。 ——赫布规则 多用于自组织网络的学习。即:若两个神经元输出兴奋,则它们之间 的连接权加强,反之减少。
自组织网络
自组织神经网络是神经网络最富有魅力的研究领域之一. 它能够通过其输入样本检测其规律性和输入样本相互之间的关系, 并且根据这些输入样本的信息自适应调整网络,使网络以后的响应 与输入样本相适应。
2.前馈神经网络
感知器 Perceptron
基本神经元: 人工神经网络的神经元通常简化为一个多输入单输出非线性阈值器件:
输入层
竞争层
SOM神经网络平面示意图
几个名词: 象: 随着不断学习,对于某个输入向量,对应的winner 结点令逐步趋于固定, 这个结点称作该样本的象。 原象:若向量x 的象为结点i ,则x 为i 的一个原象。 象密度:同一结点上原象的数目,即有多少样本映射到该结点。 象密度图:按结点位置把象密度(相对值)画到一张图上。
神经系统的自组织功能
生物学研究的事实表明,在人脑
的感觉通道上,神经元的组织原理
是有序排列。因此当人脑通过感官 接受外界的特定时空信息时,大脑 皮层的特定区域兴奋,而且类似的 外界信息在对应区域是连续映象。 对于某一图形或某一频率的特定 兴奋过程,神经元的有序排列以及 对外界信息的连续映象是自组织特 征映射网中竞争机制生物学基础。
13
【发展史】
1986 年美国的一个平行计算研究小组提出了反馈神经网络的 Back
Propagation(BP)学习算法。 • 成为当今应用最广泛的方法之一。
• 该方法克服了感知器非线性不可分类问题,给神经网络研究带来
了新的希望。
y j f ( wij xi j )
iБайду номын сангаас1
n
f (u j )
1 u 1 e j
14
【发展史】
• 1990年汉森(L.K. Hansen)和萨拉蒙(P. Salamon)提出了神经网络集成
(neural network ensemble)方法。 证明: 可以简单地通过训练多个神经网络并将其结果进行拟合,显著地提 高神经网络系统的泛化能力。 神经网络集成可以定义为用有限个神经网络对同一问题进行学习。
BP 算法:
说明:算法可能收敛于局部极小点(梯度算法);与初值、步长 等的选择有关;更与网络结构(结点数目)有关。
BP 算法: 用于分类: 输入x——样本特征向量(必要时归一化) 输出Y ——类别编码
其它应用:函数拟合、时间序列预测、数据压缩,…… MLP网络也常称作BP 网。
4.自组织映射
自组织映射Self-Organizing Map 亦称SOFM。 Kohonen 提出(1980s)
SOM 特性
自组织特性: (1)在经过充分的学习之后,对用 于学习的样本集,每个样本有且只 有一个象(固定映射到某一结点), 但一个结点可能有多个原象(也可 能没有)。 (2)在原空间中距离相近的样本趋 于映射到相同或相近的象。 (3)结点象密度与其原象附近原空 间中的样本密度有某种单调关系。
SOM 特性
SOM神经网络结构
基本上为输入层和映射层的双层结构,映射层的神经元互相连接,每 个输出神经元连接至所有输入神经元 SOM网共有两层,输入层模拟 感知外界输入信息的视网膜,输出层模拟做出响应的大脑皮层。
36
SOM 特性
经过适当训练后,结点对输入的响应表现出一定的规律性,这些规律性
反映了输入样本集内部的一些特性(样本分布密度及样本间拓扑关系)。
• • • • 第一次把神经网络研究从纯理论的探讨推向工程实现, 在IBM704计算机上进行了模拟, 证明了该模型有能力通过调整权的学习达到正确分类的结果, 掀起了神经网络研究高潮。
y j f ( wij xi j )
i 1
n
1 f (u j ) 0
uj 0 uj 0
SOM 网结构
神经元呈平面分布(或其它空 间分布)输入向量的每一维连接到 每个结点结点间依分布位置关系而 有相互作用
神经元计算特性:向量匹配,与输入向量最佳匹配者称winner(计算 距离或内积) (最大响应)
自组织特征映射神经网络结构
由芬兰学者Teuvo Kohonen于1981年提出
相关文档
最新文档