ANN神经网络资料

合集下载

人工神经网络ANN方法简介

人工神经网络ANN方法简介
计算智能强调模型的建立和构成,强调系统的自组织、自 学习和自适应
计算智能的3个主要分支: 人工神经网络(模拟智能产生与作用赖以存在的结构) 遗传算法(模拟生命生成过程与智能进化过程) 模糊逻辑(模拟智能的表现行为)
3、 人工神经网络概述
生物神经元系统
人工神经网络是受生物神经网络的启发构造而成。
James(《心理学》,1890年) :大脑皮层每一点的活力产生 于其它点势能释放的综合效能,即其它点的兴奋次数、强度和 所接受的能量。
10 人工神经网络 (ANN)方法简介
§10.1 从生物神经元到人工神经网络
1、 生物神经系统和大脑的复杂性
生物系统是世界上最为复杂的系统。
生物神经系统活动和脑的功能,其复杂性是难以想象的。
大脑与神经细胞、神经细胞与神 经细胞构成了庞大天文数字量级的 高度复杂的网络系统。也正是有了 这样的复杂巨系统,大脑才能担负 起人类认识世界和改造世界的任务。
有向网
任意两个神经元间都可能存在有向联结。 网络处在动态中,直至达到某一平衡态、周期态或者混沌状态。
§10.2
感知器(Perceptron) ——人工神经网络的基本构件
1、 感知器的数学模型——MP模型
感知器(Perceptron):最早被设计并实现的人工神经网络。
W. McCulloch和W. Pitts总结生物神经元的基本生理特征,提出 一种简单的数学模型与构造方法,建立了阈值加权和模型,简 称M-P模型(“A Logical Calculus Immanent in Nervous Activity”, Bulletin of Mathematical Biophysics, 1943(5): 115~133)。
“进化主义学派”、“控制论学派”;

ANN

ANN
自联想 (Autoassociation) 给出向量模式xi , xi满足关系D(xi , x i) = min(x i, xj), 即xi含有x i的主要特征,其中D为某种度量,用以测量两 个模式的相似度.若由x i得到了xi ,即重新构造出xi ,则 称此构造过程为自联想过程. 异联想 (Heteroassociation) 给出向量模式xi .若由xi得到yi ,即实现了两种不同事 物之间的对应,则称这个对应过程为异联想过程.
联想的定义
计算步骤 (按内容寻找 ) 1. 学习阶段:形成W(与x1, x2 , … , xp有关) 2. 初始阶段:v(0)=x (假设输入x = xk) 3. 运行过程: v(t+1)=sgn(v(t) W) 4. 稳定输出: v= xk
LOC(x1) LOC(x2)
x11 x21 … xn1 x12 x22 … xn2 x 1k x 1p … x2k … xnk … x2p … xnp
x1 x2 C
C
DH (x1, x) DH (x2, x)

xk C
LOC(xk)
DH (xk, x)
选择

xp C
LOC(xp)
DH (xp, x) DH (xk, x)
输入 x
x1 x2 … xn
x
传统计算机存储及比较方法
x1 x2
wn1 wn2
w21 w12
v1(t) v2(t)
x1k x2k
神经网络的反向扩散学习算法
神经网络的反向扩散学习算法
神经网络的反向扩散学习算法
神经网络的反向扩散学习算法
神经网络的反向扩散学习算法
神经网络的反向扩散学习算法
神经网络的反向扩散学习算法

ann和rnn原理

ann和rnn原理

ann和rnn原理一、引言神经网络是人工智能领域中的一种重要工具,用于解决各种机器学习问题。

在神经网络中,循环神经网络(RNN)是一种重要的模型,而长短时记忆网络(LSTM)和门控循环单元(GRU)是RNN的两种重要变体。

本文将详细介绍Ann和RNN的原理,包括其基本概念、结构、训练方法和应用场景。

二、Ann原理Ann,即自注意力机制网络(Auto-Attention Network),是一种基于注意力机制的深度学习模型。

它通过在神经网络中引入注意力机制,使得模型能够更加关注输入序列中的重要部分,从而提高模型的表达能力和泛化能力。

1. 注意力机制注意力机制是一种通过为输入序列计算重要性得分,并以此为依据对输入序列进行加权的机制。

在Ann中,注意力机制通过自注意力机制(Self-Attention Mechanism)来实现,该机制能够将输入序列中的各个位置视为平等的注意目标,并计算它们之间的关联程度,从而实现对输入序列的加权组合。

2. Ann结构Ann主要由两个部分组成:编码器(Encoder)和自注意力层(Auto-Attention Layer)。

编码器负责将输入序列转换为表示序列,而自注意力层则通过计算输入序列中各个位置之间的关联程度,对输入序列进行加权组合,生成输出序列。

三、RNN原理循环神经网络(RNN)是一种具有反馈性的神经网络,能够处理具有时间依赖性的数据。

RNN包含一个或多个神经元,能够将当前输入和之前的状态结合起来进行计算,从而实现对输入数据的记忆和预测。

1. RNN结构RNN主要由输入层、隐藏层和输出层组成。

输入层负责接收输入数据,隐藏层通过一系列复杂的计算将输入数据与之前的状态结合起来,输出层则将隐藏层的结果作为输出。

RNN的这种结构使得它能够捕捉到时间序列数据中的长期依赖关系,因此在语音识别、自然语言处理、时间序列预测等任务中得到了广泛应用。

2. RNN训练方法RNN的训练方法主要包括反向传播算法和优化器。

【精品推荐】人工神经网络 PPT课件报告讲义

【精品推荐】人工神经网络  PPT课件报告讲义

y j w1 j x1 w2 j x2 wnj xn
(1)
通常理论值与实际值有一误差,网络学习则是指不断地把 与比较,并根据极小原则修改参数wpj,使误差平方和达最 小:
1 n min ( y ij oij ) 2 2 j1
(i=1,…,m)
(2)
• Delta学习规则:
wpj 表示递推一次的修改量,则有
从此用神经网络来识别语言和图象形成一个新的热潮.
【原创】定制代写 r/python/spss/matlab/WEKA/s as/sql/C++/stata/eviews 数据 挖 掘和统计分析可视化调研报告 等服务(附代码数据),咨询 邮箱: glttom@
有问题到淘宝找“大数据部落” 就可以了源自X ( x ,...,x )
i i 1
i T n
目标输出向量为(实际上的):
i i T Yi (y ,..., y ) 1 n
网络输出向量为 (理论上的)
i i T Oi (o1 ,...,on )
记 wpj 为从输入向量的第p(p=1,…,n) 个分量到输 出向量的第j(j=1,…,n)个分量的权重。
wpj wpj wpj
i i wpj ( yij oij ) xi p j xp
(3) 增 量 (4)

i j
称为学习的速率
y ij oij
2.多层前馈网络
(l)输入层不计在层数之内,它有n个神经元.设网络 共有L层;输出层为第L层;第 k层有 N k 个神经元. (2) 设 uk (i ) 表示第k层第i神经元所接收的信息 wk(i,j) 表示从第k-1层第j个元到第k层第i个元的权重,

小波神经网络(WNN)

小波神经网络(WNN)

⼩波神经⽹络(WNN)⼈⼯神经⽹络(ANN)是对⼈脑若⼲基本特性通过数学⽅法进⾏的抽象和模拟,是⼀种模仿⼈脑结构及其功能的⾮线性信息处理系统。

具有较强的⾮线性逼近功能和⾃学习、⾃适应、并⾏处理的特点,具有良好的容错能⼒。

⼈⼯神经元神经元是构成神经⽹络的最基本单元。

要想构造⼀个⼈⼯神经⽹络系统,⾸要任务是构造⼈⼯神经元模型。

⼀个⼈⼯神经⽹络的神经元模型和结构描述了⼀个⽹络如何将它的输⼊⽮量转换为输出⽮量的过程。

⼀个神经元有两个输⼊:输⼊向量p,阈值b,也叫偏差。

输⼊向量p通过与它相连的权值分量w相乘,求和后,形成激活函数f(.)的输⼊。

激活函数的另⼀个输⼊是神经元的阈值b。

权值w和输⼊p的矩阵形式可以由w的⾏⽮量以及p的列⽮量来表⽰:神经元模型的输出⽮量可以表⽰为:激活函数是⼀个神经元及⽹络的核⼼。

激活函数的基本作⽤是:1、控制输⼊对输出的激活作⽤;2、对输⼊、输出进⾏函数转换;3、将可能⽆限域的输⼊变换成指定的有限范围内的输出。

激活函数的常⽤类型:⼩波(wave/let):波-震荡,⼩-衰减速度⽐较快。

⼩波分析具有多分辨分析的特点,是⼀种窗⼝⼤⼩固定不变但其形状可以改变的分析⽅法,被称为信号的显微镜。

⼩波分析的种类:Haar⼩波规范正交基、Morlet⼩波、Mallat算法、多分辨分析、多尺度分析、紧⽀撑⼩波基、时频分析等。

⼩波神经⽹络(WNN)集⼈⼯神经⽹络和⼩波分析优点于⼀⾝,即使⽹络收敛速度快、避免陷⼊局部最优,⼜有时频局部分析的特点。

WNN是将神经⽹络隐结点的S函数由⼩波函数来代替,相应的输⼊层到隐含层的权值及隐含层的阈值分别由⼩波函数的尺度伸缩因⼦和时间平移因⼦所代替。

人工神经网络简介

人工神经网络简介

人工神经网络简介1 人工神经网络概念、特点及其原理 (1)1.1人工神经网络的概念 (1)1.2人工神经网络的特点及用途 (2)1.3人工神经网络的基本原理 (3)2 人工神经网络的分类及其运作过程 (5)2.1 人工神经网络模式的分类 (5)2.2 人工神经网络的运作过程 (6)3 人工神经网络基本模型介绍 (6)3.1感知器 (7)3.2线性神经网络 (7)3.3BP(Back Propagation)网络 (7)3.4径向基函数网络 (8)3.5反馈性神经网络 (8)3.6竞争型神经网络 (8)1 人工神经网络概念、特点及其原理人工神经网络(Artificial Neural Networks,简记作ANN),是对人类大脑系统的一阶特征的一种描述。

简单地讲,它是一个数学模型,可以用电子线路来实现,也可以用计算机程序来模拟,是人工智能研究的一种方法。

1.1人工神经网络的概念利用机器模仿人类的智能是长期以来人们认识自然、改造自然的理想。

自从有了能够存储信息、进行数值运算和逻辑运算的电子计算机以来,其功能和性能得到了不断的发展,使机器智能的研究与开发日益受到人们的重视。

1956年J.McCart冲等人提出了人工智能的概念,从而形成了一个与神经生理科学、认知科学、数理科学、信息论与计算机科学等密切相关的交叉学科。

人工神经网络是人工智能的一部分,提出于50年代,兴起于80年代中期,近些年已经成为各领域科学家们竞相研究的热点。

人工神经网络是人脑及其活动的一个理论化的数学模型,它由大量的处理单元通过适当的方式互联构成,是一个大规模的非线性自适应系统,1998年Hecht-Nielsen曾经给人工神经网络下了如下定义:人工神经网络是一个并行、分层处理单元及称为联接的无向信号通道互连而成。

这些处理单元(PE-Processing Element)具有局部内存,并可以完成局部操作。

每个处理单元有一个单一的输出联接,这个输出可以根据需要被分支撑希望个数的许多并联联接,且这些并联联接都输出相同的信号,即相应处理单元的信号。

人工智能神经网络

人工智能神经网络

人工智能神经网络人工智能神经网络(Artificial Neural Networks,ANN)是一种模拟人脑神经网络的计算模型。

它由一些简单的单元(神经元)组成,每个神经元都接收一些输入,并生成相关的输出。

神经元之间通过一些连接(权重)相互作用,以完成某些任务。

神经元神经元是神经网络中的基本单元,每个神经元都有多个输入和一个输出。

输入传递到神经元中,通过一些计算生成输出。

在人工神经网络中,神经元的模型是将所有输入加权求和,将权重乘以输入值并加上偏差值(bias),然后将结果带入激活函数中。

激活函数决定神经元的输出。

不同类型的神经元使用不同的激活函数,如Sigmond函数、ReLU函数等。

每个神经元的输出可以是其他神经元的输入,这些连接和权重形成了一个图,即神经网络。

神经网络神经网络是一种由多个神经元组成的计算模型。

它以输入作为网络的初始状态,将信息传递到网络的每个神经元中,并通过训练来调整连接和权重值,以产生期望的输出。

神经网络的目的是通过学习输入和输出之间的关系来预测新数据的输出。

神经网络的设计采用层次结构,它由不同数量、形式和顺序的神经元组成。

最简单的网络模型是单层感知器模型,它只有一个神经元层。

多层神经网络模型包括两种基本结构:前向传播神经网络和循环神经网络。

前向传播神经网络也称为一次性神经网络,通过将输入传递到一个或多个隐藏层,并生成输出。

循环神经网络采用时间序列的概念,它的输出不仅与当前的输入有关,还与以前的输入有关。

训练训练神经网络是调整其连接和权重值以达到期望输出的过程。

训练的目的是最小化训练误差,也称为损失函数。

训练误差是神经网络输出与期望输出之间的差异。

通过训练,可以将网络中的权重和偏置调整到最佳值,以最大程度地减小训练误差。

神经网络的训练过程通常有两种主要方法:1.前向传播: 在此方法中,神经网络的输入通过网络经过一种学习算法来逐步计算,调整每个神经元的权重和偏置,以尽可能地减小误差。

《ANN神经网络》课件

《ANN神经网络》课件

神经网络的训练过程和算法
1 BP算法
2 Adam算法
通过反向传播算法,根据输出误差和梯度下 降法更新网络参数,目标是最小化误差函数。
结合了Ad ag r ad 和RM Sp ro p 优点的一种有效 的优化算法,自适应的调节学习率,以加快 训练速度。
神经网络的激活函数和正则化方法
激活函数
每个神经元的输出需要通过激活函数进行非线性映 射,目前比较流行的有sig mo id 、t an h 和ReLU等。
神经元和生物神经元的异同
1 神经元
是神经网络的基本单位,是一种用于计算的抽象模型,只有输入和输出,以及需要学习 的权重和偏置。
2 生物神经元
是神经系统的基本单位,由轴突、树突、细胞体和突触等结构组成,与其他神经元具有 复杂的生物学表现和相互作用。
神经网络的优势和局限性
优势
具有自主学习、自适应、非线性和可并行处理等优 势,能够处理高维度数据和复杂的非线性问题。
参考文献和拓展阅读建议
参考文献: 1. Bishop, C. M . (1995). Neural Networks for Pattern Recognition. Oxford University Press. 2. Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning. M IT Press. 3. LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep Learning. Nature, 521, 436-444. 拓展阅读建议: 1. 《深度学习》白板推导与Python实战 2. 《Python深度学习》实践指南 3. 《自然语言处理综论》 4. 《计算机视觉综论》
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

脉冲与电位转换
突触界面具有脉冲/电位信号转换功能。沿神经纤维传递 的电脉冲为等幅、恒宽、编码(60~100mV)的离散脉冲信 号,而细胞膜电位变化为连续的电位信号。在突触接口处 进行“数/模”转换,是通过神经介质以量子化学方式实 现的变换过程;
神经纤维传导速度
神经冲动沿神经纤维传导的速度在1~50m/s之间, 因纤维特性不同而不同,粗纤维的传导速度在 100m/s,细纤维的传导速度可低至每秒数米;
突触延时和不应期
突触对神经冲动的传递具有延时和不应期。在相 邻的两次冲动之间需要一个时间间隔,即为不应 期,在此期间对激励不响应,不能传递神经冲动;
学习、遗忘和疲劳
由于结构可塑性,突触的传递作用可增强、减弱、 饱和,所以细胞具有相应的学习功能,遗忘或疲 劳效应。
2.1.2 ANN的结构
神经网络是一个并行和分布式的信息处理网络结构
计算智能的主要方法有人工神经网络、遗传算法、遗 传程序、演化程序、局部搜索、模拟退火等等。
这些方法具有以下共同的要素:自适应的结构、随机 产生的或指定的初始状态、适应度的评测函数、修改 结构的操作、系统状态存储器、终止计算的条件、指 示结果的方法、控制过程的参数。
计算智能的这些方法具有自学习、自组织、自适应的 特征和简单、通用、鲁棒性强、适于并行处理的优点。 在并行搜索、联想记忆、模式识别、知识自动获取等 方面得到了广泛的应用。
用网络的实际输出A1,A2,…,Aq, 与目标矢量 T1,T2,…,Tq之间的误差修改其权值,使Am与期望的 Tm,(m=l,…,q)尽可能接近
学习规则
BP算法是由两部分组成,信息的正向传递与误差的反 向传播
正向传播过程中,输入信息从输入层经隐含层逐层计算传 向输出层,每一层神经元的状态只影响下一层神经元的状 态
网络训练
训练BP网络,需要计算网络加权输入矢量以及网络 输出和误差矢量,然后求误差平方和
当所训练矢量的误差平方和小于误差目标,训练停 止;否则在输出层计算误差变化,且采用反向传播 学习规则来调整权值,然后重复此过程
网络完成训练后,对网络输入一个不是训练集合中 的矢量,网络将以泛化方式给出输出结果
Hebb学习规则是人工神经网络学习的基本规则, 几乎所有神经网络的学习规则都可以看作Hebb学 习规则的变形
误差校正规则
用已知样本作为教师信号对网络进行学习 学习规则可由二次误差函数的梯度法导出 误差校正学习规则实际上是一种梯度方法
不能保证得到全局最优解 要求大量训练样本,收敛速度慢 对样本地表示次序变化比较敏感
2.1.4 BP网络
反向传播网络(Back-Propagation Network,简 称BP网络)是对非线性可微分函数进行权值训练 的多层网络
权值的调整采用反向传播(Back-propagation) 的学习算法
它是一种多层前向反馈神经网络,其神经元的 变换函数是S型函数
输出量为0到1之间的连续量,它可实现从输入 到输出的任意的非线性映射
变量表达:计算网络各层输出矢量A1和A2以及网络 误差E
A1=tansig(W1*P,B1); A2=purelin(W2*A1,B2); E=T-A;
权值修正:计算各层反传的误差变化D2和D1并计算 各层权值的修正值以及新权值:
D2=deltalin(A2,E); D1=deltatan(A1,D2,W2); [dlWl,dBl]=learnbp(P,D1,lr); [dW2,dB2]=1earnbp(A1,D2,1r); W1=W1十dW1;B1=B1十dBl; W2=W2十dW2;B2=B2十dB2
典型的代表如遗传算法、免疫算法、模拟退火 算法、蚁群算法、微粒群算法,都是一种仿生 算法,基于“从大自然中获取智慧”的理念, 通过人们对自然界独特规律的认知,提取出适 合获取知识的一套计算工具。总的来说,通过 自适应学习的特性,这些算法达到了全局优化 的目的。
单元二 人工神经网络及应用
ANN的基本原理 BP网络及应用
隐含层越多,网络输出精度越高,且个别权因子的损坏不 会对网络输出产生大的影响
只有当希望对网络的输出进行限制,如限制在0和1之间, 那么在输出层应当包含S型激活函数
在一般情况下,均是在隐含层采用S型激活函数,而输出层 采用线性激活函数
S型函数具有非线性放大系数功能,可以把输入从负无穷大到正 无穷大的信号,变换成-1到l之间输出
泛化性能只对被训练的输入/输出对最大值范围内的数据 有效,即网络具有内插值特性,不具有外插值性。超出最 大训练值的输入必将产生大的输出误差
一个具有r个输入和一个隐含层的神经网络模型结构
网络模型
感知器和自适应线性元件的主要差别在激活函数上: 前者是二值型的,后者是线性的
BP网络具有一层或多层隐含层,除了在多层网络上 与前面已介绍过的模型有不同外,其主要差别也表 现在激活函数上。
计算智能是以生物进化的观点认识和模拟智能。按照这一观点, 智能是在生物的遗传、变异、生长以及外部环境的自然选择中产 生的。在用进废退、优胜劣汰的过程中,适应度高的(头脑)结 构被保存下来,智能水平也随之提高。因此说计算智能就是基于 结构演化的智能。
在概念提出初期,狭义的计算智能包括人工神经网络、模糊逻辑和进化 计算。
BP网络主要用于下述方面
函数逼近:用输入矢量和相应的输出矢量训练一个 网络逼近一个函数
模式识别和分类:用一个特定的输出矢量将它与输 入矢量联系起来;把输入矢量以所定义的合适方式 进行分类;
数据压缩:减少输出矢量维数以便于传输或存储
具有将强泛化性能:使网络平滑地学习函数,使网络能够 合理地响应被训练以外的输入
2.1 ANN基本原理
2.1.1 生物神经元
神经元是大脑处理信息的基本单元 人脑大约由1011个神经元组成,神经元互相连接成神经网

生物神经元简图
生物神经元传递信息的过程为多输入、单输出
神经元各组成部分的功能来看,信息的处理与传递主 要发生在突触附近
当神经元细胞体通过轴突传到突触前膜的脉冲幅度达 到一定强度,即超过其阈值电位后,突触前膜将向突 触间隙释放神经传递的化学物质
如果在输出层未得到期望的输出,则计算输出层的误差变 化值,然后转向反向传播,通过网络将误差信号沿原来的 连接通路反传回来修改各层神经元的权值直至达到期望目 标
假设输入为P,输入神经元有r个,隐含层内有s1个神经元,激活 函数为F1,输出层内有s2个神经元,对应的激活函数为F2,输出 为A,目标矢量为T
早期符号智能对人工智能的发展起到了重要的推动作用, 但随着科技的发展,复杂性问题的大量涌现,这些方法在 处理非线性、不确定等复杂性问题时显得无能为力。
计算智能(Computation Intelligence, CI)技术就是在这 一背景下发展起来的。
计算智能的最大特点就是不需要建立问题本身精确的数学模型,侧重从 数据中学习,非常适合于处理那些因为难以建立有效的形式化模型而用 传统人工智能方法难以解决的问题。
无监督的学习规则
ij (vi ij )
这类学习不在于寻找一个特殊映射的表示,而 是将事件空间分类为输入活动区域,并有选择 地对这些区域响应,从而调整参数一反映观察 事件的分部
输入可以是连续值,对噪声有较强地抗干扰能 力
对较少输入样本,结果可能要依赖于输入序列
2.1.3 人工神经网络在数学建模中的应用领域 回归与预测 模式识别(分类) 联想记忆与学习
对较大的输入信号,放大系数较小;而对较小的输入信号,放大 系数则较大
采用S型激活函数可以处理和逼近非线性输入/输出关系
学习规则
BP算法是一种监督式的学习算法
主要思想
对于q个输入学习样本:P1,P2,…,Pq,已知与其对应 的输出样本为:T1,T2,…,Tq
使网络输出层的误差平方和达到最小
一般由大量神经元组成
每个神经元只有一个输出,可以连接到很多其他的神经 元
每个神经元输入有多个连接通道,每个连接通道对应于 一个连接权系数
人工神经元模型
激励函数
求和
激励函数的基本作用
控制输入对输出的激活作用 对输入、输出进行函数转换 将可能无限域的输入变换成指定的有限范围内的输
突触有两种类型,兴奋性突触和抑制性突触。前者产 生正突触后电位,后者产生负突触后电位
特点:
时空整合功能
神经元对于不同时间通过同一突触传入的神经冲动, 具有时间整合功能;对于同一时间通过不同突触传入的 神经冲动,具有空间整合功能。两种功能相互结合,具 有时空整合的输入信息处理功能,所谓整合是指抑制或 兴奋的受体电位或突触电位的代数和;
人工智能(Artificial Intelligence, AI)是另一 层次的智能,研究如何 制造出人造的智能机器 或智能系统,来模拟人 类的智能活动。
1956年Dartmouth大学 研讨会上将“人工智能” 定义为“试图用来模仿 与智能有关的人类活动 的计算机过程”。
传统的人工智能偏重与符号处理与逻辑推理,因此又称为 符号智能(Symbolism Intelligence, SI)。
信息的正向传递
隐含层中第i个神经元的输出
输出层第k个神经元的输出
定义误差函数
利用梯度下降法求权值变化及误差的反向传播
输出层的权值变化
其中 同理可得
利用梯度下降法求权值变化及误差的反向传播
隐含层权值变化
其中
同理可得
对于f1为对数S型激活函数, 对于f2为线性激活函数
计算权值修正后误差平方和
SSE=sumsqr(T-purelin(W2*tansig(W1*P,B1),B2))
相关文档
最新文档