第3章神经网络3-径向基函数网络(n)
径向基函数神经网络模型及其在预测系统中的应用

径向基函数神经网络模型及其在预测系统中的应用传统的神经网络模型在处理非线性问题时存在一定的限制,而径向基函数神经网络(Radial Basis Function Neural Network,RBFNN)模型则能够有效地处理这类问题。
本文将介绍径向基函数神经网络模型的基本原理,并探讨其在预测系统中的应用。
1. 径向基函数神经网络模型的基本原理径向基函数神经网络模型是一种三层前馈神经网络,包含输入层、隐含层和输出层。
该模型通过将输入向量映射到高维特征空间,并利用径向基函数对输入数据进行非线性变换。
其基本原理如下:1.1 输入层:输入层接收原始数据,并将其传递给隐含层。
1.2 隐含层:隐含层中的神经元使用径向基函数对输入数据进行非线性变换。
径向基函数通常采用高斯函数,其形式为:φ(x) = exp(-(x-c)^2/2σ^2)其中,x为输入向量,c为径向基函数的中心,σ为径向基函数的宽度。
隐含层神经元的输出由径向基函数计算得到,表示了输入数据距离每个径向基函数中心的相似度。
1.3 输出层:输出层根据隐含层的输出和相应的权值进行计算,并生成最终的预测结果。
2. 径向基函数神经网络模型在预测系统中的应用径向基函数神经网络模型在各种预测系统中具有广泛的应用,包括金融预测、气象预测、股票价格预测等。
2.1 金融预测径向基函数神经网络模型能够对金融市场进行有效预测,例如股票价格、外汇汇率等。
通过输入历史数据,可以训练神经网络模型,利用其中的非线性变换能力来预测未来的价格走势。
实验表明,基于径向基函数神经网络模型的金融预测系统能够提供较高的准确度和稳定性。
2.2 气象预测径向基函数神经网络模型在气象预测中的应用也取得了良好的效果。
通过输入历史气象数据,神经网络模型可以学习到不同变量之间的关系,并预测未来的天气情况。
与传统的统计模型相比,径向基函数神经网络模型能够更好地捕捉到非线性因素对气象变化的影响,提高了预测的准确性。
深度学习原理与TensorFlow实践 第3章 神经网络

深度学习原理与Tensorflow实践
生物神经元
3.3
神经网络基础知识—MP模型
深度学习原理与Tensorflow实践
MP模型示意图
3.4
神经网络基础知识—MP模型
深度学习原理与Tensorflow实践
3.5
神经网络基础知识—MP模型
深度学习原理与Tensorflow实践
3.6
神经网络基础知识—感知机
3.9
神经网络基础知识—梯度下降法
梯度是一个向量(矢量),表示某一函数在该点处的方向导数沿着该方向取得最大值,即函 数在该点处沿着该方向(此梯度的方向)变化最快,变化率最大。
深度学习原理与Tensorflow实践
3.10
神经网络基础知识—梯度下降法
深度学习原理与Tensorflow实践
3.11
深度学习原理与Tensorflow实践
3.14
神经网络基础知识—三层感知机
三层感知机神经网络。 其中 L1层是输入层, L2层是隐含层, L3层是输出 层。与两层感知机不同的是三层感知机神经网络增加了隐含层。
深度学习原理与Tensorflow实践
3.15
神经网络基础知识—万能逼近定理
Cybenko等于1989年证明了具有隐含层(最少一层)感知机神经网络 在激励函数(也称激活函数)为sigmoid函数的情况下具有逼近任何函数 的作用。Hornik 等在1991年更加证明激励函数为任何非常数函数的情 况同样适用。这就是著名的万能逼近定理(universal approximation theorem)。也就是一个仅有单隐藏层的神经网络, 在神经元个数足够 多的情况下,通过非线性的激活函数,足以拟合任意函数。
神经网络(NeuralNetwork)

神经⽹络(NeuralNetwork)⼀、激活函数激活函数也称为响应函数,⽤于处理神经元的输出,理想的激活函数如阶跃函数,Sigmoid函数也常常作为激活函数使⽤。
在阶跃函数中,1表⽰神经元处于兴奋状态,0表⽰神经元处于抑制状态。
⼆、感知机感知机是两层神经元组成的神经⽹络,感知机的权重调整⽅式如下所⽰:按照正常思路w i+△w i是正常y的取值,w i是y'的取值,所以两者做差,增减性应当同(y-y')x i⼀致。
参数η是⼀个取值区间在(0,1)的任意数,称为学习率。
如果预测正确,感知机不发⽣变化,否则会根据错误的程度进⾏调整。
不妨这样假设⼀下,预测值不准确,说明Δw有偏差,⽆理x正负与否,w的变化应当和(y-y')x i⼀致,分情况讨论⼀下即可,x为负数,当预测值增加的时候,权值应当也增加,⽤来降低预测值,当预测值减少的时候,权值应当也减少,⽤来提⾼预测值;x为正数,当预测值增加的时候,权值应当减少,⽤来降低预测值,反之亦然。
(y-y')是出现的误差,负数对应下调,正数对应上调,乘上基数就是调整情况,因为基数的正负不影响调整情况,毕竟负数上调需要减少w的值。
感知机只有输出层神经元进⾏激活函数处理,即只拥有⼀层功能的神经元,其学习能⼒可以说是⾮常有限了。
如果对于两参数据,他们是线性可分的,那么感知机的学习过程会逐步收敛,但是对于线性不可分的问题,学习过程将会产⽣震荡,不断地左右进⾏摇摆,⽽⽆法恒定在⼀个可靠地线性准则中。
三、多层⽹络使⽤多层感知机就能够解决线性不可分的问题,输出层和输⼊层之间的成为隐层/隐含层,它和输出层⼀样都是拥有激活函数的功能神经元。
神经元之间不存在同层连接,也不存在跨层连接,这种神经⽹络结构称为多层前馈神经⽹络。
换⾔之,神经⽹络的训练重点就是链接权值和阈值当中。
四、误差逆传播算法误差逆传播算法换⾔之BP(BackPropagation)算法,BP算法不仅可以⽤于多层前馈神经⽹络,还可以⽤于其他⽅⾯,但是单单提起BP算法,训练的⾃然是多层前馈神经⽹络。
径向基函数神经网络和近红外光谱用于大黄中有效成分的定量预测

收 稿 日期 :20 —23 。修 订 日期 :2 0 —32 0 51 —0 0 60 —8
入层 、一个隐含层和输出层组成 , 入层节点 只传递输 入信 输 号到 隐含层 ,隐含层 节点由像 高斯函数那样的辐射状作 用函 数构 成 , 而输出层节点通常是简单 的线 性 函数 。高斯 函数具
、
引 言
大黄 ( h br ) R u ab 是我 国重 要 的传 统 中药之一 ,它 的 医药
应用可追溯到几千年前 , 有关其化学成 分的研究则是从 1 但 9 世纪初开 始的。到 目前为止 , 人们 已知的 主要有效成 分及其
相结合 , 4 对 2种大黄 样品中的主要有效成分 : 蒽醌类化合物
芪甙类 ,包括 土大黄甙 等 , 具有雌性激素样作用 ;( ) 4 苯丁酮 甙类 , 包括莲花掌 甙类等 ,具有抗炎 、 痛等作用 ;( ) 镇 5 鞣质
类 ,包括 ( -) 茶 素 、没食子酸 等 , 有降低血 清尿 素氮 +) L 具 等作用 。
国内外有 关大黄的分离及定量测定的研究 很多 ,常见的 方法有 : 薄层 色谱法 ( L ) 高效液 相色谱法 ( I ) ] T CE , HPC [ , 3
1 基本原理
近红外光谱是介于可见区和中红 外区间 的电磁 波 , 国 美 试验和材料协会( T 规定其波长范围为 7 0 0 I。 AS M) 0  ̄25 0nn NI R光谱属 分子 振 动 光谱 ,主要 反映 了含氢 基 团 ( CH, 如 0H, H和 NH) S 的特征信息。NI R光谱 的优点有 :可以使用 较长的光程 ; 复性 易控 制 ;抗 干扰性 好 ;可 由光 纤传 导 , 重 便于在线测量 。 另一方 面 , R光谱谱 带严重 重叠 , 于组 NI 对
神经网络

RBF神经网络学习算法需要求解的参数有3个:
基函数的中心、隐含层到输出层权值以及节点基 宽参数。根据径向基函数中心选取方法不同, RBF网络有多种学习方法,如梯度下降法、随机 选取中心法、自组织选区中心法、有监督选区中
心法和正交最小二乘法等。下面根据梯度下降法
,输出权、节点中心及节点基宽参数的迭代算法 如下。
讲 课 内 容
神经网络的概述与发展历史 什么是神经网络 BP神经网络 RBF神经网络 Hopfield神经网络
1.神经网络概述与发展历史
神经网络(Neural Networks,NN)是由大量的、 简单的处理单元(称为神经元)广泛地互相连接 而形成的复杂网络系统,它反映了人脑功能的许 多基本特征,是一个高度复杂的非线性动力学习 系统。 神经网络具有大规模并行、分布式存储和处理、 自组织、自适应和自学能力,特别适合处理需要 同时考虑许多因素和条件的、不精确和模糊的信 息处理问题。
4.RBF神经网络
使用RBF网络逼近下列对象:
2 F 20 x1 10cos2x1 x2 10cos2x2 2
4.RBF神经网络
RBF网络的优点:
神经网络有很强的非线性拟合能力,可映射任意复杂的非线 性关系,而且学习规则简单,便于计算机实现。具有很强 的鲁棒性、记忆能力、非线性映射能力以及强大的自学习 能力,因此有很大的应用市场。 ① 它具有唯一最佳逼近的特性,且无局部极小问题存在。
1.自学习和自适应性。
由于神经元之间的相对 决定的。每个神经元都可以根据接受 5.分布式存储。 独立性,神经网络学习的 到的信息进行独立运算和处理,并输 “知识”不是集中存储在网 出结构。同一层的不同神经元可以同 络的某一处,而是分布在网 时进行运算,然后传输到下一层进行 络的所有连接权值中。 处理。因此,神经网络往往能发挥并 行计算的优势,大大提升运算速度。
径向基函数(RBF)神经网络

径向基函数(RBF)神经⽹络RBF⽹络能够逼近任意的⾮线性函数,可以处理系统内的难以解析的规律性,具有良好的泛化能⼒,并有很快的学习收敛速度,已成功应⽤于⾮线性函数逼近、时间序列分析、数据分类、模式识别、信息处理、图像处理、系统建模、控制和故障诊断等。
简单说明⼀下为什么RBF⽹络学习收敛得⽐较快。
当⽹络的⼀个或多个可调参数(权值或阈值)对任何⼀个输出都有影响时,这样的⽹络称为全局逼近⽹络。
由于对于每次输⼊,⽹络上的每⼀个权值都要调整,从⽽导致全局逼近⽹络的学习速度很慢。
BP⽹络就是⼀个典型的例⼦。
如果对于输⼊空间的某个局部区域只有少数⼏个连接权值影响输出,则该⽹络称为局部逼近⽹络。
常见的局部逼近⽹络有RBF⽹络、⼩脑模型(CMAC)⽹络、B样条⽹络等。
径向基函数解决插值问题完全内插法要求插值函数经过每个样本点,即。
样本点总共有P个。
RBF的⽅法是要选择P个基函数,每个基函数对应⼀个训练数据,各基函数形式为,由于距离是径向同性的,因此称为径向基函数。
||X-X p||表⽰差向量的模,或者叫2范数。
基于为径向基函数的插值函数为:输⼊X是个m维的向量,样本容量为P,P>m。
可以看到输⼊数据点X p是径向基函数φp的中⼼。
隐藏层的作⽤是把向量从低维m映射到⾼维P,低维线性不可分的情况到⾼维就线性可分了。
将插值条件代⼊:写成向量的形式为,显然Φ是个规模这P对称矩阵,且与X的维度⽆关,当Φ可逆时,有。
对于⼀⼤类函数,当输⼊的X各不相同时,Φ就是可逆的。
下⾯的⼏个函数就属于这“⼀⼤类”函数:1)Gauss(⾼斯)函数2)Reflected Sigmoidal(反常S型)函数3)Inverse multiquadrics(拟多⼆次)函数σ称为径向基函数的扩展常数,它反应了函数图像的宽度,σ越⼩,宽度越窄,函数越具有选择性。
完全内插存在⼀些问题:1)插值曲⾯必须经过所有样本点,当样本中包含噪声时,神经⽹络将拟合出⼀个错误的曲⾯,从⽽使泛化能⼒下降。
神经网络

神经网络的应用—— 神经网络的应用 ATM的流量控制 的流量控制
峰峰峰输峰PCR 可可可峰输峰SCR 最最最最最最MBS
T=m
延 网网流 时 器
T=m-1 T=m-2
T=m-n+1
输 输 网 网 预 测 器
T=m+1 T=m+5 . . .
输 输 网 网 控 控 器
控控控出
பைடு நூலகம்
神经网络连接允许模型
神经网络的应用—— 神经网络的应用 ATM的流量控制 的流量控制
竞争学习网络
无监督学习网络只根据输入模式来更新权值。竞 无监督学习网络只根据输入模式来更新权值。 争学习是这种类型网络最普遍学习方法
w11
x1 x2 x3
1 2 3 4
w34
输出单元
输入单元
自组织神经网络
在接受外界输入时,将会分成不同的区域,不同 在接受外界输入时,将会分成不同的区域, 的区域对不同的模式具有不同的响应特征 特征图,它实际上是一种非线性映射关系。由于 特征图,它实际上是一种非线性映射关系。 这种映射是通过无监督的自适应过程完成的, 这种映射是通过无监督的自适应过程完成的,所 以也称它为自组织特征图
Hopfield神经网络 神经网络
J. J. Hopfield提出了神经网络能量函数(也称李 提出了神经网络能量函数( 提出了神经网络能量函数 雅普诺夫函数)的概念, 雅普诺夫函数)的概念,使网络的运行稳定性判 断有了可靠而简便的依据 Hopfield 网络在联想存贮及优化计算等领域得到 Hopfield网络在联想存贮及优化计算等领域得到 了成功的应用, 了成功的应用,拓宽了神经网络的应用范围 另外 , Hopfield网络还有一个显著的优点 , 即它 另外, 网络还有一个显著的优点, 网络还有一个显著的优点 与电子电路存在明显的对应关系, 与电子电路存在明显的对应关系,使得该网络易 于理解和便于实现 通常 通常Hopfield网络有两种实用形式 , 即离散型 网络有两种实用形式, 网络有两种实用形式 Hopfield网络和连续型 网络和连续型Hopfield网络 网络和连续型 网络
径向基函数神经网络课件

小批量梯度下降算法
01
总结词
小批量梯度下降算法是一种折中的方法,每次使用一小批 样本来更新模型参数,既保持了计算量小的优点,又提高 了模型的稳定性。
02 03
详细描述
小批量梯度下降算法的核心思想是在每次迭代时,随机选 择一小批样本来计算损失函数,并使用梯度下降法或其他 优化方法来更新模型参数。这种方法可以平衡计算量和训 练时间的关系,同时提高模型的稳定性。
径向基函数神经网络课件
目 录
• 径向基函数神经网络概述 • 径向基函数神经网络的基本结构 • 径向基函数神经网络的学习算法 • 径向基函数神经网络的优化策略 • 径向基函数神经网络的实现细节 • 径向基函数神经网络的实例展示 • 总结与展望
01
径向基函数神经网络概述
神经网络简介
神经网络的定义
神经网络是一种模拟人脑神经元网络结构的计算模型,通过学习样 本数据来自动提取特征和规律,并完成分类、回归等任务。
02 03
详细描述
随机梯度下降算法的核心思想是在每次迭代时,随机选择一个样本来计 算损失函数,并使用梯度下降法或其他优化方法来更新模型参数。这种 方法可以大大减少计算量和训练时间。
优缺点
随机梯度下降算法的优点是计算量小,训练时间短,适用于大规模数据 集。但是,由于只使用一个样本进行更新,可能会造成模型训练的不稳 定,有时会出现训练效果不佳的情况。
2
输出层的节点数通常与输出数据的维度相等。
3
输出层的激活函数通常采用线性函数或softmax 函数。
训练过程
01
神经网络的训练过程是通过反向 传播算法实现的。
02
通过计算损失函数对网络权重的 梯度,更新权重以减小损失函数
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
第三章径向基函数网络 (44)3.1 径向基函数(Redial Basis Function,RBF) (44)3.2 径向基函数参数的选取 (46)c的选取 (46)3.2.1 基函数中心p3.2.2权系数 的确定 (47)3.3 高斯条函数 (48))(1)(ph Pp p λx g ϕ∑==第三章 径向基函数网络径向基函数网络利用具有局部隆起的所谓径向基函数来做逼近或分类问题。
它可以看作是一种前馈网络,所处理的信息在工作过程中逐层向前流动。
虽然它也可以像BP 网络那样利用训练样本作有教师学习,但是其更典型更常用的学习方法则与BP 网络有所不同,综合利用了有教师学习和无教师学习两种方法。
对于某些问题,径向基函数网络可能比BP 网络精度更高。
3.1 径向基函数(Redial Basis Function ,RBF )[Powell 1985]提出了多变量插值的径向基函数方法。
稍后[Broomhead 1988]成功地将径向基函数用于模式识别。
径向基函数可以写成||)1(||)(∑=-=Pp p c x p x g ϕλ (3.1.1) 其中N R x ∈表示模式向量;NP p p R c ⊂=1}{ 是基函数中心;j λ是权系数;ϕ是选定的非线性基函数。
(3.1.1)可以看作是一个神经网络,输入层有N 个单元,输入模式向量x 由此进入网络。
隐层有P 个单元,第p 个单元的输入为||||p p c x h -=,输出为)(p h ϕ。
输出层1个单元,输出为 。
假设给定了一组训练样本11},{R R y x N J j j j ⨯⊂=。
当j y 只取有限个值(例如,取0,1或±1)时,可以认为是分类问题;而当j y 可取任意实数时,视为逼近问题。
网络学习(或训练)的任务就是利用训练样本来确定输入层到隐层的权向量p c 和隐层到输出层的权系数p λ,使得J j y x g j j ,,1 ,)( == (3.1.2)为此,当P J =时,可以简单地令P p x c p p ,,1 , == (3.1.3)这时(3.1.2)成为关于{}p λ的线性方程组,其系数矩阵通常可逆,因此有唯一解(参见[MC])。
在实践中更多的情况是P J >。
这时, (3.1.2)一般无解, 只能求近似解。
我们将在下一节详细讨论这种情况。
常用的非线性基函数有以下几种:1) 高斯基函数 确定了}{p c 后,可以选取如下的高斯基函数来构造径向基函数:)()(1x x g Pp p p ∑==ϕλ (3.1.4a)式中∑==Pq q p p x R x R x 1)()()(ϕ (3.1.4b))2||||exp()(22pp p c x x R σ--= (3.1.4c)这里参数p σ是第p 个高斯基函数)(x R p 的“宽度”或“平坦程度”。
p σ越大,则以p c 为中心的等高线越稀疏,)(x R p 越平坦,对其它)(x q ϕ的影响也就越大。
p σ的一种选法是22||||1∑∈-=px ppp c x M θσ (3.1.5)即p θ类所含的样本点与中心p c 的平均距离越大, 则)(x R p 应该越平坦。
2) 薄板样条函数)lg()(2v v v =ϕ (3.1.6)3) 多二次函数0 ,)()(212>+=c c v v ϕ (3.1.7)4) 逆多二次函数0 ,)()(2/12>+=-c c v v ϕ (3.1.8)一般认为,非线性函数ϕ的具体形式对网络性能的影响不大。
RBF 网络与第一章讨论的多层前馈网络(MLP )一样,能以任意精度逼近相当广泛的非线形映射(例如参见[CL][LX])。
由(3.1.1)可以看出,每一个基函数||)(||p c x -ϕ 都可以(以2=P 为例)由平面上一族同心圆{}h c x R x r p n h =-∈ :来表示,每一个同心圆h r 上的点具有相同的函数值。
而整个RBF 网络不外乎是由P 族同心圆互相影响而形成的P 族等高线来表示。
因此,RBF 网络对如图3.1所示的分类问题特别有效(),(21x x x =)。
图3.1 适合于RBF 网络的分类问题3.2 径向基函数参数的选取3.2.1 基函数中心p c 的选取假设RBF 网络中隐单元的个数(即基函数的个数)P 已经确定,则决定网络性能的关键就是P 个基函数中心p c 的选取。
一种广泛应用的无教师学习算法是如下的k -均值聚类算法I :① 给定训练样本N J j j R x ⊂=1}{。
)(J P <② 将聚类中心}{p c 初始化。
(例如可选为P i i x 1}{=。
)③ 将J j j x 1}{=按距离远近向P i i c 1}{=聚类,分成P 组P p p 1}{=θ,即令*p j x θ∈ (3.2.1)若||||min ||||1*p j Pp p j c x c x -=-≤≤。
④ 计算样本均值,作为新的聚类中心(p M 是类p θ中样本的个数):∑∈=Pjx jpp xM c θ1, P p ,,1 = (3.2.2)⑤ 若新旧P p p c 1}{=相差很小,则停止。
否则转③。
K-均值聚类算法是循环地选取聚类中心p c 与聚类集合p θ的一个迭代过程。
(暂时)选定各中心p c 后,在步骤③中按距离远近将j x 向p c 聚类得到p θ应该是十分自然的。
而p θ确定后,对新的中心p c 与p θ中各个j x 的“总的距离”(即各个距离的平方和)∑∈-pj x p j c x θ2|||| (3.2.3)取极小,便得到确定新p c 的公式(3.2.2)。
这是一种竞争分类过程。
在步骤③中竞争p θ类资格获胜的各个j x 将对新的聚类中心p c 做出贡献。
下面我们给出另外一种K-均值聚类算法II :① 将聚类中心}{p c 初始化。
② 随机选取样本向量j x 。
③ 将j x 按距离远近向P i i c 1}{=聚类,即令p j x '∈θ (3.2.4)若||||min ||||1p j Pp p j c x c x -=-≤≤'。
④ 调整样本中心p c '(0>η是选定的学习速率):⎪⎩⎪⎨⎧'≠'=-+= , ),(p p c p p c x c c old poldp j old p new pη (3.2.5)⑤ 若新旧P p p c 1}{=相差很小,则停止。
否则转②。
K-均值聚类算法I 和II 分别是离线和在线学习算法。
下面我们来考虑隐单元个数P 的确定。
与第一章中BP 网络的隐层单元个数的确定类似,其原则应该是在满足精度要求的前提下,P 越小越好。
这不但减小网络成本,而且使逼近函数)(x g 减少不必要的震荡。
像确定BP 网络的隐单元个数一样,我们可以从大的单元数P 出发,逐步减小P ,直到精度要求不再满足为止。
也可以从较小的P 出发,逐步增加单元数,直到满足精度要求。
3.2.2 权系数λ的确定确定权系数λ时,通常要利用训练样本的理想输出作有教师学习。
一个简单办法是在确定}{p c 之后, 求如下误差函数关于),,(1P λλλ =的极小:∑=-=Jj j j x g y E 12))((21)(λ (3.2.6)这时,可以用最小二乘法或其它优化方法,例如梯度下降法。
为了减小推广误差, 我们可以进一步要求逼近函数)(x g 不要震荡得太厉害,或者说曲面)(x g 不要弯曲得太厉害。
注意到曲面的弯曲程度可以由曲率来描述,而曲率主要与二阶导数的大小有关。
为此, 定义训练样本集上的平均曲率为(用2n ∂表示对变量n x 的二阶导数)∑∑==∂=J j Nn j nx g JD 1212))((21)(λ (3.2.7)现在, 我们的任务成为:求P P R ∈=),,(1λλλ 使得下列函数取极小)()()(λμλλD E L += (3.2.8)这里0≥μ是一个适当的折衷参数, 需针对具体问题选定。
下面我们来推导(3.2.8)的解。
假设基函数)(h ϕ二次可微,并且下列极限存在:)(lim 0h h ϕδ''=→ (3.2.9)容易算得||||)(||)(||)(1p n p Pp p p n c x c x c x x g ---'=∂∑=ϕλ (3.2.10)其中n p c x )(-表示p c x -的第n 个分量。
对(3.2.10)再求导数得∑=---''=∂Pp p n p p p n c x c x c x x g 1222||||)(||)(||[)(ϕλ)]||||)(||||1||)((||32p np p p c x c x c x c x -----'+ϕ 关于n 求和便得∑∑==---'+-''=∂Pp p p p p N n n c x N c x c x x g 112]||||1||)(||||)(||[)(ϕϕλ (3.2.11)注意由罗必塔法则和(3.2.9)δϕϕ=''='→→1)(lim )(lim 00h h h h h因此(3.2.11)可以拓广定义到p c x =。
记,),,(1T J y y y = P J jp S S ⨯=)(, ||)(||p j jp c x S -=ϕ (3.2.12)P J jp Q Q ⨯=)(,⎪⎩⎪⎨⎧---'+-''==其它如果 ,||||1||)(||||)(||,p j p j p j p j jp c x N c x c x c x N Q ϕϕδ(3.2.13) 于是(3.2.8)可以写成矩阵形式 ])()[(21)(λλμλλλQ Q J S y S y L T T T +--= (3.2.14)令0/=∂∂λL ,得0)(=+--Q Q JS S y T T Tλμλ因此y S Q Q JS S T T T 1)(-+=μλ (3.2.15)注2.1 当样本数J 很大时, 为了减少计算量, 可以在(3.2.7)中只对少量“重要”的样本j 求和。
注2.2 也可以用最速下降法求误差函数的极小,来统一地确定},,{p p p c σλ等参数 (参见下节中(3.3.3))。
这时,径向基函数网络与BP 网络就很相像了。
3.3 高斯条函数典型的径向基函数(RBF )只对输入空间的一个很小的局部区域作出有效响应(当2||||p c x -较大时,)(x p ϕ接近于零)。
与此对照,Sigmoid 函数的响应域则是无穷大。
因此,RBF 对刻画函数的局部性质较为有效,而不适合于对函数的大范围逼近。