04第四章___径向基函数神经网络
径向基函数神经网络模型及其在预测系统中的应用

径向基函数神经网络模型及其在预测系统中的应用传统的神经网络模型在处理非线性问题时存在一定的限制,而径向基函数神经网络(Radial Basis Function Neural Network,RBFNN)模型则能够有效地处理这类问题。
本文将介绍径向基函数神经网络模型的基本原理,并探讨其在预测系统中的应用。
1. 径向基函数神经网络模型的基本原理径向基函数神经网络模型是一种三层前馈神经网络,包含输入层、隐含层和输出层。
该模型通过将输入向量映射到高维特征空间,并利用径向基函数对输入数据进行非线性变换。
其基本原理如下:1.1 输入层:输入层接收原始数据,并将其传递给隐含层。
1.2 隐含层:隐含层中的神经元使用径向基函数对输入数据进行非线性变换。
径向基函数通常采用高斯函数,其形式为:φ(x) = exp(-(x-c)^2/2σ^2)其中,x为输入向量,c为径向基函数的中心,σ为径向基函数的宽度。
隐含层神经元的输出由径向基函数计算得到,表示了输入数据距离每个径向基函数中心的相似度。
1.3 输出层:输出层根据隐含层的输出和相应的权值进行计算,并生成最终的预测结果。
2. 径向基函数神经网络模型在预测系统中的应用径向基函数神经网络模型在各种预测系统中具有广泛的应用,包括金融预测、气象预测、股票价格预测等。
2.1 金融预测径向基函数神经网络模型能够对金融市场进行有效预测,例如股票价格、外汇汇率等。
通过输入历史数据,可以训练神经网络模型,利用其中的非线性变换能力来预测未来的价格走势。
实验表明,基于径向基函数神经网络模型的金融预测系统能够提供较高的准确度和稳定性。
2.2 气象预测径向基函数神经网络模型在气象预测中的应用也取得了良好的效果。
通过输入历史气象数据,神经网络模型可以学习到不同变量之间的关系,并预测未来的天气情况。
与传统的统计模型相比,径向基函数神经网络模型能够更好地捕捉到非线性因素对气象变化的影响,提高了预测的准确性。
径向基函数神经网络

径向基函数神经网络模型与学习算法1985年,Powell提出了多变量插值的径向基函数(Radical Basis Function, RBF)方法。
1988年,Moody和Darken提出了一种神经网络结构,即RBF 神经网络,属于前向神经网络类型,它能够以任意精度逼近任意连续函数,特别适合于解决分类问题。
RBF网络的结构与多层前向网络类似,它是一种三层前向网络。
输入层由信号源结点组成;第二层为隐含层,隐单元数视所描述问题的需要而定,隐单元的变换函数RBF()是对中心点径向对称且衰减的非负非线性函数;第三层为输出层,它对输入模式的作用作出响应。
从输入空间到隐含层空间的变换是非线性的,而从隐含层空间的输出层空间变换是线性的。
RBF网络的基本思想是:用RBF作为隐单元的“基”构成隐含层空间,这样就可以将输入矢量直接(即不需要通过权接)映射到隐空间。
当RBF的中心点确定以后,这种映射关系也就确定了。
而隐含层空间到输出空间的映射是线性的,即网络的输出是隐单元输出的线性加权和。
此处的权即为网络可调参数。
由此可见,从总体上看,网络由输入到输出的映射是非线性的,而网络输出对可调参数而言却又是线性的。
这样网络的权就可由线性方程直接解出,从而大大加快学习速度并避免局部极小问题。
1.1RBF神经网络模型径向基神经网络的神经元结构如图1所示。
径向基神经网络的激活函数采用径向基函数,通常定义为空间任一点到某一中心之间欧氏距离的单调函数。
由图1所示的径向基神经元结构可以看出,径向基神经网络的激活函数是以输入向量和权值向量之间的距离dist 作为自变量的。
径向基神经网络的激活函数的一般表达式为()2dist dist eR -= (1) dist 1x m x 2x 1h ω2h ωihωbn y图1 径向基神经元模型随着权值和输入向量之间距离的减少,网络输出是递增的,当输入向量和 权值向量一致时,神经元输出1。
在图1中的b 为阈值,用于调整神经元的灵敏度。
6. 径向基函数网络

x1 Ф1 x2
w0J w1J wi1 wiJ
w01 w11 wI1 y1
...
...
x3
Фi
yJ wIJ
ФI xM
在实际应用中,一般都采用广义径向基函数网络。
...
4.概率神经网络
PNN网络的优点 训练容易,收敛速度快,从而非常适用于实时处理。 可以实现任意的非线性逼近,用PNN网络所形成的判决曲面 与贝叶斯最优准则下的曲面非常接近。
>> yy2 = sim(net, xx);
>> plot(xx,yy2,'.-r');
% 广义回归网络仿真
7.径向基网络应用实例
自己实现的广义回归网络: function y = grnn_net(p,t,x,spread)
测试: grnn_test.m
效果不错
7.径向基网络应用实例
这个网络的性能也与平滑因子的取值有关,取值过大则曲线 不够准确,取值过小会造成过学习。这里取缺省值0.5,下图 是取值分别为1和0.1时的测试结果。
RBF网络曲线拟合 :
输入18个样本点,将隐含节点个数设为18,其中心 就是输入的x值。期望输出为相对应的y值。 这样,网络中有一个输入节点,一个输出节点,18 个隐含节点。 采用工具箱函数:
curve_filt_newrb_build.m
curve_filt_newrb_sim.m
7.径向基网络应用实例
GRNN网络曲线拟合
在拟合质量相当的情况下,比较RBF网络与GRNN网络的速度 : RBF网络消耗的时间远大于GRNN网络
>> x=-9:8; >> y=[129,-32,-118,-138,-125,-97,-55,-23,-4,... 2,1,-31,-72,-121,-142,-174,-155,-77]; >> plot(x,y,'o') >> P=x; % 样本的x值 % y值
径向基函数(RBF)神经网络

径向基函数(RBF)神经⽹络RBF⽹络能够逼近任意的⾮线性函数,可以处理系统内的难以解析的规律性,具有良好的泛化能⼒,并有很快的学习收敛速度,已成功应⽤于⾮线性函数逼近、时间序列分析、数据分类、模式识别、信息处理、图像处理、系统建模、控制和故障诊断等。
简单说明⼀下为什么RBF⽹络学习收敛得⽐较快。
当⽹络的⼀个或多个可调参数(权值或阈值)对任何⼀个输出都有影响时,这样的⽹络称为全局逼近⽹络。
由于对于每次输⼊,⽹络上的每⼀个权值都要调整,从⽽导致全局逼近⽹络的学习速度很慢。
BP⽹络就是⼀个典型的例⼦。
如果对于输⼊空间的某个局部区域只有少数⼏个连接权值影响输出,则该⽹络称为局部逼近⽹络。
常见的局部逼近⽹络有RBF⽹络、⼩脑模型(CMAC)⽹络、B样条⽹络等。
径向基函数解决插值问题完全内插法要求插值函数经过每个样本点,即。
样本点总共有P个。
RBF的⽅法是要选择P个基函数,每个基函数对应⼀个训练数据,各基函数形式为,由于距离是径向同性的,因此称为径向基函数。
||X-X p||表⽰差向量的模,或者叫2范数。
基于为径向基函数的插值函数为:输⼊X是个m维的向量,样本容量为P,P>m。
可以看到输⼊数据点X p是径向基函数φp的中⼼。
隐藏层的作⽤是把向量从低维m映射到⾼维P,低维线性不可分的情况到⾼维就线性可分了。
将插值条件代⼊:写成向量的形式为,显然Φ是个规模这P对称矩阵,且与X的维度⽆关,当Φ可逆时,有。
对于⼀⼤类函数,当输⼊的X各不相同时,Φ就是可逆的。
下⾯的⼏个函数就属于这“⼀⼤类”函数:1)Gauss(⾼斯)函数2)Reflected Sigmoidal(反常S型)函数3)Inverse multiquadrics(拟多⼆次)函数σ称为径向基函数的扩展常数,它反应了函数图像的宽度,σ越⼩,宽度越窄,函数越具有选择性。
完全内插存在⼀些问题:1)插值曲⾯必须经过所有样本点,当样本中包含噪声时,神经⽹络将拟合出⼀个错误的曲⾯,从⽽使泛化能⼒下降。
径向基函数神经网络课件

小批量梯度下降算法
01
总结词
小批量梯度下降算法是一种折中的方法,每次使用一小批 样本来更新模型参数,既保持了计算量小的优点,又提高 了模型的稳定性。
02 03
详细描述
小批量梯度下降算法的核心思想是在每次迭代时,随机选 择一小批样本来计算损失函数,并使用梯度下降法或其他 优化方法来更新模型参数。这种方法可以平衡计算量和训 练时间的关系,同时提高模型的稳定性。
径向基函数神经网络课件
目 录
• 径向基函数神经网络概述 • 径向基函数神经网络的基本结构 • 径向基函数神经网络的学习算法 • 径向基函数神经网络的优化策略 • 径向基函数神经网络的实现细节 • 径向基函数神经网络的实例展示 • 总结与展望
01
径向基函数神经网络概述
神经网络简介
神经网络的定义
神经网络是一种模拟人脑神经元网络结构的计算模型,通过学习样 本数据来自动提取特征和规律,并完成分类、回归等任务。
02 03
详细描述
随机梯度下降算法的核心思想是在每次迭代时,随机选择一个样本来计 算损失函数,并使用梯度下降法或其他优化方法来更新模型参数。这种 方法可以大大减少计算量和训练时间。
优缺点
随机梯度下降算法的优点是计算量小,训练时间短,适用于大规模数据 集。但是,由于只使用一个样本进行更新,可能会造成模型训练的不稳 定,有时会出现训练效果不佳的情况。
2
输出层的节点数通常与输出数据的维度相等。
3
输出层的激活函数通常采用线性函数或softmax 函数。
训练过程
01
神经网络的训练过程是通过反向 传播算法实现的。
02
通过计算损失函数对网络权重的 梯度,更新权重以减小损失函数
径向基函数神经网络

11
径向基函数神经网络
内容提要
• 6.1 概述
• 6.2 径向基函数数学基础 • 6.3 径向基函数网络结构 • 6.4 RBF网络算法分析
RBF神经网络
• 径向基函数神经网络(radial basis function neural network,RBFNN) • RBF神经网络是基于人脑的神经元细胞对外界 反应的局部性而提出的新颖的、有效的前馈式 神经网络,具有良好的局部逼近特性。它的数 学理论基础成形于1985年由Powell首先提出的 多变量插值的径向基函数,1988年被 Broomhead和Lowe应用到神经网络设计领域 ,最终形成了RBF神经网络。
10
RBFNN的结构
RBFNN的Matlab实现
clear all clc x=0:0.1:5; y=sqrt(x); net=newrb(x,y); t=sim(net,x); plot(x,y-t,'+-') figure x1=5:0.1:9; y1=sqrt(x1); t1=sim(net,x1); plot(x1,y1-t1,'*-')
7
RBF神经网络的学习算法
RBF神经网络的学习算法分为两步:
第一步是确定隐含层神经元数目、中心和 宽度,第二步是确定隐含层和输出层之间的连 接权值。 径向基函数中心的选取方法主要有随机选 取法、K-均值聚类算法、梯度训练方法和正交 最小二乘法等。隐含层和输出层之间的连接权 值的训练方法主要包括最小均方差、递推最小 方差、扩展卡尔曼滤波等方法。
4
RBFNN的结构
图8.1 RBF神经网络的结构
5常用的Biblioteka 向基函数• 高斯函数(Gaussian Function)
径向基函数

,
i 1
通过学习,设法得到相应的参数
Radial Basis Functions: •Radial-basis functions were introduced in the solution of the real multivariate interpolation problem. • Basis Functions: A set of functions whose linear combination can generate an arbitrary function in a given function space. • Radial: Symmetric around its center
14
二、RBF Network 性能
RBF网络是一个两层前馈网 隐层对应一组径向基函数,实现非线性映射 每一个隐层单元Ok的输出:
μ
是高斯分布的期望值,又称中心值;σ k是宽度,控制围绕中心 的分布
k
每个隐单元基函数的中心可以看作是存储了一个已知的输入。当输
入 X 逼近中心时,隐单元的输出变大。这种逼近的测度可采用 Euclidean距离: || x-μ ||²
(c1,x) = 1 if distance of x from c1 less than r1 and 0 otherwise (c2,x) = 1 if distance of x from c2 less than r2 and 0 otherwise
:Hyperspheric radial basis function
17
二、RBF Network 性能
Center of the function
8
一、概述
RBF(径向基)神经网络

RBF(径向基)神经⽹络 只要模型是⼀层⼀层的,并使⽤AD/BP算法,就能称作 BP神经⽹络。
RBF 神经⽹络是其中⼀个特例。
本⽂主要包括以下内容:什么是径向基函数RBF神经⽹络RBF神经⽹络的学习问题RBF神经⽹络与BP神经⽹络的区别RBF神经⽹络与SVM的区别为什么⾼斯核函数就是映射到⾼维区间前馈⽹络、递归⽹络和反馈⽹络完全内插法⼀、什么是径向基函数 1985年,Powell提出了多变量插值的径向基函数(RBF)⽅法。
径向基函数是⼀个取值仅仅依赖于离原点距离的实值函数,也就是Φ(x)=Φ(‖x‖),或者还可以是到任意⼀点c的距离,c点称为中⼼点,也就是Φ(x,c)=Φ(‖x-c‖)。
任意⼀个满⾜Φ(x)=Φ(‖x‖)特性的函数Φ都叫做径向基函数,标准的⼀般使⽤欧⽒距离(也叫做欧式径向基函数),尽管其他距离函数也是可以的。
最常⽤的径向基函数是⾼斯核函数 ,形式为 k(||x-xc||)=exp{- ||x-xc||^2/(2*σ)^2) } 其中x_c为核函数中⼼,σ为函数的宽度参数 , 控制了函数的径向作⽤范围。
⼆、RBF神经⽹络 RBF神将⽹络是⼀种三层神经⽹络,其包括输⼊层、隐层、输出层。
从输⼊空间到隐层空间的变换是⾮线性的,⽽从隐层空间到输出层空间变换是线性的。
流图如下: RBF⽹络的基本思想是:⽤RBF作为隐单元的“基”构成隐含层空间,这样就可以将输⼊⽮量直接映射到隐空间,⽽不需要通过权连接。
当RBF的中⼼点确定以后,这种映射关系也就确定了。
⽽隐含层空间到输出空间的映射是线性的,即⽹络的输出是隐单元输出的线性加权和,此处的权即为⽹络可调参数。
其中,隐含层的作⽤是把向量从低维度的p映射到⾼维度的h,这样低维度线性不可分的情况到⾼维度就可以变得线性可分了,主要就是核函数的思想。
这样,⽹络由输⼊到输出的映射是⾮线性的,⽽⽹络输出对可调参数⽽⾔却⼜是线性的。
⽹络的权就可由线性⽅程组直接解出,从⽽⼤⼤加快学习速度并避免局部极⼩问题。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
Φ i (t ) = e
(2)
−
t2
δ i2
( 4.1)
Reflected sigmoid 函数
Φ i (t ) =
(3)
1
t2
( 4.2)
1+ eδ
2
逆 Multiquadric 函数
Φ i (t ) =
(t
1
2
+δ
2 α i
)
, α >0
( 4.3)
图 4.2
RBF 函数
式(4.1)至式(4.3)中的 δ i 称为该基函数的扩展常数(Spread)或宽度。显然,
( 4.6)
这是一个非常经典的数学问题,可以有多种解决方案,采用 RBF 网也可以解决这一 问题的学习问题。由式(4.4)可知,使用 RBF 网前必须确定其隐节点的数据中心(包括 数据中心的数目、值、扩展常数)及相应的一组权值。RBF 网解决内插问题时,使用 N 个隐节点, 并把所有的样本输入选为 RBF 网的数据中心, 且各基函数取相同的扩展常数。 于是 RBF 网从输入层到隐层的输出便是确定的。 现在我们再来确定网络的 N 个输出权值 W
该正则化网络具有以下特点: (1) 具有万能逼近能力,即只要有足够的隐节点,正则化网络能逼近紧集上的任意 连续函数; (2) 具有最佳逼近特性,即任给未知的非线性函数 f ,总可以找到一组权系数,在 该组系数下正则化网络对 f 的逼近优于其它系数; (3) 正则化网络得到的解是最优的,即通过最小化式(4.12) ,得到了同时满足对样 本的逼近误差和逼近曲线平滑性的最优解。
4.3
4.3.1 内插问题
RBF 网的数学基础
假定共有 N 个学习样本,其输入为 s = ( X 1,X 2, L,X N ) ,相应的样本输出,即 教师信号(单输出)为 t = ( y1,y 2, L,y N ) 。所谓的多变量内插问题是指寻找函数 F , 满足以下的内插条件:
yi = F ( X i )
= ( w1,w2, L,wN ) T (待定) 。我们
2, L,N 只要把所有的样本再输入一遍,便可解出各 wi 的值。假定当输入为 X i ,i = 1,
时,第 j 个隐节点的输出为:
hij = Φ j ( X i − c j )
( 4.7)
其中 Φ j (⋅) 为该隐节点的激活函数, c j = X j 为该隐节点 RBF 函数的数据中心。于是可 定义 RBF 网的隐层输出阵为 H = h ij
T
b0 ,…, bm 为输出单元偏移, y = [ y1 ,..., y m ] 为网络输出, Φ i (∗) 为第 i 个隐节点的激
活函数。图中输出层节点中的
∑
表示输出层神经元采用线性激活函数,当然输出神经
元也可以采用其它非线性激活函数,如 Sigmoid 函数。 我们知道,多层感知器(包括 BP 网)的隐节点基函数采用线性函数,激活函数则采 用 Sigmoid 函数或硬极限函数。与多层感知器不同,RBF 网的最显著的特点是隐节点的
基函数采用距离函数(如欧氏距离) ,并使用径向基函数(如 Gaussian 函数)作为激 活函数。径向基函数关于 n 维空间的一个中心点具有径向对称性,而且神经元的输入离 该中心点越远,神经元的激活程度就越低。隐节点的这一特性常被称为“局部特性” 。 因此 RBF 网的每个隐节点都具有一个数据中心,如图 4.1 中 c i 就是网络中第 i 个隐节 点的数据中心值, ∗ 则表示欧氏范数。 径向基函数 Φ i (⋅) 可以取多种形式,如下面的式(4.1)至式(4.3) ,其曲线形状 如图 4.2 所示。 (1) Gaussian 函数
( 4.8)
N
y×N
可逆,即其列向量构成 R 中的一组基,则输出权矢量可由下式得到
W = H −1 y
(4.9)
事实上,根据 Micchelli 定理[Micc1986],如果隐节点激活函数采用上述的径向基 函数,且 X 1 , X 2 , L , X N 各不相同,则隐层输出阵 H 的可逆性是可以保证的。 因此,如果把全部样本输入作为 RBF 网的数据中心,网络在样本输入点的输出就等 于教师信号,此时网络对样本实现了完全内插,即对所有样本误差为 0。但上式方案存 在以下问题: 通常情况下,样本数据较多,即 N 数值较大,上述方案中隐层输出阵 H 的条件数 可能过大,求逆时可能导致不稳定。 (2) 如果样本输出含有噪声,此时由于存在过学习的问题,作完全内插是不合适的, 而对数据作逼近可能更合理。 为了解决这些问题,可以采用下面的正则化网络。 (1)
感光细胞与双极细胞形成突触联系,双极细胞外端与感光细胞相连,内端与神经节 细胞相接,神经节细胞的轴突则组成视神经束。来自两侧的视神经在脑下垂体前方会合 成视交叉。在这里组成每一根视神经的神经纤维束在进一步进入脑部之前被重新分组。 从视神经交叉再发出的神经束叫作视束。在重新分组时,来自两眼视网膜右侧的纤维合 成一束传向脑的右半部.来自两眼视网膜左侧的纤维合成另一束传向脑的左半部。这两 束经过改组的纤维视束继续向脑内行进,大部分终止于丘脑的两个被分成外侧膝状体的 神经核。 外膝体完成输入信息处理上的第一次分离, 然后传送到大脑的第一视区和第二视区。 外膝体属丘脑,是眼到视皮层的中继站,这就是视觉通路。视网膜上的感光细胞通过光 化学反应和光生物化学反应,产生的光感受器电位和神经脉冲就是沿着视觉通路进行传 播的。 从神经感受野可以作出员完善的分析。中枢神经元的感受野是指能影响某一视神经 元反应的视网膜或视野的区域。可通过电生理学试验记录感受野的形状。电生理学试验 可理解为有一根极小的电极置于某个细胞内的特定欲记录电位的区域,这样,当光束照 到视网膜上,如果该细胞被激活,通过这一区域的电脉冲(Spike)就增加;反之,如果 该细胞被抑制,通过这一区域的电脉冲(Spike)就减少。静止的细胞膜电位约 70 毫伏, 因此我们可以用示波器观察到这些脉冲。 每个视皮层,外侧膝状体的神经元或视网膜神经细胞节细胞在视网膜上均有其特定 的感受野。Hubel 与 Wiesel 比较了侧膝核与节细胞的感受野,结果发现它们非常相识, 都呈圆形, 并具有近兴奋远抑制(on-center off-surround)或远兴奋近抑制(off-center on surround)功能,如图 4.4 所示。
4.3.2 正则化网络
假定 S =
{( X , y ) ∈ R
i i
n
× R i = 1,2,..., N 为我们欲用函数 F 逼近的一组数据。传
}
统的寻找逼近函数 F 的方法是通最小化过以下目标函数(标准误差项)实现的:
E S (F ) =
1 N ( yi − F ( X i ))2 ∑ 2 i =1
δ i 越小,径向基函数的宽度就越小,基函数就越具有选择性。
于是图 4.1 中,RBF 网的第 k 个输出可表示为:
y k = ∑ wi Φ i ( x − c i )
i =1
h
( 4.4)
下面以两输入单输出函数逼近为例,简要介绍 RBF 网的工作机理。与输出节点相连 的隐层第 i 个隐节点的所有参数可用三元组 (c i , δ i , wi ) 表示。由于每个隐层神经元都对 输入产生响应,且响应特性呈径向对称(即是一个个同心圆) ,于是 RBF 网的作用机理可 用图 4.3 表示。图 4.3 表示输入区域中中有 6 个神经元,每个神经元都对输入 x 产生一 个响应 Φ i ( x − c i ) ,而神经网络的输出则是所有这些响应的加权和。 由于每个神经元具有局部特性,最终整个 RBF 网最终也呈现“局部映射”特性,即 RBF 网是一种局部相应神经网络。这意味着如果神经网络有较大的输出,必定激活了一 个或多个隐节点。
图 4.4
神经元的近兴奋远抑制现象
对于每一个这样的内兴奋外抑制神经元,我们可以用以下函数进行建模:
Φ i ( x ) = G( x − c i
)
( 4.5)
其中 x 为输入(光束照在视网膜上的位置) , c i 为感受野的中心,对应于视网膜上使
。 神经元最兴奋的光照位置。 G (⋅) 的具体形式见前面的式( 4.1)至式(4.3)
第4章
径向基函数神经网络
除了前面介绍的多层感知器外,径向基函数神经网络(Radial Basis Function Neural Network,简称 RBF 网)是另一类常用的三层前馈网络,也可用于函数逼近及分类。与 BP 网相比,RBF 网不仅有生理学基础,而且结构更简洁,学习速度也更快。本章 4.1 节 先介绍 RBF 网的结构及工作原理;然后在 4.2 节和 4.3 节介绍该网络的生理学基础和数 学基础;在 4.4 节,我们介绍 RBF 网的学习算法,包括基于聚类的学习算法,梯度学习 算法,及正交最小二乘学习算法,包括它们的原理及实现;在 4.5 节,我们将介绍 RBF 网的学习动态,最后介绍了 RBF 网用于非线性函数逼近的一个例子。
E (F ) = E S (F ) + λE R (F )
( 4.12)
其中 λ 为正则化系数(正实数) 。我们将在第 7 章介绍正则化理论,这里给出上述正则 化问题的解为[Pogg1990]
F ( X ) = ∑ wi G ( X , X i )
i =1
N
( 4.13)
其中 G ( X , X i ) 为自伴随算子 DD 的 Green 函数,wi 为权系数。 Green 函数 G ( X , X i ) 的 如果 D 具有平移不变性和旋转不变性, 则 Green 函数的值取 形式依赖于算子 D 的形式, 决于 X 与 X i 之间的距离,即
N
[ ] ,H ∈R
N j =1
N ×N
。此时 RBF 网的输出为:
f ( X i ) = ∑ hij w j = ∑ w j Φ ( X i − c j )