关于核函数选取的方法

合集下载

SVM分类核函数及参数选择比较_奉国和

SVM分类核函数及参数选择比较_奉国和
摘 要:支持向量机(SVM)被证实在分类领域性能良好,但其分类性能受到核函数及参数影响。讨论核函数及参数对 SVM 分类 性能的影响,并运用交叉验证与网格搜索法进行参数优化选择,为 SVM 分类核函数及参数选择提供借鉴。 关键词:支持向量机;核函数;分类 DOI:10.3778/j.issn.1002-8331.2011.03.037 文章编号:1002-8331(2011)03-0123-02 文献标识码:A 中图分类号:TP316
coef ) 。
2 参数选取方法
SVM 的参数选择问题,其实质就是一个优化问题。目前 SVM 参数选取方法主要有:经验选择法、实验试凑法、梯度下 降法、交叉验证法、Bayesian 法等。同时随着遗传算法、粒子群 优化、人工免疫等智能优化方法的成功,陆续有学者采用这些 方法来优化选择 SVM 参数。近几年,进化计算领域兴起了一 类新型优化算法,即分布估计算法,并迅速成为进化计算领域
(1)Polynomial 核函数:K(xxi) =[γ*(x·xi) + coef ]d ,其中 d 为多项式的阶,coef 为偏置系数。
(2)RBF 核函数:K(xxi) = exp(-γ* x - xi 2) ,其中 γ 为核
函数的宽度。 (3)Sigmoid核函数(两层神经网络):K(xxi) = tanh(γ(x·xi) +
1 支持向量机原理
支持向量机是基于结构风险最小化原理(Structural Risk
Mininization,SRM),为了控制泛化能力,需要控制两个因素, 即经验风险和置信范围值。传统的神经网络是基于经验风险 最小化原则,以训练误差最小化为优化目标,而支持向量机以 训练误差作为优化问题的约束条件,以置信范围最小化为优 化目标。它最终化为解决一个线性约束的凸二次规划(QP)求解 问题,所以支持向量机的解具有唯一性,也是全局最优的 。 [3-4] 应用核函数技术,将输入空间中的非线性问题,通过函数映射 到高维特征空间中,在高维空间中构造线性判别函数,常用的 核函数有如下三种。

核函数方法简介(亮亮修正版)

核函数方法简介(亮亮修正版)

核函数方法简介(1)核函数发展历史早在1964年Aizermann等在势函数方法的研究中就将该技术引入到机器学习领域,但是直到1992年Vapnik等利用该技术成功地将线性SVMs推广到非线性SVMs时其潜力才得以充分挖掘。

而核函数的理论则更为古老,Mercer定理可以追溯到1909年,再生核希尔伯特空间(Reproducing Kernel Hilbert Space, RKHS)研究是在20世纪40年代开始的。

(2)核函数方法原理核函数方法原理根据模式识别理论,低维空间线性不可分的模式通过非线性映射到高维特征空间则可能实现线性可分,但是如果直接采用这种技术在高维空间进行分类或回归,则存在确定非线性映射函数的形式和参数、特征空间维数等问题,而最大的障碍则是在高维特征空间运算时存在的“维数灾难”。

采用核函数技术可以有效地解决这样问题。

设x,z∈X,X属于R(n)空间,非线性函数Φ实现输入空间X到特征空间F的映射,其中F 属于R(m),n<<m。

根据核函数技术有:K(x,z) =<Φ(x),Φ(z) > (1)其中:<, >为内积,K(x,z)为核函数。

从式(1)可以看出,核函数将m维高维空间的内积运算转化为n维低维输入空间的核函数计算,从而巧妙地解决了在高维特征空间中计算的“维数灾难”等问题,从而为在高维特征空间解决复杂的分类或回归问题奠定了理论基础。

(3)核函数特点核函数方法的广泛应用,与其特点是分不开的:1)核函数的引入避免了“维数灾难”,大大减小了计算量。

而输入空间的维数n对核函数矩阵无影响,因此,核函数方法可以有效处理高维输入。

2)无需知道非线性变换函数Φ的形式和参数.3)核函数的形式和参数的变化会隐式地改变从输入空间到特征空间的映射,进而对特征空间的性质产生影响,最终改变各种核函数方法的性能。

4)核函数方法可以和不同的算法相结合,形成多种不同的基于核函数技术的方法,且这两部分的设计可以单独进行,并可以为不同的应用选择不同的核函数和算法。

[复习]核函数方法简介

[复习]核函数方法简介

核函数方法简介(1)核函数发展历史早在1964年Aizermann等在势函数方法的研究中就将该技术引入到机器学习领域,但是直到1992年Vapnik等利用该技术成功地将线性SVMs推广到非线性SVMs时其潜力才得以充分挖掘。

而核函数的理论则更为古老,Mercer定理可以追溯到1909年,再生核希尔伯特空间(ReproducingKernel Hilbert Space, RKHS)研究是在20世纪40年代开始的。

(2)核函数方法原理核函数方法原理根据模式识别理论,低维空间线性不可分的模式通过非线性映射到高维特征空间则可能实现线性可分,但是如果直接采用这种技术在高维空间进行分类或回归,则存在确定非线性映射函数的形式和参数、特征空间维数等问题,而最大的障碍则是在高维特征空间运算时存在的“维数灾难”。

采用核函数技术可以有效地解决这样问题。

设x,z∈X,X属于R(n)空间,非线性函数Φ实现输入间X到特征空间F的映射,其中F属于R(m),n<<m。

根据核函数技术有:K(x,z) =<Φ(x),Φ(z) >(1)其中:<, >为内积,K(x,z)为核函数。

从式(1)可以看出,核函数将m维高维空间的内积运算转化为n维低维输入空间的核函数计算,从而巧妙地解决了在高维特征空间中计算的“维数灾难”等问题,从而为在高维特征空间解决复杂的分类或回归问题奠定了理论基础。

根据模式识别理论,低维空间线性不可分的模式通过非线性映射到高维特征空间则可能实现线性可分,但是如果直接采用这种技术在高维空间进行分类或回归,则存在确定非线性映射函数的形式和参数、特征空间维数等问题,而最大的障碍则是在高维特征空间运算时存在的“维数灾难”。

采用核函数技术可以有效地解决这样问题。

设x,z∈X,X属于R(n)空间,非线性函数Φ实现输入间X到特征空间F的映射,其中F属于R(m),n<<m。

根据核函数技术有:K(x,z) =<Φ(x),Φ(z) > (1)其中:<, >为内积,K(x,z)为核函数。

基于核函数的支持向量机样本选取算法

基于核函数的支持向量机样本选取算法
( .S h o f o ue ce c ,S uhChn r l ies y 1 c o l mp tr in e o t ia oC S Noma Unv ri ,Gu n z o 6 t a g h u5 3 ,Chn ; 1 1 0 ia 2 n o ainT cn lg e erhIsi t,Jn nUnv ri ,Gu n z o 1 0 5 hn ) .If r t e h oo yR sac tue ia iesy m o n t t a g h u5 0 7 ,C ia
样本 时所需 空间及 时 间开销 , 高支持 向量机分 类效率 与质量 ,提 出了一种基 于核 函数 的样 本选取 算法 。该 算法通 过选取 提
最 大可 能成为 支持 向量 的样本 , 以达到减 少训 练 时存 储 Hes n矩 阵所需 空间及 时间开销 的 目的 。实验 结果表 明, sa i 该算法所
摘 要 : 用 支持 向 量 机 求 解 大规 模 数 据 分 类 需要 较 大 内存 来 存 储 Hes n矩 阵 , 矩 阵 的 大 小 则 依 赖 于 样 本 数 , 因 此 在 一 使 si a 而 ,
定程度 上导致 支持 向量机 分类效 率及质 量难 以提 高 考虑到只有 成为 支持 向量 的样本 才对 决策 函数起 作用 , 了减少训练 为
Ab t a t Us gs p o t e t r c ie ov r e s aed t l s i c t nn e s ah r r mo y t t r s inma r o e sr c : i p r v co n u ma h n s os l e a g — c l a a a sf a i e d t e t l c i o r mo e me r s e o o He s ti wh s a x

支持向量机的核函数算法

支持向量机的核函数算法

支持向量机的核函数算法支持向量机(SVM)是一种经典的分类器,其优势在于具有较高的分类准确率和较好的泛化性能。

而对于非线性分类问题,SVM采用核函数对数据进行变换,将非线性问题转化为线性问题。

本文将详细介绍支持向量机的核函数算法。

一、支持向量机的线性可分模型首先,我们回顾一下支持向量机的线性可分模型。

设有n个样本$x_{1},x_{2},...,x_{n}$和它们对应的标签$y_{1},y_{2},...,y_{n}$,其中$y_{i} \in \{-1,1\}$。

SVM的线性可分模型可以表示为:$$ \underset{\boldsymbol{w},b}{\operatorname{argmin}}{\frac{1}{2}\|\boldsymbol{w}\|^2} $$$$ \text{subject to}\ \ y_i(\boldsymbol{w} \cdot\boldsymbol{x_i}+b)\geq 1 , \ i = 1,2,...,n $$其中,$\boldsymbol{w}$和$b$分别是SVM的参数。

目标函数表示的是间隔最大化,即通过最大化所有训练样本到分类超平面的距离,来得到最优超平面。

同时,约束条件保证了每个样本在超平面下方且与超平面的距离最小。

二、核函数的引入在实际应用场景中,数据往往不是线性可分的,无法通过线性超平面对数据进行分类。

此时,我们需要引入核函数这一概念。

核函数是一种将低维度数据映射到高维度空间的函数,通过对数据进行非线性变换,解决了原始数据不可分的问题。

具体来说,我们将样本$x$通过核函数$K$映射到高维空间中的点$φ(x)$,SVM在高维空间中学习分类超平面,从而实现了对原始数据的分类。

在核函数中,我们通常选取的是正定核函数(positive definite kernel),即对于任意数据$x_1,x_2,...,x_n \in \mathbb{R}^{d}$和任意系数$a_1,a_2,...,a_n \in \mathbb{R}$,有:$$ \sum_{i=1}^{n}\sum_{j=1}^{n}a_i a_j K(x_i,x_j) \ge 0 $$这个条件保证了我们通过核函数进行非线性变换后的数据在高维空间中仍能满足内积的性质,从而可以使用线性超平面对数据进行分类。

常见的核函数

常见的核函数

常见的核函数核函数是机器学习中一种常用的方法,它主要用于将高维空间中的数据映射到低维空间中,从而提升算法的性能。

核函数在SVM、PCA、KPCA等机器学习算法中广泛应用。

下面我们将介绍常见的核函数。

1. 线性核函数线性核函数是最简单的核函数之一,它是一种将数据点映射到低维空间的方式,其表达式如下:K(x_i, x_j) = (x_i * x_j)其中x_i, x_j是样本数据集中的两个数据,返回一个标量值。

线性核函数的优点在于需要的计算量较小,适用于大型数据集,但它的缺点是它只能处理线性分离的数据。

2. 多项式核函数其中x_i, x_j是样本数据集中的两个数据,c是一个常数,d是多项式的度数。

多项式核函数适用于非线性分离的数据。

3. 径向基函数(RBF)核函数其中x_i, x_j是样本数据集中的两个数据,gamma是一个正常数,||x_i - x_j||^2表示两个数据点之间的欧几里得距离的平方。

4. Sigmoid核函数其中x_i, x_j是样本数据集中的两个数据,alpha和beta是Sigmoid函数参数。

Sigmoid核函数适用于二分类问题。

上述四种核函数都是常见的核函数,它们各自有不同的优劣势,在不同的机器学习算法中应该选择适当的核函数来处理不同的数据。

除了上述四种常见的核函数,还有其他的一些核函数也具有重要的应用价值。

5. Laplacian核函数Laplacian核函数计算方式类似于径向基函数,但是它将样本数据点间的距离转化成样本数据点间的相似度,其表达式如下:K(x_i, x_j) = exp(-gamma * ||x_i - x_j||)其中gamma和径向基函数中的参数相同。

Laplacian核函数在图像识别和自然语言处理等领域有着广泛的应用。

6. ANOVA核函数ANOVA核函数通常用于数据分析和统计学中,它对混合多种类型数据的模型有较好的表现,其表达式如下:其中h_i和h_j是从样本数据点中提取出来的特征,gamma是一个常数。

高斯核函数——精选推荐

⾼斯核函数⾼斯核函数所谓 (Radial Basis Function 简称 RBF), 就是某种沿径向对称的。

通常定义为中任⼀点x到某⼀xc之间的 , 可记作 k(||x-xc||), 其作⽤往往是局部的 , 即当x远离xc时函数取值很⼩。

⾼斯核函数 - 常⽤公式最常⽤的径向基函数是⾼斯核函数 ,形式为k(||x-xc||)=exp{- ||x-xc||^2/(2*σ)^2) }其中xc为核函数中⼼,σ为函数的宽度参数 ,控制了函数的径向作⽤范围。

在计算机视觉中的作⽤在计算机视觉中,有时也简称为。

⾼斯函数具有五个重要的性质,这些性质使得它在早期图像处理中特别有⽤.这些性质表明,⾼斯平滑滤波器⽆论在空间域还是在都是⼗分有效的低通,且在实际图像处理中得到了⼯程⼈员的有效使⽤.⾼斯函数具有五个⼗分重要的性质,它们是:(1)⾼斯函数具有旋转对称性,即滤波器在各个⽅向上的平滑程度是相同的.⼀般来说,⼀幅图像的边缘⽅向是事先不知道的,因此,在滤波前是⽆法确定⼀个⽅向上⽐另⼀⽅向上需要更多的平滑.旋转对称性意味着⾼斯平滑滤波器在后续中不会偏向任⼀⽅向.(2)⾼斯函数是.这表明,⾼斯滤波器⽤像素邻域的加权均值来代替该点的像素值,⽽每⼀邻域像素点是随该点与中⼼点的距离单调增减的.这⼀性质是很重要的,因为边缘是⼀种图像局部特征,如果平滑运算对离算⼦中⼼很远的像素点仍然有很⼤作⽤,则平滑运算会使图像失真.(3)⾼斯函数的频谱是单瓣的.正如下⾯所⽰,这⼀性质是⾼斯函数付⽴叶变换等于⾼斯函数本⾝这⼀事实的直接推论.图像常被不希望的⾼频信号所污染(噪声和细纹理).⽽所希望的图像特征(如边缘),既含有低频分量,⼜含有⾼频分量.⾼斯函数傅⾥叶变换的单瓣意味着平滑图像不会被不需要的⾼频信号所污染,同时保留了⼤部分所需信号.(4)⾼斯滤波器宽度(决定着平滑程度)是由参数σ表征的,⽽且σ和平滑程度的关系是⾮常简单的.σ越⼤,⾼斯滤波器的就越宽,平滑程度就越好.通过调节平滑程度参数σ,可在图像特征过分模糊(过平滑)与平滑图像中由于噪声和细纹理所引起的过多的不希望突变量(⽋平滑)之间取得折衷.(5)由于的可分离性,⼤器可以得以有效地实现.⾼斯函数可以分两步来进⾏,⾸先将图像与⼀维⾼斯函数进⾏卷积,然后将卷积结果与⽅向垂直的相同⼀维⾼斯函数卷积.因此,⼆维⾼斯滤波的计算量随滤波模板宽度成增长⽽不是成平⽅增长(1)核函数发展历史早在1964年Aizermann等在势函数⽅法的研究中就将该技术引⼊到领域,但是直到1992年Vapnik等利⽤该技术成功地将线性SVMs推⼴到⾮线性SVMs时其潜⼒才得以充分挖掘。

核函数的计算与应用

核函数的计算与应用核函数在机器学习和模式识别领域中扮演着重要的角色。

它们能够将输入数据映射到更高维度的特征空间,从而解决线性不可分的问题。

本文将介绍核函数的计算方法,并探讨其在支持向量机(SVM)和主成分分析(PCA)等算法中的应用。

一、核函数的计算方法核函数是一种在机器学习中常用的函数,用于将低维空间的数据映射到高维空间。

常见的核函数包括线性核函数、多项式核函数、高斯径向基函数等。

1. 线性核函数线性核函数是最简单的核函数之一,它可以直接对原始特征进行线性变换。

其计算方法为:K(x, y) = x·y2. 多项式核函数多项式核函数通过多项式的方式将数据映射到高维空间。

其计算方法为:K(x, y) = (x·y + c)^d3. 高斯径向基函数(RBF)高斯径向基函数是一种常用的核函数,它可以将数据映射到无穷维的特征空间。

其计算方法为:K(x, y) = exp(-γ ||x-y||^2)其中,γ为高斯核函数的带宽参数,||x-y||表示输入数据x和y之间的欧氏距离。

二、核函数在支持向量机中的应用支持向量机是一种常用的分类器,它能够在非线性可分问题上取得较好的性能。

核函数在支持向量机中起到了关键作用。

1. 线性支持向量机线性支持向量机通过线性核函数对数据进行映射,从而实现特征的扩展。

它在处理线性可分问题时表现出色,计算效率高。

2. 非线性支持向量机非线性支持向量机通过非线性核函数对数据进行映射,从而解决非线性可分问题。

常用的非线性核函数包括多项式核函数和高斯径向基函数。

三、核函数在主成分分析中的应用主成分分析是一种常用的降维技术,它通过将高维数据映射到低维空间,提取出最重要的特征。

核函数在主成分分析中也有广泛的应用。

1. 核主成分分析(Kernel PCA)核主成分分析是主成分分析的扩展形式,它通过非线性核函数将数据映射到高维空间,再进行降维操作。

相比传统主成分分析,核主成分分析能够更好地处理非线性关系。

核函数法及其应用

核函数法及其应用核函数法是数据分析领域中常用的一种方法,它可以将数据从低维空间映射到高维空间,进而解决不易在低维空间中处理的问题。

本文将介绍核函数法的基本概念、不同种类的核函数以及它们的应用。

一、核函数法的基本概念核函数法是将数据从低维空间映射到高维空间进行处理的方法。

在低维空间中,我们往往难以处理非线性相关的数据。

然而,一旦把数据通过核函数映射到高维空间,不同的数据点之间就能通过线性相关性得到很好的区分,从而有效地解决了在低维空间中难以处理的问题。

核函数法的基本思想是,通过选择合适的核函数,将低维空间中的数据映射到高维空间,并在高维空间中对数据进行线性计算。

核函数法在处理复杂和非线性问题时广泛使用,如支持向量机(SVM)、主成分分析(PCA)和聚类分析等。

二、不同种类的核函数核函数是对数据进行非线性映射的关键。

以下是常用的核函数:1.线性核函数:线性核函数是最基本的核函数,将数据点映射到与原始空间相同维度的空间中。

2.多项式核函数:多项式核函数是线性核函数的一种推广,它将低维空间的数据映射到高维空间,通过改变高维空间的维数来处理数据。

多项式核函数的灵活性大小决定了它在处理各种类型的数据时的有效性。

3.径向基函数(RBF)核函数:RBF核函数是最常用的核函数之一,可以将数据从低维空间映射到无限维空间。

它非常适合处理高度非线性和复杂的数据集。

4.拉普拉斯核函数:拉普拉斯核函数与RBF核函数类似,但是与RBF核函数不同,拉普拉斯核函数是对称的,因此具有更好的数学性质。

5.核矩阵:核矩阵是将所有训练样本的核函数值组成的矩阵。

通过计算核矩阵,就可以实现对所有数据进行非线性映射的过程。

三、核函数法的应用核函数法在各种领域中都有广泛的应用。

以下是一些常见的应用:1.支持向量机(SVM):SVM是一种常用的分类算法,核函数法是实现SVM的关键。

通过选择合适的核函数,SVM可以在高维空间中有效区分不同的数据点。

支持向量机的参数调优方法

支持向量机的参数调优方法支持向量机(Support Vector Machine,简称SVM)是一种常用的机器学习算法,广泛应用于分类和回归问题。

然而,SVM的性能很大程度上依赖于参数的选择。

本文将介绍一些常见的支持向量机参数调优方法,帮助读者更好地利用SVM 进行数据分析和模型建立。

一、核函数选择核函数是SVM中的一个重要参数,它用于将样本从原始空间映射到高维特征空间,以便更好地进行分类。

常见的核函数有线性核函数、多项式核函数和高斯核函数等。

在实际应用中,我们需要根据数据的特点选择合适的核函数。

对于线性可分的数据,选择线性核函数是合理的。

线性核函数计算速度快,适用于样本特征较少的情况。

然而,在某些非线性可分的问题中,线性核函数的表现可能不佳。

这时,我们可以选择多项式核函数或高斯核函数。

多项式核函数通过引入多项式的方式将数据映射到高维空间,从而实现非线性分类。

它的一个重要参数是多项式的阶数,可以通过交叉验证的方式进行选择。

高斯核函数(也称为径向基函数)在非线性分类问题中表现良好。

它通过计算样本点与支持向量之间的距离,将数据映射到无穷维的特征空间。

高斯核函数有一个重要参数sigma,控制了高斯函数的宽度。

选择合适的sigma值对于高斯核函数的性能至关重要。

二、惩罚参数选择惩罚参数C是SVM中的另一个重要参数,它用于平衡模型的复杂度和训练误差。

C值越大,模型对于训练误差的容忍度越低,模型复杂度越高;C值越小,模型对于训练误差的容忍度越高,模型复杂度越低。

在实际应用中,我们需要根据数据的特点选择合适的惩罚参数C。

一种常见的方法是使用网格搜索(Grid Search)来寻找最优的C值。

网格搜索通过遍历一系列的C值,并使用交叉验证来评估模型性能,从而选择最优的C值。

除了网格搜索,还可以使用启发式算法来选择惩罚参数C。

例如,可以使用粒子群优化算法(Particle Swarm Optimization,简称PSO)或遗传算法(Genetic Algorithm,简称GA)来寻找最优的C值。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

Vo . 1 No 1 13 .
Ma. 2 8 r 00
文 章 编 号 : 0 01 3 ( 0 8 0 -0 10 1 0 - 7 5 2 0 ) 10 0 -4
关于核函 数选取的方法
王 炜 郭 小 明 , 王 淑艳 刘 丽琴 , ,
( . 宁 师范 大 学 数 学 学 院 , 宁 大 连 1 6 2 ; . 宁 石 油 化 工 大 学 理 学 院关键词 : 支持 向 量机 ; 函数 ; 棱 混合 棱 函数 ; 衡 约 束 规 划 ( E ) 平 MP C 中 图 分 类 号 : 3 O2 4 文献 标识 码 : A
1 引言
支持 向量 机 ( u p r Vetr c ie S S p o t co hn , VM) 2 世 纪 9 年代 Va nk 于统计 学 习理 论[ 提 出 Ma 是 0 0 p i基 1 的一 种新 的机器 学 习方 法 , 它建立 在结 构 风 险 最小 化 原 则 基 础之 上 , 核心 思 想 之一 是 引入 核 函数 技 其 术 : x ,j K( X )一 ( z ) O( i ) VX ,j∈ R , 中 , x , i ( , x ) , X 其 K( X)是核 函数 , , ( )是内积 , 是从 输入 空 间

R 到高 维特 征空 间 H 的非 线 性映 射. 而实 现了把低 维 输入 空间 R 从 中的非 线 性可 分 问题转 化 成 了高
维 特征 空 间 H 中的线性 可 分 问题 , 且巧 妙地解 决 了在 高维 特征 空 间 H 中计算 的“ 并 维数 灾难 ” 问题. 等 核 函数 的定义 并 不 困难 , 于判 断哪 些 函数 是核 函数 到 目前 为止 也 取得 了重要 突破 , 到 了 Mecr 对 得 re 定
撰 耍 : 支持 向量 机 技 术 中 , 函效 选 取 的 好 坏 直 接 影 响支 持 向量 机 的 性 能 . 在 核 目前 关 于 核 函效 的研 究 在 理 论 和 应 用 两 方 面 均 取 得 了一 定 的 成 果 , 还 未 深 入 到 足 以 指导 核 函效 的 选 取 . 文从 混 合 核 函数 着 手 研 究 , 立若 干选 取 规 则 , 但 本 建 得 到 关 于核 函效 选 取 的 方 法 . 用 平 衡 约 束 规 划 ( P C 模 型 来 优 化 选 取 参 效 , 决 了参 效 的选 取 问 题 . 采 M E) 解
单一 的普 通核 的性 能差 的情形 , 要原 因是混 合核 中 的核参数 过多 , 主 使得 模 型选 择 的困难增 大及 核参 数 的选 取不 当. 何根 据待 解决 的 问题筛选 恰 当的普 通 核构 造 混 合 核 , 如 如何 确 定 核参 数 的 问题仍 缺 乏 相
应 的理论 指 导. 在 已选 定 用哪 些普 通 核构 造混 合 核并 确 定 核参 数 的情 况下 , 何根 据具 体 的数 据 选 ② 如 择恰 当的权参 数 P是 尚待解 决 的 问题 . 文对 核函数 的选 取 问题 进行 了一 些探索 , 本 并尝 试建 立若 干选 取
维普资讯
第3 1卷 第 1期 20 0 8年 3月
辽 宁 师 范 大 学 学报 ( 自然科 学版 )
J u n lo a nn r lUnv riy ( t rl ce c iin o r a fLio ig No ma ie st Nau a in eEdt ) S o
坏 取决 于核 函数及 其参 数 的选 取. 核 函数 的类 型繁 多 , 有 利 弊 , 而 各 因此 如果 在 求 解实 际 问题 时 仅 仅采
用单一 的 核 函数 , 有一定 的局限性 . 会 而混 合核 函数则 能 做 到“ 长 避 短” 可 以兼 顾其 构 成 中的普 通 核 扬 , 函数 的优 势 , 到性 能更加 优 越 的 S 得 VM. 但是 , 混合 核函数 仍存 在 以下难 题 : 易 出现 构造 的混 合 核 比 ①
的最佳方 法 , 也是关 于 如何 构造 核 函数 的又一开创 性 的工作. 函数具有 如 下的性 质[ : 核 2 ]
当 K 和 K:是 X × X 上 的核 时 , R , V口≥ 0 则 有 K K:a , 均是 核. X 对 , + , K K K:
因此从 简单 的 核 函数 构造 复杂 的混 合核 函数 , 然满 足 Mecr 理. 仍 re定 文献[ 3 出 ,VM 性能 的好 5指 S
S VM 应 用领 域遇 到 的一个 重大 难题 . 目前 , 核函数 理论 方面 的研究 , 在 主要 集 中在 两 个 方面 : 是 研究 一
核 函数 的 性质[ ; 。 二是 核 函数 的构造 ( 改进 )方 法[ 目前 对 核 函数 的研 究 还未 能 深 入 到足 以指 导 我 或 . 们选 取核 函数 , 加 谈不 上根 据具 体 的数据构 造一个 核 函数 了. 更 在选 取核 函数解 决 实际 问题 时 , 常采用 的方法 有 : 是利 用 专家 的 先验 知识 预 先 给定 核 函 数 ; 通 一 二 是 采用 C o sVaiain rs- l t 方法 , d o 即在核 函数选 取 时 , 分别 试用 不 同的核 函数 , 归纳误 差最小 的核 函数 就是 最 好 的核 函数 ; 是采 用 由 S t 等 人[ 提 出 的混合核 函数方 法 , 三 mi s 5 ] 该方法 较 之前两 者是 目前选 取核 函数
理[ 和常用 的核函数 类 型 : 2 ] 多项 式 核 ; 向基 ( F 径 RB )核 ; 立 叶核 ; 条核 ;imod核. 傅 样 Sg i
不 同 的核 函数 会 导 致 S VM 的推 广 性 能 有 所 不 同 , 此 如何 根 据 具 体 数 据 选 择恰 当 的核 函数 是 因
相关文档
最新文档