径向基核函数 (Radial Basis Function)–RBF

合集下载

径向核函数-概述说明以及解释

径向核函数-概述说明以及解释

径向核函数-概述说明以及解释1.引言1.1 概述径向核函数(Radial Basis Function,RBF)是一种在机器学习领域广泛应用的核函数,它通过映射数据到高维特征空间来解决非线性分类和回归问题。

RBF核函数的特点是能够捕获数据之间的非线性关系,从而提高模型的泛化能力和预测准确性。

本文将从理解径向核函数的原理和应用、对其优缺点进行分析,并在结论部分对其进行总结和展望,以期为读者提供全面的了解和认识。

1.2 文章结构文章结构部分:本文主要分为三个部分,分别是引言、正文和结论。

在引言部分,将介绍径向核函数的概念和目的,为读者提供对该主题的初步了解。

同时,也会介绍本文的结构和内容安排,为读者呈现清晰的阅读框架。

正文部分将深入探讨径向核函数的理解和应用。

通过对径向核函数的原理和算法进行解析,帮助读者更好地理解其在机器学习和模式识别领域中的作用。

同时,本文还将探讨径向核函数的优缺点,对其在实际应用中的效果进行分析和评价。

结论部分将对全文进行总结,回顾本文所探讨的内容和观点。

同时,还将展望径向核函数在未来的应用前景,探讨其可能的发展方向。

最后,通过一些结束语,为本文画上一个完美的句号。

1.3 目的本文旨在深入探讨径向核函数在机器学习领域的应用及其原理。

通过对径向核函数的理解和应用实例的展示,我们希望读者能够更加全面地了解这一重要的核函数,并能够在实际问题中灵活运用。

同时,我们也将对径向核函数的优缺点进行分析,帮助读者在选择合适的核函数时有所侧重和考虑。

最终,我们希望通过本文的阐述,为读者提供了解径向核函数的深入洞察,并为其在实际应用中提供指导和帮助。

2.正文2.1 理解径向核函数径向核函数(RBF)是一种常用的核函数,也称为高斯核函数。

在支持向量机(SVM)等机器学习算法中,径向核函数被广泛应用于非线性分类和回归问题。

理解径向核函数的关键在于理解其计算方式和作用原理。

径向核函数的计算方式是通过测量数据点与指定中心点之间的距离来评估它们之间的相似性。

径向基神经网络RBF介绍

径向基神经网络RBF介绍

径向基神经网络RBF介绍径向基神经网络(Radial Basis Function Neural Network,以下简称RBF神经网络)是一种人工神经网络模型。

它以径向基函数为激活函数,具有快速学习速度和较高的逼近能力,被广泛应用于函数逼近、模式识别、时间序列预测等领域。

下面将详细介绍RBF神经网络的基本原理、结构和学习算法。

1.基本原理:RBF神经网络由输入层、隐藏层和输出层组成。

输入层接收外部输入数据,隐藏层由一组径向基函数组成,输出层计算输出值。

其基本原理是通过适当的权值与径向基函数的线性组合,将输入空间映射到高维特征空间,并在该空间中进行线性回归或分类。

RBF神经网络的关键在于选择合适的径向基函数和隐藏层节点的中心点。

2.网络结构:隐藏层是RBF神经网络的核心,它由一组径向基函数组成。

每个径向基函数具有一个中心点和一个半径。

典型的径向基函数有高斯函数和多项式函数。

高斯函数的形式为:φ(x) = exp(-β*,x-c,^2)其中,β为控制函数衰减速度的参数,c为径向基函数的中心点,x为输入向量。

隐藏层的输出由输入向量与每个径向基函数的权值进行加权求和后经过激活函数得到。

输出层通常采用线性激活函数,用于输出预测值。

3.学习算法:RBF神经网络的学习算法包括两个步骤:网络初始化和权值训练。

网络初始化时需要确定隐藏层节点的中心点和半径。

常用的方法有K-means 聚类和最大极大算法。

权值训练阶段的目标是通过输入样本和对应的目标值来调整权值,使得网络的输出尽可能接近目标值。

常用的方法有最小均方误差算法(Least Mean Square,LMS)和最小二乘法。

最小均方误差算法通过梯度下降法修改权值,使网络输出的均方误差最小化。

最小二乘法则通过求解线性方程组得到最优权值。

在训练过程中,需要进行误差反向传播,根据输出误差调整权值。

4.特点与应用:RBF神经网络具有以下特点:-输入输出非线性映射能力强,可以逼近复杂的非线性函数关系;-学习速度较快,只需通过非线性映射学习输出函数,避免了反向传播算法的迭代计算;-具有较好的泛化能力,对噪声和异常数据有一定的鲁棒性。

径向基函数(rbf)

径向基函数(rbf)

径向基函数(rbf)
径向基函数(radial basis function,简称RBF)是一类基于距
离的函数,在机器学习和统计模型中被广泛使用。

它们的主要方法是
将观测数据空间映射到一个高维特征空间,然后在特征空间中选择一
个合适的核函数,以此来建立模型。

RBF函数主要有三种类型:高斯函数、多次项函数和反函数。

其中高斯函数是RBF中最常见的一种,它可以有效地表示各种距离之间的
相似度,具有很好的非线性特性。

RBF在机器学习领域中的应用非常广泛,尤其是在监督学习算法中。

其中最经典的应用是径向基函数神经网络(radial basis function neural network,简称RBFNN),它是一种三层前向式神经网络,由输入层、隐含层和输出层组成。

RBFNN的隐含层是一组集中的RBF节点,用于对输入数据进行特征提取和非线性映射,而输出层则是一个线性
模型。

RBFS的主要优点是可以处理非线性问题,能够在高维特征空间中
实现有效的决策边界,具有很好的鲁棒性和泛化能力。

此外,RBF也可
以作为一种优秀的插值和拟合方法,用于函数逼近、信号处理和图像处理等领域。

然而,在实际应用中,RBF也存在一些问题。

首先,RBF无法处理参数多样性的问题,需要通过选择合适的核函数和调整参数来解决。

其次,RBF的计算复杂度较高,需要对大量数据进行处理,会导致处理速度慢。

此外,RBF也容易陷入局部极小值和过拟合等问题,需要通过一系列的优化方法来解决。

在未来的研究中,RBF可以通过结合其他机器学习算法和深度学习技术来进一步优化和完善,以实现更高效和准确的模型训练和预测。

matlab 径向基拟合

matlab 径向基拟合

MATLAB径向基拟合一、引言径向基函数(Radial Basis Function,RBF)是一种广泛应用于函数逼近、插值和数据拟合的非线性方法。

在MATLAB中,径向基拟合可以通过内置的函数和工具箱实现,为数据分析、机器学习和科学计算提供了强大的支持。

本文将深入探讨MATLAB中径向基拟合的实现方法和应用实例。

二、RBF原理简介径向基函数是一种特殊的函数,其值仅依赖于输入空间中点到某一中心点的距离。

最常见的径向基函数是高斯函数,其形式为exp(-γ * ||x-c||^2),其中x 是输入向量,c是中心点,γ是控制径向宽度的一个参数。

给定一组训练数据和相应的输出值,径向基网络通过选择适当的中心点和宽度参数,将这些径向基函数作为隐层神经元,构建一个能够逼近给定数据的非线性映射。

三、RBF在MATLAB中的实现在MATLAB中,实现径向基拟合需要利用一些特定的函数和工具箱。

最常用的可能是Radial Basis Function Network(RBFNET),它是MATLAB的神经网络工具箱中的一个组件。

下面是一个简单的实现步骤:●准备数据:首先需要准备一组训练数据,包括输入特征和对应的输出值。

这些数据可以来自任何类型的数据集,例如回归问题中的连续值预测或分类问题中的类别标签。

●创建RBF网络:使用MATLAB的神经网络工具箱,可以通过命令行或者GUI界面创建径向基网络。

这可以通过net = newrb函数来实现。

在创建网络时,需要指定输入和输出数据的维度、径向基函数的数量以及网络的训练参数等。

●训练网络:使用训练数据对创建好的RBF网络进行训练,这通常是通过最小化预测值和实际值之间的误差来实现的。

可以使用MATLAB中的train函数来完成这个步骤。

训练过程中会调整RBF网络的参数,以使得网络能够更好地逼近给定的数据。

●测试网络:训练完成后,可以使用测试数据对RBF网络进行测试,以评估其泛化能力。

svm rbf核函数

svm rbf核函数

svm rbf核函数
支持向量机(SupportVectorMachine,SVM)是一种二分类算法,但也可以拓展到多分类问题。

在SVM中,决策边界是由支持向量(支撑向量)构成的,也就是离分界面最近的样本点。

SVM的分类器可以使用不同的核函数,其中一个常用的核函数是径向基函数(Radial Basis Function,RBF)核函数。

RBF核函数的形式为:
$$
K(x_i,x_j)=exp(-gamma||x_i-x_j||^2)
$$
其中$x_i$和$x_j$是样本点,$gamma$是调节RBF核函数形状的参数。

当$gamma$越大时,决策边界会更加复杂,容易出现过拟合现象;当$gamma$越小时,决策边界会更加平滑,容易出现欠拟合现象。

需要注意的是,在使用SVM进行分类之前,需要进行特征缩放(feature scaling),以避免某些特征的值过大或过小导致模型训练不稳定。

通常的特征缩放方法有归一化(normalization)和标准化(standardization)。

总体来说,SVM是一种强大的分类器,但也需要根据具体问题选择合适的核函数和参数来进行调节。

- 1 -。

rbf核函数g取值范围问题

rbf核函数g取值范围问题

rbf核函数g取值范围问题【主题】rbf核函数g取值范围问题【导言】在机器学习领域,支持向量机(Support Vector Machine,简称SVM)是一种常用且强大的学习算法。

SVM通过核函数将非线性问题映射到高维特征空间,并通过找到最优分割超平面来解决分类问题。

在SVM中,径向基函数核函数(Radial Basis Function Kernel,简称RBF核函数)是一种常用的核函数。

然而,在使用RBF核函数时,我们需要关注它的参数g(gamma)的取值范围,以保证模型能够正确地学习和泛化。

本文将深入探讨RBF核函数g的取值范围问题,帮助读者更好地理解和应用SVM模型。

【正文】1. RBF核函数简介RBF核函数是SVM中最常用的核函数之一。

它的定义是一个关于特征空间中的两个向量之间距离的非线性函数。

在SVM中,RBF核函数的表达式为:K(x, y) = exp(-g * ||x - y||^2)其中,x和y是输入向量,在特征空间中表示样本数据的特征,||x - y||^2表示输入向量x与y之间的欧氏距离的平方,g是RBF核函数的一个参数,也称为gamma。

2. 参数g的作用与影响参数g在RBF核函数中起着重要的作用,它决定了样本点对分类器的影响程度。

参数g越大,每个样本点对分类器的影响越小,决策边界将会更加平滑;参数g越小,每个样本点对分类器的影响越大,决策边界将会更加复杂。

选取合适的参数g对于SVM模型的性能和泛化能力至关重要。

3. 参数g的取值范围在实际应用中,选取合适的参数g并不是一件容易的事情。

通常,我们可以尝试不同的取值范围,并通过交叉验证的方法来选择最优的参数。

在具体操作时,可以考虑以下几种策略:3.1 根据数据的分布情况选取g的初始范围我们可以通过观察数据的分布情况来初步确定参数g的取值范围。

如果数据具有明显的簇状结构,可以选择较小的g值,以保证决策边界可以更好地适应数据的密度变化。

径向基(Radialbasisfunction)神经网络、核函数的一些理解

径向基(Radialbasisfunction)神经网络、核函数的一些理解

径向基(Radialbasisfunction)神经⽹络、核函数的⼀些理解径向基函数(RBF)在神经⽹络领域扮演着重要的⾓⾊,如RBF神经⽹络具有唯⼀最佳逼近的特性,径向基作为核函数在SVM中能将输⼊样本映射到⾼维特征空间,解决⼀些原本线性不可分的问题。

本⽂主要讨论:1. 先讨论核函数是如何把数据映射到⾼维空间的,然后引⼊径向基函数作核函数,并特别说明⾼斯径向基函数的⼏何意义,以及它作为核函数时为什么能把数据映射到⽆限维空间。

2.提到了径向基函数,就继续讨论下径向基函数神经⽹络为什么能⽤来逼近。

再看这⽂章的时候,注意核函数是⼀回事,径向基函数是另⼀回事。

核函数表⽰的是⾼维空间⾥由于向量内积⽽计算出来的⼀个函数表达式(后⾯将见到)。

⽽径向基函数是⼀类函数,径向基函数是⼀个它的值(y)只依赖于变量(x)距原点距离的函数,即;也可以是距其他某个中⼼点的距离,即. . 也就是说,可以选定径向基函数来当核函数,譬如SVM⾥⼀般都⽤⾼斯径向基作为核函数,但是核函数不⼀定要选择径向基这⼀类函数。

如果感觉这段话有点绕没关系,往下看就能慢慢体会了。

为什么要将核函数和RBF神经⽹络放在⼀起,是希望学习它们的时候即能看到它们的联系⼜能找到其差别。

⼀.由⾮线性映射引⼊核函数概念,之后介绍⾼斯径向基及其⼏何意义。

预先规定是⼀个⾮线性映射函数,能够把空间中任⼀点,映射到空间中。

下⾯先⽤⼀个例⼦说明这种映射的好处。

例:假设⼆维平⾯上有⼀些系列样本点,他们的分布近似是⼀个围绕着原点的圆(见图1)。

那么在这个⼆维的样本空间⾥,这些样本点满⾜的曲线⽅程为:如果设⾮线性映射为:那么在映射后的的空间⾥,曲线⽅程变成了:这意味着在新空间⾥,样本点是分布在⼀条近似直线上的,⽽不是之前的圆,很明显这是有利于我们的。

图1.左图为原来的x所在的⼆维空间,右图为映射后的新的y空间继续这个例⼦,我们已经知道了映射关系,那么在y空间中的向量内积会是什么样⼦的呢?注意公式⾥的各种括号。

高斯过程核函数选取

高斯过程核函数选取

高斯过程核函数选取高斯过程是一种常用的机器学习方法,核函数是高斯过程的重要组成部分。

核函数的选取直接影响到高斯过程的性能和效果。

以下是一些常用的高斯过程核函数及其特点:1. 高斯核函数(Gaussian Kernel):也称为径向基函数(Radial Basis Function,RBF)核函数,是高斯过程中最常用的核函数之一。

它的形式为:$k(x,x')=\sigma^2\exp(-\frac{\|x-x'\|^2}{2l^2})$,其中$\sigma^2$和$l$是超参数,$\|x-x'\|$表示$x$和$x'$之间的欧几里得距离。

高斯核函数的优点是具有很好的拟合能力和泛化能力,但是超参数的选择比较困难。

2. 线性核函数(Linear Kernel):线性核函数的形式为$k(x,x')=x^Tx'$,其中$x$和$x'$是输入向量。

线性核函数的优点是计算速度快,但是它的拟合能力比较弱。

3. 多项式核函数(Polynomial Kernel):多项式核函数的形式为$k(x,x')=(x^Tx'+c)^d$,其中$c$和$d$是超参数。

多项式核函数的优点是可以处理非线性问题,但是超参数的选择比较困难。

4. 指数核函数(Exponential Kernel):指数核函数的形式为$k(x,x')=\exp(-\frac{\|x-x'\|}{l})$,其中$l$是超参数。

指数核函数的优点是可以处理非线性问题,但是它的拟合能力比较弱。

5. Laplace核函数(Laplace Kernel):Laplace核函数的形式为$k(x,x')=\exp(-\frac{\|x-x'\|}{l})$,其中$l$是超参数。

Laplace核函数的优点是可以处理非线性问题,但是它的拟合能力比较弱。

以上是一些常用的高斯过程核函数及其特点,具体选取哪种核函数需要根据具体问题进行选择。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
1、互动百科
2、Jasper’s Java Jacal–《SVM入门(七)为何需要核函数》
3、博文:svmlight使用的几点讨论
烧烤设备,烧烤大全,烧烤配方 j20I073WlNsa
我们把横轴上端点a和b之间红色部分里的所有点定为正类,两边的黑色部分里 的点定为负类。试问能找到一个线性函数把两类正确分开么?不能,因为二维空 间里的线性函数就是指直线,显然找不到符合条件的直线。 但我们可以找到一条曲线,例如下面这一条:

显然通过点在这条曲线的上方还是下方就可以判断点所属的类别(你在横轴上随 便找一点,算算这一点的函数值,会发现负类的点函数值一定比0大,而正类的一 定比0小)。这条曲线就是我们熟知的二次曲线,它的函数表达式可以写为:
用一个具体文本分类的例子来看看这种向高维空间映射从而分类的方法如何运 作,想象一下,我们文本分类问题的原始空间是1000维的(即每个要被分类的文
档被表示为一个1000维的向量),在这个维度上问题是线性不可分的。现在我们 有一个2000维空间里的线性函数 f(x’)=<w’,x’>+b 注意向量的右上角有个 ’哦。它能够将原问题变得可分。式中的 w’和x’都是2000维的向量,只不过w’是定值,而x’是变量(好吧,严格说来这个 函数是2001维的,哈哈),现在我们的输入呢,是一个1000维的向量x,分类的过程 是先把x变换为2000维的向量x’,然后求这个变换后的向量x’与向量w’的内积, 再把这个内积的值和b相加,就得到了结果,看结果大于阈值还是小于阈值就得 到了分类结果。
用交叉验证找到最好的参数 C 和γ 。使用 RBF 核时,要考虑两个参数 C 和γ 。因为参数的选择并没有一定的先验知识,必须做某种类型的模型选择(参数搜 索)。目的是确定好的(C,γ)使得分类器能正确的预测未知数据(即测试集数 据),有较高的分类精确率。值得注意的是得到高的训练正确率即是分类器预测 类标签已知的训练数据的正确率)不能保证在测试集上具有高的预测精度。因此 ,通 常采用交叉验证方法提高预测精度。k 折交叉验证(k-fold cross validation) ========================= 参考自:
径向基核函数 (Radial Basis Function)–RBF 发表于297 天前 ⁄ 技术, 科研 ⁄ 评论数 8 ⁄ 被围观 3526 views+
论文中又提到了RBF,虽然是个简单的核函数,但是也再总结 一下。关于SVM中的核函数的选择,比较简单和应用比较广的是RBF。
所谓径向基函数 (Radial Basis Function 简称 RBF), 就是某种沿径向对称的标量函数。 通常定义为空间中任一点x到某一中心xc之间欧氏距离的单调函数 , 可记作 k(||x-xc||), 其作用往往是局部的 , 即当x远离xc时函数取值很小。
核可以将样本映射到一个更高维的空间,可以处理当类标签(Class Labels)和特征之间的关系是非线性时的样例。Keerthi 等[25]证明了一个有惩罚参数C 的线性核同有参数(C,γ )(其中C 为惩罚因子,γ 为核参数)的 RBF 核具有相同的性能。对某些参数,Sigmoid核同 RBF 核具有相似的性能[26]。另外,RBF 核与多项式核相比具有参数少的优点。因为参数的个数直接影响到模型选择的 复杂性。非常重要的一点是0< Kij ≤1与多项式核相反,核值可能趋向无限(γxi xj + r >1)或者0 < γxi xj + r <1,跨度非常大。而且,必须注意的是Sigmoid 核在某些参数下是不正确的(例如,没有两个向量的内积)。
看出妙在哪了么?原来在二维空间中一个线性不可分的问题,映射到四维空间 后,变成了线性可分的
!因此这也形成了我们最初想解决线性不可分问题的基本思路—— 向高维空间转化,使其变得线性可分。
而转化最关键的部分就在于找到x到y的映射方法。遗憾的是,如何找到这个映射 ,没有系统性的方法(也就是说,纯靠猜和凑)。具体到我们的文本分类问题,文 本被表示为上千维的向量,即使维数已经如此之高,也常常是线性不可分的,还 要向更高的空间转化。其中的难度可想而知。
你发现了什么?我们其实只关心那个高维空间里内积的值,那个值算出来了,分 类结果就算出来了。而从理论上说, x’是经由x变换来的,因此广义上可以把它叫做x的函数(有一个x,就确定了一个 x’,对吧,确定不出第二个),而w’是常量,它是一个低维空间里的常量w经过变 换得到的,所以给了一个w 和x的值,就有一个确定的f(x’)值与其对应。这让我们幻想,是否能有这样一种 函数K(w,x),他接受低维空间的输入值,却能算出高维空间的内积值<w’,x’>?
问题只是它不是一个线性函数,但是,下面要注意看了,新建一个向量y和a:
这样g(x)就可以转化为f(y)=<a,y>,你可以把y和a分别回带一下,看看等不等于 原来的g(x)。用内积的形式写你可能看不太清楚,实际上f(y)的形式就是: g(x)=f(y)=ay 在任意维度的空间中,这种形式的函数都是一个线性函数(只不过其中的a和y都 是多维向量罢了),因为自变量y的次数不大于1。
如果有这样的函数,那么当给了一个低维空间的输入x以后,
g(x)=K(w,x)+b f(x’)=<w’,x’>+b
这两个函数的计算结果就完全一样,我们也就用不着费力找那个映射关系,直接 拿低维的输入往g(x)里面代就可以了(再次提醒,这回的g(x)就不是线性函数啦 ,因为你不能保证K(w,x)这个表达式里的x次数不高于1哦)。 万幸的是,这样的K(w,x)确实存在(发现凡是我们人类能解决的问题,大都是巧 得不能再巧,特殊得不能再特殊的问题,总是恰好有些能投机取巧的地 方才能解决,由此感到人类的渺小),它被称作核函数(核,kernel),而且还不止 一个,事实上,只要是满足了Mercer条件的函数,都可以作为核函 数。核函数的基本作用就是接受两个低维空间里的向量,能够计算出经过某个变 换后在高维空间里的向量内积值。几个比较常用的核函数,俄,教课书里都列过 ,我 就不敲了(懒!)。 回想我们上节说的求一个线性分类器,它的形式应该是:
对第二个问题的解决则引出了我们下一节的主题:松弛变量。 ================== 核函数有很多种,如线性核、多项式核、Sigmoid 核和 RBF(Radial Basis function)核。本文选定 RBF 核为 SVM 的核函数(RBF 核K(x, y) = exp(-γ || x -y ||的平方),γ > 0)。因为RBF
现在这个就是高维空间里的线性函数(为了区别低维和高维空间里的函数和向量 ,我改了函数的名字,并且给w和x都加上了 ’),我们就可以用一个低维空间里的函数(再一次的,这个低维空间里的函数就 不再是线性的啦)来代替,
又发现什么了?f(x’) 和g(x)里的α,y,b全都是一样一样的!这就是说,尽管给的问题是线性不可分 的,但是我们就硬当它是线性问题来求解,只不过求解过程中,凡是要求内积 的时候就用你选定的核函数来算。这样求出来的α再和你选定的核函数一组合, 就得到分类器啦!
最常用的径向基函数是高斯核函数 ,形式为 k(||x-xc||)=exp{- ||xxc||^2/(2*σ)^2) } 其中xc为核函数中心,σ为函数的宽度参数 , 控制了函数的径向作用范围。
建议首选RBF核函数,因为:
1. 能够实现非线性映射;( 线性核函数可以证明是他的一个特例;SIGMOID核函数在某些参数上近似R BF的功能。)
小Tips:为什么说f(y)=ay是四维空间里的函数?
大家可能一时没看明白。回想一下我们二维空间里的函数定义 g(x)=ax+b 变量x是一维的,为什么说它是二维空间里的函数呢?因为还有一个变量我们没 写出来,它的完整形式其实是 y=g(x)=ax+b 即 y=ax+b 看看,有几个变量?两个,二维。 再看看 f(y)=ay 里面的y是三维的变量,再加上f(y)成为四维的了。
2. 参数的数量影响模型的复杂程度,多项式核函数参数较多。 3. the RBF kernel has less numerical difficulties. ———–那么,还记得为何要选用核函数么?———–
对于这个问题,在Jasper’s Java Jacal博客《SVM入门(七)为何需要核函数》中做了很详细的阐述,另外博主对于S VM德入门学习也是做了很详细的阐述,有兴趣的可以去学习,丕子觉得这个文章 写得相当好,特意转载了过来,留念一下。 如果提供的样本线性不可分,结果很简单,线性分类器的求解程序会无限循环, 永远也解不出来。这必然使得它的适用范围大大缩小,而它的很多优点我们实在 不原意放弃,怎么办呢?是否有某种方法,让线性不可分的数据变得线性可分呢 ? 例子是下面这张图:
明白了以上这些,会自然的问接下来两个问题:
1. 既然有很多的核函数,针对具体问题该怎么选择?
2. 如果使用核函数向高维空间映射后,问题仍然是线性不可分的,那怎么办?
第一个问题现在就可以回答你:对核函数的选择,现在还缺乏指导原则!各种实 验的观察结果(不光是文本分类)的确表明,某些问题用某些核函数效果很 好,用另一些就很差,但是一般来讲,径向基核函数是不会出太大偏差的一种, 首选。(我做文本分类系统的时候,使用径向基核函数,没有参数调优的情况下, 绝 大部分类别的准确和召回都在85%以上,可见。虽然libSVM的作者林智仁认为文 本分类用线性核函数效果更佳,待考证)
相关文档
最新文档