核函数
核函数知识点总结期末

核函数知识点总结期末一、核函数的定义2.核函数的性质3.常见类型的核函数4.核函数的应用5.总结一、核函数的定义在支持向量机中,核函数(Kernel Function)是一个用来衡量两个输入向量之间的相似度的函数。
它的作用是将输入向量映射到高维空间中,使得原本在低维空间中不可分的数据变得在高维空间中可分。
数学上,核函数可以表示为:K(x, y) = φ(x) • φ(y)其中,φ(x)是将输入向量x映射到高维空间中的函数。
核函数的选择对支持向量机的性能和效果有着重要的影响。
不同的核函数对应着不同的数据分布和特征空间,因此选择合适的核函数是支持向量机模型设计中的关键问题。
2.核函数的性质核函数有一些重要的性质,这些性质直接影响到支持向量机的性能和效果。
(1)正定性:核函数是一个正定函数,即对任意的输入向量x,y,核函数满足:K(x, y) ≥ 0(2)对称性:核函数是一个对称函数,即对任意的输入向量x,y,核函数满足:K(x, y) = K(y, x)(3)Mercer定理:一个函数是一个合法的核函数,必须满足Mercer定理。
Mercer定理指出,一个函数是合法的核函数的充分必要条件是,对任意的输入数据,其对应的Gram 矩阵是半正定的。
这些性质保证了核函数能够在支持向量机中有效地发挥作用,使得支持向量机具有较强的表达能力和泛化能力。
3.常见类型的核函数核函数有很多种不同类型,常见的包括线性核函数、多项式核函数、高斯核函数等。
每种核函数都有着不同的特点和适用范围。
(1)线性核函数:线性核函数是最简单的核函数,它实际上是不对输入向量进行任何映射,直接在输入空间中进行内积运算。
线性核函数的数学表示为:K(x, y) = x • y线性核函数适用于数据在低维空间中就可以线性分类的情况,对于非线性数据则不适用。
(2)多项式核函数:多项式核函数对输入向量进行多项式映射,将输入向量映射到高维空间中。
多项式核函数的数学表示为:K(x, y) = (x • y + c)^d其中,c和d分别是多项式核函数的常数。
核函数知识点

核函数知识点核函数是机器学习领域中一种重要的数学工具,用于处理非线性问题。
它在支持向量机(Support Vector Machine,简称SVM)等算法中广泛应用。
本文将介绍核函数的基本概念、常见类型以及其在机器学习中的应用。
一、核函数概述核函数是一种将低维特征空间映射到高维空间的函数。
通过核函数的转换,可以将线性不可分的数据在高维空间中变得线性可分,从而使得SVM等机器学习算法能够处理非线性分类问题。
核函数的基本思想是通过非线性映射将数据从原始空间转换到一个新的空间,在新的空间中进行线性操作。
这种转换可以将原来无法线性划分的数据变得线性可分。
二、常见核函数类型1. 线性核函数(Linear Kernel)线性核函数是最简单的核函数,它不进行任何映射,仅仅计算原始特征空间中的内积。
其数学表示形式为K(x, y) = x·y,其中x和y表示原始特征空间中的两个向量。
2. 多项式核函数(Polynomial Kernel)多项式核函数通过将特征空间映射到更高维度的空间,使得原始数据在新的空间中变得线性可分。
其数学表示形式为K(x, y) = (x·y + c)^d,其中c表示常数,d表示多项式的次数。
3. 高斯核函数(Gaussian Kernel)高斯核函数是最常用的核函数之一,也称为径向基函数(Radial Basis Function,简称RBF)。
高斯核函数能够将原始特征空间映射到无限维的特征空间,使得数据在新的空间中呈现出非线性特征。
其数学表示形式为K(x, y) = exp(-γ||x-y||^2),其中γ表示高斯核函数的带宽参数。
4. 拉普拉斯核函数(Laplacian Kernel)拉普拉斯核函数是一种基于拉普拉斯分布的核函数。
与高斯核函数类似,它也能够将数据映射到无限维的特征空间,实现对非线性数据的线性分类。
其数学表示形式为K(x, y) = exp(-γ||x-y||),其中γ表示拉普拉斯核函数的带宽参数。
svm常用核函数

svm常用核函数SVM(Support Vector Machine,支持向量机)是一种常用的机器学习算法,被广泛应用于分类和回归问题。
SVM的核心思想是将数据映射到高维空间中,通过在特征空间中找到最优超平面来进行分类或回归。
为了实现这一目标,SVM使用了一些常用的核函数来处理非线性问题。
本文将介绍几种常用的SVM核函数。
1. 线性核函数线性核函数是SVM中最简单的核函数之一。
它可以将数据映射到更高维的空间中,从而使数据在高维空间中变得线性可分。
线性核函数的形式为K(x, y) = x * y,其中x和y代表输入数据的特征向量。
线性核函数适用于处理线性可分的问题,但对于非线性问题效果有限。
2. 多项式核函数多项式核函数是一种常见的非线性核函数。
它通过将数据映射到更高维度的多项式空间中,来处理非线性问题。
多项式核函数的形式为K(x, y) = (x * y + c)^d,其中c是常数,d是多项式的次数。
多项式核函数可以处理一定程度上的非线性问题,但对于复杂的非线性问题可能效果不佳。
3. 高斯核函数(RBF核函数)高斯核函数,也称为径向基函数(Radial Basis Function,RBF)核函数,是SVM中最常用的核函数之一。
它将数据映射到无穷维的特征空间中,通过计算输入数据与支持向量之间的相似度来进行分类或回归。
高斯核函数的形式为K(x, y) = exp(-||x - y||^2 / (2 * sigma^2)),其中sigma是高斯核函数的带宽参数。
高斯核函数可以处理复杂的非线性问题,并且在实际应用中表现良好。
4. Sigmoid核函数Sigmoid核函数是一种常用的非线性核函数,它可以将数据映射到无穷维的特征空间中。
Sigmoid核函数的形式为K(x, y) = tanh(alpha * x * y + beta),其中alpha和beta是调节参数。
Sigmoid核函数可以处理非线性问题,但在某些情况下可能会出现过拟合的问题。
核函数(kernelfunction)

核函数(kernelfunction)在接触反演、算法等⽅⾯的知识后,经常听到“核”这个字,它不像对原始变量的线性变换,也不像类似于机器学习中激活函数那样的⾮线性变换,对原始数据进⾏变换,就可以将复杂的问题简单化。
接下来,就让我们了解了解“核”这个东西。
参考链接:注,kernel function 与kernel function指的是同⼀个东西,可以这样理解:核⽅法只是⼀种处理问题的技巧,低维空间线性不可分可以在⾼维空间线性可分,但是⾼维空间的计算复杂度⼜很⼤,那么我们就把⾼维空间的计算通过低维空间的计算外加⼀些线性变换来完成。
还有,都说核⽅法与映射⽆关,怎么理解呢?核⽅法是⼀种技巧,不管怎么映射,我们都是⽤低维空间的计算来解决⾼维空间计算复杂的问题。
1. 问题描述给定两个向量(x_i)和(x_j),我们的⽬标是要计算他们的内积\(I\) = <\(x_i\), \(x_j\)>。
现在假设我们通过某种⾮线性变换:\(\Phi : x \rightarrow \phi(x)\)把他们映射到某⼀个⾼维空间中去,那么映射后的向量就变成:\(\phi(x_i)\)和\(\phi(x_j)\),映射后的内积就变成:\(I’\) = <\(\phi(x_j)\),\ (\phi(x_j)\)>。
现在该如何计算映射后的内积呢?传统⽅法是先计算映射后的向量\(\phi(x_i)\)和\(\phi(x_j)\),然后再计算它俩的内积。
但是这样做计算很复杂,因为映射到⾼维空间后的数据维度很⾼。
⽐如,假设\(x_i\)和\(x_j\)在映射之后都是⼀个( \(1 \times 10000\))维的向量,那么他们的内积计算就需要做10000次加法操作和10000次乘法操作,显然复杂度很⾼。
于是,数学家们就想出⼀个办法:能不能在原始空间找到⼀个函数\(K(x_i,x_j)\)使得\(K(x_i,x_j) = <\phi(x_j),\phi(x_j)>\)呢?如果这个函数存在,那么我们只需要在低维空间⾥计算函数\(K(x_i,x_j)\)的值即可,⽽不需要先把数据映射到⾼维空间,再通过复杂的计算求解映射后的内积了。
常见的核函数

常见的核函数核函数是机器学习中一种常用的方法,它主要用于将高维空间中的数据映射到低维空间中,从而提升算法的性能。
核函数在SVM、PCA、KPCA等机器学习算法中广泛应用。
下面我们将介绍常见的核函数。
1. 线性核函数线性核函数是最简单的核函数之一,它是一种将数据点映射到低维空间的方式,其表达式如下:K(x_i, x_j) = (x_i * x_j)其中x_i, x_j是样本数据集中的两个数据,返回一个标量值。
线性核函数的优点在于需要的计算量较小,适用于大型数据集,但它的缺点是它只能处理线性分离的数据。
2. 多项式核函数其中x_i, x_j是样本数据集中的两个数据,c是一个常数,d是多项式的度数。
多项式核函数适用于非线性分离的数据。
3. 径向基函数(RBF)核函数其中x_i, x_j是样本数据集中的两个数据,gamma是一个正常数,||x_i - x_j||^2表示两个数据点之间的欧几里得距离的平方。
4. Sigmoid核函数其中x_i, x_j是样本数据集中的两个数据,alpha和beta是Sigmoid函数参数。
Sigmoid核函数适用于二分类问题。
上述四种核函数都是常见的核函数,它们各自有不同的优劣势,在不同的机器学习算法中应该选择适当的核函数来处理不同的数据。
除了上述四种常见的核函数,还有其他的一些核函数也具有重要的应用价值。
5. Laplacian核函数Laplacian核函数计算方式类似于径向基函数,但是它将样本数据点间的距离转化成样本数据点间的相似度,其表达式如下:K(x_i, x_j) = exp(-gamma * ||x_i - x_j||)其中gamma和径向基函数中的参数相同。
Laplacian核函数在图像识别和自然语言处理等领域有着广泛的应用。
6. ANOVA核函数ANOVA核函数通常用于数据分析和统计学中,它对混合多种类型数据的模型有较好的表现,其表达式如下:其中h_i和h_j是从样本数据点中提取出来的特征,gamma是一个常数。
ceres的核函数

ceres的核函数Ceres的核函数Ceres是一种用于非线性最小二乘问题求解的优化库。
在Ceres中,核函数是用于衡量残差的权重的一种函数。
核函数的作用是将残差转化为代价函数,进而影响优化过程中的参数更新。
Ceres库提供了多种核函数供用户选择,包括Huber核函数、Cauchy核函数、Tukey核函数等。
1. Huber核函数Huber核函数是一种鲁棒(robust)核函数,它在残差较小的情况下近似于平方函数,在残差较大的情况下近似于线性函数。
Huber 核函数的形式如下:φ(r) ={0.5 * r^2, |r| <= δδ * (|r| - 0.5 * δ), |r| > δ}其中,r为残差,δ为阈值。
当残差的绝对值小于等于阈值δ时,使用平方函数;当残差的绝对值大于阈值δ时,使用线性函数。
Huber核函数的优点是对异常值具有较好的鲁棒性,能够减小异常值对优化结果的影响。
2. Cauchy核函数Cauchy核函数是一种鲁棒核函数,它在残差较小时近似于平方函数,在残差较大时近似于对数函数。
Cauchy核函数的形式如下:φ(r)= ln(1 + (r/δ)^2)其中,r为残差,δ为阈值。
Cauchy核函数在残差较小的情况下和平方函数类似,但对残差较大的情况下有更快的衰减。
相比于Huber核函数,Cauchy核函数对异常值的惩罚更加严厉。
3. Tukey核函数Tukey核函数是一种鲁棒核函数,它在残差较小时近似于平方函数,在残差较大时近似于常数函数。
Tukey核函数的形式如下:φ(r) ={δ^2 * (1 - (1 - (r/δ)^2)^3), |r| <= δδ^2, |r| > δ}其中,r为残差,δ为阈值。
当残差的绝对值小于等于阈值δ时,使用平方函数;当残差的绝对值大于阈值δ时,使用常数函数。
Tukey核函数在残差较小的情况下和平方函数类似,但对残差较大的情况下有更快的衰减。
核函数

生存?还是毁灭?——哈姆雷特可分?还是不可分?——支持向量机之前一直在讨论的线性分类器,器如其名(汗,这是什么说法啊),只能对线性可分的样本做处理。
如果提供的样本线性不可分,结果很简单,线性分类器的求解程序会无限循环,永远也解不出来。
这必然使得它的适用范围大大缩小,而它的很多优点我们实在不原意放弃,怎么办呢?是否有某种方法,让线性不可分的数据变得线性可分呢?有!其思想说来也简单,来用一个二维平面中的分类问题作例子,你一看就会明白。
事先声明,下面这个例子是网络早就有的,我一时找不到原作者的正确信息,在此借用,并加进了我自己的解说而已。
例子是下面这张图:我们把横轴上端点a和b之间红色部分里的所有点定为正类,两边的黑色部分里的点定为负类。
试问能找到一个线性函数把两类正确分开么?不能,因为二维空间里的线性函数就是指直线,显然找不到符合条件的直线。
但我们可以找到一条曲线,例如下面这一条:显然通过点在这条曲线的上方还是下方就可以判断点所属的类别(你在横轴上随便找一点,算算这一点的函数值,会发现负类的点函数值一定比0大,而正类的一定比0小)。
这条曲线就是我们熟知的二次曲线,它的函数表达式可以写为:问题只是它不是一个线性函数,但是,下面要注意看了,新建一个向量y和a:这样g(x)就可以转化为f(y)=<a,y>,你可以把y和a分别回带一下,看看等不等于原来的g(x)。
用内积的形式写你可能看不太清楚,实际上f(y)的形式就是:g(x)=f(y)=ay在任意维度的空间中,这种形式的函数都是一个线性函数(只不过其中的a和y都是多维向量罢了),因为自变量y的次数不大于1。
看出妙在哪了么?原来在二维空间中一个线性不可分的问题,映射到四维空间后,变成了线性可分的!因此这也形成了我们最初想解决线性不可分问题的基本思路——向高维空间转化,使其变得线性可分。
而转化最关键的部分就在于找到x到y的映射方法。
遗憾的是,如何找到这个映射,没有系统性的方法(也就是说,纯靠猜和凑)。
cuda 核函数内for循环

CUDA(Compute Unified Device Architecture)是由NVIDIA推出的并行计算架构,可以利用GPU(Graphics Processing Unit)进行高性能计算。
在CUDA中,核函数(kernel function)是在GPU上执行的并行函数,它可以由多个线程同时执行,以加速计算过程。
对于一些需要大量重复计算的任务,可以使用核函数内的for循环来实现并行化计算,从而提高计算效率。
1. 核函数的概念和作用核函数是在CUDA中执行的并行函数,可以由多个线程同时执行,以加速计算过程。
在核函数中,可以对数据进行并行处理,利用GPU的并行计算能力来加速计算任务。
核函数的使用可以极大地提高计算性能,尤其是对于需要重复计算的任务来说,可以实现更高效的并行计算。
2. 核函数内的for循环在核函数内部,通常需要对数据进行遍历和计算,而这些计算往往需要通过循环来实现。
在CUDA中,可以使用for循环来对数据进行并行处理,实现并行化计算。
在核函数内部使用for循环,可以将计算任务分配给多个线程来并行处理,以提高计算效率。
通过核函数内的for循环,可以充分利用GPU的并行计算能力,加速计算过程。
3. 实现核函数内的for循环要实现核函数内的for循环,首先需要了解GPU的并行计算模式。
在CUDA中,核函数内的每个线程都会处理一个数据元素,因此可以通过for循环将计算任务平均分配给每个线程来实现并行化计算。
还需要考虑数据的划分和线程的同步等问题,确保计算任务能够正确并且高效地并行化执行。
4. 示例代码下面是一个在核函数内实现for循环的示例代码:```c__global__ void parallel_for_loop(float* input, float* output, int N) {int tid = blockIdx.x * blockDim.x + threadIdx.x;for (int i = tid; i < N; i += blockDim.x * gridDim.x) {// 对数据进行计算output[i] = input[i] * 2;}}```在这个示例代码中,核函数`parallel_for_loop`内使用了for循环来处理数据。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
SVM 小结
理论基础:
机器学习有三类基本的问题,即模式识别、函数逼近和概率密度估计.
SVM 有着严格的理论基础,建立了一套较好的有限训练样本下机器学习的理论框架和通用方法。
他与机器学习是密切相关的,很多理论甚至解决了机器学习领域的其他的问题,所以学习SVM 和机器学习是相辅相成的,两者可以互相促进,有助于机器学习理论本质的理解。
VC 维理论:对一个指示函数集,如果存在h 个样本能够被函数集中的函数按所有可能的2h 种形式分开,则称函数集能够把h 个样本打散;函数集的VC 维就是它能打散的最大样本数目。
VC 维反映了函数集的学习能力,VC 维越太则学习机器越复杂(容量越太)。
期望风险:其公式为[](,,(,))(,)y R f c y f y dP y χχχχ⨯=⎰,其中(,,(,))c y f y χχ为损失函数,(,)P y χ为概率分布,期望风险的大小可以直观的理解为,当我们用()f χ进行预测时,“平均”的损失程度,或“平均”犯错误的程度。
经验风险最小化(ERM 准则)归纳原则:但是,只有样本却无法计算期望风险,因此,传统的学习方法用样本定义经验风险[]emp R f 作为对期望风险的估计,并设计学习算法使之最小化。
即所谓的经验风险最小化(ERM 准则)归纳原则。
经验风险是用损失函数来计算的。
对于模式识别问题的损失函数来说,经验风险就是训练样本错误率;对于函数逼近问题的损失函数来说,就是平方训练误差;而对于概率密度估计问题的损失函数来说,ERM 准则就等价于最大似然法。
但是,经验风险最小不一定意味着期望风险最小。
其实,只有样本数目趋近于无穷大时,经验风险才有可能趋近于期望风险。
但是很多问题中样本数目离无穷大很远,那么在有限样本下ERM 准则就不一定能使真实风险较小。
ERM 准则不成功的一个例子就是神经网络和决策树的过学习问题(某些情况下,训练误差过小反而导致推广能力下降,或者说是训练误差过小导致了预测错误率的增加,即真实风险的增加)。
结构风险最小化理论(SRM):所以,在有限样本情况下,仅仅用ERM 来近似期望风险是行不通的。
统计学习理论给出了期望风险[]R f 与经验风险[]emp R f 之间关系:
[][]()emp h R f R f l φ≤+
其中
()
h
l
为置信区间,是VC维h的增函数,也是样本数l的减函数。
右端称为结构风险,
它是期望风险
[]
R f的一个上界。
经验风险的最小依赖较大的 F (样本数较多的函数集)
中某个f 的选择,但是 F 较大,则VC维较大,就导致置信区间变大,所以要想使期望风
险
[]
R f最小,必须选择合适的h和l来使不等式右边的结构风险最小,这就是结构风险最
小化归纳原则。
实现SRM的思路之一就是设计函数集的某种结构使每个子集中都能取得最小的经验风险(如使训练误差为0),然后只需选择适当的子集使置信范围最小,则这个子集中使经验风险最小的函数就是最优函数。
SVM方法实际上就是这种思想的具体实现。
主要思想:
SVM方法是从线性可分情况下的最优分类面提出的,它是实现统计学习理论思想的方法。
所谓最优分类面就是要求分类面不但能将两类无错误地分开,而且要使两类的分类间隔最大。
前者是保证经验风险最小(如使训练误差为0),而使分类间隔最大实际上就是使推广性的界中的置信范围最小,从而使真实风险最小。
构造这个最优分类面的方法有2个:平分最近点法和最大间隔法。
这两个方法求解得到的是同一个超平面,这个方法就称为“线性可分支持向量分类机”。
其实,这个分类机是将最大间隔法求解最优分类面的最优化问题转化为其对偶问题,从而通过求解相对简单的对偶问题来求解原分类问题的算法。
随后引入松弛变量和惩罚因子来解决非线性分类问题,并且允许一定的分类错误,最终得到非线性软间隔的标准的C-支持向量机(C-SVC)。
其中的巧妙之处就在于把一个复杂的最优化问题的求解简化为对原有样本数据的内积运算。
我们要做的就是选择适当的核函数及其参数、惩罚因子就可以了。
对于线性不可分情况,则通过核函数,把输入映射到另一个空间中,在新的空间中使用线性支持向量机。
核函数:
核方法在数学中是个古老的命题.通过一个特征映射可以将输入空间(低维的)中的线性不可分数据映射成高维特征空间中(再生核Hilbert空间)中的线性可分数据.这样就可以在特征空间使用SVM方法了.因为使用svm方法得到的学习机器只涉及特征空间中的内积,而内积又可以通过某个核函数(所谓Mercer核)来表示,因此我们可以利用核函数来表示最终的学习机器.这就是所谓的核方法.核函数本质上是对应于高维空间中的内积的,从而与生成高维空间的特征映射一一对应.核方法正是借用这一对应关系隐性的使用了非线性特征映射(当然也可以是线性的).这一方法即使得我们能够利用高维空间让数据变得易于处理----不可分
的变成可分的,同时又回避了高维空间带来的维数灾难-----不用显式表达特征映射.
核技巧把高维空间中两个点的内积计算,用原来空间中的两个模式的简单函数即核函数的求值来代替。
核技巧不仅应用于支持向量机,还可以应用于那些含有内积计算的非线性算法。
例如函数逼近,主成分分析等等。
在支持向量机中使用的核函数主要有四类:
线性核函数:
(,)T
i j i j K X X X X
=
多项式核函数:
(,)(),0
T d
i j i j
K X X X X r
γγ
=+>
RBF核函数:
2 (,)exp(||||),0
i j i j
K X X X X
γγ
=-->
Sigmoid核函数:
(,)tanh()
T
i j i j
K X X X X r
γ
=+
其中,
,r
γ
和d均为核参数。
究竟用哪一种核函数取决对数据处理的要求,不过建议一般都是使用RBF核函数。
因为RBF核函数具有良好的性态,在实际问题中表现出了良好的性能。
软件工具:
支持向量机的软件工具主要有LIBSVM和SVMLight,其中我详细了解了LIBSVM。
LIBSVM 是一个开源的软件包,是台湾大学林智仁博士等开发的,可以解决上面所提到的三类机器学习基本问题,提供了线性、多项式、径向基和S形函数四种常用的核函数供选择。
LIBSVM 使用的一般步骤是:
1)按照LIBSVM软件包所要求的格式准备数据集;
2)对数据进行简单的缩放操作;
3)考虑选用RBF 核函数
2
(,)exp(||||),0
i j i j
K X X X X
γγ
=-->
;
4)采用交叉验证选择最佳参数C与g ;
5)采用最佳参数C与g 对整个训练集进行训练获取支持向量机模型;
6)利用获取的模型进行测试与预测。
应用领域
SVM可以用于模式识别、函数逼近和概率密度估计.
总的来说,SVM能够较好的解决小样本,非线性,高维数识别和局部极小点等问题。
详细说来,可以应用于如下领域:人脸检测,故障诊断,分类,回归,聚类,时间序列预测,系统辨识,金融工程,生物医药信号处理,数据挖掘,生物信息,文本挖掘,自适应信号处理,剪接位点识别,基于支持向量机的数据库学习算法,手写体相似字识别,支持向量机函数拟合在分形插值中的应用,基于支持向量机的惯导初始对准系统,岩爆预测的支持向量机,缺陷识别,计算机键盘用户身份验证,视频字幕自动定位于提取,说话人的确认,等等。
研究方向:
虽然SVM 方法在理论上具有很突出的优势, 但与其理论研究相比,应用研究尚相对比较滞后, 所以现在的主要的研究方向就是SVM的应用。
包括SVM在新领域的应用以及跟其他方法的结合。
例如SVM决策树可以用于多层分类。
所以,归纳如下
核函数的构造和参数的选择;支持向量机从两类问题向多类问题的推广;更多的应用领域的推广;与目前其它机器学习方法的融合;与数据预处理(样本的重要度,属性的重要度,特征选择等)方面方法的结合,将数据中脱离领域知识的信息,即数据本身的性质融入支持向量机的算法中从而产生新的算法;支持向量机训练算法的探索。
阅读材料
1.数据挖掘中的新方法-支持向量机邓乃扬田英杰著
2.支持向量机导论
3. A practical guide to SVM classification.pdf
4. LibSVM-2.6 程序代码注释.pdf
5. 一种新的SVm决策树.pdf
6. 2000年26卷1期-关于统计学习理论与向量机.pdf
7 支持向量机的研究现状与进展.pdf
8. 统计学习理论的本质。