四类基于支持向量机的多类分类器的性能比较
如何使用支持向量机进行多标签分类(四)

支持向量机(Support Vector Machine, SVM)是一种强大的机器学习算法,常用于分类和回归分析。
在分类问题中,支持向量机可以被用于处理多标签分类问题,即一个数据点可以被分到多个类别中。
本文将介绍如何使用支持向量机进行多标签分类,并探讨一些相关的技巧和方法。
支持向量机是一种监督学习算法,它的目标是找到一个最优的超平面来划分数据空间,以最大化分类的边界。
在二分类问题中,支持向量机的目标是找到一个能够将两类数据点分开的超平面。
而在多标签分类问题中,支持向量机需要找到多个超平面来区分不同的类别。
首先,为了使用支持向量机进行多标签分类,需要准备一些标记好的训练数据。
每个数据点都应该有一个或多个标签,代表其所属的类别。
这些标签可以是二进制的,也可以是多类别的。
接下来,需要将数据进行预处理,包括特征提取、特征选择和数据标准化等步骤。
在准备好数据后,可以使用支持向量机的一些变种算法来进行多标签分类。
其中,一种常用的方法是使用一对其余(One-vs-Rest, OvR)策略,即将每个类别与其他所有类别进行区分。
另一种方法是使用一对一(One-vs-One, OvO)策略,即为每一对类别建立一个分类器。
这两种方法都可以用来解决多标签分类问题,但在实际应用中需要根据数据集的特点来选择合适的方法。
除了选择合适的方法,还需要对支持向量机的超参数进行调参。
支持向量机有一些重要的超参数,如惩罚参数C、核函数和核函数参数等。
这些超参数的选择会影响支持向量机的分类性能,因此需要通过交叉验证等方法来进行调参。
另外,支持向量机还可以与其他机器学习算法相结合,以提高多标签分类的性能。
例如,可以使用集成学习方法,如随机森林、梯度提升树等,来融合支持向量机的输出结果。
这样可以减轻支持向量机在处理多标签分类问题上的一些局限性,如对大规模数据和高维数据的处理能力。
除了以上的方法和技巧,还可以考虑使用一些特征选择和降维的方法,如主成分分析(Principal Component Analysis, PCA)和线性判别分析(Linear Discriminant Analysis, LDA),来减少数据的维度和提高分类的准确性。
支持向量机多类分类方法的精度分析

B i n no a o ce c n e h o g nv r t , e ig 1012, hn ) e i Ifr t n S i e a d T c n l y U i s y B in 0 9 C ia jg m i n o ei j
Abta tI re osl tapor t m l—l ssp otvc rm c ie ( V src : od rt ee p rpi e utca u p r et ahn s S M) epo oe n c a i s o ,w rps
p e iin f r l e o ne a ans—h —e ta d Bi a y Tr e ca sfc to t o s r m h s o mu a rc so o mu a f o — g i tt e r s n n r e l si a in me h d .F o t e e f r l e, i we d a t a h e iin o na e VM sb te h n t a fo e a an tt —e tS r w h tt eprc so fBi r Tr e S y i et rt a h to n — g i s—he r s VM , n mo g ada n alt p s o na r e S l y e fBi r T e VM ,h r cso fb s aa c d Bi a e VM s t s , ie t a f y t e p e iin o e tb l n e n r Tr e S y i he be t wh l h to wo s ln e n r e VM st e wo s. Ex e i nt h w h o c u insa e c n i c n . rtbaa c d Bi a Tre S y i h r t p rme ss o t e c n l so r o vn i g Ke y wor : VM ; lic a s ca sfc to c a sfc to r cso ds S mu t— ls l s i ain; l s i ai n p e iin i i
Matlab中的分类器比较与选择

Matlab中的分类器比较与选择引言:在机器学习和数据科学领域,分类器是一种能够自动对数据进行分类的算法模型。
Matlab作为一款功能强大的科学计算软件,提供了多种分类器算法实现,包括支持向量机(SVM)、朴素贝叶斯(Naive Bayes)、决策树(Decision Tree)等。
本文将对这些分类器进行比较与选择分析,帮助读者在实际应用中选取合适的分类器。
一、支持向量机(SVM)分类器支持向量机是一种常用的二分类算法,也可以扩展到多分类问题。
它基于将数据映射到高维空间并寻找最优超平面以分割不同类别的样本点。
SVM的优点在于对于高维特征空间的数据具有较好的分类效果,而且可以有效处理数据集中噪声和小样本问题。
在Matlab中,可以使用svmtrain()函数进行训练,svmclassify()函数进行分类预测。
然而,SVM的缺点之一是对于大规模数据集,训练时间较长,因为需要计算样本间的核函数。
另外,当数据样本存在重叠、噪声较多或者类别不平衡时,SVM的分类效果可能不如其他算法。
二、朴素贝叶斯分类器朴素贝叶斯分类器是一种基于贝叶斯定理和特征独立性假设的算法。
它通过计算给定特征条件下的概率来进行分类预测。
朴素贝叶斯分类器在文本分类、垃圾邮件过滤、情感分析等领域得到广泛应用。
在Matlab中,可以使用fitcnb()函数进行训练,predict()函数进行分类预测。
朴素贝叶斯分类器的优点在于速度快、对于大规模数据集适用,并且对于缺失数据也具有良好的鲁棒性。
然而,它的假设条件较为严格,假设特征之间相互独立,因此在特征之间存在较强相关性的情况下,效果可能不佳。
三、决策树分类器决策树是一种基于树结构的分类器,通过一系列的特征选择和判断节点,将数据样本划分到不同的类别。
决策树分类器在解释性强、易于理解和可视化等方面具有优势,适用于处理有标记特征的数据。
在Matlab中,可以使用fitctree()函数进行训练,predict()函数进行分类预测。
如何使用支持向量机进行多类别分类

如何使用支持向量机进行多类别分类支持向量机(Support Vector Machine,SVM)是一种常用的机器学习算法,广泛应用于分类和回归问题。
在分类问题中,SVM可以有效地处理二分类任务。
但在面对多类别分类问题时,需要采取一些特殊的策略来适应多类别情况。
本文将介绍如何使用支持向量机进行多类别分类。
1. 一对多(One-vs-Rest)策略一对多策略是最常用的多类别分类方法之一。
它将多类别问题转化为多个二分类问题。
对于有N个类别的问题,我们需要训练N个SVM模型,每个模型都将一个类别作为正例,其他类别作为负例。
在预测时,将样本输入到这N个模型中,选择输出概率最高的类别作为最终的分类结果。
这种策略的优点是简单易懂,容易实现。
同时,由于每个模型只需要区分一个类别和其他类别,相对于直接使用多类别分类模型,计算量较小。
然而,这种方法可能会出现类别不平衡的问题,即某些类别的样本数量较少,导致模型对这些类别的预测效果较差。
2. 一对一(One-vs-One)策略一对一策略是另一种常用的多类别分类方法。
它将多类别问题转化为多个二分类问题,每个二分类问题只涉及两个类别。
对于有N个类别的问题,我们需要训练N*(N-1)/2个SVM模型,每个模型都将两个类别作为正例和负例。
在预测时,将样本输入到这些模型中,通过投票或者加权投票的方式确定最终的分类结果。
相对于一对多策略,一对一策略的优点是可以避免类别不平衡的问题。
每个模型只需要区分两个类别,相对于直接使用多类别分类模型,计算量较小。
然而,这种方法的缺点是需要训练大量的模型,计算复杂度较高。
当类别数量较多时,训练时间和内存消耗可能会成为问题。
3. 多类别扩展除了以上介绍的一对多和一对一策略,还有一些其他方法可以用于多类别分类。
例如,多类别扩展方法将多类别问题转化为二分类问题,但是通过一些技巧将多个二分类模型组合起来。
常见的多类别扩展方法有Error-Correcting Output Codes (ECOC)和Directed Acyclic Graph(DAG)等。
基于支持向量机理论的多类分类算法

学 习方 法 一 支 持 向量 机 (u p rV co ahn S pot etr c i M e简 为 S M 1 已 何将 二类 别 分 类 方法 扩 展 到 多类 别 分 类 是 支持 向量 机 研 究 的重 V , 要 内 容之 一 。下 面 就对 现 有 的 多类 分 类 方 法 就做 一 介 绍 并 比较 初步 表 现 出很 多 优 于 已 有方 法 的性 能
对多” 方法以及决策有向无环图方法. 通过实验数据可以得知决策有向无环图方法具有较好的分类效果。在不同的情况下,
可 以 采 用 不 同的 算 法 以达 到 最好 的 分 类 效 果 。 【 关键 词 】 统计 学 习 理论 , : 支持 向 量机 , 多类 分 类 算 法
1 .引 言
间. 高维 空 间 中 构 造线 性 判 别 函数 来 实现 原 空 间 中 的非 线 性 在
S M在模式识 别领域已经有了一些应用 . V 如手 写 体 数 字 识 它 们 的 优 缺点 . 一 方 O e a a t } —e t e d n-l h 别 、 脸识 别 与人 脸 检 测 、 及文 本 分 类 等各 种 领 域 。 外 ,V 31 ” 对 多” 法 ( n - gis te rs M to ) 人 以 此 SM 还很 好 地 应 用 于时 间 序 列 分 析 和 回归 分 析 等领 域 的 研 究 。 如 , 例 支 持 向 量 机 多类 分 类 方 法 最早 使 用 的算 法 就是 ” 对 多 ” 一 方 要 通 M T B ll b和 微 软 研究 所 等 已成 功地 将 S M 算 法 应 用 于 动 法 。 得 到多 类 分 类机 , 常的 方 法就 是 构造 一 系 列 两类 分 类 I. e la _ V
常用的分类模型

常用的分类模型一、引言分类模型是机器学习中常用的一种模型,它用于将数据集中的样本分成不同的类别。
分类模型在各个领域有着广泛的应用,如垃圾邮件过滤、情感分析、疾病诊断等。
在本文中,我们将介绍一些常用的分类模型,包括朴素贝叶斯分类器、决策树、支持向量机和神经网络。
二、朴素贝叶斯分类器朴素贝叶斯分类器是一种基于贝叶斯定理的分类模型。
它假设所有的特征都是相互独立的,这在实际应用中并不一定成立,但朴素贝叶斯分类器仍然是一种简单而有效的分类算法。
2.1 贝叶斯定理贝叶斯定理是概率论中的一条基本公式,它描述了在已知一些先验概率的情况下,如何根据新的证据来更新概率的计算方法。
贝叶斯定理的公式如下:P(A|B) = P(B|A) * P(A) / P(B)其中,P(A|B)表示在事件B已经发生的条件下事件A发生的概率,P(B|A)表示在事件A已经发生的条件下事件B发生的概率,P(A)和P(B)分别表示事件A和事件B独立发生的概率。
2.2 朴素贝叶斯分类器的工作原理朴素贝叶斯分类器假设所有特征之间相互独立,基于贝叶斯定理计算出后验概率最大的类别作为预测结果。
具体地,朴素贝叶斯分类器的工作原理如下:1.计算每个类别的先验概率,即在样本集中每个类别的概率。
2.对于给定的输入样本,计算每个类别的后验概率,即在样本集中每个类别下该样本出现的概率。
3.选择后验概率最大的类别作为预测结果。
2.3 朴素贝叶斯分类器的优缺点朴素贝叶斯分类器有以下优点:•算法简单,易于实现。
•在处理大规模数据集时速度较快。
•对缺失数据不敏感。
但朴素贝叶斯分类器也有一些缺点:•假设特征之间相互独立,这在实际应用中并不一定成立。
•对输入数据的分布假设较强。
三、决策树决策树是一种基于树结构的分类模型,它根据特征的取值以及样本的类别信息构建一个树状模型,并利用该模型进行分类预测。
3.1 决策树的构建决策树的构建过程可以分为三个步骤:1.特征选择:选择一个最佳的特征作为当前节点的划分特征。
分类器总结

分类器总结分类器是一种机器学习方法,它可以根据输入数据的特征,将其分为不同的类别。
分类器在各个领域都有广泛的应用,如医学诊断、垃圾邮件过滤、情感分析等。
本文将对分类器的基本原理、不同类别的分类器、优缺点以及应用领域进行总结。
分类器的基本原理是根据训练样本的特征,建立一个分类函数,从而预测新样本的类别。
分类器的训练过程包括特征提取、特征选择、训练数据的预处理和使用合适的学习算法。
常见的学习算法包括朴素贝叶斯、决策树、支持向量机、神经网络等。
朴素贝叶斯分类器是一种基于贝叶斯定理的分类器,它假设样本的特征是条件独立的。
这种分类器简单且高效,在文本分类等领域有广泛应用。
决策树分类器是一种采用树形结构的分类模型,它通过对特征的逐步划分,最终将样本分为不同的类别。
这种分类器易于理解和解释,但在处理噪声和复杂问题时可能产生过拟合现象。
支持向量机分类器是一种构建超平面以将样本分离的分类器,它可以处理高维特征空间和非线性可分问题。
神经网络分类器是一种模仿人脑神经元网络的分类器,它可以学习复杂的非线性关系,但需要大量的训练样本和计算资源。
不同分类器的优缺点各有差异。
朴素贝叶斯分类器具有参数少、适合处理大规模数据、天然处理特征相关性等优点,但对输入数据的分布假设过于简单,可能导致分类效果不理想。
决策树分类器易于理解和解释,对异常值不敏感,但在特征空间很大时容易过拟合。
支持向量机分类器可以处理高维特征空间和非线性关系,但对大规模数据和噪声敏感。
神经网络分类器可以学习复杂的非线性关系,但需要大量的训练样本和计算资源。
分类器在各个领域都有广泛的应用。
在医学诊断中,分类器可以根据病人的症状和检查结果,预测其患有某种疾病的可能性,帮助医生进行诊断和治疗。
在垃圾邮件过滤中,分类器可以根据邮件的特征,将其分类为垃圾邮件或正常邮件,帮助用户过滤垃圾邮件。
在情感分析中,分类器可以根据文本的特征,将其分类为积极、消极或中性,帮助企业了解公众对其产品的反馈。
支持向量机的性能优化和改进

支持向量机的性能优化和改进支持向量机(Support Vector Machine,SVM)是一种常用的机器学习算法,广泛应用于模式识别、数据分类和回归分析等领域。
然而,SVM在处理大规模数据集和高维特征空间时存在一些性能瓶颈。
为了克服这些问题,研究者们提出了许多性能优化和改进的方法。
本文将探讨这些方法,并分析它们在提高SVM性能方面的优势和局限性。
一、特征选择与降维特征选择是SVM性能优化的重要一环。
在处理大规模数据集时,特征数量通常非常庞大,这会导致计算复杂度上升和过拟合问题。
因此,通过选择最相关的特征子集来降低计算复杂度,并提高分类精度是非常重要的。
一种常用的特征选择方法是基于过滤器(Filter)与包装器(Wrapper)相结合的策略。
过滤器方法通过计算每个特征与目标变量之间相关性来评估其重要程度,并按照设定阈值进行筛选;而包装器方法则通过将特定子集输入分类器,并根据其分类精度进行评估来选择最佳子集。
此外,降维也是提高SVM性能的重要手段之一。
通过降低特征空间的维度,可以减少计算复杂度、提高模型训练速度和分类准确率。
常用的降维方法有主成分分析(PCA)和线性判别分析(LDA)等。
这些方法通过线性变换将高维数据映射到低维空间,以保留最重要的特征信息。
二、核函数选择与参数调优核函数是SVM中的关键组成部分,它可以将数据映射到高维特征空间,从而使非线性问题转化为线性可分问题。
常用的核函数有线性核、多项式核和高斯径向基函数(RBF)等。
在选择核函数时,需要根据数据集的特点和任务需求进行合理选择。
例如,在处理非线性问题时,RBF核通常能够取得较好效果;而在处理文本分类问题时,多项式核可以更好地捕捉特征之间的关系。
此外,在使用SVM训练模型时,参数调优也是非常重要的一步。
主要包括正则化参数C和径向基函数宽度γ两个参数。
正则化参数C 控制着模型对误分类样本的容忍程度;而径向基函数宽度γ则控制着模型的泛化能力。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
四类基于支持向量机的多类分类器的性能比较候明;张新新;范丽亚【摘要】本文通过UCI数据库中的五个数据集,从分类准确性和运行时间两个方面,比较了四类基于支持向量机的多类分类器——多类支持向量机(MSVM),多元双生支持向量机(MTSVM),多生支持向量机(MBSVM)以及多元支持向量分类回归机(MSVCR)的性能.实验结果表明,MTSVM和MBSVM比MSVM和MSVCR更有效.【期刊名称】《聊城大学学报(自然科学版)》【年(卷),期】2014(027)003【总页数】7页(P54-60)【关键词】多类支持向量机;多元双生支持向量机;多生支持向量机;多元支持向量分类回归机【作者】候明;张新新;范丽亚【作者单位】聊城大学数学科学学院,山东聊城252059;聊城大学数学科学学院,山东聊城252059;聊城大学数学科学学院,山东聊城252059【正文语种】中文【中图分类】O224数据分类问题一直是众多学者潜心研究的问题. 1995年, Vapnik等人[1]对二类分类问题首次提出了支持向量机(Support Vector Machine, 简记SVM)方法, 此后, SVM作为一类新的机器学习算法得到了广泛的关注和迅速的发展. 2007年, Jayadeva等人[2]在SVM的基础上首次提出了双生支持向量机(Twin SVM, 简记TSVM). 同年, Debasish等人[3]提出了用于分类的支持向量回归机(Support Vector Regression Machine, 简记SVR). 有关SVM的基本理论与方法可参考文献[4]. 事实上, 在实际应用中, 大多数数据分类问题都是多类问题, 无法直接使用经典的SVM及其变形, 因此, 如何把经典的SVM推广到多类分类问题就成了机器学习领域中的一个值得研究的课题. 1998年, Vapnik[5]提出了一对余(one-versus-rest, 简记1-v-r)多类分类器, 1999年, Krebel[6]提出了一对一(one-versus-one, 简记1-v-1)多类分类器. 随后又出现了多元双生支持向量机(Multi-twin SVM, 简记MTSVM)[7], 多生支持向量机(Multiple Birth SVM, 简记MBSVM)[8], c类支持向量分类回归机(Support Vector Classification Regression Machine for c-class classification简记c-SVCR)[9]等一系列的基于支持向量机的多类分类方法. 对于一些高维数据, 在分类之前, 往往需要先对数据进行降维预处理[10], 然后对降维后的数据进行分类. 本文只研究多类数据的分类方法, 不考虑数据的降维预处理. 对线性不可分的数据, 可通过引入核函数k:Rm×Rm→R将其映射到髙维特征空间, 使得映射后的数据是(近似)线性可分的, 但在本文中我们只考虑线性分类器. 本文的目的是通过五个数据集, 从分类准确性和运行时间两个方面, 对四类基于支持向量机的线性多类分类器——多类支持向量机(MSVM), 多元双生支持向量机(MTSVM), 多生支持向量机(MBSVM)以及多元支持向量分类回归机(Multiple Support Vector Classification Regression , 简记为MSVCR)的性能进行比较. 具体结构如下: 第一节简述用于二类分类问题的软间隔SVM, TSVM和SVR. 第二节主要介绍四类基于支持向量机的多类分类器——MSVM, MTSVM, MBSVM和MSVCR. 第三节是实验与结果分析. 最后一节是结论.本节简要回顾用于二类分类问题的软间隔SVM, TSVM和SVR, 详细内容可参考文献[1-3]. 设⊂Rm×{±1}是二类数据样本集, 其中xi∈Rm是输入, yi∈{±1}是类标识. +1类中含n1个样本, -1类中含n2个样本, n1+n2=n.A∈Rn1×m和B∈Rn2×m分别是由+1类和-1类输入构成的矩阵.1.1 软间隔SVM软间隔SVM的基本思想是通过求解一个二次规划问题, 得到分类超平面〈w,x〉+b=0和决策函数f(x)=sgn(〈w,x〉+b). 软间隔SVM对应的原始问题为其Wolfe对偶形式为其中α=(α1,…,αn)T∈Rn是Lagrange乘子向量. 通过求解问题(1), 可得决策函数. 具体算法如下.算法1 (软间隔SVM)步1 给出样本集⊂Rm×{±1}.步2 选择适当的参数C>0, 求解问题(1), 得最优解α*步3 计算ω*选择α*的一个正分量计算步4 构造决策函数f(x)=sgn(〈ω*,x〉+b*).1.2 双生SVM(TSVM)TSVM的基本思想是通过求解两个二次规划问题得到两个非平行超平面, 使得每个超平面分别距一类样本尽可能近, 距另一类样本尽可能远. 进而得到两个决策函数. TSVM对应的原始问题为其中e1,e2分别是与A,B同列数且元素全为1的列向量; c1,c2>0是参数,ξ∈Rn2,η∈Rn1是松弛向量. 问题(2)的Wolfe对偶形式分别为其中α∈Rn2,β∈Rn1是Lagrange乘子向量, H=[A e1]∈Rn1×(m+1),G=[Be2]∈Rn2×(m+1). 通过求解(3)式中的两个二次规划问题, 可得两个决策函数具体算法如下.算法2 (TSVM )步1 给出样本集⊂Rm×{±1}.步2 选择适当的参数C1,C2>0, 分别求解(3)式中的两个二次规划问题, 得最优解步3 令计算步4 构造决策函数和步5 对测试样本若则推断属于+1类; 否则, 属-1类.1.3 支持向量回归机(SVR)设⊂Rm×R是数据样本集, 其中xi∈Rm是输入, yi∈R是输出. SVR的基本思想是寻找一个ε-带状区域, 使得样本点尽可能在该带状区域内, 进而得到回归函数f(x)=〈w,x〉+b. SVR对应的原始问题为其中ε>0是参数. 问题(4)的Wolfe对偶形式为其中α,β∈Rn是Lagrange乘子向量. 通过求解问题(5), 可得回归函数. 具体算法如下.算法3 (SVR)步1 给出样本集⊂Rm×{±1}.步2 选择适当的参数C>0和ε>0, 求解问题(5), 得最优解步3 计算ω*选择α*的一个正分量计算b*=yj-〈w*,xj〉-ε, 或选择β*的一个正分量计算b*=yj-〈w*,xj〉+ε.步4 构造回归函数f(x)=〈ω*,x〉+b*.步5 对任一输入其输出为本节主要介绍基于SVM的四种多类分类器: MSVM, MTSVM, MBSVM和MSVCR. 设⊂Rm×{1,…,c}是c(c≥3)类数据样本集, 其中xi∈Rm是行向量,yi∈{1,…,c}是类标识. 第i类含ni个样本, n1+…+nc=n. 记X={x1,…,xn}. 用表示第i类输入的集合. 用Ai∈Rni×m表示第i类输入构成的矩阵, 用Bi∈R(n-ni)×m表示除第i类输入外所有输入构成的矩阵, 用Di表示第i类样本的类标识构成的对角阵, 即用表示除第i类样本外的样本类标识构成的对角阵, 即用ep∈Rp表示分量全为1的列向量.2.1 多类支持向量机(MSVM)MSVM是先将c类问题转化为多个二类问题, 然后利用二类分类器训练出多个决策函数, 并利用这些决策函数进行推断. 将多类问题转化为二类问题的方法有许多, 如: 一对一方法, 一对余方法, 聚类方法等. 本文主要采用的是一对余方法, 即正类X+取为某一特定类, 其余类作为负类X-, 也就是说, X+=Xi,X-=X\Xi,i=1,…,c, 这样可得到c个二类问题. 利用算法1, 可得c个决策函数fi(x),i=1,…,c. 综合利用这c个决策函数就可进行分类了, 具体算法如下.算法4 (MSVM)步1 给出样本集⊂Rm×{1,…,c}.步2 对每一个i∈{1,…,c}, 取X+=Xi,X-=X\Xi.步3 选择适当的参数Ci>0, 利用算法1求解问题(1), 得最优解c.步4 计算选择αi*的一个正分量计算步5 构造决策函数步6 对任一测试点若则推断属第k类.2.2 多元双生支持向量机(MTSVM)MTSVM是在TSVM的基础上采用了一对余方法进行数据分类的, 其基本思想是对每类数据利用最小二乘原理构造一个分类超平面, 使得该类数据尽可能靠近这一超平面, 同时又尽可能远的排斥其余类数据. MTSVM对应的原始问题为其中ξi∈Rn-ni是松弛变量, Ci>0是参数,问题(6)的Wolfe对偶形式为其中Hi=[Ai,eni]∈Rni×(m+1),Gi=[Bi,en-ni]∈R(n-ni)×(m+1). 通过求解问题(7), 可得到第i类的决策函数fi(x). 具体算法如下.算法5 (MTSVM)步1 给出样本集⊂Rm×{1,…,c}.步2 对每一个i∈{1,…,c}, 取X+=Xi,X-=X\Xi.步3 选择适当的参数Ci>0, 求解问题(7), 得最优解c.步4 令计算步5 构造决策函数步6 对任一测试点若则判断属第k类.2.3 多生支持向量机(MBSVM)MBSVM与MTSVM类似, 也是在TSVM基础上采用一对余方法进行数据处理的, 但其基本思想与MTSVM的基本思想正好相反, 是为每类数据利用最小二乘原理构造一个分类超平面, 使得这类样本尽可能远离这一超平面, 同时使其余类样本点尽可能的靠近这一超平面. MBSVM对应的原始问题为其中ξi∈Rni是松弛变量. 问题(8)的Wolfe对偶形式为其中Hi=[Bi,en-ni]∈R(n-ni)×(m+1), Gi=[Ai,eni]∈Rni×(m+1), 通过求解问题(9), 可得到第i类的决策函数fi(x), 具体算法如下.算法6 (MBSVM)步1 给出样本集⊂Rm×{1,…,c}.步2 对每一个i∈{1,…,c}, 取X+=Xi,X-=X\Xi.步3 选择适当的参数Ci>0, 求解问题(9), 得最优解步4 令计算步5 构造决策函数步6 对任一测试点若则判断属第k类.2.4 多元支持向量分类回归机(MSVCR)MSVCR是基于SVR的多类分类方法, 其基本思想是对每类构造一个分类超平面, 使得这类样本点约束在该超平面的ε-带状区域内, 同时将其余类的样本排斥得尽可能远. MSVCR对应的原始问题为其中ξ(n-ni)∈Rn-ni和均是松弛向量. 问题(10)的Wolfe对偶形式为其中是Lagrange乘子向量且通过求解问题(11), 可得到第i类的决策函数fi(x), 具体算法如下.算法7 (MSVCR)步1 给出样本集⊂Rm×{1,…,c}.步2 选择适当的参数Ci>0和ε>0, 求解问题(11), 得最优解c.步3 计算选择的一个正分量计算或选择的一个正分量计算步4 构造决策函数步5 对任一测试点若则判断属第k类.本节利用UCI数据库中的Wine, Iris, Waveform, Vehicle, Letter五个数据集, 从分类准确性和运行时间(训练时间和测试时间之和)两个方面, 来比较MSVM, MTSVM, MBSVM, MSVCR四种算法的性能.Wine数据集有3类178个样本, 第1类59个样本, 第2类71个样本, 第3类48样本, 每个样本13个特征. Iris数据集有3类150个样本, 每类50个样本, 每个样本有4个特征. Waveform数据集有3类5 000个样本, 第1类1 657个样本, 第2类1 647个样本, 第3类1 696个样本, 每个样本有21个特征. 我们的实验中选取每类的前50个样本. Vehicle数据集有4类846个样本, 第1类212个样本, 第2类217个样本, 第3类218个样本, 第4类199个样本, 每个样本有18个特征. 我们选取了前3类中的每类前50个样本. Letter数据有26类5 000个样本, 每个样本有16个特征. 我们选取了前3类中的每类前50个样本. 为了便于实验, 我们对所有数据点统一做了标准化预处理. 实验采用五折交叉验证. 实验结果见表1和表2, 其中表1是四类算法的分类准确性, 表2是运行时间.从表1中可以看出, 就分类准确性而言, MTSVM和MBSVM明显好于MSVM和MSVCR, 总体来说, MTSVM好于MBSVM, 而MSVM和MSVCR差不多. 从表2中可以看出, MBSVM 的运行时间最短, MTSVM次之, MSVCR最长. MTSVM和MBSVM的运行时间比较稳定, 而MSVCR针对不同数据集的运行时间变化比较大. 综合可知, MTSVM和MBSVM比MSVM和MSVCR有效的多.本文主要比较了基于支持向量机的四类线性多类分类方法(MSVM, MTSVM, MBSVM, MSVCR)的性能, 从实验结果中可以看出, 不论是分类准确性还是运行时间, MTSVM和MBSVM均比MSVM和MSVCR更有效. 本文的下一步工作是考虑非线性多类分类问题. 通过引入核函数, 将上述四类方法推广到非线性情况, 一方面比较性能的变化, 另一方面研究核函数对性能的影响.【相关文献】[1] Cortes C, Vapnik V. Support-vector network[J]. Mach Learn, Springer, 1995, 20: 273-297.[2] Jayadeva K, Khemchandani R, Chandra S. Twin support vector machines for pattern classification[J]. IEEE Trans Pattern Anal Mach Intell 2007, 29(5): 905-10.[3] Debasish Basak, Srimanta Pal Dipak Chandia Patranabis[M]. Support Vector Regression, 2007.[4] 邓乃扬, 田英杰. 数据挖掘中的新方法: 支持向量机[M]. 北京:科学出版社, 2006.[5] Vapnik V N. Statistical Learning Theory[M]. N Y: John Wiley&Sons, 1998.[6] Krebelu. Pairwise classification and support vector machine[M]. MA: MIT Press, 1999.[7] Wu Zhendong, Chengfu Yang. Study to Multi-Twin Support Vector Machines and its applications in speaker recognition.[8] Yang Zhixia, Shao Yuanhai, Zhang Xiangsun. Multiple birth support vector machine for multi-class classification[J]. Springer: Neural Comput&Applic, 2013, 22: S153-S161.[9] Angulo C, Parra X, Catal A. K-SVCR: a support vector machine for multi-class classification[J]. Neurocomputing, 2003, 55: 57-77.[10] 葛敏敏, 范丽亚. 基于支持向量机的特征选择[J]. 聊城大学学报:自然科学版, 2011, 24(2): 18-22.。