支持向量机训练算法综述_姬水旺
支持向量机介绍课件

支持向量机的应用场景
01
分类问题:支持向量机可以用于 解决二分类或多分类问题,如文 本分类、图像分类等。
03
异常检测:支持向量机可以用于 异常检测,如信用卡欺诈检测、 网络入侵检测等。
02
回归问题:支持向量机可以用于 解决回归问题,如房价预测、股 票价格预测等。
4 支持向量机的优缺点
优点
01
高度泛化:支持向量机具有 很强的泛化能力,能够有效 地处理非线性问题。
02
鲁棒性:支持向量机对异常 值和噪声具有较强的鲁棒性, 能够有效地避免过拟合。
03
计算效率:支持向量机的训 练和预测过程相对较快,能 够有效地处理大规模数据。
04
易于解释:支持向量机的决 策边界直观易懂,便于理解 和解释。
缺点
01
计算复杂度高: 支持向量机的训 练和预测都需要 较高的计算复杂 度
02
容易过拟合:支 持向量机在处理 高维数据时容易 发生过拟合现象
03
模型选择困难:支 持向量机的参数选 择和模型选择较为 困难,需要一定的 经验和技巧
04
不适用于线性不可 分问题:支持向量 机只适用于线性可 分问题,对于非线 性问题需要进行复 杂的特征转换或采 用其他算法
它通过引入松弛变量,允许某些
02
数据点在分类超平面的两侧。 软间隔分类器的目标是最大化间 03 隔,同时最小化松弛变量的数量。 软间隔分类器可以通过求解二次
04
规划问题得到。
3 支持向量机的应用
线性分类
01
支持向量机 可以用于线 性分类问题
02
线性分类器可 以找到最优的
《2024年模式识别中的支持向量机方法》范文

《模式识别中的支持向量机方法》篇一一、引言在当今的数据时代,模式识别已经成为了许多领域的重要工具。
而支持向量机(Support Vector Machine,SVM)则是模式识别领域中最为常用的算法之一。
其算法具有高精度、适应性强等优点,广泛运用于分类、回归以及聚类等多种场景中。
本文旨在全面而系统地探讨模式识别中支持向量机方法的理论基础和实施方法。
二、支持向量机的基本理论支持向量机(SVM)是一种监督学习模型,它的核心思想是在特征空间中寻找一个超平面,使得该超平面能够尽可能准确地划分正负样本。
这个超平面是通过最大化间隔(即两个类别之间的最小距离)来确定的。
1. 线性可分SVM对于线性可分的数据集,SVM通过寻找一个超平面来将数据集划分为两个类别。
这个超平面是唯一确定的,且能够使得两个类别之间的间隔最大化。
2. 非线性SVM对于非线性可分的数据集,SVM通过使用核函数将数据映射到高维空间,从而将非线性问题转化为线性问题。
常用的核函数包括多项式核函数、高斯径向基核函数等。
三、支持向量机的实现方法1. 训练阶段在训练阶段,SVM需要先构建一个优化问题,其目标是最小化正负样本的分类误差和最大化分类间隔。
这个优化问题通常可以通过求解一个二次规划问题得到最优解,也就是SVM的最优分类边界和各个向量的支持值(支持向量)。
2. 测试阶段在测试阶段,SVM将新的输入样本通过核函数映射到高维空间中,并利用训练阶段得到的分类边界对新的输入样本进行分类。
如果输入样本在正类一侧,则被分类为正类;反之,如果输入样本在负类一侧,则被分类为负类。
四、支持向量机的应用场景支持向量机(SVM)具有广泛的应用场景,包括但不限于:图像识别、文本分类、生物信息学、手写数字识别等。
其中,图像识别是SVM应用最为广泛的领域之一。
在图像识别中,SVM 可以有效地处理图像的局部特征和全局特征,从而实现高精度的图像分类和识别。
此外,SVM在文本分类和生物信息学等领域也取得了显著的应用成果。
使用支持向量机进行海洋生态系统模拟与预测的方法与步骤

使用支持向量机进行海洋生态系统模拟与预测的方法与步骤随着全球气候变化和人类活动的影响,海洋生态系统的稳定性受到了严重威胁。
为了更好地了解和预测海洋生态系统的变化,科学家们采用了各种模拟和预测方法。
其中,支持向量机(Support Vector Machine,SVM)是一种常用的机器学习算法,能够有效地处理复杂的非线性问题。
本文将介绍使用支持向量机进行海洋生态系统模拟与预测的方法与步骤。
首先,进行数据收集和预处理。
海洋生态系统是一个复杂的生态系统,包含了各种生物和环境因素。
为了进行模拟和预测,我们需要收集和整理相关的数据。
这些数据可以包括海洋温度、盐度、氧气含量、浮游植物和浮游动物的数量等。
同时,还需要收集一些环境因素的数据,如海洋流速、风速等。
收集到的数据需要进行预处理,包括数据清洗、缺失值处理、异常值处理等。
接下来,进行特征选择和提取。
在进行海洋生态系统模拟和预测时,选择合适的特征对结果的准确性和可解释性至关重要。
特征选择是指从原始数据中选择最相关的特征,而特征提取是指将原始数据转换为更具代表性的特征。
在特征选择和提取过程中,可以运用一些统计学方法和机器学习算法,如相关性分析、主成分分析等。
通过特征选择和提取,可以降低数据的维度,减少冗余信息,提高模型的效果。
然后,进行训练和测试集的划分。
为了对海洋生态系统进行模拟和预测,需要将已有的数据集划分为训练集和测试集。
训练集用于训练支持向量机模型,而测试集用于评估模型的性能和泛化能力。
通常,可以采用交叉验证的方法来划分数据集,如k折交叉验证。
在划分数据集时,需要注意保持数据的分布和平衡,以避免模型出现过拟合或欠拟合的情况。
接着,进行支持向量机模型的训练和优化。
支持向量机是一种监督学习算法,通过寻找一个最优的超平面来进行分类或回归。
在进行模型训练时,需要选择合适的核函数和参数,并进行参数调优。
常用的核函数有线性核函数、多项式核函数和径向基函数等。
参数调优可以采用网格搜索、遗传算法等方法。
支持向量机简介与基本原理

支持向量机简介与基本原理支持向量机(Support Vector Machine,SVM)是一种常用的机器学习算法,被广泛应用于模式识别、数据分类以及回归分析等领域。
其独特的优势在于可以有效地处理高维数据和非线性问题。
本文将介绍支持向量机的基本原理和应用。
一、支持向量机的基本原理支持向量机的基本思想是通过寻找一个最优超平面,将不同类别的数据点分隔开来。
这个超平面可以是线性的,也可以是非线性的。
在寻找最优超平面的过程中,支持向量机依赖于一些特殊的数据点,称为支持向量。
支持向量是离超平面最近的数据点,它们对于确定超平面的位置和方向起着决定性的作用。
支持向量机的目标是找到一个超平面,使得离它最近的支持向量到该超平面的距离最大化。
这个距离被称为间隔(margin),最大化间隔可以使得分类器更具鲁棒性,对新的未知数据具有更好的泛化能力。
支持向量机的求解过程可以转化为一个凸优化问题,通过求解对偶问题可以得到最优解。
二、支持向量机的核函数在实际应用中,很多问题并不是线性可分的,此时需要使用非线性的超平面进行分类。
为了解决这个问题,支持向量机引入了核函数的概念。
核函数可以将低维的非线性问题映射到高维空间中,使得原本线性不可分的问题变得线性可分。
常用的核函数有线性核函数、多项式核函数、高斯核函数等。
线性核函数适用于线性可分问题,多项式核函数可以处理一些简单的非线性问题,而高斯核函数则适用于复杂的非线性问题。
选择合适的核函数可以提高支持向量机的分类性能。
三、支持向量机的应用支持向量机在实际应用中有着广泛的应用。
在图像识别领域,支持向量机可以用于人脸识别、物体检测等任务。
在生物信息学领域,支持向量机可以用于蛋白质分类、基因识别等任务。
在金融领域,支持向量机可以用于股票市场预测、信用评估等任务。
此外,支持向量机还可以用于文本分类、情感分析、异常检测等领域。
由于其强大的分类性能和泛化能力,支持向量机成为了机器学习领域中的重要算法之一。
《2024年支持向量机的理论与算法研究》范文

《支持向量机的理论与算法研究》篇一一、引言支持向量机(Support Vector Machine,SVM)是一种广泛应用于分类、回归和异常检测等领域的机器学习算法。
它以统计学习理论为基础,具有很好的泛化性能和推广能力。
近年来,随着数据量的增加和复杂性的提高,SVM的应用和研究愈发广泛。
本文将主要对支持向量机的理论及算法进行深入的研究和探讨。
二、支持向量机理论基础1. 线性可分与支持向量的概念支持向量机主要处理的是线性可分问题。
在给定的训练集中,如果存在一个超平面能够将不同类别的样本完全分开,那么这个训练集就是线性可分的。
支持向量是那些位于超平面两侧且与超平面距离最近的样本点,它们在SVM的决策过程中起着关键作用。
2. 间隔最大化原理SVM的核心思想是通过最大化不同类别样本之间的间隔来寻找最优的分类超平面。
这个间隔越大,模型的泛化能力越强。
因此,SVM的目标是在保证分类正确的前提下,最大化这个间隔。
三、支持向量机算法研究1. 硬间隔最大化SVM硬间隔最大化SVM是最基本的SVM算法,它通过求解一个二次规划问题来寻找最优的分类超平面。
该算法在处理线性可分问题时具有很好的效果。
2. 软间隔最大化SVM当训练集不是完全线性可分时,需要引入松弛变量来处理样本的误分类问题。
软间隔最大化SVM通过在目标函数中加入松弛变量的惩罚项来处理这种情况。
这种算法在处理现实世界中的复杂问题时具有更好的效果。
3. 核技巧与核函数对于非线性问题,SVM通过核技巧将原始空间中的样本映射到高维特征空间中,使得样本在高维空间中变得线性可分。
核函数是实现这一映射的关键,常见的核函数包括线性核、多项式核、高斯径向基核等。
选择合适的核函数对于解决具体问题至关重要。
四、支持向量机的应用与发展趋势1. 支持向量机的应用领域支持向量机已广泛应用于图像识别、文本分类、生物信息学、异常检测等领域。
它具有优秀的分类性能和泛化能力,为解决实际问题提供了有力的工具。
支持向量机在遥感图像处理中的应用方法(九)

支持向量机在遥感图像处理中的应用方法远程感知技术作为一种非接触式的数据获取方式,已经被广泛应用于环境监测、农业、城市规划等领域。
随着遥感图像数据量的不断增加,如何高效地处理这些数据成为一个亟待解决的问题。
支持向量机(Support Vector Machine, SVM)作为一种强大的机器学习算法,已经在遥感图像处理中展现出了其独特的优势。
本文将从几个方面探讨支持向量机在遥感图像处理中的应用方法。
SVM的基本原理支持向量机是一种监督学习算法,其基本原理是找到一个最优的超平面,将不同类别的数据分隔开。
通过引入核函数,SVM可以将非线性问题映射到高维空间中,从而实现对非线性数据的分类。
在遥感图像处理中,由于图像数据通常是高维且复杂的,SVM的高维特性使得其在处理遥感图像数据时表现出了极大的优势。
SVM在遥感图像分类中的应用遥感图像分类是遥感图像处理的一个重要应用领域,其目的是根据图像中的特征对地物进行分类。
传统的遥感图像分类方法通常依赖于人工提取特征和手动设计分类器。
然而,这些方法往往面临着特征提取复杂、分类精度低等问题。
而SVM 作为一种数据驱动的分类方法,可以通过对训练数据的学习,自动提取特征并构建分类模型,从而实现对遥感图像的高效分类。
SVM在遥感图像目标检测中的应用除了分类外,目标检测也是遥感图像处理中的一个重要任务。
目标检测的目的是在遥感图像中自动识别和定位特定的目标,如建筑物、道路、植被等。
SVM可以通过对训练数据的学习,构建目标检测模型,实现对遥感图像中目标的准确检测。
SVM在遥感图像分割中的应用遥感图像分割是将遥感图像分割成若干个具有语义信息的区域的过程。
传统的遥感图像分割方法通常面临着复杂的光照和遮挡等问题,导致分割精度不高。
而SVM作为一种强大的分类器,可以在图像中自动分割出具有相似特征的区域,从而实现对遥感图像的高精度分割。
SVM在遥感图像处理中的挑战与展望然而,虽然支持向量机在遥感图像处理中展现出了强大的能力,但是在实际应用中仍然面临着一些挑战。
支持向量机PPT课件

支持向量机ppt课件
https://
REPORTING
2023
目录
• 支持向量机概述 • 支持向量机的基本原理 • 支持向量机的实现步骤 • 支持向量机的应用案例 • 支持向量机的未来发展与挑战 • 总结与展望
2023
PART 01
支持向量机概述
REPORTING
详细描述
传统的支持向量机通常是针对单个任务进行训练和预测,但在实际应用中,经常需要处理多个相关任务。多任务 学习和迁移学习技术可以通过共享特征或知识,使得支持向量机能够更好地适应多个任务,提高模型的泛化性能。
深度学习与神经网络的结合
总结词
将支持向量机与深度学习或神经网络相结合,可以发挥各自的优势,提高模型的性能和鲁棒性。
模型训练
使用训练集对支持向量机模型进行训练。
参数调整
根据验证集的性能指标,调整模型参数,如惩罚因子C和核函数类 型等。
模型优化
采用交叉验证、网格搜索等技术对模型进行优化,提高模型性能。
模型评估与调整
性能评估
使用测试集对模型进行 评估,计算准确率、召 回率、F1值等指标。
模型对比
将支持向量机与其他分 类器进行对比,评估其 性能优劣。
模型调整
根据评估结果,对模型 进行调整,如更换核函 数、调整参数等,以提 高性能。
2023
PART 04
支持向量机的应用案例
REPORTING
文本分类
总结词
利用支持向量机对文本数据进行分类 ,实现文本信息的有效管理。
详细描述
支持向量机在文本分类中发挥了重要 作用,通过对文本内容的特征提取和 分类,能够实现新闻分类、垃圾邮件 过滤、情感分析等应用。
支持向量机训练算法综述_姬水旺

收稿日期:2003-06-13作者简介:姬水旺(1977)),男,陕西府谷人,硕士,研究方向为机器学习、模式识别、数据挖掘。
支持向量机训练算法综述姬水旺,姬旺田(陕西移动通信有限责任公司,陕西西安710082)摘 要:训练SVM 的本质是解决二次规划问题,在实际应用中,如果用于训练的样本数很大,标准的二次型优化技术就很难应用。
针对这个问题,研究人员提出了各种解决方案,这些方案的核心思想是先将整个优化问题分解为多个同样性质的子问题,通过循环解决子问题来求得初始问题的解。
由于这些方法都需要不断地循环迭代来解决每个子问题,所以需要的训练时间很长,这也是阻碍SVM 广泛应用的一个重要原因。
文章系统回顾了SVM 训练的三种主流算法:块算法、分解算法和顺序最小优化算法,并且指出了未来发展方向。
关键词:统计学习理论;支持向量机;训练算法中图分类号:T P30116 文献标识码:A 文章编号:1005-3751(2004)01-0018-03A Tutorial Survey of Support Vector Machine Training AlgorithmsJI Shu-i wang,JI Wang -tian(Shaanx i M obile Communicatio n Co.,Ltd,Xi .an 710082,China)Abstract:Trai n i ng SVM can be formulated into a quadratic programm i ng problem.For large learning tasks w ith many training exam ples,off-the-shelf opti m i zation techniques quickly become i ntractable i n their m emory and time requirem ents.T hus,many efficient tech -niques have been developed.These techniques divide the origi nal problem into several s maller sub-problems.By solving these s ub-prob -lems iteratively,the ori ginal larger problem is solved.All proposed methods suffer from the bottlen eck of long training ti me.This severely limited the w idespread application of SVM.T his paper systematically surveyed three mains tream SVM training algorithms:chunking,de -composition ,and sequenti al minimal optimization algorithms.It concludes with an illustrati on of future directions.Key words:statistical learning theory;support vector machine;trai ning algorithms0 引 言支持向量机(Support Vector M achine)是贝尔实验室研究人员V.Vapnik [1~3]等人在对统计学习理论三十多年的研究基础之上发展起来的一种全新的机器学习算法,也使统计学习理论第一次对实际应用产生重大影响。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
第 1 期 姬水旺等 :支持向量机训练算法综述
·19 ·
应满足的充要条件 。Kohn - Tucker 条件可化简为一个简
单的形式[6 ] ,即所有训练样本应满足 :
αi = 0 Ζ yif ( xi) Ε 1
(7)
0 < αi < C Ζ yif ( xi) = 1
分解算法的关键是如何确定替换策略 ,即每一步中把 哪些不在工作集中的样本替换进去 。很明显 ,替换策略的 好坏直接影响算法的收敛速度 。
Abstract :Training SVM can be formulated into a quadratic programming problem. For large learning tasks wit h many training examples , off - t he - shelf optimization techniques quickly become intractable in t heir memory and time requirements. Thus , many efficient tech2 niques have been developed. These techniques divide t he original problem into several smaller sub - problems. By solving t hese sub - prob2 lems iteratively , t he original larger problem is solved. All proposed met hods suffer from t he bottleneck of long training time. This severely limited t he widespread application of SVM. This paper systematically surveyed t hree mainstream SVM training algorit hms : chunking , de2 composition , and sequential minimal optimization algorit hms. It concludes wit h an illustration of future directions. Key words :statistical learning t heory ; support vector machine ; training algorit hms
第
14 卷 第 1 2004 年 1 月
期
Micro微com p机ute r 发Dev e展lopment
VoJla. n1.4
No . 2004
1
支持向量机训练算法综述
姬水旺 ,姬旺田
(陕西移动通信有限责任公司 ,陕西 西安 710082)
训练 SVM 的本质是解决一个二次规划问题[4 ] :
收稿日期 :2003 - 06 - 13 作者简介 :姬水旺 (1977 —) ,男 ,陕西府谷人 ,硕士 ,研究方向为机器 学习 、模式识别 、数据挖掘 。
在约束条件
0 Φ αi Φ C , i = 1 , …, l
(1)
l
∑αiyi = 0
(2)
Osuna 等证明了一个定理 ,该定理指出 : 如果存在不 满足 Kohn - Tucker 条件的样本 ,那么在把它加入到上一 个子问题的集合中后 , 重新优化这个子问题 , 则可行点 (Feasible Point) 依然满足约束条件 ,且性能严格地改进。 因此 ,如果每一步至少加入一个不满足 Kohn - Tucker 条件 的样本 ,一系列的二次规划子问题可保证最后单调收敛。
个矩阵同时保存在内存中 ,增加了虚拟内存页替换的频
率 ;其次 ,SVM 在二次型寻优过程中要进行大量的矩阵运
算 ,多数情况下 ,矩阵运算占用了算法时间的主要部分 。
SVM 方法的训练速度是限制它的广泛应用的主要原
因 ,近年来人们针对方法本身的特点提出了许多算法来解
决对偶寻优问题 ,这些算法的一个共同的思想就是采用分
而治之的原则将原问题分解为规模较小的子问题 ,通过循
环解决一系列子问题来求得原问题的解 。根据分解策略 、
分解后子问题的大小以及子问题的求解策略可以将现有
的训练算法分为三种 :块算法 、分解算法和顺序最小优化
算法 。
2 块算法( Chunking Algorithm) 块算法最早是由 Boser 等人[1 ] 提出来的 ,它的出发点
摘 要 :训练 SVM 的本质是解决二次规划问题 ,在实际应用中 ,如果用于训练的样本数很大 ,标准的二次型优化技术就很 难应用 。针对这个问题 ,研究人员提出了各种解决方案 ,这些方案的核心思想是先将整个优化问题分解为多个同样性质的 子问题 ,通过循环解决子问题来求得初始问题的解 。由于这些方法都需要不断地循环迭代来解决每个子问题 ,所以需要的 训练时间很长 ,这也是阻碍 SVM 广泛应用的一个重要原因 。文章系统回顾了 SVM 训练的三种主流算法 :块算法 、分解算 法和顺序最小优化算法 ,并且指出了未来发展方向 。 关键词 :统计学习理论 ;支持向量机 ;训练算法 中图分类号 : TP30116 文献标识码 :A 文章编号 : 1005 - 3751 (2004) 01 - 0018 - 03
i =1
下 ,求
l
∑ ∑ W (α) = αi i =1
1 2
ααi jLeabharlann iyj{ Ψ( xi) ·Ψ( xj) }
i,J
∑ ∑ l
= αi -
i =1
1 2
ααi jyiyj K ( xi , xj)
i,J
(3)
的最 大 值 , 其 中 K ( xi , xj) = Ψ( xi) ·Ψ( xj) 是 满 足
对于训练样本数很大或支持向量数很大的问题 ,块算法仍 然无法将矩阵放入内存中 。
3 分解算法( Decomposition Algorithm) 当支持向量的数目远远小于训练样本数目时 ,块算法
显然能够大大提高运算速度 ;然而 ,如果支持向量的数目 本身就比较多 ,随着算法迭代次数的增多 ,工作样本集也 会越来越大 ,算法依旧会变得十分复杂 。因此 ,如果把问 题分解成为固定样本数的子问题 :工作样本集的大小固定 在算法速度可以容忍的限度内 ,迭代过程中只是将剩余样 本中部分“情况最糟的样本”与工作样本集中的样本进行 等量交换 ,即使支持向量的个数超过工作样本集的大小也 不改变工作样本集的规模 ,而只对支持向量中的一部分进 行优化 ,这就是分解算法的基本思想 。
(1) 随机选择 b 个样本组成集合 B ,构造子问题 ; (2) 求子问题最优解αi , i ∈ B 及 b ,并置αj = 0 , j ∈
N; (3) 计算 Fj , j ∈ N ,找出其中不满足条件 (公式 7 ~
8) 的样本 j ,与 B 中满足αi = 0 的样本 i 交换 ,构成新的子 问题 ,返回第二步 ,直到 N 中所有样本满足条件 (公式 7~ 8) 。
0 引 言 支持向量机 ( Support Vector Machine) 是贝尔实验室
研究人员 V. Vapnik[1~3 ] 等人在对统计学习理论三十多 年的研究基础之上发展起来的一种全新的机器学习算法 , 也使统计学习理论第一次对实际应用产 生 重 大 影 响 。 SVM 是基于统计学习理论的结构风险最小化原则的 ,它 将最大分界面分类器思想和基于核的方法结合在一起 , 表现出了很好的泛化能力 。由于 SVM 方法有统计学习 理论作为其坚实的数学基础 ,并且可以很好地克服维数灾 难和过拟合等传统算法所不可规避的问题 ,所以受到了越 来越多的研究人员的关注 。近年来 ,关于 SVM 方法的研 究 ,包括算法本身的改进和算法的实际应用 ,都陆续提了 出来 。尽管 SVM 算法的性能在许多实际问题的应用中 得到了验证 ,但是该算法在计算上存在着一些问题 ,包括 训练算法速度慢 、算法复杂而难以实现以及检测阶段运算 量大等等 。
是 :删除矩阵中对应于 Lagrange 乘数为零的行和列不会 对最终结果产生影响 。对于给定的训练样本集 ,如果其中 的支持向量是已知的 ,寻优算法就可以排除非支持向量 , 只需对支持向量计算权值 ( 即 Lagrange 乘数) 即可 。但 是 ,在训练过程结束以前支持向量是未知的 ,因此 ,块算法 的目标就是通过某种迭代方式逐步排除非支持向量 。具 体的做法是 ,在算法的每一步中块算法解决一个包含下列 样本的二次规划子问题 :即上一步中剩下的具有非零 La2 grange 乘数的样本 ,以及 M 个 (事先确定的) 不满足 Kohn - Tucker 条件 (公式 7~8) 的最差的样本 ;如果在某一步 中 ,不满足 Kohn - Tucker 条件的样本数不足 M 个 ,则这 些样本全部加入到新的二次规划问题中 。每个二次规划 子问题都采用上一个二次规划子问题的结果作为初始值 。 在最后一步时 ,所有非零 Lagrange 乘数都被找到 ,因此最 后一步解决了初始的大型二次规划问题 。块算法将矩阵 的规模从训练样本数的平方减少到具有非零 Lagrange 乘 数的样本数的平方 ,大大减少了训练过程对存储的要求 , 对于一般的问题这种算法可以满足对训练速度的要求 。
的训练速度就必然很慢 ,这是阻碍 SVM 广泛应用的一个
很大的障碍 。其主要原因是 ,首先 ,SVM 方法需要计算和
存储核函数矩阵 ,当样本点数目较大时 ,需要很大的内存 ,
例如 ,当样本点数目超过 4 000 时 ,存储核函数矩阵需要
多达 128MB 内存[6 ] ,这使得在大样本情况下不可能将整
分解算法最早是由 Osuna 等人[7 ] 提出的 。后来 C. W. Hsu 和 T. Joachims[8 ,9 ]等人又对其进行了改进 。在文 献[ 7 ,10 ]中 ,麻省理工学院生物与计算学习中心的 Edgar Osunal 等人介绍了一种具体的算法 ,并对人脸识别问题进 行了实验 。他们将样本集分为两个集合 B 和 N ,集合 B 中 包含 b 个样本 ,他们作为子问题工作样本集进行 SVM 训 练 ,集合 N 中 n 有个样本 ,且 b + n = l ,在每一个子问题 的训练过程中 , 所有 N 中的样本所对应的 Lagrange 乘数 固定不变 。子问题训练结束后 , 用所得到的决策函数对 N 中的样本进行测试 ,用违反 Kohn - Tucker 条件 (公式 7~ 8) 最严重的样本替换初始工作集中 Lagrange 乘子为零的 样本 ,于是可以按照以下步骤迭代求解 :