最小二乘支持向量机分类的稀疏化方法研究

合集下载

LSSVM概述学习资料

LSSVM概述学习资料

5 最小二乘支持向量机(LSSVM)估计算法
支持向量机主要是基于如下思想:通过事先 选择的非线性映射将输入向量映射到高维特征 空间, 在这个空间中构造最优决策函数。在构 造最优决策函数时,利用了结构风险最小化原 则。 并巧妙的利用原空间的核函数取代了高维 特征空间中的点积运算。
设样本为 n维向量,某区域的 l个样本及其值表示为
( x1, y1 ),......, ( xl , y l ) R n R
首先用一非线性映射 Y( x)把样本从原空间R n映射到特征
空间 Y(x) (j (x1 ),j (x2 ),..., j (xl ))。在这个高维特征空间 中构造最优决策函数 y(x) w .j ( x) b。这样非线性估计
所谓 VC 维是对函数类的一种度量,可以简单的理解为问题的复杂程 度,VC 维越高,一个问题就越复杂。正是因为 SVM 关注的是 VC维,后 面我们可以看到,SVM 解决问题的时候,呾样本的维数是无关的(甚至 样本是上万维的都可以,这使得 SVM 径适合用来解决文本分类的问题, 当然,有这样的能力也因为引入了核函数)。
函数转化为高维特征空 间中的线性估计函数。 利用结构
风险最小化原则,w寻,b找 就是最小化
R
1 2
w2
c Remp,其中w 2控制模型的复杂度,
c为正规化参数R。 emp为误差控制函数,也不即敏感损失
函数。常用的损失有 函线 数性损失函数,二损 次失函
数,hube损 r 失函数。选取了的 不损 同失函数,可构同 造不
SVM分类函数形式上类似于一个神经网络,输出是中间节点的线性组合, 每个中间节点对应一个输入样本于一个支持向量机的内积,因此也就叫做支持 向量网络。
4 相关名词解释

《基于最小二乘支持向量机的短时交通流预测方法研究》范文

《基于最小二乘支持向量机的短时交通流预测方法研究》范文

《基于最小二乘支持向量机的短时交通流预测方法研究》篇一一、引言随着城市化进程的加快和交通网络复杂性的提升,准确预测短时交通流量对于智能交通系统的建设和交通规划显得愈发重要。

准确的短时交通流预测能够提高交通运行效率、降低交通拥堵程度、改善城市居民出行体验,并有助于实现智能交通系统的智能化和自动化。

然而,由于交通流量的动态变化性、非线性和不确定性,传统的预测方法往往难以满足实际需求。

因此,本文提出了一种基于最小二乘支持向量机(Least Squares Support Vector Machine,LSSVM)的短时交通流预测方法。

二、最小二乘支持向量机理论最小二乘支持向量机是一种基于统计学习理论的机器学习方法,它通过构建一个高维空间中的超平面来对数据进行分类或回归。

与传统的支持向量机相比,LSSVM在处理回归问题时具有更好的泛化能力和更高的预测精度。

此外,LSSVM还具有算法简单、计算量小等优点,适用于处理大规模数据集。

三、短时交通流预测模型的构建1. 数据预处理:首先,收集历史交通流量数据,并对数据进行清洗、去噪和标准化处理,以消除异常值和噪声对预测结果的影响。

2. 特征提取:从历史交通流量数据中提取出与短时交通流预测相关的特征,如时间、天气、节假日等。

3. 模型构建:利用LSSVM构建短时交通流预测模型。

具体地,将历史交通流量数据作为输入,将预测的目标值(如未来某一时刻的交通流量)作为输出,通过优化算法求解得到模型参数。

4. 模型训练与优化:利用训练数据集对模型进行训练,通过交叉验证等方法对模型进行优化,以提高模型的预测精度。

四、实验与分析1. 数据集与实验环境:本文采用某城市实际交通流量数据作为实验数据集,实验环境为高性能计算机。

2. 实验方法与步骤:将实验数据集分为训练集和测试集,利用训练集对模型进行训练和优化,利用测试集对模型进行测试和评估。

3. 结果与分析:通过对比LSSVM与其他传统预测方法的预测结果,发现LSSVM在短时交通流预测方面具有更高的预测精度和更强的泛化能力。

LSSVM概述学习资料

LSSVM概述学习资料
所谓 VC 维是对函数类的一种度量,可以简单的理解为问题的复杂程 度,VC 维越高,一个问题就越复杂。正是因为 SVM 关注的是 VC维,后 面我们可以看到,SVM 解决问题的时候,呾样本的维数是无关的(甚至 样本是上万维的都可以,这使得 SVM 径适合用来解决文本分类的问题, 当然,有这样的能力也因为引入了核函数)。
( x1, y1 ),......, ( xl , y l ) R n R
首先用一非线性映射 Y( x)把样本从原空间R n映射到特征
空间 Y(x) (j (x1 ),j (x2 ),..., j (xl ))。在这个高维特征空间 中构造最优决策函数 y(x) w .j ( x) b。这样非线性估计
LS-SVM方法简化了计算的复杂性。另外,由于LS-SVM采用 了最小二乘法,因此运算速度明显快于支持向量机的其它版 本。
3 SVM和示意图
最优分类函数为:
f(x ) sg n {li 1i* y iK (x i,x ) b * }
这就是支持向量机。
概括地说,支持向量机就是 通过用内积函数定义的非线性变 换将输入空间变换到一个高维空 间,在这个空间中求最优分类面。
SVM分类函数形式上类似于一个神经网络,输出是中间节点的线性组合, 每个中间节点对应一个输入样本于一个支持向量机的内积,因此也就叫做支持 向量网络。
4 相关名词解释
VC 维理论:
为了研究经验风险最小化函数集的学习一致收敛速度和推广性,SLT 定义了一些指标来衡量函数集的性能,其中最重要的就是VC维(VapnikChervonenkis Dimension)。对于一个指示函数(即只有0和1两种取值的函 数)集,如果存在h个样本能够被函数集里的函数按照所有可能的2h种形 式分开,则称函数集能够把h个样本打散,函数集的VC维就是能够打散的 最大样本数目。

最小二乘问题的研究现状

最小二乘问题的研究现状

最小二乘问题的研究现状研究者们一直在研究最小二乘问题,最小二乘问题(Least Squares Problem,简称LSP)是一类重要的数值解决问题。

现有的研究表明,最小二乘问题在解决优化问题中有着重要作用。

那么,本文将致力于介绍和总结最小二乘问题的研究现状。

首先,本文将介绍最小二乘问题的基本定义。

它的定义是:对给定的一组数据(x1,y1)…(xn,yn),让表达式f(x)=a0 + a1x + a2x2 +精确地拟合这组数据,即使得此函数f(x)的残差平方和最小。

这种拟合问题就叫做最小二乘问题。

最小二乘问题可以应用于线性回归、非线性拟合以及其他优化问题。

接下来,本文将介绍最小二乘问题的具体实现方法。

一般来说,最小二乘问题的解可以用非线性方程求解或者利用迭代搜索算法,包括梯度下降法、牛顿法以及拟牛顿法等。

此外,利用雅可比矩阵可以解决最小二乘问题,其中步骤如下:(1)首先写出f(x)的偏导数;(2)然后构造雅可比矩阵;(3)求解雅可比矩阵的线性方程;(4)最后得到最小二乘解。

再接着,本文将介绍最小二乘问题的研究发展现状。

近年来,最小二乘问题的研究取得显著进展,发展出了各种新的计算方法,比如全局优化方法、误差平方和最小化方法、收敛速度优化方法、无穷维优化方法等。

同时,学者们还对最小二乘问题的解法设计、加权最小二乘问题、非线性最小二乘问题做了深入的研究,为解决复杂优化问题提供了可靠的算法和计算方法。

最后,本文将介绍最小二乘问题的发展前景。

未来,最小二乘问题将会是解决复杂优化问题的重要方法。

目前有许多非线性优化问题尚未被解决,因此对最小二乘问题的研究有重要的理论意义和实际意义。

与此同时,随着机器学习和大数据技术的发展,最小二乘问题的研究也会受到越来越多的关注。

在未来,最小二乘问题的理论和实践将继续发展,为解决复杂优化问题提供新的思路和解决方案。

综上所述,本文介绍了最小二乘问题的基本定义、具体实现方法以及研究发展现状和发展前景。

稀疏向量法

稀疏向量法

稀疏向量法是一种在数据分析和机器学习中广泛使用的方法,它的主要目的是通过使用稀疏表示来优化计算效率和内存使用。

这种方法常常应用于大规模数据的处理,尤其是在高维数据中,它可以显著减少内存占用和计算时间。

在稀疏向量法中,向量被表示为几个非零元素的集合。

这些非零元素被组织成一个列向量,其中的零是空位,表示对应位置上的元素为零。

这种表示方法的一个主要优点是,只有当元素真正需要被存储和计算时,它们才会被赋予实际的值。

稀疏向量法的应用非常广泛,它不仅可以用于线性代数、统计和机器学习等领域,还可以应用于大规模数据集的处理。

例如,在推荐系统中,稀疏向量法可以用于表示用户和物品的特征向量,通过稀疏表示,可以大大减少内存占用和计算时间。

在自然语言处理中,稀疏表示也可以用于词向量表示和语义分析。

稀疏向量法的实现通常涉及到两个主要步骤:特征选择和稀疏表示。

特征选择是指从原始数据中选择出最重要的特征,以便更好地描述数据。

稀疏表示则是将这些特征表示为一个稀疏向量,其中非零元素对应于最重要的特征。

稀疏向量法的优点包括:1. 减少内存占用和计算时间:通过使用稀疏表示,可以大大减少内存占用和计算时间,特别是在处理大规模数据时。

2. 提高模型的可解释性:由于稀疏表示强调了最重要的特征,因此模型的可解释性更强。

3. 适用于高维数据:在高维数据中,稀疏表示方法能够有效地处理和处理数据。

然而,稀疏向量法也存在一些缺点:1. 准确度可能受到影响:由于使用了稀疏表示,可能会丢失一些原始数据的信息,从而影响模型的准确度。

2. 对特征选择的要求较高:特征选择的质量对稀疏表示的效果有重要影响。

如果选择不当,可能会影响模型的性能。

总的来说,稀疏向量法是一种非常有效的数据处理方法,它在许多领域都有广泛的应用。

通过正确地应用特征选择和稀疏表示,可以获得更好的模型性能和更有效的数据处理方法。

支持向量机和最小二乘支持向量机的比较及应用研究

支持向量机和最小二乘支持向量机的比较及应用研究

支持向量机和最小二乘支持向量机的比较及应用研究一、本文概述随着和机器学习技术的迅速发展,支持向量机(Support Vector Machine, SVM)和最小二乘支持向量机(Least Squares Support Vector Machine, LSSVM)作为两类重要的分类和回归算法,在诸多领域都取得了显著的应用成果。

本文旨在对SVM和LSSVM进行深入研究,对比分析两者的理论原理、算法特性以及应用效果,探讨各自的优势和局限性,从而为实际问题的求解提供更为精准和高效的算法选择。

本文首先回顾SVM和LSSVM的基本理论和算法实现,阐述其在处理分类和回归问题时的基本思想和方法。

随后,通过对比分析,探讨两者在算法复杂度、求解效率、泛化性能等方面的差异,并结合具体应用场景,评估两种算法的实际表现。

在此基础上,本文将进一步探索SVM和LSSVM在实际应用中的优化策略,如参数选择、核函数设计、多分类处理等,以提高算法的性能和鲁棒性。

本文将总结SVM和LSSVM的优缺点,并对未来研究方向进行展望。

通过本文的研究,希望能够为相关领域的研究者和实践者提供有益的参考,推动SVM和LSSVM在实际应用中的进一步发展。

二、支持向量机(SVM)的基本原理与特点支持向量机(Support Vector Machine, SVM)是一种基于统计学习理论的机器学习算法,它主要用于分类、回归和异常检测等任务。

SVM 的基本思想是通过寻找一个最优超平面来对数据进行分类,使得该超平面能够最大化地将不同类别的数据分隔开。

这个超平面是由支持向量确定的,这些支持向量是离超平面最近的样本点。

稀疏性:SVM 的决策函数仅依赖于少数的支持向量,这使得模型具有稀疏性,能够处理高维数据并减少计算复杂度。

全局最优解:SVM 的优化问题是一个凸二次规划问题,这意味着存在唯一的全局最优解,避免了局部最优的问题。

核函数灵活性:SVM 可以通过选择不同的核函数来处理不同类型的数据和问题,例如线性核、多项式核、径向基函数(RBF)核等。

一种改进的最小二乘支持向量机软测量建模方法

一种改进的最小二乘支持向量机软测量建模方法

一种改进的最小二乘支持向量机软测量建模方法
毛晓娟;何小阳;温伟峰
【期刊名称】《自动化仪表》
【年(卷),期】2011(032)005
【摘要】针对最小二乘支持向量机(LS-SVM)缺少支持向量所具有的稀疏性和模型参数值难以选择的问题,提出利用马氏距离进行样本相似程度分析,去除集中部分样本,以恢复最小二乘支持向量机的稀疏性的方法.同时,采用κ-折交叉验证误差作为学习目标的粒子群优化算法来选取模型参数,并利用改进算法建立了精馏产品浓度的软测量模型.通过仿真验证了改进算法的有效性.结果表明模型精度较高,泛化能力强,满足工业测量要求.
【总页数】4页(P39-41,45)
【作者】毛晓娟;何小阳;温伟峰
【作者单位】广西大学电气工程学院,广西南宁,530004;广西大学电气工程学院,广西南宁,530004;广西大学电气工程学院,广西南宁,530004
【正文语种】中文
【中图分类】TP274
【相关文献】
1.一种改进细菌觅食优化算法及其在软测量建模中的应用 [J], 李炜;徐卫
2.一种基于改进加权粗糙集的多模型软测量建模方法 [J], 陈定三;杨慧中
3.一种基于混合建模技术的MIMO软测量建模方法 [J], 傅永峰;陈祥华;徐欧官
4.一种基于改进扩张搜索聚类算法的软测量建模方法 [J], 张孙力;杨慧中
5.基于一种改进灰关联分析的双进双出钢球磨制粉出力软测量建模 [J], 冯磊华;桂卫华;杨锋
因版权原因,仅展示原文概要,查看原文内容请购买。

最小二乘支持向量机分类问题的算法实现

最小二乘支持向量机分类问题的算法实现

目前 , 人工 神经 网络 ( N) N 已经广 泛应 用 于工 业过 程建模 和控 制 中 , 是 N 但 N存 在 着 一些 缺 陷 :
的过大 样本 也 会增 加 算 法 的训 练 时 间 ; 化 目标 优 是 基 于经验 风 险 的最 小 化 , 只 能 保证 学 习样 本 这 点 的估 计 误 差 最 小 , 化 性 能 不 强 , 在 “ 拟 泛 存 过

要 :介绍 了支持 向量机理论 、 常用 的支持 向量机 内积核函数 以及最小 二乘支持 向量机算法 . 采用最 小二
乘法实现了支持 向量机分类算 法. 数字仿真结果表 明 , 该算法的识别正确率可达 10 0 %.
关键词 :最小二乘法 ; 支持 向量机 ; 核函数 ; 分类
中图 分 类 号 :0 7 . 14 6 文献 标 识 码 :A
收 稿 日期 :20 0 2 0 8— 2— 2 ,
作者简介 :周建萍 (9 8一) 女 , 17 , 在渎博士 , 江西 萍乡人. 主要研究方 向为智 能控 制与故障诊 断等. — a : zo 2 E m i j hu8 0 lp
@ y h o c r. l ao .o c. n 1
性, 如训练可能过早结束 , 权值 衰退等 , 容易陷入 局部最 优 , 甚至 无法 得到 最 优解 ; 过分 依赖 学 习样
本 的数 量 和质量 , 习样 本 数 据 仅 是 实 际 的 高 维 学
输入空间中的稀疏分布, 而且即使得到了高质量 化原理来提高泛化能力, 较好地解决 了小样本 、 非
ca sfc t n i e lz d b e s qu r lo tm n ume c lsmu a in i ef r d.Si lto lsi a i s r aie y l a ts a e ag r h a d n i o i i r a i l t s p ro me o mu ain r s t h w a e o n t n r t ft e pr p s d meh d i p t 0 e ul s o t tr c g ii a e o h o o e to s u o 1 0% . s h o
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
代 替 了 不等 式约 束 ,提 出了最 小二 乘 S M( es S u rs V L at q ae S p otV co c ie S V 。简 化 的约 束 条 件 使 得 u p r etrMahn ,L S M) L S M 可 以采用 L ga g SV arn e方法求解 ,从而得到了优化问题
作 者倚介 : 陈圣磊(97 , 讲师、博士 , 17 一) 男, 主研方 向: 机器 学习,
数 据挖掘 ;陈 耿 , 授、博士 ;薛 教 晖,讲 师、博士
收稿 日 :21—81 期 0 1 —2 0
E m i r t _hn 2. r - a :tsn ce@16 o l ia cn
16 4
致算法在预测新样 本时速度较慢 。
2 最小二乘支持向量机分类
对于给定的训练数据集 D= ( Y l , { il 其中, R 为 , ) : X∈
基 金项 目:国家 自然科 学基金 资助项 目( 9 6,0002;江 苏 7 7076950) 0 1
省 高校 自 科学重大 基础研 究基金资 助项 目(8 J 5 0 0 ) 然 0 K A 2 0 1;江 苏 省六 大人 才高峰基金资 助项 目 2 0 8 ;江苏高校 “ (0 7 4 ) 1 青蓝工程”基 金 资助项 目;江苏政府留学奖学金基 金资助项 目
关健词 :支持 向量机 ;最小二乘 ;稀疏化 ;分类 ;特征 空间 ;二次规划
Re e r h 0 p r i c to p o c o s a c n S a sf a inAp r a h f r i
Le s q a e u p r c o a h n a sfc to a t u r sS p o t S Ve t rM c i e Cl s i a i n i
为得 到 L S M 解的稀疏表示 ,文 献【 使用了减枝法 , SV 4 ] 通过修剪样 本 ,去除 L gag arne乘子相对较小的支持向量 ,从
而提升 算法的稀疏 性。该方法需 要求解一 系列线性 方程 组 , 虽然得 到了稀疏解 ,但 是增加了算法 复杂 性 ,降低 了训练速 度。文献【] 出了一种基于预选 、筛选支持向量的稀疏最小 5提 二乘 支持 向量机 ,能够得到稀疏性 。然而 ,这些方法需要先 选取 原始样本集的子集作为训练样本 ,有时所选子集并不能 代表原 始样 本集的特性 ,因此会影 响学 习的效果 。
第 3 卷 第 2 期 7 2
、o .7 ,1 3






21 年 1 01 1月
No mb r 01 ve e 2 l
NO-2 2
Co utrEn ne rng mp e gi e i
人 工智 能及 识别 技 术 ・
文章编号:1 o 48 o12_4—0 o _3 ( 1)—0 5_ 文献标识码: 0 22 2 1 3 A
相关的向量 ,并且证 明了该方法得到的向量集是有 限的,通 过参数 可以控制该向量集逼 近真 实向量集 的程 度。本文采 用这种稀疏化方法 ,即对于样本集中的每个样 本,检查其是 否能够在特征空 间中被子集 B中的样本线性表示 ,若不能, 则将 当前样本加入到 B中,如此迭代所有的样本 ,则得到一 个子集 B能够在特征空间中线性表示所有样本。 假设当前子集 B为 { ,j) ,对于新样本 (,) ( Y) , ) ,如 ,
2 S h o f o ue ce c n n ie r g S uh at ies yNaj g2 0 9 , hn ) . c o l mp tr ineadE gne n , o te sUnvri , ni 10 6 C ia oC S i t n
[ sr c]L atS ursS p ot etr c ieL S M) nrae h lo tm’ e c ny b t esast o eslt ni ls whc Ab tat es q ae u p r V c hn( S V icessteag rh S f i c, u pri f oui s ot i o Ma i i e h t y t h o , h
r s ls i h o p e i t s e o e e u t n t e l w r d ci on pe d f n w s mpl s a e .A e s a sfe n w p ri d LSS i VM c a sfc to l o t m s p o o e lsi ain ag r i i h i r p s d.Th a p o i t i e r e p r x ma e ln a i d p n e t e t r e n e t r s a e s fr t s a c e n t u h s a s ic mi a i e u c i n c n b o t c e .T e c r e p n i g n e e d n v c o s t i f a u e p c i s e h d a d h s t e p r e d s r n t f n t a e c ns u t d h o r s o d n i r i v o r o t i a o r bl m fLS VM a h n b o v d t r ug e l e re ua on s t S eo tma ic mi a v u c o sa h e e Ex e me t p m z t np o e o S i i c n t e e s l e h o h t i a q t e . o t p h n i h i ld s r n t e f n t n i c i v d. p r i i i i ns s o t a e p e i to pe d o ep o o e l o t m a t r a a fLS h w t r d c i n s e f r p s d a g r h i f se n t t o SVM t o t e l s fc a sf c to c ur c . h t h h t i s h t h wi u so l s i a i n a c a y h h t o i
西( ∑7 ( ) ) 7 』 J
2s s

算 机


21 年 H 月 2 01 0日
第i 个训练样 本的输入值 ;Y∈R为类标号 , l 构造高维特征 空 间中的分类判别 函数 :
,( =wT ) ) ( + () 1
31 {练样本集的稀疏 化 . I I I 训练样 本集的稀疏化方法有贪 婪法 、随机法㈣等 ,但
CHEN h n - i CHEN n XUE i S e gl e , Ge g , Hu
(. co l fnomainS ine Najn Au iUnvri , nig2 1 1 , ia 1 Sh o Ifr t ce c, nig dt iesy Najn 18 5 Chn ; o o t
样 本 ,但是从总体来讲 ,得 到的向量组未必是最优的 ,甚至 局部最优都不能保证 ,本文采 用一种直接去除那些特征 空间 中近似线性相关 向量 的方法 ,从而能够基于 特征 空间线性 J
无关 向量组 构造分 类判别 函数 ,得到分 类判别 函数 的稀疏 表 示。
的解析解 。该 方法 能够 降低 问题解 的复杂 性 ,但 是却丧 失了 解 的稀疏性 ,即解 中含 有的支持 向量 包括 了全部的样 本 ,导
中 ,把最小化平均重 建误差 的样本加入 向量组中 ,这种方法 在 每一次迭代中选择 了当前看来能够最小化平均重建误差的
在解 决小 样本、非线性 和高维模 式识 别问题中表现出特有的 优势 ,并在很大程度上克服 了 “ 维数灾难”和 “ 过学 习”问 题 ,在机器 学 习领 域受 到广泛 的关注 J 。
这些方法都不能确保好的训练效果 。文献I】 7提出了一种特征
空间的在线稀疏化方法 ,直接去除那些特征 空问中近似线性
其中 ,非线 性映射 ( 把样 本从输 入空 间映射到特征空间 , ・ ) 以便使输入空间中的非线性分类 问题变成高维特征空间中的
线性 问题 , 特征空 间可 以是有限维 , 也可 以是无 限维 , 向量 W 为系数 ,b ∈R为截距。
中 图分类号:T313 P11 .
最小二 乘 支持 向量机 分 类的稀疏化 方法研 究
陈圣磊 ,陈 耿 ,薛 晖
(. 1 南京审计学院信息科学学院 ,南京 2 1 1 ;2 东南大学计算机科学与工程学 院,南京 2 0 9 ) 18 5 . 10 6

要 :最小二乘支持 向量机在提高求解效率 的同时,会丧失解 的稀疏性 ,导致其在预测新样本 时速度较慢 。为此 ,提出一种稀疏化最小
标准 的支 持向量机 学 习问题 可以归结为一个带约束 的二 次规 划问题 ,不管是牛顿法、内点法 等经 典的最优化算法 , 还是专 门为 S 设计 的 S VM MO算法 , 都存在优化效率较低的 问题 ,限制 了该方法在 实 际应 用 中的推广 。文献【] 3对标 准 S M 进行 了改进 , 目标函数中使 用了平 方误差 , V 在 等式约束
1 概述
支持 向量机(u p r V c rMahn,S M) S p ot et c ie V 是建 立在统 o 计学 习理 论和结构风险最小化原 理基础上的机 器学 习方法 ,
本文针对分类问题 ,提 出了一种新的 L S S VM 稀疏化方 法 ,该方法通过寻找特征 空间的一组近似线性无关的 向量 , 直接构造分类判别函数 的稀疏表示 ,然后通过 L S M 求解 SV 最优分类判别函数。在样 本集 的稀疏化过程 中,稀疏程度可 以通过参数 V 控制 。稀疏化 的分类算法能够在不降低测试精 度的前提下 ,有效减少测试时间。该方法可以看成是文献[】 6 提出的降秩 核岭回归在分 类问题 中的推广 ,所不 同的是 ,文 献[】 6在寻找特征空 间向量组时采用贪婪算法 ,即在每次迭代
相关文档
最新文档