支持向量机与AdaBoost的结合算法研究
基于SVM和Adaboost解决实时流量识别问题

[ A b s t r a c t ]T h i s p a p e r p r o p o s e s a r e a l t i me t r a f i f c i d e n t i i f c a t i o n a l g o r i t h m b a s e d o n b a s e d o n s u p p o r t v e c t o r ma c h i n e( S V M)
率能够达到 8 5 % 以上。
关键字 :计算机应用技术 ;实 时流量识别 ;S V M;A d a b o o s t ;准确率
中图分类号 : T P 3 9 9 文献标识码 :A DO 1 :1 0 . 3 9 6 9 / j . i s s n . 1 0 0 3 — 6 9 7 0 . 2 0 1 3 . 0 9 . 0 1 9 本文著录格式 :【 1 1全 ] 良添 . 基于 S V M和 A d a b o o s t 解决实时流量识别 问题 Ⅱ ] _ 软件 ,2 0 1 3 , 3 4 ( 9 ) :6 1 — 6 4
0 引言
上个世纪中期以来,信息网络技术给人类社会带来了极大
的变化 。近 几年 ,互联 网的普及 ,移动互联网技术的快速发展 ,
Q o S 。因此 ,下一代 网络架构是近年 的一个研究热点 。对业务流
量的实 时识别 是下一代 网络研究 中的重要内容,它能够提高 网
络对业务 Qo S的支持能力 。
a n d Ad a b o o s t a l g o i r t h m,t o s o l v e t h e a c c u r a c y p r o b l e m i n t h i s i f e l d . Th i s a l g o r i h m t c o u l d i mp r o v e he t l e a r n i n g a b i l i t y o f S VM b y u s i n g Ad a b o o s t a l g o r i t h m, t h e r e b y i mp r o v i n g t h e p e r f o r ma n c e o f he t S VM r e c o g n i z e r i n r e a l - i t me t r a ic f r e c o ni g t i o n . S i mu l a t i o n es r u k s s h o we d t h a t he t a c c u r a c y o f ea r l - t i me r t a ic f i d e n i t i f c a t i o n c o u l d b e mo e r ha t n 8 5 %b y u s i n g t h i s a l g o i r t h m.
《2024年支持向量机的理论与算法研究》范文

《支持向量机的理论与算法研究》篇一一、引言支持向量机(Support Vector Machine,SVM)是一种广泛应用于分类、回归和异常检测等领域的机器学习算法。
它以统计学习理论为基础,具有很好的泛化性能和推广能力。
近年来,随着数据量的增加和复杂性的提高,SVM的应用和研究愈发广泛。
本文将主要对支持向量机的理论及算法进行深入的研究和探讨。
二、支持向量机理论基础1. 线性可分与支持向量的概念支持向量机主要处理的是线性可分问题。
在给定的训练集中,如果存在一个超平面能够将不同类别的样本完全分开,那么这个训练集就是线性可分的。
支持向量是那些位于超平面两侧且与超平面距离最近的样本点,它们在SVM的决策过程中起着关键作用。
2. 间隔最大化原理SVM的核心思想是通过最大化不同类别样本之间的间隔来寻找最优的分类超平面。
这个间隔越大,模型的泛化能力越强。
因此,SVM的目标是在保证分类正确的前提下,最大化这个间隔。
三、支持向量机算法研究1. 硬间隔最大化SVM硬间隔最大化SVM是最基本的SVM算法,它通过求解一个二次规划问题来寻找最优的分类超平面。
该算法在处理线性可分问题时具有很好的效果。
2. 软间隔最大化SVM当训练集不是完全线性可分时,需要引入松弛变量来处理样本的误分类问题。
软间隔最大化SVM通过在目标函数中加入松弛变量的惩罚项来处理这种情况。
这种算法在处理现实世界中的复杂问题时具有更好的效果。
3. 核技巧与核函数对于非线性问题,SVM通过核技巧将原始空间中的样本映射到高维特征空间中,使得样本在高维空间中变得线性可分。
核函数是实现这一映射的关键,常见的核函数包括线性核、多项式核、高斯径向基核等。
选择合适的核函数对于解决具体问题至关重要。
四、支持向量机的应用与发展趋势1. 支持向量机的应用领域支持向量机已广泛应用于图像识别、文本分类、生物信息学、异常检测等领域。
它具有优秀的分类性能和泛化能力,为解决实际问题提供了有力的工具。
一种改进的基于AdaBoost的人脸检测算法

和协方差矩阵.
第三阶段:为了降低误报率,更精确的提取人
脸区域,采用 SVM 强分类器.
式中:如果第 i 个样本 xi 被正确分类,则 ei=0,
反之
ei=1,βt=
εt 1- εt
.
βt=
εt 1- εt
4)强分类器为
Σ
Σ
H(x)=
1Σ
Σ Σ Σ Σ
Σ
0Σ
Σ Σ
T
Hale Waihona Puke TΣ Σ t=
1
αtht(x)≥
1 2
t
=
αt
1
otherwise
αt=logβ1t
1.3 分级分类器
为了提高计算效率,降低误报率,采用一种级
(1)权重归一化
wt,i=
wt,i
L
Σwt,j
J=1
(2)生成弱分类器,计算相对于当前权重的误
差
L
Σ εj= wt,j|hj(xi)- yi| J=1
- 40 -
(3)选择具有最小误差 εt 的弱分类器 ht 加入 到强分类器中去
(4)更新每个样本所对应的权重:
w =w β1- ei t+1,i t,i t
练错误率与边界.
L
Σ k(xi,xj)=〈覬(xi)·覬(xj)〉;w= αiyi覬(xi) i=1
Σ Σ L
Σ f (x)=sign αiyik(xi,x)+b ;αi≠0 时训练样本 i=1
xi 称作支持向量机. 3 改进的人脸检测算法
在 改 进 的 检 测 算 法 中 , 第 一 阶 段 使 用 A-
联分类器如图 2 所示.
分级分类器对输入的图像采取由简单到复杂
《基于Adaboost人脸检测算法的研究及实现》范文

《基于Adaboost人脸检测算法的研究及实现》篇一一、引言随着计算机视觉技术的快速发展,人脸检测技术已成为计算机视觉领域中一项重要的研究课题。
Adaboost算法作为一种有效的机器学习方法,在人脸检测领域得到了广泛的应用。
本文旨在研究基于Adaboost算法的人脸检测技术,并探讨其实现方法。
二、Adaboost算法概述Adaboost(Adaptive Boosting)是一种自适应的集成学习方法,通过训练多个弱分类器并将其组合成一个强分类器来实现分类。
在人脸检测中,Adaboost算法通过训练一系列的强分类器来检测图像中的人脸。
每个强分类器都是基于特征级联的方法进行构建的,即通过将多个特征组合成一个分类器来提高检测精度。
三、人脸检测技术研究人脸检测是计算机视觉领域中的一项重要任务,其主要目的是在图像或视频中准确地检测出人脸的位置和大小。
基于Adaboost算法的人脸检测技术,主要通过训练多个弱分类器来构建强分类器,并通过特征级联的方法提高检测精度。
此外,该技术还可以通过调整算法参数和特征选择等方法来优化检测性能。
四、基于Adaboost的人脸检测算法实现基于Adaboost算法的人脸检测算法实现主要包括以下几个步骤:1. 特征提取:从训练样本中提取出多种特征,如颜色、形状、纹理等。
2. 弱分类器训练:使用Adaboost算法训练多个弱分类器,每个弱分类器只针对一种特征进行分类。
3. 强分类器构建:将多个弱分类器组合成一个强分类器,通过投票或加权的方式将多个弱分类器的结果进行整合。
4. 特征级联:将多个强分类器进行级联,形成一个多层次的人脸检测系统。
每个层次都负责检测不同的特征,并通过逐步筛选的方式提高检测精度。
5. 检测与优化:使用训练好的模型对图像进行人脸检测,并根据实际需求进行参数调整和优化。
五、实验与分析为了验证基于Adaboost算法的人脸检测算法的性能,我们进行了多组实验。
实验结果表明,该算法在人脸检测方面具有较高的准确性和实时性。
MATLAB_智能算法30个案例分析

MATLAB_智能算法30个案例分析1.线性回归:使用MATLAB的回归工具箱,对给定的数据集进行线性回归分析,获取拟合的直线方程。
2.逻辑回归:使用MATLAB的分类工具箱,对给定的数据集进行逻辑回归分析,建立分类模型。
3.K均值聚类:使用MATLAB的聚类工具箱,对给定的数据集进行K 均值聚类算法,将数据集分为多个簇。
4.支持向量机:使用MATLAB的SVM工具箱,对给定的数据集进行支持向量机算法,建立分类或回归模型。
5.决策树:使用MATLAB的分类工具箱,对给定的数据集进行决策树分析,建立决策模型。
6.随机森林:使用MATLAB的分类和回归工具箱,对给定的数据集进行随机森林算法,集成多个决策树模型。
7. AdaBoost:使用MATLAB的分类工具箱,对给定的数据集进行AdaBoost算法,提升分类性能。
8.遗传算法:使用MATLAB的全局优化工具箱,利用遗传算法进行优化问题的求解。
9.粒子群优化:使用MATLAB的全局优化工具箱,利用粒子群优化算法进行优化问题的求解。
10.模拟退火算法:使用MATLAB的全局优化工具箱,利用模拟退火算法进行优化问题的求解。
11.神经网络:使用MATLAB的神经网络工具箱,构建和训练多层感知机模型。
12.卷积神经网络:使用MATLAB的深度学习工具箱,构建和训练卷积神经网络模型。
13.循环神经网络:使用MATLAB的深度学习工具箱,构建和训练循环神经网络模型。
14.长短期记忆网络:使用MATLAB的深度学习工具箱,构建和训练长短期记忆网络模型。
15.GAN(生成对抗网络):使用MATLAB的深度学习工具箱,构建和训练生成对抗网络模型。
16.自编码器:使用MATLAB的深度学习工具箱,构建和训练自编码器模型。
17.强化学习:使用MATLAB的强化学习工具箱,构建和训练强化学习模型。
18.关联规则挖掘:使用MATLAB的数据挖掘工具箱,发现数据中的关联规则。
基于AdaBoost的雷达目标HRRP识别

Abstra ct: T he d i m ens ion of t he radar high re solut ion range p rofile (HR R P ) is a lw ays h igh , so HRR P fea tures a re ex t racted by u sing the linear discrim inant ana lysis (LDA ) and the kernel F isher d iscrim inan t (KFD ) . To ob tain an eff icient clas sif ier, the A daBoos t a lgor ithm is adop t2 ed and a clas sifie r is const ruc ted by us ing the Gaus s w eak 2clas sif ier. The featu res obt ained f rom LDA and KFD are input s of the c las sif ier. A no the r two c la ssifiers ba sed on the K 2nea res t neighbou r ( KNN ) and the suppo rt vecto r m achine ( SVM ) are com pa red w ith the cla ss ifier based on A daBoos t. R esu lts ba sed on the sim ulated da ta p rovide som e va luable conclu sion s. Key wor ds: radar autom a tic ta rget recognit ion (RA TR ) ; linea r discrim inant ana lys is (LDA ) ; kerne l F isher discrim inan t ( KFD ) ; K 2nearest neighbou r ( KNN ) ; suppo rt vec to r m achine (SVM )
MATLAB_智能算法30个案例分析

MATLAB_智能算法30个案例分析MATLAB是一种强大的数值计算和编程工具,教育和科研领域中广泛应用于数据分析、机器学习和智能算法的研究。
在本文中,我们将介绍30个MATLAB智能算法的案例分析,并探讨其用途和优势。
分析的案例包括分类、回归、聚类、神经网络和遗传算法等不同类型的智能算法。
1. K均值聚类:利用MATLAB中的kmeans函数对一组数据进行聚类分析,得到不同的簇。
2. 随机森林:利用MATLAB中的TreeBagger函数构建一个随机森林分类器,并通过测试数据进行分类预测。
3. 人工神经网络:使用MATLAB中的feedforwardnet函数构建一个人工神经网络,并通过训练集进行预测。
4. 遗传算法:利用MATLAB中的ga函数对一个优化问题进行求解,找到最优解。
5. 支持向量机:使用MATLAB中的svmtrain和svmclassify函数构建一个支持向量机分类器,并进行分类预测。
6. 极限学习机:使用MATLAB中的elmtrain和elmpredict函数构建一个极限学习机分类器,并进行分类预测。
7. 逻辑回归:使用MATLAB中的mnrfit和mnrval函数构建一个逻辑回归模型,并进行预测。
8. 隐马尔可夫模型:使用MATLAB中的hmmtrain和hmmdecode函数构建一个隐马尔可夫模型,对一系列观测数据进行预测。
9. 神经进化算法:利用MATLAB中的ne_train函数构建一个基于神经进化算法的神经网络分类器,并进行分类预测。
10. 朴素贝叶斯分类器:使用MATLAB中的NaiveBayes对象构建一个朴素贝叶斯分类器,并进行分类预测。
11. 高斯过程回归:使用MATLAB中的fitrgp函数构建一个高斯过程回归模型,并进行回归预测。
12. 最小二乘支持向量机:使用MATLAB中的fitcsvm函数构建一个最小二乘支持向量机分类器,并进行分类预测。
13. 遗传网络:利用MATLAB中的ngenetic函数构建一个基于遗传算法和人工神经网络的分类器,并进行分类预测。
adaboost算法参数

Adaboost算法参数1. 引言Adaboost(Adaptive Boosting)是一种集成学习(Ensemble Learning)算法,通过组合多个弱分类器来构建一个强分类器。
它在机器学习领域中被广泛应用于分类问题。
Adaboost算法的核心思想是通过迭代训练一系列弱分类器,并根据每个弱分类器的表现来调整样本权重,使得在下一轮训练中更关注分类错误的样本,从而提高整体分类器的性能。
在实际应用中,Adaboost算法的性能很大程度上取决于参数的选择。
本文将详细介绍Adaboost算法的参数,并对每个参数的作用进行解释和讨论。
2. Adaboost算法参数Adaboost算法中的参数可以分为两类:基础参数和调整参数。
基础参数是在算法运行之前就需要确定的,而调整参数则可以根据具体问题和数据集的特点进行调整。
2.1 基础参数基础参数是Adaboost算法中最重要的参数之一,它们直接影响到算法的性能和结果。
2.1.1 训练轮数(n_estimators)训练轮数指的是Adaboost算法中弱分类器的数量。
在每一轮训练中,Adaboost会根据样本的权重分布训练一个弱分类器,并根据分类器的准确率调整样本的权重。
训练轮数越多,算法的拟合能力越强,但也容易导致过拟合。
因此,训练轮数需要根据具体问题和数据集的特点进行调整,以达到合适的平衡。
2.1.2 弱分类器(base_estimator)弱分类器是Adaboost算法中的基本分类器,它的训练结果被用来构建最终的强分类器。
常用的弱分类器包括决策树、支持向量机、神经网络等。
选择合适的弱分类器对于算法的性能至关重要,需要根据具体问题和数据集的特点进行选择。
2.1.3 学习率(learning_rate)学习率是Adaboost算法中用来调整每个弱分类器的权重的参数。
学习率越大,每个弱分类器的权重调整幅度越大,算法的拟合能力也越强,但容易导致过拟合。
学习率越小,每个弱分类器的权重调整幅度越小,算法的拟合能力也越弱,但容易导致欠拟合。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
由台湾大学林智仁教授等人开发完成的 。本文所采用的训练
算法是由 L IBSVM [6 ]软件包中提供的 SMO[7 ]算法 。其中 ,训练 算法所用到的参数 C、γ(γ即为 RBF核函数中 σ的倒数 )的选
择是由 L IBSVM 软件包中的 grid. py运用网格法实现的 。
输入数据集的格式为 ( yi, xi1 , …, xin ) 。其中 : n 为样本点 的特征个数 ; yi 为表示正负样本的标志 。为了得到每次迭代学 习的最富信息 ,本文对各样本点添加了一个属性 D i, 用于表示 训练样本的权重 。在迭代学习前对其进行初始化 ,随后在每次
而训练分类器 Ck ;然后根据这个分类器来提高被它错分的那 些样本点的权重 ,并降低可以被正确分类的样本权 。权重更新
过的样本集被用来训练下一个分类器 Ck +1 ,整个训练过程如 此进行下去 。
当改变样本点权重后 ,必须考虑到分类器 Ck 的误差率
β k
。βk
对最终形成的各分量分类器的决策权有很大的影响
w T xi + b≥ + 1 当 yi = + 1时 (1)
w T xi + b≤ - 1 当 yi = - 1时 这样 ,任意样本点到分类超平面的距离 margin = 2 / ‖w ‖。因 此使 margin最大的超平面就是最优分类超平面 ,要使分类间 隔 2 / ‖w ‖最大 ,就等价于使 ‖w ‖ /2最小 。因此可将构造最 优超平面的问题转换为拉格朗日函数 :
有以下几种 :
a)线性核函数 , K ( x, xi ) = x ×xi; b)多项式核函数 , K ( x, xi ) = [ ( x ×xi ) + 1 ]q; c)径向基核函数 , K ( x, xi ) = exp ( - | x - xi |2 ) /σ2 ) ; d) Sigmoid核函数 , K ( x, xi ) = tahn ( v ( x ×xi ) + c) 。 核函数的作用是可以将数据特征映射到高维的特征空间 。
支持 向 量 机 是 建 立 在 统 计 学 习 理 论 的 VC 维 (Vapnik2 Chervonenkis dimension)理论和结构风险最小化原则基础上的 新型机器学习方法 。最初于 20世纪 90年代由 Vapnik[1 ]提出 , 近年来在其理论研究和算法实现方面都取得了突破性进展 。 与传统统计学的经验风险最小化 ( ERM )不同 ,支持向量机基 于结构风险最小化 ( SRM )原理 [2 ] ,从而表现出优于已有方法 的性能 ,成为克服维数灾难和过学习等传统困难的有力手段 , 并且迅速引起各领域的注意和研究兴趣 ,取得了大量的应用研 究成果 ,推动了各领域的发展 。但是 ,在实际应用支持向量机 方法时 ,经常会遇到不平衡数据集或高精度要求等问题 。为保 证稳定的学习性能 ,本文引入了模式识别中分类器设计的重采 样技术 ———Boosting方法 (增强法 ) 。Boosting是一种试图提升 任意给定学习算法精度的普遍方法 ,可以集成任何分类算法的 算法框架 ,有比较完整的数学理论基础 。与其他算法相比 , Boosting具 有 适 应 性 强 、精 度 高 的 优 点 。AdaBoost ( adap tive boosting,自适应增强 )算法是 Freund等人 [3 ]提出的 Boosting算 法的一种变形 ,它有效地解决了早期 Boosting算法在实际应用 中的困难 ,其最终判别准则的精确度是依赖所有学习过程得出 的假设 ,因而更能全面地挖掘学习算法的能力 。本文将 SVM 作为 AdaBoost集成学习框架的学习器 ,结合 UC I数据进行实 验和比较 。
2 算法设计
SVM 算法与 AdaBoost算法有一个共同点 ,即在学习过程
中都是不断 地 迭 代 训 练 最 富 信 息 的 样 本 点 。本 文 的 Boost2
SVM 算法结合了两种算法的优点 ,在学习过程中重点训练错
分的样本点 ,即支持向量 ,试图通过结合这一特点提高算法的
分类性能 。
本算法是以 L IBSVM [5 ]为基础平台的 , L IBSVM 软件包是
·78·
计算机应用研究
第 26卷
i∑=l 1αi -
(1
/2)
l
∑
i =1
j∑=l 1ααi j
y
i
y
j
K
(
xi,
xj)
(7)
使得
0
≤α i
≤c,
∑l α
i=1 i
yi
= 0。
上式中的 K ( xi, xj ) =φ( xi ) ×φ( xj )称为核函数 。在 SVM
中 ,不同的内积核函数将形成不同的算法 。常用的核函数主要
迭代学习后 ,根据分量学习器对其进行的分类正确与否更新样
本点的权重 。这样 ,在下一次迭代学习时就可以根据最新的权
重选择待训练 m 个样本点构成新的训练集 。具体的 Boost2
φ( x) + b = 0。
最优分类面问题可描述为
m in ‖w ‖2
w, b,ξ
/2
+
ci∑=l 1ξi
(5)
其中 :ξ为线性不可分问题的松弛变量 ; c为惩罚参数 ,使得
yi (w
×φ( xi )
+
b)
≥1
- ξi;
ξ i
≥0;
i = 1, 2, …,
l
(6)
进而可得到其对偶形式为
l
ll
L (w, b,ξ,α)
(4)
其中 :αi ≥0, ∑αi yi = 0。
于是
,
最优分类问题就转换为对
α i
求解式
( 4)的最大值问
题
。其中
α i
是与每个样本对应的拉格朗日乘子
。这是一个不
等式约束下二次函数寻优问题 , 存在惟一解 , 且其最优解满足
条件
α i
(
yi
Hale Waihona Puke (wTx+
b)
-
1)
= 0, Π i。显然 ,只有支持向量的系数
,
本
文定义
β k
=
(1 /2)
ln [ ( 1 - Ek ) / Ek ], hk ( xi ) 为分量分类器 Ck
给出的对任意样本点 xi 的标记 ( + 1或 21) 。最后总体分类的
判决可以使用各个分量分类器加权平均来得到 :
g ( x) = kkm∑=a1xβk hk ( x)
(8)
这样 ,最后的判定规则简单形式就是 sgn[ g ( x) ]。
本文选择的核函数为径向基核函数 。径向基核函数有两个优
点 : a)它可以将数据特征映射到更高维的特征空间 ,而并不增
加计算复杂度 ; b)径向基核函数只有一个参数 ,也降低了计算
复杂度 。
算法原理
1
算法
Boosting算法 [4 ]的目标是提高任何给定的学习算法的分 类准确率 。在 Boosting算法中 ,首先根据已有的训练样本集设 计一个分类器 ,要求该分类器的准确率比平均性能要好 ;然后 依次顺序地加入多个分量分类器系统 ;最后形成一个总体分类 器 ,它对训练样本集的准确率能够任意高 。在这种情况下 ,分 类准确率被增强了 。概括地说 ,此方法依次训练一组分量分类 器 ,其中每个分量分类器的训练集都选择自己已有的其他各个 分类器所给出的最富信息 (most information) 的样本点组成 。 而最终的判决结果则是根据这些分量分类器的结果共同决定 。
那么在构造下一个训练集中 ,它被选中的概率就被降低 ;相反 ,
如果某个样本点没有被正确分类 ,那么它的权重就得到提高 。
通过这样的方式 , AdaBoost方法能够聚焦于那些较困难 (更富
信息 )的样本上 。在其具体实现上 ,最初令每个样本的权重都
相等 。对于第 k次迭代操作 ,根据这些权重来选取样本点 ,进
摘 要 : 将支持向量机与 AdaBoost算法相结合 ,称其为 Boost2SVM。从提升泛化性能和预测精度等方面对支持 向量机的学习算法进行了研究与比较 。Boost2SVM 实验结果表明 ,该算法提高了支持向量机的预测精度并优化 了学习机的性能 。 关键词 : 支持向量机 ; 增强法 ; 自适应增强算法 ; 算法优化 中图分类号 : TP301. 6 文献标志码 : A 文章编号 : 100123695 (2009) 0120077202
= i∑= 1αi -
(
1
/2)
∑
i=1
j∑= 1ααi j
y
i
yφj (
xi
)φ(
xj)
=
收稿日期 : 2008203222; 修回日期 : 2008206205 基金项目 : 国家自然科学基金资助项目 (60674115) 作者简介 :张晓龙 (19632) ,男 ,江西人 ,教授 ,博士 ,主要研究方向为机器学习 、数据挖掘 ;任芳 (19842) ,女 ,河北沧州人 ,硕士研究生 ,主要研究 方向为机器学习 ( r020f@163. com ).
α i
才可能为非零值
,
即只有支持向量影响最终的划分结果
。
当训练样本为非线性可分时 , 可以通过一个非线性函数
φ( ·)将训练样本集 x映射到一个高维线性特征空间 ,在这个
维数可能无穷大的线性空间中构造最优分类超平面 ,并得到分
类判别函 数 。因 此 , 在 非 线 性 情 况 下 , 分 类 超 平 面 为 w ×
Abstract: This paper described an algorithm ———Boost2SVM , which put SVM into A daBoost framework, trying to imp rove the learning accuracy of the SVM algorithm. The experimental results show that the p roposed method has a competitive learning ability and acquires better accuracy than SVM. Key words: SVM; Boosting algorithm; A daBoost algo rithm; algorithm op tim ization