基于CMA-ES算法的支持向量机模型选择

合集下载

协方差矩阵自适应进化策略

协方差矩阵自适应进化策略

协方差矩阵自适应进化策略协方差矩阵自适应进化策略,简称CMA-ES,是一种强大的优化算法,广泛应用于机器学习、自然语言处理以及仿真等领域。

CMA-ES算法通过自适应调整方向和步长来优化函数,从而不依赖于函数梯度,具有高效率和全局收敛性等优点。

下面,我将为大家分别从以下几个方面介绍协方差矩阵自适应进化策略:算法原理、步骤和优势。

算法原理CMA-ES算法的主要思想是使用高斯概率分布模拟搜索空间中的当前最优位置,并根据当前搜索点的历史信息来自适应地调整搜索策略。

具体来说,CMA-ES算法维护当前搜索点的均值向量μ和协方差矩阵Σ,并通过样本生成、适应度评估、进化策略更新μ和Σ等步骤来迭代优化。

步骤CMA-ES算法的步骤如下:1、初始化均值向量μ和协方差矩阵Σ。

可以将μ设置为搜索空间的中心位置,Σ设置为单位矩阵。

2、使用高斯分布生成N个样本,对每个样本进行适应度函数的评估。

3、根据适应度排序和选择操作,生成新的均值向量和协方差矩阵。

4、根据新的均值向量和协方差矩阵,重复步骤2和3,直到达到收敛标准。

优势相比于其他优化算法,CMA-ES算法拥有以下优势:1、不依赖梯度信息。

CMA-ES算法的搜索过程不需要计算或估计目标函数的梯度,适用于无法计算梯度或梯度计算困难的问题。

2、适应性强。

CMA-ES算法可以自适应地调整搜索策略,根据当前搜索点历史信息更新协方差矩阵,从而适应不同的优化问题。

3、更高的收敛速度和精度。

CMA-ES算法使用高斯分布模拟搜索空间,可以很好地探索和利用搜索空间的信息,从而具有更高的收敛速度和精度。

综合而言,协方差矩阵自适应进化策略是一种高效的优化算法,具有强大的适应性和全局收敛性。

在机器学习、自然语言处理等领域中,CMA-ES算法已经得到广泛应用,并取得了优异的优化效果。

支持向量机模型的特征选择技巧

支持向量机模型的特征选择技巧

支持向量机(Support Vector Machine,SVM)是一种广泛应用于分类、回归和异常检测等领域的机器学习算法。

在实际应用中,支持向量机的性能往往受特征选择的影响。

合适的特征选择可以提高支持向量机模型的预测精度,减少计算复杂度,降低模型的过拟合风险。

本文将介绍几种常见的支持向量机模型的特征选择技巧,以及它们的应用场景和优缺点。

特征选择是指从原始数据中选择最具代表性和相关性的特征,以提高模型的性能和泛化能力。

支持向量机模型的特征选择技巧可以大致分为过滤式(Filter)、包裹式(Wrapper)和嵌入式(Embedded)三种类型。

在选择特征的过程中,需要考虑特征之间的相关性、重要性以及对模型预测结果的影响。

下面分别介绍这三种特征选择技巧的原理和应用。

过滤式特征选择是在训练模型之前,利用统计学方法对特征进行评估和排序,然后选择排名靠前的特征。

常用的过滤式特征选择方法包括方差选择、相关系数选择和互信息选择等。

方差选择方法适用于处理连续型特征,它通过计算特征的方差来评估特征的重要性,然后选择方差大于某个阈值的特征。

相关系数选择方法则通过计算特征与目标变量的相关系数来评估特征的重要性,选择与目标变量相关性高的特征。

互信息选择方法则通过计算特征与目标变量的互信息来评估特征的重要性,选择互信息大于某个阈值的特征。

过滤式特征选择方法简单高效,但忽略了特征之间的交互影响,可能会漏掉一些重要的特征。

包裹式特征选择是在模型训练的过程中,利用模型的性能来评估特征的重要性,然后选择最优的特征子集。

常用的包裹式特征选择方法包括递归特征消除、基于遗传算法的特征选择和基于模型的特征选择等。

递归特征消除方法首先利用所有特征训练模型,然后根据模型对特征的重要性进行排序,逐步剔除对模型影响最小的特征,直到达到预设的特征数量。

基于遗传算法的特征选择方法通过模拟自然选择的过程,利用交叉和变异等操作搜索最优特征子集。

基于模型的特征选择方法则利用模型的性能指标(如准确率、AUC等)来评估特征的重要性,选择对模型性能影响最大的特征。

支持向量机原理与应用

支持向量机原理与应用

支持向量机原理与应用支持向量机是一种广泛应用于分类和回归问题的机器学习算法,其基本思想是通过寻找最优超平面将数据分成两类。

在这篇文章中,我们将深入探讨支持向量机的原理和应用。

一、支持向量机的原理支持向量机通过最大化间隔超平面来分类数据。

间隔是定义为支持向量(也就是最靠近分类边界的数据点)之间的距离。

因此,我们的目标是找到一个最优的超平面使得此间隔最大。

在二维空间中,最大间隔超平面是一条直线。

在高维空间中,最大间隔超平面是一个超平面。

这个超平面定义为:w\cdot x-b=0其中,w是一个向量,x是样本空间中的向量,b是偏差。

支持向量机的目标是找到一个可以将训练样本分成两个类别的最大间隔超平面,并且使得间隔为M(M是最大间隔)。

二、支持向量机的应用支持向量机是一种广泛应用于分类和回归问题的机器学习算法。

这里我们将讨论支持向量机在分类问题中的应用。

1. 图像分类支持向量机在图像分类中的应用非常广泛。

通过将图像转换为特征向量,可以用支持向量机实现图像分类。

支持向量机特别适用于图像分类,因为它可以处理高维特征空间。

2. 自然语言处理支持向量机可以通过文本分类实现在自然语言处理中的应用。

支持向量机可以学习在给定文本语料库中的所有文档的特定类别的模式(如“金融”或“体育”)。

3. 生物信息学支持向量机在生物信息学中的应用非常广泛。

生物信息学家可以使用支持向量机分类DNA,RNA和蛋白质序列。

4. 金融支持向量机在金融中的应用也很广泛。

通过识别是否存在欺诈行为,可以使用支持向量机实现信用评估。

三、总结在这篇文章中,我们深入探讨了支持向量机的原理和应用。

通过理解支持向量机的原理,我们可以更好地了解如何使用它解决分类问题。

在应用方面,支持向量机广泛应用于各种领域,包括图像分类、自然语言处理、生物信息学和金融等。

因此,支持向量机是一种非常有用的机器学习算法,对于了解它的原理和应用非常重要。

支持向量机的特征选取方法

支持向量机的特征选取方法

支持向量机的特征选取方法支持向量机(Support Vector Machine,简称SVM)是一种常用的机器学习算法,被广泛应用于分类和回归问题。

在实际应用中,选择合适的特征对于SVM的性能至关重要。

本文将介绍一些常用的支持向量机特征选取方法,帮助读者更好地理解和应用SVM算法。

一、特征选取的重要性特征选取是指从原始数据中选择出最具有代表性和区分性的特征,以提高分类或回归模型的性能。

在SVM中,特征选取的目标是找到最佳的特征子集,以提高分类超平面的判别能力和泛化能力。

二、过滤式特征选取方法过滤式特征选取方法是一种独立于具体学习算法的特征选择方法,它通过对特征进行评估和排序,然后选择排名靠前的特征子集。

常用的过滤式特征选取方法有相关系数法、卡方检验法和信息增益法等。

1. 相关系数法相关系数法是一种衡量特征与目标变量之间线性关系的方法。

它通过计算特征与目标变量之间的相关系数,选择相关性较高的特征。

在SVM中,相关系数法可以帮助我们筛选出与目标变量相关性较强的特征,提高分类模型的性能。

2. 卡方检验法卡方检验法是一种用于检验特征与目标变量之间独立性的方法。

它通过计算特征与目标变量之间的卡方值,选择卡方值较大的特征。

在SVM中,卡方检验法可以帮助我们找到与目标变量相关性较高的特征,提高分类模型的准确性。

3. 信息增益法信息增益法是一种衡量特征对于目标变量分类能力的方法。

它通过计算特征对目标变量的信息增益,选择信息增益较大的特征。

在SVM中,信息增益法可以帮助我们选择对目标变量具有较强分类能力的特征,提高分类模型的性能。

三、嵌入式特征选取方法嵌入式特征选取方法是一种将特征选取与学习算法结合起来的方法,通过学习算法自身的特性选择最佳的特征子集。

常用的嵌入式特征选取方法有L1正则化方法、决策树方法和基于遗传算法的方法等。

1. L1正则化方法L1正则化方法是一种通过在目标函数中加入L1范数惩罚项来实现特征选取的方法。

支持向量机回归的参数选择方法

支持向量机回归的参数选择方法

支持向量机回归的参数选择方法支持向量机(Support Vector Machine,简称SVM)是一种非常强大且广泛应用于机器学习领域的算法。

它不仅适用于分类问题,还可以用于回归任务。

本文将深入探讨支持向量机回归的参数选择方法,并分析其优势和应用场景。

SVM回归的目标是通过拟合一个最优的超平面来预测连续变量的输出。

与分类任务不同的是,SVM回归关注的是给定输入样本点的输出数值。

在SVM回归中,参数选择方法对模型性能的影响非常重要。

我们来讨论SVM回归的核函数选择。

核函数是SVM中的一个关键概念,它可以将输入样本从原始特征空间映射到高维特征空间。

常见的核函数包括线性核函数、多项式核函数和高斯核函数等。

针对回归任务,一般常用的是高斯核函数,它能更好地处理非线性关系。

接下来,我们讨论SVM回归的惩罚参数C选择。

惩罚参数C控制着模型对误差的容忍程度,其值的选择对模型的求解和泛化能力都会产生较大影响。

当C的值较小时,模型会容忍更多的误差,从而产生较宽泛的超平面;相反,当C的值较大时,模型会更严格地拟合训练样本,但可能会导致过拟合现象。

在参数选择过程中,需要权衡模型的拟合能力和泛化能力。

另外,核函数的超参数γ也是SVM回归中需要选择的重要参数。

γ决定了高斯核函数的带宽,即决定了样本点对决策边界的影响程度。

当γ较大时,样本点之间的距离对决策边界的影响减小,决策边界可能变得更加平滑;相反,当γ较小时,样本点之间的距离对决策边界的影响增大,决策边界可能更加对训练样本敏感。

在选择参数C和γ时,通常使用交叉验证的方法来评估模型的性能。

交叉验证将数据集划分为训练集和验证集,在不同的参数组合下训练模型,并在验证集上计算模型的性能指标,如均方误差(Mean Squared Error,简称MSE)。

根据验证集上的性能表现,选择使MSE最小的参数组合作为最终的模型参数。

支持向量机回归的参数选择方法涉及到核函数选择、惩罚参数C的确定和高斯核函数的超参数γ的选择。

支持向量机

支持向量机

支持向量机支持向量机模型选择研究摘要: 统计学习理论为系统地研究有限样本情况下的机器学习问题提供了一套比较完整的理论体系。

支持向量机(suPportvectorMachine,SVM) 是在该理论体系下产生的一种新的机器学习方法它能较好地解决小样本、非线性、维数灾难和局部极小等问题, 具有很强的泛化能力。

支持向量机目前已经广泛地应用于模式识别、回归估计、概率密度估计等各个领域。

不仅如此, 支持向量机的出现推动了基于核的学习方法(Kernel-based Learning Methods)的迅速发展, 该方法使得研究人员能够高效地分析非线性关系, 而这种高效率原先只有线性算法才能得到。

目前, 以支持向量机为主要代表的核方法是机器学习领域研究的焦点课题之一。

众所周知, 支持向量机的性能主要取决于两个因素:(1) 核函数的选择;(2) 惩罚系数(正则化参数)C的选择。

对于具体的问题,如何确定SVM中的核函数与惩罚系数就是所谓的模型选择问题。

模型选择,尤其是核函数的选择是支持向量机研究的中心内容之一。

本文针对模型选择问题,特别是核函数的选择问题进行了较为深入的研究。

其中主要的内容如下:1. 系统地归纳总结了统计学习理论、核函数特征空间和支持向量机的有关理论与算法。

2. 研究了SVM参数的基本语义,指出数据集中的不同特征和不同样本对分类结果的影响可以分别由核参数和惩罚系数来刻画,从而样木重要性和特征重要性的考察可以归结到SVM的模型选择问题来研究。

在对样本加权svM莫型(例如模糊SVM分析的基础上,运用了特征加权svM莫型, 即FWSVM本质上就是SVM与特征加权的结合。

3,在系统归纳总结SVM莫型选择。

尤其是核函数参数选择的常用方法(例如交叉验证技术、最小化LOO M差及其上界、优化核评估标准)。

关键词:机器学习;莫式分类;支持向量机;莫型选择;核函数; 核函数评估支持向量机基础引言机器学习的科学基础之一是统计学。

cma-es和粒子群算法 -回复

cma-es和粒子群算法 -回复

cma-es和粒子群算法-回复CMA-ES (Covariance Matrix Adaptation Evolution Strategy) 和粒子群算法(Particle Swarm Optimization) 都是一类用于解决优化问题的启发式算法。

它们被广泛应用于各个领域,包括机器学习、人工智能、工程优化等。

本文将一步一步回答关于这两种算法的问题,包括它们的原理、特点、优势和应用。

第一步:了解CMA-ES算法的原理和特点CMA-ES是一种进化策略算法,通过模拟生物进化中的选择、交叉和变异来搜索最优解。

它以多元正态分布来建模搜索空间,并通过更新协方差矩阵来适应搜索空间中的分布。

相比于其他进化策略算法,CMA-ES有以下特点:1. 自适应性:CMA-ES能够自动调整搜索策略,使得搜索更加高效。

它通过估计协方差矩阵的响应速度和步长控制搜索的速度和方向。

2. 高效性:CMA-ES使用自适应的协方差矩阵估计搜索空间的分布,从而避免了传统进化算法中出现的收敛速度慢的问题。

它具有较快的收敛速度和较高的搜索效率。

3. 全局搜索能力:CMA-ES能够同时进行全局搜索和局部搜索,通过控制步长和自适应协方差矩阵,可以在搜索空间中快速找到全局最优解。

第二步:了解粒子群算法的原理和特点粒子群算法是一种基于群体智能的优化算法,受到鸟群觅食行为的启发。

在粒子群算法中,问题的解被表示为一组离散的粒子,并通过计算粒子的速度和位置来进行搜索。

粒子群算法的特点包括:1. 协作和竞争:粒子群算法中的粒子相互协作,通过信息交流来实现搜索空间中的全局搜索。

同时,粒子也会根据自身的经验进行自主的局部搜索。

2. 迭代优化:粒子群算法通过更新粒子的速度和位置来实现优化。

粒子根据自身的经验和邻居粒子的最优解进行位置调整,从而逐步优化目标函数。

3. 相对简单:粒子群算法的实现相对简单,没有太多的参数需要调节。

它在处理连续优化问题时表现良好,并且易于理解和应用。

支持向量机的构建方法

支持向量机的构建方法

支持向量机的构建方法支持向量机(Support Vector Machine,SVM)是一种非常强大的机器学习算法,常用于分类和回归问题。

它的构建方法主要包括数据预处理、选择核函数、确定超参数和模型训练四个步骤。

第一步,数据预处理。

在构建支持向量机模型之前,我们需要对数据进行预处理。

这包括数据清洗、特征选择和数据标准化。

数据清洗是指处理缺失值、异常值和重复值等数据质量问题。

特征选择是从所有特征中选择最相关的特征,以提高模型的准确性和泛化能力。

数据标准化是将不同尺度的特征转化为相同的尺度,以避免特征之间的差异对模型的影响。

第二步,选择核函数。

在支持向量机中,核函数是一个非常重要的概念,它用于将数据从原始空间映射到一个高维特征空间,以便在特征空间中进行线性分类。

常用的核函数有线性核、多项式核和高斯核等。

选择合适的核函数对于支持向量机的性能至关重要,需要根据数据的特点和分类问题的复杂度进行选择。

第三步,确定超参数。

超参数是在模型训练之前需要确定的参数,它们不是通过模型的训练数据来学习得到的。

常见的超参数有正则化参数C和核函数参数gamma。

正则化参数C控制着对误分类样本的惩罚程度,过大的C会导致过拟合,过小的C会导致欠拟合。

核函数参数gamma决定了样本点映射到特征空间后的影响范围,过大的gamma会导致模型过于复杂,过小的gamma会导致模型过于简单。

通过交叉验证等方法,可以选择合适的超参数。

第四步,模型训练。

在进行模型训练之前,需要先将数据分为训练集和测试集。

训练集用于模型的参数估计和调整,而测试集用于模型的性能评估。

通过优化目标函数,支持向量机的模型可以得到最优的超平面,以实现对样本的分类。

训练过程可以使用优化算法(如序列最小最优化算法)来求解。

总结起来,支持向量机的构建方法包括数据预处理、选择核函数、确定超参数和模型训练。

这些步骤的合理选择和操作对于构建一个高效的支持向量机模型至关重要。

在实际应用中,我们需要根据数据的特点和问题的复杂度来选择适当的方法,并通过交叉验证等技术进行调优,以达到最佳的分类效果。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
协方差矩阵自适应进化策略(Covarianee Matrix Adapts— rio.Evolution Strategy,CMA—ES)是一种新型的进化优化算 法,由Hansen和Ostermeier首先提出。该算法通过采用进化
一163—
万方数据
策略对搜索点群协方差矩阵进行迭代更新,逐步逼近目标函 数的逆Hessian矩阵(The Inverse Hessian Matrix)o CMA—KS 算法继承了标准进化算法的健壮性,对搜索空间映射不变性 等优点,并成功地避免了传统进化算法如遗传算法,粒子群 算法对种群大小的依赖以及早熟等问题,特别适合对非凸目 标函数的全局优化求解Hj J。
c。,协方差矩阵自适应参数c。,步长学习参数c,,步长抑制
参数以,种群方差有效性变量以矿,更新权重参数肛。,父代个
体组合权重蛐,吡。这些参数都是自含的,可由算法设定。
根据CMA—ES的演化规则,基于CMA—ES的SVM参 数寻优算法如下:
步骤l:初始化 初始化种群均值m∞),最大适应度函数计算次数maxFs,
1 引言
支持支持向培机(Suppoa Vector Machine,SVM)是建立 在统计学习理论基础之上的新型分类算法,特别适合小样本 高维数据的分类和学习,近几年在模式识别领域得到了广泛 的应用…。在支持向黾机理论中,通过引入核函数,隐式地 利用非线性变换将数据从低维非线性输人空间转换到高维 的线性特征空间(Feature Space),然后在高维空间中构造线 性判别函数来实现对输入空间中非线性数据的分类;SVM通 过求解一个简单线性约柬条件下的凸二次优化问题获得全 局最优解,实现r结构风险最小化,因而能够保证较好的推 广能力。同时,由于其算法复杂度与样本维数无关,巧妙地 解决r维数问题。
优的超参数,提高支持向虽机的预测精度稳定性,尤其适合大样本数据条件下的模型选择。
关键词:交持向量机;进化算法;参数选择;协方差矩阵自适应进化策略
中图分类号:TP391
文献标识码:A
Model Selection for SVMs Based on CMA——ES Algorithm
ZHOU Wen—iie,XU Yong
对于线性两分类问题,支持向量机寻求在特征空间中建 立一个超平面使得正负样本之间分开,并使间隔(margin)最 大化。给定1个样本气∈R“,i=卜”Z,样本标签Y。∈{±l}, £l软间隔支持向量机转化为求解以下优化问题:
min下1…P+c∑基
^厶 扎(加·西(髫i)+6)≥l一靠
基≥0 Vi
(1)
第27卷第4期 文章编号:1006-9348(2010)04一0163~04
计算机仿真
2010年4月
基于CMA—ES算法的支持向量机模型选择
周文杰,徐勇 (湖南大学电气与信息工程学院,湖南长沙410082)
摘要:研究模型选择对支持向龟机(SVM)的泛化性能有着重要影响。针对传统梯度算法对初始值敏感及网格搜索法计算
(College of Electrical and Information Engineering,Hunan University,Changsha Hunan 410082,China)
ABSTRACT:Model selection plays a key role in SVM application.Traditional methods,such as the gradient based method and grid search method,respectively surfer from the sensitivity to the initial point and intensive computa- fions.A ntysq model selection method is proposed in this paper based 011 the Covarianee Matrix Adaptation——Evolution Strategy(CMA—ES)using the bounds on generalization performance of SVM.Compared with the Genetic Algorithms (GA)and the Broyden—Fletcher—GoIdfarb—Shanno(BFGS)method,the experimental results baed on four benchmark datasets show that the proposed method carl improve the predicting accuracies of SVM with low eomputa— tions cost,which makes the proposed method be especially suitable for model selection on large data sets. KEYWORDS:Support vector machine(SVM);Evolution algorithms;Model selection;CMA—ES
复杂的缺点,为了提高全面优化能力和分类精度,提出了一种基f协方差矩阵自适应进化策略(CMA—ES)的支持向鼍机
(SVM)模型优化算法,通过对SVM泛化性能界(Bounds on Generalization Performance)的优化求解,实现了基于CMA—ES算 法的SVM模型选择。在标准数据集上的实验结果表明:相比遗传算法和梯度算法,上述方法能够在较小计算代价下得到更
种群的搜索范围,进化代数g=0。
步骤2:生成搜索种群
生成数目为)L的随机种群,即对于i=l,…,入:
Z”一N(o,俨)
(13)
髫:。)=m‘5)+盯(g’≈it)
(14)
步骤3:对群体进行选择、重组
以目标函数为适应度函数,优选种群,使目标点函数值
满足:
八茗鬟)≤,(算::”)≤…≤八并篡”) (15)
与or具有数量级的变化范围,为简化计算,本文利用对数变
换u=Incr2,口=lnC将优化问题缩放到(H,口)空间中进行,故
支持向量机泛化性能界函数可以表示为u,口的函数以u,。),
从而将问题转化为利用CMA—ES对,(Ⅱ,口)进行全局最优化
的问题。
3.2 SVM参数的CMA—ES算法寻优
பைடு நூலகம்
CMA—ES算法的核心思想是通过动态调整多变量正态 搜索的协方差矩阵c,使种群收敛于全局最优解。与其他进
s.t.0≤ai≤C,i=1,…,Z
Y1a=0
(2)
其中,Qi=,,iyjK(xj,毛),K(xj,t)为核函数,表示非线性映射 函数妒(毛)与妒(葺)的内积。常见的非线性核函数主要有高 斯核函数和多项式核函数,如式(3),式(4)所示:
K(菇;·鼍)=exp一(旦兰乏亏华) (3)
X(气·茗,)=(1+≈·≈)4
其中,£为非负的松驰变量;C为正则化参数,控制对错分样
本的惩罚程度,实现在错分样本比例与算法复杂度间的折
衷,p(鼍)为非线性映射函数,通过妒(菇;)可以将非线性可分
的输入空间数据转换为高维特征空间中的线性可分数据。
通过引入拉格朗日乘子,优化式(1)转化为下述二次优
化问题:
max 形(n)=era一÷a7Qa
虽然RM界是可导的,但该界并不能二次可导,更不能 保证函数的凸性,因此利用梯度法求解容易陷入局部最优
点,增加了支持向量机模型选择的不稳定性。
3基于CMA—ES算法的SVM模型选择
为了取得较好的支持向量机模型,必须合理选择支持向
量机的超参数,即正则化参数C以及核函数的参数。本文中
采用高斯核函数,利用CMA—ES的全局寻优能力最优化RM
化算法相比,CMA—ES的收敛速度较快,而且具有旋转不变
性的优点,只需要小规模种群即可实现对问题的高效求解。
在CMA—ES算法中,c为控制着搜索种群椭圆体形分
布的协方差矩阵;m为子代样本均值,代表搜索种群的中心;
叮控制着迭代搜索的步长。在CMA—ES算法中,还需要用 到种群数量入进行霞组的父代个体数弘,协方差矩阵学习率
界及改进RM界,实现对L2一SVM及L1一SVM的模型选择,
以达到选择更好的超参数盯2和c,提高分类精度,增强算法
稳定性的目的。
3.1模型选择问题的转化
由于RM界以及改进RM界都是超参数矿和C的函
数,针对cr2和C最小化RM界以及改进RM界,可使SVM的
泛化性能得到提高,从而完成对SVM模型的确定。由于C
8.L
∑鼠=1,晟≥0,vi (10)
LOOError≤面1刎哪
(11)
其中,II面”2为问题(6)的目标最优函数值,令(10)式中K
(气,誓)=足(气,鼍)+睾,则砰为最优化问题(to)的目标函
万方数据
可采用针对L1一SVM的改进RM界,即
LOO胁r≤,竺÷[矿Il酽¨+(D2c+1)砉纠(12)
更新搜索种群均值:
m‘‘“’一∑∞i戈;曩
(16)
优选重组zI括:A’,依次选择前肛个z缨,i=1一"/t,令:
(z)箩=∑咄·z髫
(17)
其中,权重峨由初始化时生成,满足∑咄=1以及tO。
≥山2≥…≥虬>0 步骤4:更新P,、p。和or、C
∥1)+更”新一搜索(1路一径c::)∥+∥玎F孺一}(:)≯
(18)
盯倌“’一弘)×exp(考(揣-1))(20) p≯“’+一(1一Cc)p≯’+h,V/Cc(2—-c—c)—lt—,#(z)’(19)
2)更新步长及协方差矩阵:
c‘川’+-(1一c。)c‘。’+≥(pcp:+6(.II,)C‘5’)+
‰(1。亡)再眠-。幺
(21)
步骤5:判断终止条件
若未达到终止条件,则g—g+1,跳转到步骤2继续执
相关文档
最新文档