具有多分段损失函数的多输出支持向量机回归

合集下载

多类支撑向量机损失函数

多类支撑向量机损失函数

多类支撑向量机损失函数多类支持向量机(Multi-class Support Vector Machine,简称MC-SVM)是一种常用的分类算法,可以用于将多个类别的数据进行有效分类。

在MC-SVM中,我们需要定义一个损失函数,用于衡量分类器的性能。

本文将介绍多类支持向量机损失函数的相关内容。

让我们回顾一下支持向量机(Support Vector Machine,简称SVM)的原理。

SVM是一种二类分类算法,其基本思想是找到一个最优的超平面,将不同类别的样本分开。

在SVM中,我们通常使用hinge 损失函数来衡量分类器的性能。

然而,在多类分类问题中,我们需要将SVM扩展为多类支持向量机。

在多类支持向量机中,我们可以使用一对一(One vs One)或一对其余(One vs Rest)的方法来处理多类别分类问题。

在这两种方法中,我们需要定义一个损失函数来优化分类器的参数。

常见的多类支持向量机损失函数包括Softmax损失函数和交叉熵损失函数。

Softmax损失函数是一种常用的多类支持向量机损失函数,它可以将分类器的输出转化为类别的概率分布。

Softmax损失函数可以帮助我们更好地理解分类器的输出结果,并进行更准确的分类。

另外,交叉熵损失函数也是一种常用的多类支持向量机损失函数,它可以衡量分类器输出的概率分布与真实标签之间的差异,帮助我们优化分类器的参数。

除了Softmax损失函数和交叉熵损失函数,还有一些其他常用的多类支持向量机损失函数,如对比损失函数(Contrastive Loss)、三元组损失函数(Triplet Loss)等。

这些损失函数在处理不同类型的多类分类问题时,具有不同的优势和适用性。

根据具体的问题特点和数据分布,我们可以选择合适的多类支持向量机损失函数来优化分类器的性能。

总的来说,多类支持向量机损失函数在处理多类分类问题时起着至关重要的作用。

通过定义合适的损失函数,我们可以优化分类器的参数,提高分类的准确性和泛化能力。

安徽大学电子信息工程学院研究生导师信息

安徽大学电子信息工程学院研究生导师信息
获奖情况
1.多视图几何理论及应用,2003年安徽省科学技术奖三等奖;
2.面向实际的数学素质教育,2005年安徽省教学成果奖二等奖;
3.基于双语教学与国际大学生数学建模竞赛、培养具有国际视野人才,2010年安徽省教学成果奖一等奖;
4.全国大学生数学建模竞赛,2006年国家一等奖、2007安徽省一等奖、2008年国家二等奖、2009年国家二等奖、2010年国家二等奖;
2.计算机视觉
3.虚拟现实
个人简历
2003年获安徽大学计算机应用方向硕士学位,2008年获安徽大学电路与系统方向博士学位,2008年9月任安徽大学电子科学与技术学院副教授。
学术成果
[1] Jun Tang(唐俊), Dong Liang,Nian Wang,Yi-Zheng Fan, A Laplacian Spectral Method for Stereo Correspondence,Pattern Recognition Letters,2007,28(12):1391-1399(SCI收录);
2004.7-2011.1安徽大学计算机科学与技术学院,教师;
2011.1至今安徽大学电子信息工程学院,教师;
学术成果
主持完成一项国家自然科学基金项目,参与完成国家自然科学基金项目、高等学校博士学科点专项科研基金项目、安徽省科技厅攻关项目,及多个横向项目的研究。
在学术期刊和国际会议上发表学术论文二十余篇。
获奖情况
曾获安徽大学青年教师教学优秀二等奖,中国科学院彭荫刚奖学金一等奖,中国科学技术大学学报首届优秀论文奖和安徽大学董事会优秀教学奖等。
在研项目
主持国家自然科学基金项目“电大尺寸多目标宽带电磁散射特性的频域计算方法研究”和安徽省高校中青年学科带头人培养对象资助项目“电大尺寸目标宽带电磁散射特性的研究”,参加国家自然科学基金重点项目“异向介质理论与应用基础研究”和国家自然科学基金项目“基于高阶辛算法的时域电磁散射计算理论及其应用研究”。

支持向量机在回归问题中的应用

支持向量机在回归问题中的应用

支持向量机在回归问题中的应用支持向量机(Support Vector Machine,简称SVM)是一种常用的机器学习算法,广泛应用于分类问题中。

然而,SVM同样适用于回归问题,其在回归任务中的应用也是非常有价值的。

一、回归问题简介回归问题是机器学习中的一类重要问题,其目标是预测连续型变量的值。

与分类问题不同,回归问题的输出是一个实数而非离散的类别。

例如,根据房屋的面积、地理位置等特征,预测房价就是一个典型的回归问题。

二、支持向量机回归原理SVM回归的基本思想是通过构建一个最优的超平面来拟合数据点。

与分类问题中的超平面不同,回归问题中的超平面是一个曲线或者曲面,其目标是使数据点尽可能地靠近该曲线或曲面。

在SVM回归中,我们需要定义一个损失函数,用于衡量预测值与真实值之间的误差。

常用的损失函数包括ε-insensitive损失函数和平方损失函数。

ε-insensitive损失函数允许一定程度的误差,而平方损失函数则更加严格。

为了得到最优的超平面,SVM回归引入了一个惩罚项,用于平衡模型的复杂度和拟合误差。

这个惩罚项可以通过调节超参数C来控制,C越大,模型越复杂,容易过拟合;C越小,模型越简单,容易欠拟合。

三、支持向量机回归的优点1. 鲁棒性强:SVM回归通过选择支持向量来进行拟合,对于异常值的影响较小。

这使得SVM回归在处理包含噪声的数据时表现出色。

2. 非线性拟合能力强:通过引入核函数,SVM回归可以处理非线性回归问题。

核函数将数据从原始空间映射到高维空间,使得数据在高维空间中线性可分。

3. 泛化能力强:SVM回归采用结构风险最小化原则进行模型选择,能够在训练集上获得较好的拟合效果的同时,保持对未知数据的良好泛化能力。

四、支持向量机回归的应用场景1. 房价预测:通过收集房屋的各种特征,如面积、地理位置、房龄等,可以利用SVM回归模型来预测房价。

2. 股票价格预测:通过收集股票的历史交易数据和相关指标,如成交量、市盈率等,可以利用SVM回归模型来预测股票价格的走势。

在线多输出支持向量回归及在投资决策中的应用

在线多输出支持向量回归及在投资决策中的应用

( = ,) ÷∑ I l + z ( ,) l 一l cz ) w (
- 1
( 2)
维普资讯
第6 期
胡根生 等 : 在线多输出支持向量回归及在投资决策中的应用
式 中 ( ) 厂 ( )f ( ) , ( ) . 中采 =( , …, ) 文
V , 些多输 出之 问具有 很强 的关 联性 , R)这 如果 用 多
个单输出的支持向量 回归算法来估计多输 出函数 , 不仅精确性较差 , 而且计算工作量很大. 在预测最优投资组合等问题 时, 随着时间的推 移, 新数据不断增加 , 解决这类问题需要发展在线支 持向量机算法 , 特别是在线多输出算法. 目前这方面 的研究成果较少 ,e z r 等人提出了一种变权迭 Pr — u eC z 代算法 来求解 静态多输人多输 出支持 向量 回归 问题 ; a i M rn等人提出 了一种在线支持 向量机回归 t 方法 , 该方法允许逐渐增加新 的样本 , 删除部分
最小化; 在多输出情况下, 要构造f ( = ( WJ ) ) + b ,= ,, m( 为多输 出维数 ) 使式 ( ) 12 …, m , 1 的结
1 ‘
已经存在的样本以及更新已经存在的数据的 目标函 数值 , 但计算工作量相 当大 ; a M 等提出了一种精确 在线单输出 S R A S R 算法 , V (OV ) ]该算法随着新样
维普资讯
华 南 理 工 大 学 学 报 (自 然 科 学 版 )
第3 4卷 第 6期
20 0 6年 6月
J u n lo o t i a Un v r i fT c n l g o r a fS u h Ch n i e st o e h o o y y

分类损失函数和回归损失函数

分类损失函数和回归损失函数

分类损失函数和回归损失函数首先,让我们来看看分类损失函数。

分类问题的目标是将输入数据分为不同的类别或标签。

常见的分类损失函数包括交叉熵损失函数(Cross-Entropy Loss)、Hinge损失函数和误分类损失函数。

交叉熵损失函数在多分类问题中被广泛使用,它衡量了模型输出的概率分布与真实标签之间的差异,通过最小化交叉熵损失函数来优化模型参数。

Hinge损失函数通常用于支持向量机(SVM)中,它对于正确分类的样本施加了一个较小的惩罚,而对于错误分类的样本施加了较大的惩罚。

误分类损失函数则直接衡量模型对样本的分类是否正确,对于错误分类的样本给予较大的损失。

其次,让我们来看看回归损失函数。

回归问题的目标是预测连续数值型的输出。

常见的回归损失函数包括均方误差(Mean Squared Error,MSE)、平均绝对误差(Mean Absolute Error,MAE)和Huber损失函数。

均方误差是最常见的回归损失函数,它计算模型预测值与真实值之间的平方差,并且对大误差给予更大的惩罚。

平均绝对误差则计算模型预测值与真实值之间的绝对差异,它对异常值不敏感。

Huber损失函数结合了均方误差和平均绝对误差的优点,对于小误差采用均方误差,对于大误差采用平均绝对误差,从而在一定程度上兼顾了鲁棒性和精确性。

总的来说,分类损失函数和回归损失函数在机器学习中起着至关重要的作用。

选择合适的损失函数取决于所处理的问题类型以及对模型性能的要求。

不同的损失函数对模型训练和优化过程产生不同的影响,因此在实际应用中需要根据具体情况进行选择。

支持向量回归原理

支持向量回归原理

支持向量回归原理支持向量回归(Support Vector Regression, SVR)是一种基于支持向量机(Support Vector Machine, SVM)的回归方法,它可以用于解决回归分析中的问题。

与传统的回归方法相比,SVR在处理非线性、高维度、复杂数据集时具有更好的性能。

在实际应用中,SVR已经被广泛应用于金融预测、股票市场分析、工程预测等领域。

SVR的原理基于支持向量机,它的核心思想是通过找到一个最优超平面来拟合数据。

在SVR中,我们希望找到一个函数f(x),使得预测值与真实值之间的误差最小化。

为了实现这一目标,SVR引入了一个边界(margin)的概念,通过最大化边界来找到最优超平面,从而得到一个更加鲁棒的模型。

在SVR中,我们通常使用的损失函数是ε不敏感损失函数(ε-insensitive loss function),它允许一定程度的误差ε存在。

通过调整参数ε和惩罚参数C,我们可以控制模型的复杂度和对误差的容忍度。

同时,SVR还可以通过核函数来处理非线性回归问题,例如多项式核函数、高斯核函数等。

在实际应用中,SVR的参数调优非常重要。

通常情况下,我们可以通过交叉验证的方法来选择最优的参数组合,以达到最好的拟合效果。

此外,数据的预处理也是影响SVR性能的重要因素,包括特征缩放、异常值处理等。

总的来说,支持向量回归原理是基于支持向量机的回归方法,它通过最大化边界来拟合数据,通过调整损失函数和惩罚参数来控制模型的复杂度和对误差的容忍度。

在实际应用中,SVR需要通过参数调优和数据预处理来获得最佳的拟合效果。

希望本文对支持向量回归原理有所帮助,谢谢阅读!。

mlm任务损失函数讲解

mlm任务损失函数讲解多层次感知机(Multilayer Perceptron, MLP)是一种常用的人工神经网络模型,用于解决分类和回归问题。

在训练多层次感知机时,我们需要定义一个损失函数来衡量模型预测结果与真实标签之间的差异。

本文将介绍几种常见的MLP任务损失函数,并对其进行讲解。

1. 均方误差(Mean Squared Error, MSE)损失函数是最常用的回归问题损失函数之一。

对于回归问题,模型的输出是一个连续值。

MSE损失函数计算模型预测结果与真实标签之间的平均差异的平方。

通过最小化MSE损失函数,我们可以使模型的预测结果尽可能接近真实标签。

2. 交叉熵(Cross Entropy)损失函数是常用的分类问题损失函数之一。

对于分类问题,模型的输出是一个概率分布,表示每个类别的概率。

交叉熵损失函数计算模型预测结果与真实标签之间的差异,并且对于错误的预测给予较大的惩罚。

通过最小化交叉熵损失函数,我们可以使模型的预测结果接近真实标签,同时提高分类准确率。

3. 对数损失(Log Loss)函数是二分类问题中常用的损失函数之一。

对于二分类问题,模型的输出是一个表示正例概率的单个值。

对数损失函数计算模型预测结果与真实标签之间的差异,并且对于错误的预测给予较大的惩罚。

通过最小化对数损失函数,我们可以使模型的预测结果接近真实标签,提高二分类问题的准确率。

4. Hinge损失函数是支持向量机(SVM)中常用的损失函数之一。

对于二分类问题,Hinge损失函数计算模型预测结果与真实标签之间的差异,并且对于错误的预测给予较大的惩罚。

通过最小化Hinge损失函数,我们可以使模型的预测结果接近真实标签,并且能够找到一个最大间隔的超平面进行分类。

总结一下,MLP任务损失函数的选择取决于具体的任务类型。

对于回归问题,可以使用均方误差损失函数;对于分类问题,可以使用交叉熵损失函数或对数损失函数;对于支持向量机,可以使用Hinge损失函数。

机器学习中的支持向量回归和神经网络

机器学习中的支持向量回归和神经网络机器学习是近年来备受关注的一项热门技术,其中支持向量回归和神经网络是两个重要的算法。

本文将介绍这两个算法的基本原理、应用场景以及优缺点,并通过对比分析,探讨它们各自在机器学习领域中的重要性。

一、支持向量回归支持向量回归(Support Vector Regression, SVR)是一种用于回归分析的机器学习算法,它与支持向量机(Support Vector Machine, SVM)相似,都是基于核函数的方法。

在SVR中,采用的是回归分析思想,即要拟合出一个函数,使它能够描述输入数据的特征和输出结果之间的映射关系。

SVR的核心思想是用一个超平面去近似数据的分布。

在支持向量机中,超平面的目标是使得距离其最近的样本点到超平面的距离最大化,而在SVR中,超平面的目标是使得所有样本点到超平面距离的平均值最小化。

与其他回归算法相比,SVR的优点在于它能够处理高维数据,并且对于异常点的鲁棒性较强。

同时,SVR还可以使用不同的核函数去学习数据之间的关系,因此很适合处理非线性问题。

二、神经网络神经网络(Neural Network)是一种在模拟人脑神经系统的基础上构建的一组算法,在图像识别、自然语言处理、语音识别等领域都有广泛应用。

神经网络的基本结构是由一个或多个层组成的,并且每一层都有若干个神经元组成。

神经网络的学习方式通常分为监督式和非监督式两种,其中监督式学习通常采用的是反向传播算法(Back Propagation, BP),这种算法通常要求输出结果与真实数据结果之间的误差达到最小。

BP算法和其他机器学习算法的区别在于,它是一个迭代过程,需要通过反复调整参数才能得到较为准确的结果。

神经网络的优点在于它具有处理复杂数据的能力,并且具有强大的泛化能力。

此外,神经网络还可以通过训练得到一个模型,从而可以实现对未知数据的预测。

三、支持向量回归和神经网络的应用场景支持向量回归和神经网络作为机器学习的重要算法,在不同的应用场景中具有不同的优势和适用性。

机器学习中的支持向量回归原理及应用

机器学习中的支持向量回归原理及应用机器学习是当下最火热的领域之一,有着广泛的应用前景。

支持向量回归算法是机器学习中的一种算法,它的主要目的是对数据进行回归分析,从而得到一个预测模型。

本文将详细探讨支持向量回归算法的原理和应用。

一、支持向量回归算法的原理支持向量回归算法,简称SVR。

它是一种基于SVM(支持向量机)算法的回归分析算法。

和SVM不同的是,SVM主要处理分类问题,而SVR主要处理回归问题。

SVR算法的主要原理是:通过一个核函数将数据映射到高维空间中,然后在高维空间中寻找一个最优的超平面,将数据划分成两部分。

其中,每个超平面上最靠近划分线的数据点被称为支持向量,它们对于最终模型的构建具有重要作用。

同时,SVR算法中也存在一个损失函数,来用于衡量预测值和真实值之间的差距。

最终,SVR算法的目标即是寻找一个超平面,尽可能地降低预测值与真实值之间的误差。

SVR算法中,核函数的选择是至关重要的。

通常情况下,经典的核函数有线性核、多项式核、径向基核等等。

这些不同的核函数具有不同的特性和优缺点,需要根据具体问题选择最适合的核函数。

二、支持向量回归算法的应用SVR算法在实际应用中有着广泛的应用,尤其是在金融、医疗等领域。

下面就以预测房价为例,简要介绍SVR算法的应用。

在预测房价这个问题中,我们需要将各种因素作为特征,比如地理位置、房屋面积、房龄等等。

我们称这些特征为自变量,而房价则称为因变量。

通过SVR算法,我们可以对这些特征进行回归分析,建立一个预测模型,从而预测出房价。

具体的实现步骤如下:1. 我们需要收集一定数量的房价数据,并对这些数据进行处理,如去掉异常值,对数据进行归一化处理等等。

2. 然后,构建特征矩阵和输出向量。

特征矩阵包括所有的自变量,而输出向量则是所有的因变量。

3. 接着,选择核函数和优化算法。

根据实际问题选择最适合的核函数和最优化算法,然后将特征矩阵和输出向量输入到算法中进行训练。

多分类的损失函数

多分类的损失函数
在机器学习中,当我们需要对数据进行多分类(即将数据分类到超过两个类别中)时,需要使用适合多分类的损失函数。

以下是几种常用的多分类损失函数:
1. 交叉熵损失函数(Cross-Entropy Loss):交叉熵损失函数是一种常用的多分类损失函数,它测量了实际类别和预测类别之间的差异。

在交叉熵损失函数中,我们将每个预测类别的概率与实际类别的独热编码进行比较,然后计算概率分布之间的交叉熵。

该损失函数通常用于分类问题,特别是在深度学习中,如图像分类和语音识别。

2. 多项式损失函数(Multiclass Loss):多项式损失函数是另一个常用的多分类损失函数,它测量了实际类别和预测类别之间的距离。

在多项式损失函数中,我们将每个预测类别的概率和实际类别之间的差异进行比较,然后计算它们的平方和。

多项式损失函数通常用于逻辑回归和线性回归中。

3. 感知机损失函数(Perceptron Loss):感知机损失函数是另一种多分类损失函数,它通过将每个预测类别的得分与实际类别的得分进行比较来测量分类器性能。

在感知机损失函数中,我们将每个预测类别的得分减去实际类别的得分,然后对它们进行求和。

感知机损失函数通常用于二分类问题和多分类问题中。

无论使用哪种损失函数,目标都是最小化损失函数,从而让分类器能够更准确地
预测实际类别。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
损失函数式(5)具有多分段的形式, 该模型可以 利用F.Perez-Cruz等人提出的变权迭代算法来求解, 算法的收敛性已经由F.Perez-Cruz等人给出[9] . 定义Lagrange乘子
L=
m j =1
wj
2
+C
n i=1
L(ξi ) −
n i=1
n i=1
αi [(ε + ξi )2 −
Байду номын сангаас(6)
1 引 言 (Introduction)
支持向量机(SVM)是由Vapnik等人提出的一种 基于统计学习理论和结构风险最小化原理的新 型学习机[1] . 目前的支持向量机回归算法主要是 多输入、 单输出的, 即给定一组数据{(xi , yi ), i = 1, · · · , n}, 这里xi ∈ Rd , yi ∈ R, 构造线性回归函 数f ∈ F , F = {f |f : Rd → R}是一个函数类, 使得 结构风险
收稿日期: 2005−04−05; 收修改稿日期: 2006−07−31. 基金项目: 国家自然科学基金资助项目(60374023); 安徽大学人才队伍建设经费资助项目(02203104).
712
控 制 理 论 与 应 用
第 24 卷
2 具有多分段损失函数的多输出支持向量 机 回 归 算 法 (MSVR algorithm with piecewise loss function)
给定数据集{(xi , yi ), i = 1, · · · , n}, 这里xi ∈ Rd , yi ∈ Rm . 多输出情况下, 要构造函数f j (x) = ΦT (x) wj + bj , j = 1, · · · , m, 使式(1)的结构风险最小化. 根据支持向量机理论, 多输出情况下, 最小化 式(1)等价于下面的约束优化问题[5] :
利用变权迭代算法求解MSVR时, 必须选择目标 函数中恰当的损失函数. 标准的支持向量机回归 模型采用Vapnik定义的ε-不敏感损失函数, 这是一 种线性惩罚函数, 对于误差小于ε的样本点不予惩 罚. Suykens等人提出的最小方差支持向量机(LSSVM)[3] 用平方损失函数代替ε-不敏感损失函数, 其 约束条件就由等式约束代替了不等式约束, 求解这 类问题就变成了求解对偶空间中的一组线性方程, 降低了计算复杂性, 但同时也降低了它的抗噪声能 力, 如果噪声分布具有长尾, 则解的结果会由于少 量噪声的影响而与实际值有很大的偏离. 除此之外, Laplace损失函数用误差项的绝对值作为惩罚函数, Huber损失函数把Laplace损失函数和二次损失函数 结合了起来[4] , 这几种损失函数不再具有ε-不敏感 损失函数解的稀疏性.本文结合ε-不敏感损失函数 和Huber损失函数的优点, 采用多分段损失函数的形 式, 在不同的区间段内, 损失函数具有不同的形式, 这样既保持了解的稀疏性, 又增强了模型的抗噪声 能力, 提高了估计的精确度.
2 δi
s.t. yi − ΦT (xi )w − b ξi 0, i = 1, · · · , n.
1 2 m 这里L(ξi )是损失函数, yi = (yi , yi , · · · , yi ), w = 1 2 m 1 2 m (w , w , · · · , w ), b = (b , b , · · · , b ). 式(2)定义了一个ε-超球不敏感域, 当实际值与估 计值之差的欧几里得范数小于ε时, 即样本点位于多 维输出估计的ε-超球不敏感域内, 损失函数的惩罚 值为0, 如果样本点位于多维输出估计的ε-超球不敏 感域之外时, 损失函数按同样的因子系数C 进行惩 罚. 如果采用m个单输出的支持向量回归来代替多 输出支持向量回归, 则目标函数里的损失函数不能 平等地对待多输出回归中的每一个样本点. 式(2)需要事先定义一个损失函数, 本文结合ε-不 敏感损失函数和Huber损失函数的优点, 采用多分段 损失函数的形式, 其损失函数定义为:
min
m j =1
wj
2
+C
n i=1
L(ξi ), ε + ξi ,
(2)
当βp = 1时, 上述损失函数等价于ε-不敏感损失 函数, 当βp−1 = 1时, 损失函数式(3)等价于下述函数 形式 −δ − ε, δ ∈ (−∞, −βε), 2 ( − δ − ε ) , δ ∈ [−βε, −ε), (β − 1)ε L(δ ) = 0, δ ∈ [−ε, ε], β > 1. (4) 2 ( δ − ε ) , δ ∈ (ε, βε], (β − 1)ε δ − ε, δ ∈ (βε, +∞), 式(4)中, ε-不敏感区域δ ∈ [−ε, ε] 适用于低频 变化, 例如游荡或基线偏离, 二次损失函数域|δ | ∈ (ε, βε] 适用于处理高斯噪声, 线性惩罚函数区域 限 制 异 常 点 或 颤 动 噪 声 对 模 型 的 影 响. 在SVR的 贝叶斯模型选择方法中[7,8] , 噪声分布常常被假定 为具有下述指数分布形式: P (δi ) ∝ e[−CL(ξi )] , 这 里ξi = max(0, |yi − f (xi )| − ε). 如果使用式(4)的损 失函数, 对于落在二次损失函数域|δ | ∈ (ε, βε] 的误 差项, 则P (δi ) ∝ e(−C (β−1)ε ) . 如果噪声分布是均值 2Cr2 为0、 方差为r2 的高斯分布, 则β ∼ + 1, 由此 ε 可以看出, 恰当的β 值是与噪声分布的方差有密切的 关系. 将式(2)的损失函数采用式(3)的形式, 则式(2)中 的损失函数
第 24 卷第 5 期 2007 年 10 月
文章编号: 1000−8152(2007)05−0711−04
控 制 理 论 与 应 用
Control Theory & Applications
Vol. 24 No. 5 Oct. 2007
具有多分段损失函数的多输出支持向量机回归
胡根生1 , 邓飞其2
L(δi ) = δi ∈ (−∞, −βp ε), −δi − ε, . . . . . . p (−δ − ε) i , δi ∈ [−βl ε, −βl−1 ε), (−δi − ε) j =l (βj − 1)ε . . . . . . 0, δi ∈ [−β0 ε, β0 ε], (3) . . . . . . p ( δ − ε ) i (δi − ε) , δi ∈ (βl−1 ε, βl ε], ( β − 1)ε j j = l . . . . . . δi − ε, δi ∈ (βp ε, +∞).
第5期
胡根生等: 具有多分段损失函数的多输出支持向量机回归
713
∂L = αT [y j − Φwj − 1bj ] = 0 ∂bj
这里αT = (α1 , α2 , · · · , αn ). ∂L = Cai − µi − 2αi (ε + ξi ) = 0, ∂ξi 这里:
Multi-output support vector regression with piecewise loss function
HU Gen-sheng1 , DENG Fei-qi2
(1. School of Electronic Science and Technology, Anhui University, Hefei Anhui 230039, China; 2. College of Automation Science and Technology, South China University of Technology, Guangzhou Guangdong 510640, China)
这里δi = yi − f (xi ), 1 = β0 β1 · · · βp < +∞. 损失函数式(3)对落在越小区间值的误差项, 其 惩罚值也越小, 且小于相应的线性惩罚函数. 实际应 用表明[6] , 三阶及以上的损失函数区域适合于次高 斯噪声, 二阶损失函数区域适合于高斯噪声, 线性损 失函数区域适合于超高斯噪声.
L(ξi ) = 0, ξi = 0 , . . . . . . p ξi , ξi ∈ ((βl−1 − 1)ε, (βl − 1)ε], (5) ξi j =l (βj − 1)ε . . . . . . ξi , ξi ∈ ((βp − 1)ε, +∞).
Abstract: Multi-output support vector regression (MSVR) algorithm can be used for the regression of multi-input multioutput data. An MSVR with piecewise loss function is proposed in this paper. For error values on different interval, the loss function adopts different forms of penalty functions. By using re-weight iterative algorithm, the iterative formulas of weight coefficients and bias of regression function are then given. Experiments also show that the accuracy and workload of this algorithm are superior to that using several single-output SVR algorithms. Key words: support vector machine; loss function; multi-output regression
相关文档
最新文档