基于支持向量机的概率积分法参数计算方法
一文解析支持向量机(附公式)

一文解析支持向量机(附公式)本文为你详细描述SVM产生的过程。
前言众所周知SVM 是非常强大的一种分类算法,有着媲美神经网络的分类效果,实现过程却简单得多。
受限于我的能力,这篇文章不会系统地介绍SVM(因为我并不是线性代数、凸优化等方面的专家),而是以一个学习者的角度描述SVM 产生的过程,由于内容较长,计划分成三到四篇一个好的分类是怎么样的图中的两组数据,显然它们是线性可分(linear separable)的,图里给出的三条分界线都可以准确区分这两类数据,它们是不是一样好?如果不是,哪一条看起来更加合适?直觉告诉我们是a。
相比之下,b 和c 离个别点太近了,我们很难拍着胸脯说“这个点在分界线下面,所以绝对是X',因为分界线稍微挪一挪就可以改变这些点的属性,我们想要的是一个相对自信的分界线,使靠近分界线的点与分界线的距离足够大,上图中的分界线 a 就符合我们的需求。
ps. 这里所说的分界线严格来说是decision boundary,decision boundary 在二维空间是一条线,在三维空间是一个平面,更高维的空间里称作超平面,为了方便本文都用分界线来代表decision boundary。
进入向量的世界你或许已经注意到SVM 的全称是Support Vector Machine (支持向量机),在推导SVM 公式过程中,我们几乎都是在和向量打交道。
刚接触SVM 的时候我对这个名字非常诧异,SVM 很强是没错,但是名字也太「随意」了吧?希望写完这篇文章以后我能理解为什么这种算法叫做支持向量机。
如果你之前没有接触过向量,建议花一个小时左右的时间熟悉一下向量的概念和基本性质。
我们先把空间上的点用向量来表示(以原点为起点的向量):虽然写成了向量的形式,其实并没有什么大不了的,我们可以把它和初中时候学过的直线表达式联系起来:对于SVM 来说仅仅这样是不够的,还记得吗我们要修一条路出来,我们得确保在一条足够宽的路里面没有数据点:这样前面的式子就可以写成更为简洁的形式:什么是支持向量这是一个基于KKT 条件的二次规划问题,优化原理的内容超出了这篇文章的范畴,在这里我们只要知道拉格朗日乘数法可以求得这个最优解,引入新的系数αi :令以上两式为0,我们可以得到:。
支持向量机的公式

支持向量机的公式支持向量机(Support Vector Machine,SVM)是一种广泛应用于机器学习领域的分类器,也是目前应用最为广泛和成功的算法之一。
SVM的基本思想是通过某种方式将一个非线性问题映射到一个高维空间中,使得原本不可分的问题变成一个线性可分的问题。
本文将介绍SVM 的公式及其背后的原理,旨在帮助读者深入理解SVM算法的本质。
SVM的目标是找到一个超平面,能够将不同类别的样本正确地分离开来。
假定有n个训练样本,每个样本有m个属性,用向量x表示。
其中x和标签y构成训练集D。
则SVM的公式如下:对于二分类问题,目标是找到一个超平面Wx + b = 0,使得正负样本分别位于它的两侧。
其中,W是超平面的法向量,b是超平面的截距。
对于多分类问题,可以采用一对一或一对多的方法。
其中,一对一是将所有类别两两组合,分别训练一个SVM分类器,并将测试样本与每一个分类器进行比较,最终选择得分最高的分类器作为预测结果;一对多则是将一个类别的数据判定为一类,其余类别的数据判定为另一类,最终一个样本可能被多个分类器选为预测结果。
SVM的优化问题可以通过拉格朗日乘子法来进行求解,即将原问题转为等效的约束优化问题。
则优化问题可以表示为:其中,αi为拉格朗日乘子,L是拉格朗日函数,C是惩罚参数,E(x)是函数间隔,η是步长。
通过求解这个二次规划问题,我们可以得到决策函数f(x),用于分类预测。
SVM的核函数是SVM的核心部分,是实现非线性分类的重要手段。
核函数可以将数据从原始的低维空间中,转换到一个高维的特征空间中,使得数据集在这个高维特征空间中变得线性可分。
常用的核函数有线性核、多项式核、高斯核等。
除了支持向量机,还有许多其他的分类器算法,如决策树、朴素贝叶斯、神经网络等。
不同算法的优缺点建立在不同理论基础上,也有不同的适用范围。
SVM算法在处理高维数据、大规模数据或者需要较高分类准确度的场景下表现出了极强的优势。
支持向量机的基本原理和使用方法(Ⅱ)

支持向量机(Support Vector Machine,SVM)是一种常用的机器学习算法,它在分类和回归问题上表现出色。
SVM在处理高维度数据和非线性问题时表现优异,因此在实际应用中得到广泛的应用。
## SVM的基本原理SVM的基本原理是找到一个最优的超平面,将不同类别的样本分开。
这意味着找到一个能够最大化间隔(margin)的超平面,使得两个不同类别的样本点到这个超平面的距离尽可能大。
这个超平面被称为决策边界,而支持向量则是离这个超平面最近的样本点。
在数学上,寻找最优超平面可以被表示为一个凸优化问题。
通过最大化间隔,可以得到一个最优的分类器,从而更好地处理新的未知样本。
除了线性可分的情况,SVM还能处理线性不可分和非线性问题。
这是通过核函数(kernel function)来实现的。
核函数能够将输入特征映射到一个高维空间,从而使得原本在低维度空间中线性不可分的问题在高维度空间中成为线性可分的问题。
常用的核函数包括线性核、多项式核和高斯核等。
## SVM的使用方法在实际应用中,使用SVM可以分为以下几个步骤:1. 数据准备:首先需要准备数据集,并对数据进行预处理,包括数据清洗、特征选择、特征缩放等。
2. 模型选择:根据问题的性质和数据的特点,选择合适的SVM模型,包括线性SVM和非线性SVM。
对于非线性问题,还需要选择合适的核函数。
3. 参数调优:SVM有一些超参数需要调整,例如正则化参数C、核函数的参数等。
通过交叉验证等方法,选择最优的超参数。
4. 训练模型:使用训练数据集对SVM模型进行训练,得到最优的决策边界和支持向量。
5. 模型评估:使用测试数据集对训练好的SVM模型进行评估,包括计算分类准确率、精确率、召回率等指标。
6. 模型应用:在实际场景中,使用训练好的SVM模型对新的样本进行分类或回归预测。
在实际应用中,SVM有许多优点。
首先,SVM在处理高维度数据时表现出色,对于特征维度较高的数据,SVM能够更好地处理。
支持向量机算法介绍

支持向量机算法介绍众所周知,统计模式识别、线性或非线性回归以及人工神经网络等方法是数据挖掘的有效工具,已随着计算机硬件和软件技术的发展得到了广泛的应用。
但多年来我们也受制于一个难题:传统的模式识别或人工神经网络方法都要求有较多的训练样本,而许多实际课题中已知样本较少。
对于小样本集,训练结果最好的模型不一定是预报能力最好的模型。
因此,如何从小样本集出发,得到预报(推广)能力较好的模型,遂成为模式识别研究领域内的一个难点,即所谓“小样本难题”。
支持向量机(support vector machine ,简称SVM )算法已得到国际数据挖掘学术界的重视,并在语音识别、文字识别、药物设计、组合化学、时间序列预测等研究领域得到成功应用。
1、线性可分情形SVM 算法是从线性可分情况下的最优分类面(Optimal Hyperplane )提出的。
所谓最优分类面就是要求分类面不但能将两类样本点无错误地分开,而且要使两类的分类空隙最大。
设线性可分样本集为,,,d 维空间中线性判),(i i y x dR x n i ∈=,,,1L }1,1{-+∈y 别函数的一般形式为,()b x w x g T +=分类面方程是,0=+b x w T 我们将判别函数进行归一化,使两类所有样本都满足,此时离分类面最近()1≥x g 的样本的,而要求分类面对所有样本都能正确分类,就是要求它满足()1=x g 。
(4)n i b x w y i T i ,,2,1,01)(L =≥-+式(4)中使等号成立的那些样本叫做支持向量(Support Vectors )。
两类样本的分类空隙(Margin )的间隔大小:Margin =(5)w /2因此,最优分类面问题可以表示成如下的约束优化问题,即在条件(4)的约束下,求函数(6)())(21221w w w w T ==φ的最小值。
为此,可以定义如下的Lagrange 函数:(7) ]1)([21),,(1-+-=∑=b x w y a w w a b w L i T i n i i T 其中,为Lagrange 系数,我们的问题是对w 和b 求Lagrange 函数的最小值。
支持向量机算法的原理

支持向量机算法的原理支持向量机(Support Vector Machine,SVM)是一种广泛应用于分类和回归问题的机器学习算法。
它的原理基于统计学习理论中的结构风险最小化原则,通过寻找一个最优的超平面来实现数据的分类。
在SVM中,数据被看作是高维空间中的点,每个点都有一个与之对应的特征向量。
这些特征向量的维度取决于特征的数量。
SVM的目标是找到一个超平面,使得其能够尽可能地将不同类别的数据点分隔开。
超平面是一个d维空间中的d-1维子空间,其中d为特征向量的维度。
在二维空间中,超平面即为一条直线,可以完全将两类数据点分开。
在更高维的空间中,超平面可以是一个曲面或者是一个超平面的组合。
为了找到最优的超平面,SVM引入了支持向量的概念。
支持向量是离超平面最近的数据点,它们决定了超平面的位置和方向。
通过最大化支持向量到超平面的距离,SVM能够找到一个最优的超平面,使得分类误差最小化。
SVM的核心思想是将低维空间中的数据映射到高维空间中,使得原本线性不可分的数据变得线性可分。
这一映射是通过核函数实现的。
核函数能够计算两个数据点在高维空间中的内积,从而避免了显式地进行高维空间的计算。
常用的核函数有线性核、多项式核和高斯核等。
SVM的训练过程可以简化为一个凸优化问题。
通过最小化结构风险函数,SVM能够找到一个最优的超平面,使得分类误差最小化。
结构风险函数由经验风险项和正则化项组成。
经验风险项衡量了分类器在训练集上的错误率,正则化项则防止过拟合。
SVM的优点是具有较好的泛化性能和较强的鲁棒性。
由于最大化支持向量到超平面的距离,SVM对异常值不敏感,能够有效地处理噪声数据。
此外,SVM还可以通过引入松弛变量来处理非线性可分的问题。
然而,SVM也存在一些限制。
首先,SVM对于大规模数据集的训练时间较长,且对内存消耗较大。
其次,选择合适的核函数和参数是一个挑战性的问题,不同的核函数和参数可能会导致不同的分类结果。
支持向量机(SVM)算法总结

支持向量机(SVM)算法总结支持向量机算法作为机器学习领域的经典算法,从被提出开始提出后快速发展,在很多场景和领域都取得了非常好的效果,同时兼有数度快,支持数据量级大(相对经典机器学习算法)等特点使其在工程实践中的得到了广泛的应用。
但很多算法工程师以外的人对这一算法了解不多。
今天我们就聊一聊支持向量机算法。
1间隔最大化要理解svm我们需要先理解什么是间隔最大化,首先从简单的线性二分类开始开始说起。
要想对不用的样本空间分开来,如下如所示,需要找出一条线将不同分类的样本隔离开。
线性分类器就是通过这条线,我们就能将不同类别的样本分离开来,当有新的样本来时,判断在这条线的那个部分就可以得出新的样本的类别。
如下图所示,能将样本分类的分离的线具有很多,如下图的L1,L2,L3。
但是如何选择一条最优的线来分割呢?最大间隔的原理就是通过选择一个离两个样本都尽量远的中间线。
也就是下图中的L2。
这样的好处就是,因为离两边的样本都比较远。
所以误判的情况相对较小。
预测的精度更高。
那如何完成这个间隔最大线的选择呢。
这部分需要通过利用严谨的数学公式推倒。
过程感兴趣的同学可以查看相关资料。
这里就直接给出结论。
通过利用最优化的处理方法,可以得出获取这条最优间隔线的方法。
2支持向量说了这么久的间隔函数,最大间隔的问题,那什么是支持向量呢。
如下图所示,由于间隔最大化需要在两个不同的样本类别中找出最大间隔的分割线,因此,举例分割线两边等距离的样本的点至关重要。
这些点就是支持向量。
由于选对支持向量就可以得出最大间隔线,所以在算法迭代过程中,只需要在内存中保存和更新些点即可,会大大节省算法占用的内存空间,这对在实际工程中是十分重要的。
3核函数(kernel function)截止目前我们描述的支持向量机的算法都是线性可分的。
但在实际工程中,很多场景和环境中的使用情况是线性不可分的。
针对这些问题。
需要找到一种分离样本的方法。
因此这部分内容就是核(kernel)函数需要考虑的问题。
支持向量机的算法与应用

支持向量机的算法与应用支持向量机(Support Vector Machine,SVM)是一种监督学习算法,可以用于分类和回归问题。
由于其卓越的泛化性能和解决高维数据集问题的能力,SVM被广泛应用于图像识别、自然语言处理、生物信息学、财经分析等领域。
一、基本原理SVM的核心思想是在高维空间构建超平面,将不同类别的样本分开。
对于线性可分的数据集,SVM的目标是找到一个超平面,使得正样本与负样本之间的距离最大化,即最大化支持向量到超平面的距离(也称为间隔)。
这个距离可以表示为SVM的决策函数: $$ f(x) = w^T x + b $$其中,$w$是权重向量,$b$是偏置项,$x$是输入向量。
对于正样本,$f(x)>0$,对于负样本,$f(x)<0$。
如果$f(x)=0$,则数据点位于超平面上。
为了避免过拟合,SVM还采用正则化技术。
正则化约束权重向量趋近于0,使得决策函数更加稳健。
对于非线性可分的数据集,SVM采用核函数(kernal function)将样本映射至高维空间,从而在高维空间构建超平面。
常用的核函数有线性核、多项式核、高斯核等。
二、算法实现SVM的实现可以使用多种优化算法,如序列最小优化(Sequential Minimal Optimization,SMO)算法、梯度下降法、牛顿法等。
其中,SMO算法是最常用的一种算法。
其基本思想是每次选取两个样本来更新权重向量和偏置项,直到收敛为止。
使用Python实现SVM,可以使用Scikit-Learn库中的SVM模块。
以下是一个简单的SVM分类器示例:```from sklearn import datasetsfrom sklearn.model_selection import train_test_splitfrom sklearn.svm import SVC# 加载iris数据集iris = datasets.load_iris()X = iris.data[:, :2] # 只取前两个特征y = iris.target# 划分数据集X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3) # 创建SVM分类器clf = SVC(kernel='linear', C=1.0)clf.fit(X_train, y_train)# 测试分类器acc = clf.score(X_test, y_test)print("准确率:", acc)```三、应用案例SVM的应用十分广泛,以下是其中的几个案例:1. 图像分类SVM可以用于图像分类,例如人脸识别、车辆检测等。
机器学习中的支持向量机算法原理

机器学习中的支持向量机算法原理支持向量机(Support Vector Machine,SVM)是一种常用的机器学习算法,可以用于分类和回归问题。
它的主要思想是通过在训练样本中找到最优的超平面来进行分类或回归。
本文将介绍支持向量机算法的原理及其应用。
支持向量机的基本思想是在训练样本中找到一个超平面,使得距离该超平面最近的训练样本点到该超平面的距离最大化。
这些距离最近的样本点被称为支持向量,它们决定了超平面的位置和方向。
支持向量机的目标是找到一个能够最大化这些支持向量到超平面距离(间隔)的超平面。
在线性可分的情况下,支持向量机寻找一个分离超平面,使得正负样本能够完全分开。
这个超平面可以由一个法向量和一个常数项来表示,即 w·x + b = 0。
其中w 是法向量,x 是样本特征,b 是常数项。
样本点 x 距离超平面的距离可以通过计算 w·x + b 的值来确定。
支持向量机的目标是最大化间隔,即找到使得函数间距最大的超平面。
通过规范化法向量 w,可以将距离公式转换为 w·x + b / ||w|| = 0,其中 ||w|| 为 w 的模。
当训练数据线性不可分时,支持向量机采用软间隔的概念,允许一些样本点被错误分类。
通过引入松弛变量ξ,可以将最大化间隔的目标函数转化成一个优化问题。
该优化问题的目标是最小化目标函数1/2 ||w||^2 + CΣξ,其中 C 是一个惩罚参数,用来平衡间隔的大小和错误分类样本点的数量。
在实际应用中,支持向量机算法可以使用不同的核函数进一步扩展。
核函数可以将低维特征空间的数据映射到高维特征空间,从而解决线性不可分问题。
常用的核函数包括线性核函数、多项式核函数和高斯核函数等。
支持向量机的训练过程可以通过求解拉格朗日对偶问题来实现。
通过求解对偶问题,可以得到包含支持向量的系数以及超平面的法向量。
这些支持向量决定了分类超平面的位置。
支持向量机除了在二分类问题中表现出色,还可以扩展到多类分类问题和回归问题。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
第8 期
李培现等:基于支持向量机的概率积分法参数计算方法
1249
^ 为拉格朗日乘子,琢 、琢 ^ 逸 0,琢 伊 琢 ^ = 0。 式中, 琢 i 、琢 i i i i i 数 K ( x i ,x j ) ,得到相应的 SVM 回归函数为 f( x) = ( 琢i 移 i=1
N
^ ) + 着移 ( 琢 i + 琢 i
i=1
l
y i( 琢 i 移 i=1
q = 0郾 991 - 0郾 238
E 籽H - 0郾 224 Em 100 E m M
2
(1) (2) (3)
其中, P 为覆岩综合评价系数; E 为岩体综合变形模 籽 为岩体平均质量密度,g / m ;H 为开采深度; M 为开 采厚度;q f 为重复采动下的下沉系数; 琢 为岩层活化 系数;q c 为初次采动下的下沉系数。 式 (1) 反映了下 沉系数与覆岩岩性的关系 [2] ;式 (2) 反映了下沉系数 与覆岩岩性、采深、采厚间的关系 [3] ; 式 (3) 反映了重 1郾 2摇 水平移动系数 b 复采动对下沉系数的影响
1248
1摇 影响概率积分法参数的地质采矿条件分析
1郾 1摇 下沉系数 q 有研究表明,下沉系数与覆岩岩性、深厚比、松散
[11-12]
积分法参数具有重要的实际意义。
煤摇 摇 炭摇 摇 学摇 摇 报
2010 年第 35 卷
总结的 tan 茁 与覆岩岩性影响系数 D、 开采深度 H 及 煤层倾角 兹 的关系式为 摇 摇 综上所述,影响概率积分法参数的地质采矿条件 采动程度 D / H、 松散层厚度 h 以及重复采动和顶板 管理方法等因素。 以覆岩平均坚固性系数 f 表示覆 岩岩性对概率积分法参数的影响,即 f= 抗压强度,MPa。 mi Qi 移 i=1
used as training and testing samples, and ten鄄cross validation method was used to select SVM parameters. Finally,
开采沉陷预计的前提条件。 传统确定概率积分法参 数主要通过建立地表移动观测站,但建立观测站需耗 费大量的人力、物力、 财力, 且具有滞后性, 不能满足 数学和统计理论等进行研究
Abstract :In order to obtain accurate parameters of probability integration method,with comprehensive analysis of min鄄 ing and geological factors which affect the probability integration method parameters,probability integration method pa鄄 MAPE,MSE and WIA were used to evaluate the accuracy and generalization performance of the model. Probability in鄄 integration method parameters based on SVM is feasible. 摇 摇 概率积分法是我国应用最为广culation method of probability integration method parameters based on support vector machine
LI Pei鄄xian1,2 ,TAN Zhi鄄xiang1,2 ,YAN Li鄄li1,2 ,DENG Ka鄄zhong1,2
b = 0郾 006 3 M + 0郾 27 依 0郾 12
(5)
{
(11) (12)
采影响传播角与煤层倾角 兹 的关系为 兹0 = 90 - k兹
开采影响传播角是因煤层倾斜而引起的,因此开 (7)
摇 摇 特征空间的维数很高且目标函数不可微,求解上 述的 SVM 回归问题一般通过建立 Lagrange 函数, 转 ^ ) 求解函数式 化为在式(13) 约束条件下对 ( 琢 i - 琢 i (14) 的最大值的对偶优化问题,即
n n i=1
tan 茁 = (1 - 0郾 003 8 兹) ( D + 0郾 003 2 H)
(8)
层厚度、采动程度、 采动次数、 采煤方法、 顶板管理方 法有关 。 常见的经验公式有 q = 0郾 5(0郾 9 + P ) q f = (1 + 琢) q c
3
有覆岩岩性、煤层倾角 兹、 开采深度 H、 开采厚度 M、
-SVR) 通过指定容许误差 着 来控制算法达到的精度。
摇 摇 在近水平煤层开采的条件下,水平移动系数与宽 深比的关系较为显著 (6) 给出了河南鹤壁矿区水平移动系数与松散层厚 度 h 和采深 H 之间的经验公式 [14] ,即 1郾 3摇 开采影响传播角 兹0 b = 0郾 137 9 + 0郾 123 7 h / H 依 0郾 042 21 (6) 松散层 厚 度 对 地 表 水 平 移 动 有 很 大 影 响。 式 。
l ì ^ )=0 ï移 ( 琢 - 琢 ï i i subject to摇 í i = 1 ï ï 琢 ,琢 ^ 沂 [0,C ] î i i l
1 1 椰 w 椰2 = ( w · w ) 2 2
( i = 1、2、…、l)
其中,k 的大小与覆岩岩性有关, 覆岩越坚硬 k 值越 1郾 4摇 主要影响角正切 tan 茁 受此影响,兹0 随着松散层厚度的增大而增大 [14] 。
大 [1] 。 开采影响在厚松散层中是垂直向上传播的, 开采深度相同时,tan 茁 值与覆岩岩性有关,坚硬
(13)
岩层的 tan 茁 值较小。 岩性相同时,tan 茁 值随着采深 的增大而增大。 文献[11] 给出了根据我国主要矿区
max -
{
1 ^ )(琢 - 琢 ^ ) ( x ,x ) 移(琢 - 琢 i j j i j 2 i ,j = 1 i
法受初次采动影响的概率积分法参数进行了研究。
。
变化较小。 开采倾斜煤层时,水平移动系数与煤层倾 角 兹 有如下关系 [2] ,即 式中,b c 为倾斜煤层开采的水平移动系数。 为明显
[4]
水平煤层开采时,水平移动系数随地质采矿条件 b c = b(1 + 0郾 008 6 兹) (4)
出值可以表示为 ( x1 , y1 ) ,…,( x k , y k ) 沂 R n 伊 R, 函数 使之对于样本以外的 x,通过 f ( x ) 能够找到对应的 y f ( x ) = ( w ·x ) + b (10)
假设给定的输入样本为 n 维向量,样本及相应输
值。 由 Vapnik 提出的 着 -Support Vector Regression( 着
有研究表明,水平移动系数随采厚的变化规律较 ,有式(5) 的统计特性,即
[13]
首先将非线性函数估计问题转化为高维特征空间中 的线性函数回归问题 [5] 。 设由样本空间到高维特征 空间的映射函数为 渍( x) ,则求解函数 f ( x ) 参数的问 题转化为在条件式 (11) 的约束下, 求函数式 (12) 的 最小值的优化问题。 subject to摇 min y i - [ w ·渍( x ) + b ] 臆 着 [ w ·渍( x ) + b ] - y i 臆 着
摇 第 35 卷第 8 期 摇 2010 年 8月
摇 摇 文章编号:0253-9993 ( 2010 ) 08-1247-05
JOURNAL OF CHINA COAL SOCIETY
煤摇 摇 炭摇 摇 学摇 摇 报
Vol. 35摇 No. 8摇 Aug. 摇 2010摇
基于支持向量机的概率积分法参数计算方法
(1郾 Key Laboratory for Land Environment and Disaster Monitoring of State Bureau of Surveying and Mapping, China University of Mining and Technology, Xuzhou摇 221116,China;2郾 Jiangsu Key Laboratory of Resources and Environmental Information Engineering, China University of Mining and Technology, Xuzhou摇 221116,China)
[1-2]
rameters calculation model based on support vector machine ( SVM) was established,43 field measurement data was tegration method parameters of 4 test samples were calculated by the model,all absolute error of the results are less than 3 times MSE,and maximum relative error is 9郾 6% . The test results show that the method to calculate probability Key words:support vector machine ( SVM) ;probability integration method;mining subsidence 。 准确确定概率积分法参数是 之间的非线性关系。 基于统计学习理论的支持向量 由于支持向量机在处理高度非线性数据方面的优异 表现 [6-7] ,在围岩的非线性变形预测、 边坡移动和岩 土工程方面得到成功的应用 [8-10] 。 基础上,建立了基于支持向量机的概率积分法参数计 算模型。 研究成果对缺乏实测资料的矿区计算概率 在综合分析影响概率积分法参数的诸多因素的