多目标输出SVM回归的参数优化和特征选择

合集下载

支持向量机优化算法与多目标优化的技巧与策略

支持向量机优化算法与多目标优化的技巧与策略

支持向量机优化算法与多目标优化的技巧与策略支持向量机(Support Vector Machine,SVM)是一种经典的机器学习算法,被广泛应用于分类和回归问题。

然而,传统的SVM算法在处理多目标优化问题时存在一些挑战。

本文将介绍支持向量机优化算法的基本原理,并探讨一些技巧和策略,以解决多目标优化问题。

支持向量机通过在特征空间中找到一个超平面,将不同类别的样本分开。

传统的SVM算法是一个二分类器,即只能处理两个类别的问题。

然而,在实际应用中,我们经常面临的是多类别问题。

为了解决这个问题,可以采用一对多(One-vs-Rest)或一对一(One-vs-One)的策略。

一对多策略将每个类别与其他类别进行比较,得到一个二分类器;一对一策略将每两个类别进行比较,得到多个二分类器。

这些二分类器可以通过投票或概率加权的方式来进行多类别分类。

除了多类别问题,支持向量机还可以应用于多目标优化问题。

在传统的SVM 中,目标是找到一个最优的超平面,使得两个类别的间隔最大化。

然而,在多目标优化问题中,我们通常面临的是多个目标函数,这些目标函数可能是相互矛盾的。

为了解决这个问题,可以采用多目标优化算法,如NSGA-II(Non-dominated Sorting Genetic Algorithm II)和MOEA/D(Multi-objective Evolutionary Algorithm based on Decomposition)。

多目标优化算法可以通过遗传算法、粒子群优化等进化算法来搜索最优解的近似集合。

这些算法通过维护一个种群,不断进行交叉、变异和选择操作,逐步优化解的质量。

在应用多目标优化算法时,需要注意选择合适的目标函数和适应度函数,以及调整算法的参数。

此外,还可以采用多目标优化的启发式搜索策略,如多目标局部搜索和多目标全局搜索,以提高算法的收敛性和搜索效率。

另外,为了进一步提高支持向量机的性能,还可以考虑一些技巧和策略。

基于PSO与GA的SVM特征选择与参数优化算法

基于PSO与GA的SVM特征选择与参数优化算法

基于PSO与GA的SVM特征选择与参数优化算法作者:温海标来源:《软件导刊》2017年第05期摘要摘要:支持向量机(SVM)在处理大样本特征维数较多的数据集时,算法消耗时间长而且容易陷入局部最优解,选择不合适的SVM算法参数会影响SVM模型分类性能。

为了提高SVM性能,提出了基于粒子群算法(PSO)和遗传算法(GA)相结合的SVM特征选择与参数同步优化算法PGS。

在UCI标准数据集上的实验表明,PGS算法能有效地找出合适的特征子集及SVM算法参数,提高收敛速度并能在较小的特征子集获得较高的分类准确率。

关键词关键词:粒子群算法;遗传算法;支持向量机;特征选择;参数优化DOIDOI:10.11907/rjdk.171267中图分类号:TP312文献标识码:A文章编号文章编号:16727800(2017)0050021030引言分类问题主要是分类器模型的选择、分类样本的特征选择以及分类器参数优化等问题,是模式识别领域的基础问题。

Vapnik等[1]在1995年提出一种新型有监督的统计学习方法——支持向量机(Support Vector Machines,SVM),在文本分类、图像分类、人脸识别等诸多领域得到了成功应用,成为机器学习领域的研究热点。

研究表明,SVM分类器的参数例如核函数参数、惩罚参数C与SVM 的分类性能有很大关系[2],选择合适的参数能显著提高SVM的分类精度。

特征选择是根据某种评估标准从样本的原始特征中选择部分特征作为特征子集[3]。

大数据时代下,样本冗余特征不断出现,如何从大样本特征中去除冗余、选取有利特征是机器学习的重要研究课题。

样本特征选择合理,不但可以消除冗余,而且可以降低算法时间复杂度,加快算法运行速度,提高分类器的准确率。

粒子群优化算法(Particle Swarm Optimization,PSO)是根据鸟群扑食行为产生的仿生设计算法,属于一种简单有效的全局优化算法,已在许多领域得到应用,如用于参数选择[4]。

SVM算法说明和优化算法介绍

SVM算法说明和优化算法介绍

SVM算法说明和优化算法介绍SVM(Support Vector Machine,支持向量机)是一种常用的机器学习算法,用于分类和回归分析。

SVM的基本思想是通过在特征空间中构造一个最优超平面,将不同类别的样本分开。

本文将为您介绍SVM的基本原理、分类和回归问题的实现方法以及一些常见的优化算法。

SVM的基本原理是寻找一个能够最大化类别间间隔(margin)的超平面,从而达到更好的分类效果。

在特征空间中,样本点可以用向量表示,所以SVM也可以看作是在特征空间中寻找一个能够最优分割两类样本的超平面。

为了找到这个最优超平面,SVM使用了支持向量(Support Vector),即离超平面最近的样本点。

支持向量到超平面的距离被称为间隔,而最优超平面使得间隔最大化。

对于线性可分的情况,SVM的目标是最小化一个损失函数,同时满足约束条件。

损失函数由间隔和误分类样本数量组成,约束条件则包括对超平面的限制条件。

通过求解优化问题,可以得到最优超平面的参数值。

对于非线性可分的情况,SVM使用核函数进行转换,将低维特征空间中的样本映射到高维特征空间中,从而使得样本在高维空间中线性可分。

SVM在分类问题中的应用广泛,但也可以用于回归问题。

在回归问题中,SVM的目标是找到一个超平面,使得点到该平面的距离尽可能小,并且小于一个给定的阈值。

SVM回归的思想是通过引入一些松弛变量,允许样本点在一定程度上偏离超平面来处理异常数据,从而得到更好的回归结果。

在实际应用中,SVM的性能和效果受到许多因素的影响,如数据集的分布、样本的数量和特征的选择等。

为了进一步优化SVM的性能,许多改进算法被提出。

下面我们介绍几种常见的SVM优化算法。

1.序列最小优化算法(SMO):SMO是一种简单、高效的SVM优化算法。

它通过将大优化问题分解为多个小优化子问题,并使用启发式方法进行求解。

每次选择两个变量进行更新,并通过迭代优化这些变量来寻找最优解。

支持向量机回归的参数选择方法

支持向量机回归的参数选择方法

支持向量机回归的参数选择方法支持向量机(Support Vector Machine,简称SVM)是一种非常强大且广泛应用于机器学习领域的算法。

它不仅适用于分类问题,还可以用于回归任务。

本文将深入探讨支持向量机回归的参数选择方法,并分析其优势和应用场景。

SVM回归的目标是通过拟合一个最优的超平面来预测连续变量的输出。

与分类任务不同的是,SVM回归关注的是给定输入样本点的输出数值。

在SVM回归中,参数选择方法对模型性能的影响非常重要。

我们来讨论SVM回归的核函数选择。

核函数是SVM中的一个关键概念,它可以将输入样本从原始特征空间映射到高维特征空间。

常见的核函数包括线性核函数、多项式核函数和高斯核函数等。

针对回归任务,一般常用的是高斯核函数,它能更好地处理非线性关系。

接下来,我们讨论SVM回归的惩罚参数C选择。

惩罚参数C控制着模型对误差的容忍程度,其值的选择对模型的求解和泛化能力都会产生较大影响。

当C的值较小时,模型会容忍更多的误差,从而产生较宽泛的超平面;相反,当C的值较大时,模型会更严格地拟合训练样本,但可能会导致过拟合现象。

在参数选择过程中,需要权衡模型的拟合能力和泛化能力。

另外,核函数的超参数γ也是SVM回归中需要选择的重要参数。

γ决定了高斯核函数的带宽,即决定了样本点对决策边界的影响程度。

当γ较大时,样本点之间的距离对决策边界的影响减小,决策边界可能变得更加平滑;相反,当γ较小时,样本点之间的距离对决策边界的影响增大,决策边界可能更加对训练样本敏感。

在选择参数C和γ时,通常使用交叉验证的方法来评估模型的性能。

交叉验证将数据集划分为训练集和验证集,在不同的参数组合下训练模型,并在验证集上计算模型的性能指标,如均方误差(Mean Squared Error,简称MSE)。

根据验证集上的性能表现,选择使MSE最小的参数组合作为最终的模型参数。

支持向量机回归的参数选择方法涉及到核函数选择、惩罚参数C的确定和高斯核函数的超参数γ的选择。

SVM——详细讲解SMO算法优化两个变量以及变量的选择

SVM——详细讲解SMO算法优化两个变量以及变量的选择

SVM——详细讲解SMO算法优化两个变量以及变量的选择支持向量机(SVM)是一种二分类模型,它在分类超平面的构建过程中,通过优化二次规划问题求解得到最优的超平面。

而序列最小最优化(Sequential Minimal Optimization,SMO)算法则是一种用于求解SVM 二次规划问题的简化算法。

在SVM中,分类超平面可以表示为w*x+b=0,其中w为法向量,b为截距,x为输入样本。

SVM的目标是找到具有最大边界的超平面,使得训练样本与超平面的距离最大化。

优化SVM的问题可以转化为求解以下二次规划问题:\begin{align*}\min\limits_{\alpha} & \quad \frac{1}{2}\sum_{i=1}^{N}{\sum_{j=1}^{N}{\alpha_i \alpha_j y_i y_j K(x_i, x_j)}} - \sum_{i=1}^{N}{\alpha_i}\\s.t. & \quad \sum_{i=1}^{N}{\alpha_i y_i} = 0 \\& \quad 0 \leq \alpha_i \leq C, \quad i = 1, 2, ..., N\end{align*}\]其中,N是训练样本数量,C是惩罚参数,K(x_i,x_j)是核函数。

SMO算法通过迭代优化变量alpha_i和alpha_j,来逐渐优化整个二次规划问题。

SMO算法的核心步骤有两个:选择变量和优化变量。

1.变量的选择:在每次迭代中,SMO算法通过两个嵌套循环选择优化变量alpha_i和alpha_j。

首先,外层循环选择第一个变量alpha_i,通过遍历所有训练样本点,选择违反KKT条件的样本点。

KKT条件是SVM最优解必须满足的条件,对于正样本来说,条件是alpha_i=0,对于负样本来说,条件是alpha_i=C。

如果选择到了违反KKT条件的alpha_i,就进入内层循环。

多目标输出SVM回归的参数优化和特征选择

多目标输出SVM回归的参数优化和特征选择

多目标输出SVM回归的参数优化和特征选择彭文伟湖南湘潭湘钢巴塘17-18,邮政编码:411104.Email:pww71@, phone:+86-0732-*******.摘要:目前多目标输出SVM回归的算法使用多阈值, 其预测效果不理想,且运算量大。

另外SVM算法的评价准则采用的是交叉验证的均方误差或相关系数,如果各目标的数据不平衡,这种统计方法无法用于评价多目标输出SVM回归算法。

首先,本文提出采用相同阈值的SVM多目标输出回归的算法,然后对交叉验证提出两种误差统计方法:一,各目标均方误差作均匀化处理,二,使用马氏距离最小化的方法。

最后,针对大型数据超大运算的问题,提出网络计算机并行运算算法。

实验先用遗传算法,粒子群算法和自己的BFS算法分别对相同SVM模型作参数优化,然后用改进的序列极小化特征选择算法优化SVM特征。

结果说明:选择ε-SVR算法和Rbf核,和BFS算法的参数优化,交叉验证用均匀化的均方误差作评价准则,效果相对较好。

关键词:支持向量机; 遗传算法; 粒子群算法; BFS算法; 序列极小化特征选择;Abstract: At present, the multi-objective output SVM regression used multi-threshold strategy. However, its prediction result and computational complexity is not satisfactory. In addition, the parameter and feature selection generally used cross-validation as the evaluation criteria. Because of the imbalance data, the statistical methods used to evaluate the cross-validation error cannot always get the optimal effect. In this paper, an algorithm of the multi-objective output SVM regression using the same thresholds for the multi-objective is proposed. Moreover, two error evaluation methods for cross-validation are proposed. Firstly, the mean square error for all objectives are treated homogeneously; Secondly, minimizing the Mahalanobis distance is used。

使用支持向量机进行回归分析的方法与技巧

使用支持向量机进行回归分析的方法与技巧

使用支持向量机进行回归分析的方法与技巧支持向量机(Support Vector Machine,SVM)是一种常用的机器学习算法,广泛应用于分类和回归问题。

在回归分析中,SVM可以通过寻找最优超平面来建立输入变量和输出变量之间的非线性关系。

本文将介绍使用支持向量机进行回归分析的方法与技巧。

一、数据预处理在进行回归分析之前,首先需要对数据进行预处理。

这包括数据清洗、特征选择和数据标准化等步骤。

数据清洗可以去除异常值和缺失值,确保数据的质量。

特征选择可以通过相关性分析和特征重要性评估等方法来选择最相关的特征变量。

数据标准化可以将不同尺度的特征变量转化为相同的尺度,避免不同变量之间的差异对回归结果的影响。

二、选择合适的核函数在支持向量机中,核函数的选择对回归结果有很大的影响。

常用的核函数包括线性核函数、多项式核函数和径向基核函数等。

线性核函数适用于线性可分的回归问题,多项式核函数可以处理非线性关系,而径向基核函数则可以处理更加复杂的非线性关系。

根据具体的问题和数据特点,选择合适的核函数可以提高回归分析的准确性。

三、调整模型参数在支持向量机回归中,有两个重要的参数需要调整,分别是惩罚参数C和核函数的参数。

惩罚参数C控制了模型的复杂度,较小的C值会产生较简单的模型,较大的C值则会产生较复杂的模型。

核函数的参数可以控制模型的灵活性,不同的参数值会导致不同的模型拟合效果。

通过交叉验证等方法,可以选择最优的参数组合,提高回归模型的性能。

四、模型评估与优化在建立支持向量机回归模型后,需要对模型进行评估和优化。

常用的评估指标包括均方误差(Mean Squared Error,MSE)和决定系数(Coefficient of Determination,R-squared)等。

均方误差衡量了模型的预测误差大小,值越小表示模型的拟合效果越好。

决定系数则衡量了模型对观测值的解释能力,值越接近1表示模型的解释能力越强。

根据评估结果,可以对模型进行优化,如增加样本量、调整模型参数等。

支持向量机的性能优化和改进

支持向量机的性能优化和改进

支持向量机的性能优化和改进支持向量机(Support Vector Machine,SVM)是一种常用的机器学习算法,广泛应用于模式识别、数据分类和回归分析等领域。

然而,SVM在处理大规模数据集和高维特征空间时存在一些性能瓶颈。

为了克服这些问题,研究者们提出了许多性能优化和改进的方法。

本文将探讨这些方法,并分析它们在提高SVM性能方面的优势和局限性。

一、特征选择与降维特征选择是SVM性能优化的重要一环。

在处理大规模数据集时,特征数量通常非常庞大,这会导致计算复杂度上升和过拟合问题。

因此,通过选择最相关的特征子集来降低计算复杂度,并提高分类精度是非常重要的。

一种常用的特征选择方法是基于过滤器(Filter)与包装器(Wrapper)相结合的策略。

过滤器方法通过计算每个特征与目标变量之间相关性来评估其重要程度,并按照设定阈值进行筛选;而包装器方法则通过将特定子集输入分类器,并根据其分类精度进行评估来选择最佳子集。

此外,降维也是提高SVM性能的重要手段之一。

通过降低特征空间的维度,可以减少计算复杂度、提高模型训练速度和分类准确率。

常用的降维方法有主成分分析(PCA)和线性判别分析(LDA)等。

这些方法通过线性变换将高维数据映射到低维空间,以保留最重要的特征信息。

二、核函数选择与参数调优核函数是SVM中的关键组成部分,它可以将数据映射到高维特征空间,从而使非线性问题转化为线性可分问题。

常用的核函数有线性核、多项式核和高斯径向基函数(RBF)等。

在选择核函数时,需要根据数据集的特点和任务需求进行合理选择。

例如,在处理非线性问题时,RBF核通常能够取得较好效果;而在处理文本分类问题时,多项式核可以更好地捕捉特征之间的关系。

此外,在使用SVM训练模型时,参数调优也是非常重要的一步。

主要包括正则化参数C和径向基函数宽度γ两个参数。

正则化参数C 控制着模型对误分类样本的容忍程度;而径向基函数宽度γ则控制着模型的泛化能力。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

多目标输出SVM回归的参数优化和特征选择彭文伟湖南湘潭湘钢巴塘17-18,邮政编码:411104.Email:pww71@, phone:+86-0732-*******.摘要:目前多目标输出SVM回归的算法使用多阈值, 其预测效果不理想,且运算量大。

另外SVM算法的评价准则采用的是交叉验证的均方误差或相关系数,如果各目标的数据不平衡,这种统计方法无法用于评价多目标输出SVM回归算法。

首先,本文提出采用相同阈值的SVM多目标输出回归的算法,然后对交叉验证提出两种误差统计方法:一,各目标均方误差作均匀化处理,二,使用马氏距离最小化的方法。

最后,针对大型数据超大运算的问题,提出网络计算机并行运算算法。

实验先用遗传算法,粒子群算法和自己的BFS算法分别对相同SVM模型作参数优化,然后用改进的序列极小化特征选择算法优化SVM特征。

结果说明:选择ε-SVR算法和Rbf核,和BFS算法的参数优化,交叉验证用均匀化的均方误差作评价准则,效果相对较好。

关键词:支持向量机; 遗传算法; 粒子群算法; BFS算法; 序列极小化特征选择;Abstract: At present, the multi-objective output SVM regression used multi-threshold strategy. However, its prediction result and computational complexity is not satisfactory. In addition, the parameter and feature selection generally used cross-validation as the evaluation criteria. Because of the imbalance data, the statistical methods used to evaluate the cross-validation error cannot always get the optimal effect. In this paper, an algorithm of the multi-objective output SVM regression using the same thresholds for the multi-objective is proposed. Moreover, two error evaluation methods for cross-validation are proposed. Firstly, the mean square error for all objectives are treated homogeneously; Secondly, minimizing the Mahalanobis distance is used。

Finally, data for largesuper-computing problem, the network computer parallel computing algorithm is proposed. experiment by using genetic algorithms, particle swarm optimization and own Breadth-first search algorithm separately on the same SVM modelfor parameter optimization, and then experiment by using the modified sequential minimal algorithm for feature selection. Results show that: ε-SVR , Gaussian Radial Basis, parameter optimization is using Breadth-first search algorithm, cross-validation with homogenization of the mean square error for the purpose of evaluation criteria, the effect is relatively good.Keyword: svm; genetic algorithms; particle swarm optimization; BFS; The sequential minimal algorithm basedon feature selection;一,引言支持向量机 (Support Vector Machines, SVM)是Vapnik等人于20世纪90年代建立的,基于统计学习理论且推广能力非常好的一种小样本学习方法[1],,已成功应用于模式分类、回归分析等领域。

SVM回归问题一般都是单目标输出[2-3](SVM回归问题的目标值只有一个)。

而目前多目标输出(SVM回归问题目标值超过一个)一般采用多阈值方式[4],不是共同的间隔,相当于用单目标预测方式重复预测多目标,实验效果不是很理想,故提出采用相同阈值的多目标SVM回归算法。

正如大多数学习机算法,支持向量机(SVM)的性能与SVM参数和特征的选择有关[5]。

不同的数据类型用不同的SVM模型预测效果有一定的差异,而SVM模型不同其参数和参数范围也不同,因此对于不同的SVM模型,因根据其参数多少和范围来选择不同的参数优化方案。

常用的参数优化办法是网格搜索[6],但是其采用2的n次幂将范围切割为离散数,造成搜索范围不均匀分布,即使提高网格数搜索精度也不高,而且增加运算量。

为了提高精度,本人提出启发式广度优先搜索。

目前使用遗传算法和粒子群算法作参数优化的越来越多,但是针对不同的SVM模型,没有对众多参数优化方案进行综合的对比和评价,是缺乏说服力的。

SVM参数和特征的优化过程需要一个评价准则。

该准则大多采用k折交叉验证验证的均方误差或相关系数。

先预先设定好某个SVM参数,然后进行k-折交叉验证(k-fold cross vaidation):将训练样本集随机地分成k个互不相交的子集,每个折的大小大致相等。

利用k-1个训练子集,对给定的一组参数建立回归模型,利用剩下的最后一个子集的误差平均值评估参数的性能。

以上过程重复K次,因此每个子集都有机会进行测试,最后根据k次迭代后得到误差平均值。

用该误差平均值来评价SVM的学习能力和推广能力。

误差平均值采用均方误差:n个样本测量值的偏差为ε1、ε2……εn。

采用相关系数:x=目标值,y=预测值,0=<r<=1,越靠近1越好。

这两种评价准则用于单目标输出预测没有问题,但在输出多目标预测的情况下,如果各目标的数据不小不同,产生的各目标误差大小就不平衡。

用均方误差或相关系数是无法对误差进行综合评价的。

在单处理器情况下,受cpu和内存限制,大型数据的SVM回归的参数优化将是一个漫长的过程。

并行运算可以将问题求解规模线性扩大[7],因此,用并行运算求解大型数据下的多目标输出SVM回归问题是有效的解决途径。

二,SVM算法及模型选择SVM的参数和参数范围与SVM算法的类型和核函数的选择有关,目前多目标输出的SVM有两种, ε-SVR和v-SVR,核函数一般使用三种,多项式核Polynomial,高斯核rbf,sigmoid核。

以下提出采用相同阈值的多目标输出SVM算法,同时分析它们在三种核函数下的参数以及参数范围:m目标数,n训练集数,z特征数。

已知训练集 T=,其中1,ε-SVR算法:max:约束条件:得出最优解;构造决策函数:求出阈值变量b:需要选择适当的0<ε和C>0,以及核函数参数。

参数C取经验范围(0,1000】。

2,v-SVR算法:约束条件:得出最优解;构造决策函数:求出阈值变量b:需要选择适当的0<v<=1和C>0,以及核函数参数。

参数C取经验范围(0,1000】。

3,核函数1, Polynomial:d是多项式核的度,经验范围选择【3,7】的整数,r取经验范围【0,1000】。

2, RBF:3, Sigmoid:r取经验范围【0,1000】。

Gamma取[0,1].非正定核,其smo运算容易进入无穷迭代[11],需加最大迭代限制,经验取200000次. 三,参数优化和特征选择算法注意:以下统计的算法复杂度是针对SVM算法作交叉验证的次数和序列最小最优化(sequential minimal optimization,SMO)[10]运算中迭代次数无关。

1,提出BFS启发式广度优先搜索。

将各参数范围按均匀步长分割成离散数组,然后遍历各参数数组取值,交叉验证运算,统计得出最佳参数后,重新在该参数附近分配步长大小的范围,将原步长缩小,重新分割各参数为离散数组,遍历取值,交叉验证运算…,直到交叉验证的结果不再更新。

例如:c的选择范围是1到1001,步长为100,则第一阶段参数c循环选择{1,101,201,301...901,1001},其他参数作类似选择,作交叉验证,比较交叉验证的结果,如果本阶段运算有新的最佳结果,其参数c=101,则递归进入第二阶段,c的选择范围重新定义为1到201,步长为4*100/(stepnum+4),stepnum是上阶段的步数,不停的递归运算,直到不出现新的最佳结果。

由于采用启发式深度递归运算,如果某参数搜索范围很宽,初始化步长可以加宽,减少运算量,进入递归后搜索细化,其搜索精度提高。

一般递归阶段只有两个,而且递归越深,运算量越小,所以总的运算量并不大。

其算法复杂度大约为:n为参数数,p为参数范围分割步数,1.005是经验值。

另外说明一点,本人在很多数据集中做实验,发现C的最优参数往往在两个范围((0,1】和【1,1000】)之一徘徊,为了保证搜索的全面性,参数C的搜索分两个范围((0,1】和【1,1000】)进行。

第一阶段C的搜索阶段在【1,1000】,如果本阶段交叉验证最优结果的参数c的值为1,则递归到第二阶段时参数c从【0,1】搜索,否则第二阶段按常规递归运算。

2,遗传算法。

实验使用Galib[8]设计以下遗传算法做参数优化:四种遗传算法:标准型(simple),稳态型(Steady-State),增量型(Incremental),确定性拥挤(DCrowdingGA)。

三种编码方式:实数编码,二进制编码,格雷码。

五种交叉方式:均匀交叉,单点交叉,双点交叉,平均交叉,混合交叉。

相关文档
最新文档