特征选择

合集下载

几种常用的特征选择方法

几种常用的特征选择方法

几种常用的特征选择方法特征选择是机器学习中非常重要的一个环节,通过选择合适的特征子集,可以提高模型的准确性、降低过拟合的风险,并减少计算成本。

以下是几种常用的特征选择方法:1. 过滤式特征选择(Filter feature selection):过滤式特征选择方法独立于机器学习算法,将特征子集选择作为单独的预处理步骤。

常见的过滤式方法有基于相关性的选择、方差选择和互信息选择等。

- 基于相关性的选择:计算每个特征与目标变量之间的相关性,选取相关性较高的特征。

例如,皮尔逊相关系数可以用于评估线性相关性,而Spearman相关系数可用于评估非线性相关性。

-方差选择:计算特征的方差,并选择方差较高的特征。

方差较高的特征在总体上具有更多的信息。

-互信息选择:计算每个特征与目标变量之间的互信息,选取互信息较高的特征。

互信息是度量两个变量之间相关性的一种方法。

2. 包裹式特征选择(Wrapper feature selection):包裹式方法将特征选择作为机器学习算法的一部分,通过评估模型的性能来选择特征。

常见的包裹式方法有递归特征消除(RFE)和遗传算法等。

-递归特征消除:通过反复训练模型并消除不重要的特征来选择特征。

该方法从所有特征开始,每次迭代都使用模型评估特征的重要性,并剔除最不重要的特征,直到选择指定数量的特征。

-遗传算法:通过模拟生物进化过程,使用交叉和变异操作来最佳的特征子集。

该方法可以通过评估特征子集的适应度来选择特征,适应度一般通过模型的性能进行度量。

3. 嵌入式特征选择(Embedded feature selection):嵌入式方法将特征选择与机器学习算法的训练过程相结合,通过优化算法自动选择特征。

常见的嵌入式方法有L1正则化(L1 regularization)和决策树算法等。

-L1正则化:L1正则化可以使得训练模型的系数稀疏化,从而实现特征选择。

L1正则化会增加模型的稀疏性,使得部分系数为0,从而对应的特征被选择。

特征选择

特征选择
在机器学习的实际应用中,特征数量往往较多,其中可能 存在不相关的特征,特征之间也可能存在相互依赖,容易导致 如下的后果: 1)、特征个数越多,分析特征、训练模型所需的时间就越长。 2)、特征个数越多,容易引起“维度灾难”,模型也会越复杂, 其推广能力会下降。 特征选择能剔除不相关或冗余的特征,从而达到减少特征 个数,提高模型精确度,减少运行时间的目的。另一方面,选 取出真正相关的特征简化了模型,使研究人员易于理解数据产 生的过程。
4.1.2 启发式搜索
1、序列前向选择 算法描述:特征子集X从空集开始,每次选择一个特征x加入 特征子集X,使得特征函数J( X)最优 2、序列后向选择 算法描述:从特征全集O开始,每次从特征集O中剔除一个 特征x,使得剔除特征x后评价函数值达到最优。 3、双向搜索 算法描述:使用序列前向选择(SFS)从空集开始,同时使用 序列后向选择(SBS)从全集开始搜索,当两者搜索到一个相同的 特征子集C时停止搜索。
4.1.3随机搜索
随机产生序列选择算法(RGSS, Random Generation plus Sequential Selection) 模拟退火算法( SA, Simulated Annealing ) 遗传算法( GA, Genetic Algorithms )
4.2评价函数
评价函数的作用是评价产生过程所提供的特征子集的好坏。 评价函数根据其工作原理,主要分为筛选器(Filter)、封装器 ( Wrapper )两大类。 筛选器通过分析特征子集内部的特点来衡量其好坏。 封装器实质上是一个分类器,封装器用选取的特征子集对 样本集进行分类,分类的精度作为衡量特征子集好坏的标准。 筛选器和封装器是两种互补的模式,两者可以结合。混合 特征选择过程一般可以由两个阶段组成,首先使用筛选器初步 剔除大部分无关或噪声特征,只保留少量特征。第二阶段将剩 余的特征连同样本数据作为输入参数传递给封装器,以进一步 优化选择重要的特征。

机器学习中的特征选择是什么?

机器学习中的特征选择是什么?

机器学习中的特征选择是什么?随着大数据时代的到来,机器学习越来越被广泛应用。

在机器学习算法中,特征选择是一个重要的环节。

什么是特征选择?特征选择是从原始数据中选择合适的特征子集,以提高分类或回归的性能、降低模型复杂性和提高模型解释性的过程。

下面我们来详细讲解一下机器学习中的特征选择。

一、特征选择的目的是什么?特征选择的目的是找到最优特征子集,使得模型具有最好的泛化性能、最小的过拟合和最好的解释性。

当数据集具有多个特征时,机器学习模型往往会受到维数灾难的影响。

特征选择可以删减掉冗余、噪声等不重要的特征,从而降低维度,提高模型的准确性和可解释性。

二、特征选择的方法有哪些?特征选择方法可分为三类:过滤式、包裹式和嵌入式。

过滤式方法通过统计量或机器学习方法来评估每个特征和分类或回归的相关性,选择排名前n个的特征。

包裹式方法是在特征子集上训练机器学习模型,并充分利用模型信息来选择最佳的特征子集。

嵌入式方法是将特征选择融入到机器学习模型的训练过程中,通过正则化项或其他方法来约束特征的权值,从而选择出重要的特征。

三、特征选择技术的应用有哪些?特征选择技术在机器学习中有着广泛的应用,例如在文本分类、图像分类、信用评级、金融风险控制等领域。

例如,在文本分类中,通过删除关键词外的其余词,即进行特征选择,可以减少噪音和冗余,提高分类的准确性;在图像分类中,通过矩阵分解等技术,可以选择具有强区别性及抗噪声的像素位置作为特征,从而提高分类的准确性。

四、特征选择技术的优劣势分析特征选择技术可以大大提高模型的准确性和可解释性,同时可以降低维度,减少计算量和存储空间。

但是,特征选择也有一些局限性,例如在数据集较小或特征极少的情况下,特征选择可能并不明显;另外,不同的特征选择技术可能对不同的数据集有不同的效果,需要根据具体情况选择合适的方法。

结语:总之,特征选择是机器学习中非常重要的一环,能够提高模型的准确性和可解释性,并且缓解维度灾难。

特征选择的一般过程

特征选择的一般过程

特征选择的一般过程特征选择是在机器学习和数据挖掘领域中一个非常重要的任务,它的目的是从原始数据中选择出对于目标变量具有较大预测能力的特征,以提高模型的性能和效果。

本文将介绍特征选择的一般过程,以帮助读者了解该领域的基本知识和方法。

一、特征选择的意义在实际的数据分析和建模任务中,我们常常面临大量的特征变量。

然而,并不是所有的特征都对于目标变量的预测有用,有些特征甚至可能对模型的性能产生负面影响。

因此,通过特征选择可以帮助我们从海量的特征中筛选出最为相关和有用的特征,提高模型的准确性和可解释性。

特征选择的一般过程可以分为以下几个步骤:1. 确定特征选择的目标和评价指标:在进行特征选择之前,我们首先需要确定特征选择的目标是什么,是为了提高模型的准确性,还是为了提高模型的解释性。

同时,我们还需要选择合适的评价指标来衡量特征的重要性,常见的评价指标包括信息增益、方差分析、相关系数等。

2. 收集和准备数据:在进行特征选择之前,我们需要收集和准备好用于特征选择的数据。

这包括了数据的清洗、预处理和标准化等步骤,以确保数据的质量和可用性。

3. 特征选择方法的选择:特征选择方法有很多种,包括过滤式方法、包裹式方法和嵌入式方法等。

在选择特征选择方法时,我们需要考虑到数据的特点和问题的需求,选择适合的方法进行特征选择。

4. 特征选择的实施:在进行特征选择时,我们可以采用不同的方法和策略,如单变量特征选择、递归特征消除、基于模型的特征选择等。

具体的实施方法可以根据数据的特点和问题的需求来选择。

5. 特征选择的评估和优化:在进行特征选择之后,我们需要对所选择的特征进行评估和优化。

这包括了对模型的性能进行评估和比较,判断所选择的特征是否能够提高模型的准确性和解释性。

三、特征选择方法的介绍1. 过滤式方法:过滤式方法是一种独立于模型的特征选择方法,它通过对特征和目标变量之间的相关性进行度量,来选择最相关的特征。

常见的过滤式方法包括相关系数、方差分析、卡方检验等。

特征选择与特征抽取的区别与联系

特征选择与特征抽取的区别与联系

特征选择与特征抽取的区别与联系在机器学习和数据挖掘领域,特征选择和特征抽取是两个重要的概念。

它们都是为了从原始数据中提取出最有用的特征,以便用于模型训练和预测。

虽然它们有相似之处,但也存在着一些明显的区别和联系。

首先,我们来看一下特征选择。

特征选择是指从原始数据中选择出最具有代表性和相关性的特征,以便用于模型的训练和预测。

在特征选择过程中,我们通常会使用一些评估指标,如信息增益、方差分析等,来衡量每个特征对于目标变量的重要性。

通过评估指标,我们可以排除那些对模型预测没有帮助的特征,从而减少特征空间的维度,提高模型的效果和效率。

与特征选择相比,特征抽取是一种更加综合和高级的特征处理方法。

特征抽取是指将原始数据转换为更具有表达能力和可解释性的特征表示。

在特征抽取过程中,我们通常会使用一些数学和统计方法,如主成分分析(PCA)、线性判别分析(LDA)等,来对原始数据进行降维和变换。

通过特征抽取,我们可以将高维的原始数据转换为低维的特征表示,从而减少数据的冗余和噪声,提高模型的泛化能力和鲁棒性。

特征选择和特征抽取之间存在着一定的联系。

首先,它们都是为了从原始数据中提取出最有用的特征,以便用于模型的训练和预测。

无论是选择还是抽取,都是为了减少特征空间的维度,提高模型的效果和效率。

其次,它们都需要依赖一些评估指标和数学方法来进行特征的筛选和变换。

无论是选择还是抽取,都需要根据具体的问题和数据特点来选择适合的评估指标和方法。

然而,特征选择和特征抽取也存在着一些明显的区别。

首先,特征选择是在原始数据的基础上进行的,而特征抽取是对原始数据进行变换和降维后得到的。

特征选择更加直观和可解释,可以通过分析每个特征与目标变量之间的关系来选择最有用的特征。

特征抽取更加综合和高级,可以通过数学和统计方法来发现数据中的潜在结构和规律。

其次,特征选择通常是针对某个具体的问题和数据集进行的,而特征抽取更加通用和普适,可以适用于各种类型的数据和问题。

常见特征选择方法

常见特征选择方法

常见特征选择方法特征选择是机器学习中非常重要的一步,它能够帮助我们从原始数据中选择出最具有代表性和有用的特征,以提高模型的性能和效果。

在实际应用中,常见的特征选择方法有以下几种:1. Filter方法Filter方法是一种基于特征本身的统计量来进行特征选择的方法。

它通过计算各个特征与目标变量之间的相关性或者相关系数,然后按照一定的规则来选择出具有显著相关性的特征。

常见的统计量包括皮尔逊相关系数、卡方检验、互信息等。

这种方法的优点是计算简单、效率高,但是忽略了特征与特征之间的关系。

2. Wrapper方法Wrapper方法是一种基于模型性能来进行特征选择的方法。

它通过构建不同的特征子集,然后利用机器学习算法训练模型,并评估模型的性能,从而选择出最佳的特征子集。

常见的Wrapper方法有递归特征消除(Recursive Feature Elimination, RFE)、遗传算法等。

这种方法的优点是考虑了特征与特征之间的关系,但是计算复杂度较高,耗时较长。

3. Embedded方法Embedded方法是一种将特征选择与模型训练合并在一起的方法。

它通过在模型训练过程中自动选择特征,从而得到最佳的特征子集。

常见的Embedded方法有L1正则化(L1 Regularization)、决策树算法等。

这种方法的优点是计算简单、效率高,但是需要选择合适的模型和参数。

4. 主成分分析(Principal Component Analysis, PCA)主成分分析是一种常用的无监督学习方法,它通过线性变换将原始特征空间映射到新的低维特征空间,从而达到降维的目的。

在主成分分析中,我们选择的新特征是原始特征的线性组合,使得新特征之间的相关性最小。

通过保留较高的主成分,我们可以保留原始数据中的大部分信息,同时减少特征的维度。

5. 基于信息增益的特征选择信息增益是一种用于衡量特征对分类任务的贡献程度的指标。

它通过计算特征对目标变量的不确定性减少程度来评估特征的重要性。

特征提取与特征选择的区别与联系

特征提取与特征选择的区别与联系

特征提取与特征选择的区别与联系在机器学习和数据挖掘领域,特征提取和特征选择是两个重要的概念。

它们在数据预处理和模型构建中起着至关重要的作用。

本文将探讨特征提取与特征选择的区别与联系,并从理论和实践角度进行深入分析。

1. 特征提取的定义与意义首先,我们来看看特征提取的定义与意义。

特征提取是指从原始数据中提取出具有代表性的特征,以便进行后续的数据分析和建模。

在实际应用中,原始数据往往包含大量的冗余信息和噪声,特征提取的目的就是通过某种算法或方法,对原始数据进行转换或映射,得到更加有用和有效的特征表示。

这样可以提高模型的准确性和泛化能力,同时减少计算复杂度和存储空间的消耗。

特征提取的方法有很多种,比如主成分分析(PCA)、独立成分分析(ICA)、线性判别分析(LDA)等。

这些方法都是通过对原始数据进行变换,得到新的特征表示,从而达到降维、去噪或增强特征的目的。

2. 特征选择的定义与意义接下来,我们再来看看特征选择的定义与意义。

特征选择是指从原始特征中选择出最具有代表性和重要性的特征子集,以用于后续的建模和预测。

在实际应用中,原始特征往往包含很多冗余和无关的信息,特征选择的目的就是找出对目标变量影响最大的特征,从而简化模型、提高预测性能和可解释性。

特征选择的方法有很多种,比如过滤式、包裹式和嵌入式等。

过滤式方法是直接对特征进行评估和排序,选择最高分的特征子集;包裹式方法是把特征选择看作一个搜索问题,通过试验不同的特征子集来找到最佳组合;嵌入式方法则是在模型训练过程中,通过正则化或增加惩罚项的方式来选择特征。

3. 特征提取与特征选择的区别特征提取与特征选择虽然都是对原始数据或特征进行处理,但它们在目的和方法上有着明显的区别。

首先,特征提取是通过某种变换或映射,得到新的特征表示,目的是降维、去噪或增强特征;而特征选择是从原始特征中选择出最具有代表性和重要性的特征子集,目的是简化模型、提高预测性能和可解释性。

特征选择的常用方法

特征选择的常用方法

特征选择的常用方法特征选择是机器学习和数据挖掘领域中的一个重要步骤,其目的是从各种特征中选择出对目标变量有最大预测能力的特征子集。

特征选择的主要作用是降低维度、减少计算复杂度、提高模型的解释性和泛化能力。

本文将介绍一些常用的特征选择方法。

一、过滤式方法过滤式方法是特征选择中最简单和最常用的方法之一。

它独立于任何具体的学习算法,通过计算各个特征与目标变量之间的关联度来选择特征。

常用的过滤式方法包括皮尔逊相关系数、互信息和卡方检验等。

1. 皮尔逊相关系数皮尔逊相关系数是衡量两个变量之间线性相关程度的统计量,取值范围为[-1,1]。

当相关系数接近于1时,表示两个变量呈正相关;当相关系数接近于-1时,表示两个变量呈负相关;当相关系数接近于0时,表示两个变量之间没有线性相关关系。

在特征选择中,可以计算每个特征与目标变量之间的相关系数,选取相关系数较大的特征作为最终的特征子集。

2. 互信息互信息是衡量两个随机变量之间信息传递量的统计量,可以用来度量特征与目标变量之间的相关性。

互信息的取值范围为[0,+∞],互信息越大表示两个变量之间的相关性越强。

在特征选择中,可以计算每个特征与目标变量之间的互信息,选取互信息较大的特征作为最终的特征子集。

3. 卡方检验卡方检验是一种统计方法,可以用来检验两个变量之间是否存在显著的关联性。

在特征选择中,可以将特征和目标变量之间的关系建模成一个列联表,然后计算卡方值。

卡方值越大表示特征和目标变量之间的关联性越强,选取卡方值较大的特征作为最终的特征子集。

二、包裹式方法包裹式方法是一种更加复杂和计算量较大的特征选择方法,它直接使用具体的学习算法来评估特征的贡献。

包裹式方法通过搜索特征子集的所有可能组合,并使用具体的学习算法对每个特征子集进行评估和比较。

常用的包裹式方法包括递归特征消除、遗传算法和模拟退火算法等。

1. 递归特征消除递归特征消除是一种基于模型的特征选择方法。

它通过反复训练模型,并在每次训练后消除对模型贡献较小的特征,直到达到指定的特征数目。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

Tabu搜索算法


步骤 5 如果 x 的性能比 xg 的性能好,则令 xg x ; 步骤 6 如果Tabu表的长度等于规定长度,则删去表 中最早搜索过的解; 步骤 7 令 T T {x} ; xg为最终解, 步骤 8 若满足终止条件,则算法结束, 否则,令 i i 1 ,转2。
特征选择——分支定界法

分支定界法:若某一支已经搜索到叶节点,例 如,右侧的第一支的叶节点,该节点的特征组 为x*=(x1,x2)T,计算相应的准则函数值并将其 作为界:B=J(x*)。这时,树中的某个节点, 例如节点A,节点所表示的特征组为(x1,x4,x5)T; 计算出节点A相应的准则函数值JA,若JA≤ B, 则节点A以下各点都不必计算,这是由于准则 函数的单调性所确定的。
特征选择

需要解决的问题


如何确定选择的标准(前面学习过的类别可 分性准则); 需要找到一个比较好的算法,以便在较短的 时间内找出一组最优的特征。
特征选择

两种最为显见的选择方法:单独选择法 与穷举法。

单独选择法指的是把n个特征单独使用时的 可分性准则都计算出,从大到小排序,如:
J ( x1 ) J ( x2 ) J ( xm ) J ( xn )
i 1 1
c)
J ( Xi x ) J ( Xi x )
i 1 2
J ( Xi x )
i 1 qi
J ( Xi x )
i 1 ri
从 i 中去掉 Qi ,并修改 ri
i 1 i Qi
ri 1 ri qi
特征选择——分支定界法

许多特征选择算法力求解决搜索 问题,经典算法有:


分支定界法 顺序后退法 顺序前进法 模拟退火法 Tabu搜索法 遗传算法
Ch8 特征的选择与提取之特征选择


特征选择的任务:从n个特征中选择出 m(m<n)个最有效的特征。 方法:根据专家的知识挑选那些对分类 最有效的、最有影响的特征;用数学的 方法进行筛选、比较找出对分类最有影 响的特征。
Tabu搜索算法

Tabu(禁忌)搜索算法


算法的基本思想:一个解的某个“邻域”中一般存 在性能更好的解。因此,Tabu搜索算法仅仅在一些 解的邻域中进行。为了避免搜索过程的重复,从而 能够搜索更大的解空间,因此该算法要求记录近期 的搜索过的解。 使用一个表,Tabu表,记录这一搜索过程的解。 如果一个解在Tabu表中,说明该解在近期被访问过。 一旦被收入Tabu表中,在某个时间段内禁止访问该 解。
特征选择——分支定界法

在下面的算法中,显然 i 和 X i 是已知的。 算法是从0级开始的,并从右边的第一支开始 计算,D是原始特征的数目,d是所要选择出 的特征数目,J是可分性准则函数,r0=D, 0 是全部特征集合, X0 0 。
特征选择——分支定界法
算法步骤

步骤1 a) 利用公式 qi ri (D d i 1) 计算 qi ; b) 根据下式计算 Qi :



该算法考虑了所选特征与已入选特征之间的相关性。一般 来说,比前面所提出的单独选择方法要好。 缺点:对于已经入选的特征无法删除或替换。 注意:上述的SFS算法每次增加一个特征,实际上可以每 次增加多(r)个特征。
特征选择——次优搜索算法

顺序后退选择法(Sequential Backward Selection,SBS)
J ( X k x1 ) J ( X k x2 )
J ( X k xDk )
则下一步的特征组选为
X k 1 X k x1 注意:算法开始时 X 0 , k d 时算法结束
特征选择——次优搜索算法

顺序前进法(Sequential Forward Selection, SFS)


该算法是一种自上而下的方法。从全体特征中每次舍弃一个 特征,所删除的特征应该使得仍然保留特征组的J值最大。 假设已删除了k个特征,得到特征组 X k ,将 X k 中的各个特 j 1, 2, , D k 按照下述的J值进行排序: 征 xj ,
J ( X k x1 ) J ( X k x2 )
Tabu搜索算法

Tabu(禁忌)搜索算法的基本框架 步骤 1 令迭代步数 i 0 ,Tabu 表为 T ,给 出初始解为x,并令最优解 xg x ;



步骤 2 从x的邻域中选择一定数量的解构成候选集 合N(x); 步骤 3 若N(x)=Φ ,则转2,否则从N(x)中找出最 优解x’; 步骤 4 若 x ' T ,并且 x ' 不满足激活条件,则令 N ( x) N ( x) {x '} ,转3,否则,令 x x ' 。
Tabu搜索算法

Tabu(禁忌)搜索算法的分析pp:208
遗传算法(进化计算)

遗传算法(进化计算)
遗传算法主要是从达尔文的生物进化论得到 启示。生物在漫长的进化过程中,经过遗传 和变异,按照“物竞天泽,适者生存”这一 规则演变,逐渐从最简单的低级生物发展到 复杂的高级生物。基于这种思想,发展了用 于优化的遗传算法。
d
特征选择——分支定界法



分支定界法:是一种自上而下的启发式搜索算法,具 有回溯功能,可使所有可能的特征组合都被考虑到。 由于合理的组织了搜索过程,使得有可能不必计算某 些组合,而又不影响得到最优的结果。 分支定界法的必备条件:所使用的准则函数必须是具 有单调性的。即,从D个特征中选择d个特征组成d维 特征向量,再由这d个特征中选择k个特征组成k维向量, 对应的准则函数应满足: D>d>k J D Jd Jk
遗传算法

遗传算法发展的简要回顾




1950s,将进化原理应用于计算机科学的初步努力。 50年代末到60年代初,Holland应用模拟遗传算子研究适应性。 1967年,Bagley的论文中首次提出了遗传算法这一术语。 1975年,Holland的经典著作《自然和人工系统中的适应性》 出版,系统阐述了遗传算法的基本理论和方法。 1975年,DeJong的博士论文《遗传自适应系统的行为分析》, 将Holland的模式理论与他的计算试验结合起来。 1983年,Holland的学生Goldberg将遗传算法应用于管道煤气 系统的优化,取得了很好的效果。
使得J较大的前m个特征作为选择结果,但是 这样所得到的m个特征一般未必时最好的。
特征选择

穷举法:
从D个特征中选择d个,所有可能的组合数为 CD, 10 如D=20, d=10,这时有 C20 184756 种特征的 组合方法。把184756种特征组合的可分性准则 函数全部计算出来,然后看哪一种特征组合的准 则函数值最大,我们就应该选择这种组合的前10 个特征。
步骤 4 回溯 置 i i 1; ri ri 1; i i 1; 若 i 1,则终止算法; i 1 否则,把 xqi 放入到当前的特征集,即

i 1 X i X i 1 xqi 置 i 1,转向步骤3。
特征选择——分支定界法
算法步骤

步骤 5 修改界值 置 B J ( X Dd ),把X D d 作为当前最好的特 征组 X d ,置 l qi ,转向步骤3。
10.2 特征选择



特征选择是从原始特征中挑选出一些最 有代表性,分类性能最好的特征来。 每个特征的状态是离散的—选与不选 从N个特征中选取k个,共 种组合。若 不限定个数,则共2N种。-NP 问题 这是一个典型的组合优化问题
特征选择的方法大体可分两大类


Filter方法:不考虑所使用的学习算法。通常给 出一个独立于分类器的指标μ来评价所选择的 特征子集S,然后在所有可能的特征子集中搜 索出使得μ最大的特征子集作为最优特征子集。 Wrapper方法:将特征选择和分类器结合在一 起,即特征子集的好坏标准是由分类器决定的, 在学习过程中表现优异的的特征子集会被选中。
特征选择——分支定界法

分支定界法:整个搜索过程可以使用树来表示, 下图表示一个从5个特征中选择2个特征的例子, 节点上的标号表示去掉的特征序号。每一级在 上一级的基础上再去掉一个特征。级数正好是 已经去掉的特征数。
特征选择——分支定界法
0
1 2 3 4
2 A 3
3 4 4
3
3
5
4
5
5 5
5
5
5
特征选择——分支定界法
分析

优点:该算法可以求出最优解。 缺点:在很多情形,该算法的计算量太大, 难以实现。
特征选择——次优搜索算法

单独最优特征组合 顺序前进法 顺序后退法
特征选择——次优搜索算法

单独最优特征组合

最为简单的方法,是计算各个特征单独使用时的准 则函数值,并将其排序,取前d个作为所要选择的 特征。但是,一般为而言即使各特征是单独使用的, 这一结论也不是最优的。要保证所选则的特征的最 优性,必须使得可分性准则函数值满足:
算法步骤

步骤2:检验和后继节点相应的准则函数值是否小于B。 i 1 J ( X x q 0 若 ,则转向步骤4;否则,若 i qi ) B ,则置 l qi , i i 1 然后转向步骤3,否则从 X 中去掉 xqi ,即
i
X i1 XΒιβλιοθήκη i xi 1 qi若 i 1 D d,则转向步骤5,否则置 i 1 ,然后转向 步骤1。
一种Filter算法: FOCUS
相关文档
最新文档