基于Bagging的聚类集成方法
机器学习技术中的集成学习方法与应用案例

机器学习技术中的集成学习方法与应用案例机器学习是一种通过让计算机系统自动学习和改进的方法来处理数据和识别模式的技术。
近年来,随着大数据的快速发展,机器学习在各个领域的应用已经变得非常广泛。
而集成学习作为机器学习领域的重要技术方法之一,旨在通过整合多个学习器的预测结果来取得更好的性能。
集成学习中最常见的方法之一是投票法,即利用多个学习器的预测结果进行投票来决定最终的预测结果。
投票法适用于多个学习器的预测结果之间相对独立的情况。
另一种常见的集成学习方法是Bagging。
Bagging通过对训练集进行重采样来生成多个不同的训练集,并通过对这些训练集进行学习,最后将多个学习器的预测结果进行平均或投票来得到最终的预测结果。
相比于投票法,Bagging更适用于多个学习器的预测结果之间存在关联的情况。
此外,还有Boosting、Stacking等其他集成学习方法,它们都有各自的特点和适用场景。
接下来,我们将介绍一些集成学习方法的具体应用案例。
1. 随机森林(Random Forest)随机森林是一种基于决策树的集成学习方法。
它通过随机采样特征和数据来生成多个决策树,并通过对这些决策树的预测结果进行平均来得到最终的预测结果。
随机森林在分类和回归问题上表现出色,并且具有较好的抗过拟合能力。
在金融领域,随机森林可以应用于信用评分、风险预测等任务中。
2. 梯度提升树(Gradient Boosting Machine, GBM)梯度提升树是一种基于决策树的序列化的集成学习方法。
它通过迭代地训练决策树,每次训练都在上一个树的残差上进行,最终将多个决策树的预测结果进行求和来得到最终的预测结果。
梯度提升树在许多机器学习竞赛中表现出色,例如Kaggle等。
在电子商务领域,梯度提升树可以用于用户行为预测、推荐系统等任务。
3. 堆叠泛化(Stacking)堆叠泛化是一种基于模型融合的集成学习方法。
它通过将不同的基本学习模型进行级联,将前一层模型的预测结果作为后一层模型的输入,最终得到最终的预测结果。
机器学习中的集成学习算法

机器学习中的集成学习算法一、集成学习简介集成学习(Ensemble Learning)是机器学习中的一种重要算法。
它的主要思想是将多个弱学习算法集合起来形成一个强学习算法。
二、集成学习分类按照分类器的生成方式可将集成学习分类为Bagging算法、Boosting算法和Stacking算法。
1. Bagging算法Bagging全称为Bootstrap AGGregating,是自举聚合的缩写。
它的基本思想是采用自助法来产生k个新的训练集,在每个训练集上训练出一个基学习器,然后将这k个基学习器的结果进行平均或多数表决等方式来得到最终的结果。
2. Boosting算法Boosting算法基本思想是将一系列弱分类器相互结合,构成一个强分类器的过程。
它的主要特点是每一轮都学习一个新的分类器,并使得之前所有分类器的分类准确率加权相加。
3. Stacking算法Stacking算法是一种用来组合多个学习器的方法。
与传统的集成学习方法不同,Stacking算法通过加入一个“次级学习器”来对多个基学习器进行组合,从而构建出一个强学习器。
三、集成学习的优点1. 集成学习可显著提高机器学习算法的准确率和性能,并且对于许多不同类型的学习算法均有效。
2. 集成学习能够减轻模型过拟合问题,提高模型鲁棒性和泛化能力。
3. 集成学习能够减少各个单个模型产生的误差或者偏差,从而提高模型的精度。
四、集成学习案例1. 随机森林(Random Forest)随机森林是一种集成学习方法,它基于决策树算法创建多个随机子集的基学习器,最终将这些基学习器合并成一个强学习器。
2. AdaBoostAdaBoost是一种常见的Boosting算法,它通过不断调整训练样本的权重来训练机器学习模型,从而提高模型准确率。
3. Gradient Boosting Machines(GBM)GBM也是一种常见的Boosting算法,它采用一种梯度下降算法来学习弱学习器的加权。
深度学习中的模型融合与集成学习方法

深度学习中的模型融合与集成学习方法深度学习是一种通过模拟人脑神经元网络进行学习的机器学习方法,它已经在图像和语音识别、自然语言处理等领域取得了重大突破。
然而,随着深度学习模型的复杂性增加,单一模型往往难以完全解决所有的问题。
因此,模型融合与集成学习成为了提高深度学习性能的重要手段。
一、模型融合模型融合是指将多个独立训练的模型的输出进行结合,以获得更好的预测性能。
常见的模型融合方法包括Bagging、Boosting和Stacking。
Bagging(Bootstrap aggregating)是一种通过有放回抽样的方式训练多个相同类型的模型,最后通过投票或平均值的方式进行预测的方法。
随机森林就是一种基于Bagging思想的集成学习算法,它通过构建多棵决策树来提高分类性能。
Boosting是一种通过顺序迭代训练多个弱分类器,并根据前一个分类器的结果调整样本权重的方法。
常见的Boosting算法包括AdaBoost、GBDT和XGBoost,它们通过不断关注被前一个分类器错误分类的样本来提高整体分类性能。
Stacking是一种将多个模型的输出作为新的特征,再训练一个元模型的方法。
通过这种方式,模型可以学习如何结合不同模型的输出来进行最终的预测。
二、集成学习集成学习是一种通过结合多个模型来提高整体性能的方法。
常见的集成学习方法包括Voting、Averaging和Blending。
Voting是一种通过投票的方式结合多个模型的预测结果,常见的Voting方法包括硬投票和软投票。
硬投票是指多个模型对样本进行预测,最后通过多数票的方式来确定最终预测结果;软投票是指多个模型对样本进行预测,最后通过平均概率的方式来确定最终预测结果。
Averaging是一种通过平均多个模型的输出来进行预测的方法,常见的Averaging方法包括简单平均和加权平均。
简单平均是指直接对多个模型的输出进行平均;加权平均是指对多个模型的输出进行加权平均,通过调整权重可以使性能更优。
集成学习算法在回归问题中的应用研究

集成学习算法在回归问题中的应用研究近年来,数据挖掘与机器学习技术的快速发展使得更多的人开始意识到其在解决实际问题方面的重要性。
而在机器学习算法中,集成学习算法可谓是一种备受关注的算法,其在回归算法中的应用也格外值得探讨。
所谓集成学习算法,指的是将多个基学习器进行组合,从而得到一个具有更好泛化能力的强学习器的过程。
而回归问题则是指寻找输入与输出变量之间的关系,从而预测出未知的输出变量。
下面,我们将从两个角度来探讨集成学习算法在回归问题中的应用。
一、基于Bagging的集成学习算法Bagging算法,即自助采样法,是一种比较简单的集成学习算法。
其主要思路是,通过对原始训练集进行有放回的随机采样,得到多个新的训练集,并利用这些新的训练集来训练不同的基学习器。
其可以有效地减少过拟合现象,提高模型的泛化能力。
在回归问题中,Bagging算法的应用也比较简单。
我们可以通过取各个基学习器的平均值来得到最后的预测结果。
具体来说,对于每个基学习器,我们可以用有放回的方式从训练集中抽取n个样本建立子训练集,并利用这个子训练集来训练基学习器。
当训练完成后,我们可以利用测试样本得到每个基学习器的预测结果。
最后,我们将各个基学习器的预测结果进行平均得到最后的预测值。
二、基于Boosting的集成学习算法上述Bagging算法虽然简单易懂,但其并不能很好的处理噪声数据。
而Boosting算法则可以通过增强易学习样本在最终分类决策中的权重来提高其分类准确率,同时也能够抑制噪声数据的影响,从而达到更好的总体分类效果。
Boosting算法最常用的一种形式是Adaboost算法。
在Adaboost算法中,我们会给错误分类样本增加权重,以便在下一轮迭代中能够更好地识别它们。
同时,对于正确分类样本,我们会减少其权重,以便鼓励算法关注更加困难的样本。
最后,将多个基学习器的输出加权求和,得到最终的预测结果。
总结以上我们介绍了两种常见的集成学习算法在回归问题中的应用。
基于Bagging的聚类集成方法

En e b ecuse i eh db s do g i s m l l trngm t o a e nBa gng
L h n IS a , ZHANG a xa g Hu - in
(co l fnomai c n e n n i e n ,S ad n r a U iesy ia 50 4 hn ) Sh o lfr t nSi c dE g er g h n o g o o e a n i Nom l nvr t,J n20 1 ,C i i n a
t e i u e c u tr g Th x e me t n UCI c i ela n n e c m a k d t e s h w a i me h d b R ri r v e h m p t o n w l se n . s t i ee p r i ns o ma h n r i gb n h r a s t o t t h s t o e e e a s h t mp o et h cu t r gp ro a c . l se n e f r n e i m Ke r s cu trn ; s b s mp e k me s l se n ; c mp n n a n r mu u l n o mai n y wo d : l s i g e u — a l ; — a u tr g n c i o o e te r e; l t a f r t ; i o
Ab t a t A g i g b s d e s mb emeh d s gan w aas mp i gt c n l g e pt e i e s y a dc r eai no b s mp e s r c : Ba gn a e n e l t o s i e d t u n a l h o o y t k e v ri n o r l t f u — a l n e o h d t o s i r p s d a dt e o o e t e r e e e ae yu i ga r v dK- a s l o t m, t e i e e t l s rn s l f a s t s o o e , n nc mp n n a r s n r tdb s i p h l n ig n n mp o e me g r h n a i h f r n u ti gr u t o d t e d c e e s a
集成学习中的Bagging算法优化实现

集成学习中的Bagging算法优化实现集成学习是一种机器学习领域的方法,它通过将多个弱分类器结合起来形成一个强分类器来提高预测准确性和稳定性。
Bagging 算法是集成学习中最受欢迎的方法之一,它通过对数据集进行有放回采样,构建多个子数据集,然后基于每个子数据集构建多个弱分类器,并通过投票的方式集成这些弱分类器的结果来提高分类效果。
本文主要讨论Bagging算法的优化实现方法。
一、Bagging算法的基本实现方法在介绍优化实现方法之前,我们首先来复习一下Bagging算法的基本实现方法。
Bagging算法的主要思路是通过构建多个子数据集和多个弱分类器来提高整体分类准确性和稳定性。
具体实现步骤如下:1. 对原始数据集进行有放回的随机采样,构建多个子数据集。
2. 对于每个子数据集,使用相同的算法来训练一个弱分类器。
3. 对于每个弱分类器,使用不同的随机样本对其进行评估,以降低过拟合的可能性。
4. 对于新的数据集,将每个弱分类器的预测结果进行合并,通过投票的方式来得到最终的分类结果。
这就是Bagging算法的基本实现方法。
然而,这个算法还存在一些问题,需要优化实现才能达到更好的效果。
二、Bagging算法的优化实现方法1. 随机选择特征Bagging算法会对原始数据集进行随机有放回采样,采样得到的数据集和原始数据集的样本数量相同,但是样本可能存在重复。
因此,在训练每一个弱分类器时,我们需要在特征上进行随机选择。
这样可以使得每个弱分类器都能够挖掘到数据集的不同方面,从而提高整体分类准确度和鲁棒性。
2. 加强弱分类器之间的差异化Bagging算法在构造每个弱分类器时采用相同的算法,而且使用了相同的样本。
因此,每个弱分类器之间的差异性可能不够大,这有可能限制了Bagging算法的性能。
为了加强弱分类器之间的差异化,我们可以使用不同的算法或者不同的参数来构建弱分类器,这样可以使得弱分类器之间的差异性更大,提高整体分类效果。
baggin算法

baggin算法Bagging算法是一种常用的集成学习方法,它通过组合多个弱学习器的预测结果来获得更准确的分类或回归结果。
在本文中,我们将详细介绍Bagging算法的原理、应用场景以及优缺点。
一、Bagging算法的原理Bagging算法的全称是Bootstrap aggregating,它的核心思想是通过有放回地从原始训练集中采样得到多个子训练集,然后使用这些子训练集分别训练出多个基学习器。
最后,通过对这些基学习器的预测结果进行投票(分类问题)或求平均(回归问题)来得到最终的预测结果。
具体来说,Bagging算法的步骤如下:1. 从原始训练集中有放回地进行采样,得到多个子训练集;2. 使用这些子训练集分别训练出多个基学习器;3. 对于分类问题,通过投票的方式确定最终的预测结果;对于回归问题,通过求平均的方式确定最终的预测结果。
二、Bagging算法的应用场景Bagging算法可以广泛应用于分类和回归问题。
对于分类问题,Bagging算法可以用于构建一个强大的分类器,从而提高分类的准确率;对于回归问题,Bagging算法可以用于构建一个强大的回归模型,从而提高回归的精度。
在实际应用中,Bagging算法常常与决策树作为基学习器相结合,形成Bagging决策树模型。
因为决策树具有易于理解和解释的特点,并且在处理复杂问题时能够取得不错的效果。
通过Bagging算法,可以进一步提升决策树的性能,使其更加稳定和准确。
三、Bagging算法的优缺点Bagging算法具有以下优点:1. Bagging算法能够降低模型的方差,提高模型的稳定性;2. Bagging算法能够有效地利用原始训练集,提高模型的泛化能力;3. Bagging算法简单易实现,不需要过多的参数调整。
然而,Bagging算法也存在一些缺点:1. Bagging算法无法降低模型的偏差,因此如果基学习器本身存在较大偏差,Bagging算法并不能完全解决这个问题;2. Bagging算法的训练过程需要进行多次采样和模型训练,因此计算复杂度较高。
多机器学习算法的集成方法及优化策略

多机器学习算法的集成方法及优化策略随着机器学习的迅速发展,研究者们发现单一的机器学习算法往往难以完全满足复杂问题的需求。
为了提高模型性能,减少过拟合和提高泛化能力,集成学习方法被提出并得到广泛应用。
多机器学习算法的集成方法将多个不同的机器学习算法的结果进行整合,通过合理的权衡和协同,获得更好的分类或回归结果。
本文将介绍几种常见的多机器学习算法集成方法及其优化策略。
首先,我们来介绍一种最简单且常用的集成方法——投票法。
投票法通过将多个机器学习算法的预测结果进行投票,然后根据获得最高投票数的类别作为最终结果。
这种方法适用于分类问题,并且能够有效减少单个算法的偏差。
然而,投票法并不能充分利用各个算法的预测结果潜在的信息。
为了解决这个问题,另一种集成方法被提出,称为平均法。
平均法将各个算法的预测结果进行平均,得到最终的分类或回归结果。
这种方法适用于连续型变量预测,能够减少单个算法的方差。
在平均法的基础上,还有一种改进方法称为加权平均法。
加权平均法给每个算法的预测结果赋予不同的权重,然后将它们进行加权平均。
这种方法可以根据算法的性能调整权重,从而提高整个集成算法的性能。
其中,常见的权重调整方法有基于预测准确率、基于学习模型性能或训练样本分布来分配权重。
另一个常用的集成方法是基于Bagging的方法。
Bagging方法通过有放回地从原始训练集中随机抽取一定数量的样本,然后利用这些抽样集训练多个算法模型。
最终的结果通过对所有算法模型的预测结果进行平均或投票得到。
Bagging方法能够有效降低方差,提高分类或回归模型的性能。
除了Bagging方法,还有一种基于Boosting的集成方法。
Boosting方法通过逐步迭代的方式训练一系列弱学习器,每个弱学习器都专注于修复上一轮迭代中错误分类的样本。
最终的结果通过对所有弱学习器的预测结果进行加权求和得到。
这种方法能够逐步提升模型的性能,但也容易过拟合。
因此,常常需要设置合适的停止条件来避免过拟合。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
法的提出,其中集成学习的方法受到研究者的极大关注。集 成学习一般分为两步, 即个体生成阶段和个体结合阶段。 在本文的个体生成阶段, 考虑到 Bagging 算法采用的重采 样技术,每次从数据集中随机的抽取一定数量的样本构成子 数据集, 这样有些样本可能会被抽取多次, 而有些样本可能一 次也不会被抽取到。为了保证每个样本至少在子数据集中出 现一次, 本文首先将给定的数据集 ( × ) 随机划分为 等份, 构成 个样本子集 { },=1,…, 。 其中 是数据集的样例个数, 并且 < , 即保证每个子集中的样例个数多于一个。 经过最初 的划分之后应满足 =
李杉,张化祥:基于 Bagging 的聚类集成方法
每个对象初始地代表一个簇的平均值或中心, 地选择 个对象, 对剩余的每个对象, 根据其与各个簇中心的距离, 将它赋给最 近的簇。然后重新计算每个簇的平均值,把对象赋给最相似 的某个簇。 重复该过程, 直到簇中的对象都是 “相似的” , 而不 同簇间的对象都是 “相异的” 。 当样本数据是密集的, 且类与类之间区别特别好的时候, K-means 算法的效果较好。但是,K-means 算法经常以局部最 优结束, 不能动态的添加新的聚类, 这都是该算法存在的缺点。
Abstract:A Bagging-based ensemble methods using a new data sampling technology to keep the diversity and correlation of sub-sample is proposed, and then component learner is generated by using an improved K-means algorithm, the different clustering results of dataset is deal with according to mutual information, finally the distance between disputable object and the clustering center is computed and them is put to new clustering. The experiments on UCI machine learning benchmark data sets show that this method better improve the clustering performance. Key words:clustering; sub-sample; k-means clustering; component learner; mutual information;
0
引
言
习算法中, Bagging 算法是较具代表性的一种, 该算法的理论 基础是通过可重复取样技术得到不同的数据子集,使得在不 同数据子集上得到的个体学习器具有较高的泛化能力。Bagging 算法从原始训练集中随即抽若干样例来训练模型,采取 投票的方式来预测类标,取多个预测类标中出现次数最多的 类标为该样例的最终类标。 Zhou 等人 [3] 提出了 “选择性聚类集 成” 的概念, 证明选择部分个体学习器来构建集成性能优于选 择所有个体学习器来构建集成 [4]。 本文提出了一种基于 Bagging 的聚类集成方法, 该方法首 先将原始数据集等量划分, 再利用 Bagging 算法中的可重复取 样技术对原始的数据集进行随机抽取并将其分配到各子集中, 应用一种改进的 K 均值算法在这些数据集上生成个体学习 器; 然后引入互信息[5] 的概念将多个聚类结果进行处理; 最后, 对有争议的数据对象计算其与聚类中心的距离,将其重新划 分到新的聚类结果中。
… 。 (3) 计算每个数据对象与其它数据对象的余弦距离, 并根 (4) 根据簇中数据对象的加权平均值, 将每个对象赋予新
据平均值大小赋予权值。 的簇。 (5) 更新权值, 即重新计算新簇中每个数据对象的加权平 均值。 (6) 如果聚类中心不再改变, 则终止, 否则转向步骤 (3)。
= log 和簇
2
2
… }
式中:
1
——对第一个数据子集的聚类结果, 1 ——该聚类
结果的第一个簇, 依次类推, ——第 个数据子集的聚类结 果, ——第 个聚类结果的第 个簇。因为每个数据子集中 的样本大部分是通过重采样技术得到, 因此 = {(
1
, 2…
)
(
1
, 2…
)
1
, 2…
}
(2)
为该数据集所有数据对象的集合。由式 (1)(2) 可以看出 个聚类结果的并集可以代表原数据集 。 为例, 由于每个训练子集 的选取采用了重采样技术, 所以对于聚类结果 { 1 , 2 … } 和 对于每个训练子集, 以 …
1 2
和
{ 1,
2
} 簇中的数据对象而言必定存在交集。不妨以
1
的簇为基准, 在剩余的样本子集中, 根据每个聚类结果的簇与
1
中的簇的相关度进行比较, 寻找不同聚类结果中关联度最 在本文中, 为了提高搜索相关度最大的簇的效率, 引入了
大的簇。 互信息的概念,互信息是信息论中作为衡量两个信号关联程 度的一种尺度 [8],后来引申为描述两个变量间关联程度的度 量。本文中设 , 为簇 , 式中: , 表明簇 、 和 的互信息, 则 , + (3) 中 出现 数据 对象的 个数 , , 越小,
2010,31 (1)
数大于原始数据集的样例个数, 由此得到新的样本集 {
165
}。
在本文中, 由于先对原始数据集进行等量随机划分, 后又 通过重采样技术对数据集 随机抽取等量的样例分配各个数 据子集中, 所以新的样本集 { } 不但能够代表原始的数据集 , 而且保持了各个数据子集的差异性和最大的相关性。 在个体结合阶段, 将原始数据集进行划分后, 对每个数据 子集用改进的 均值算法进行聚类, 假设得到 个聚类结果为
164
2010,31 (1)
计算机工程与设计 计算机工程与设计 Computer ComputerEngineering Engineeringand andDesign Design
人工智能
基于 Bagging 的聚类集成方法
李
摘
杉, 张化祥
( 山东师范大学 信息科学与工程学院,山东 济南 250014)
——簇 和簇
——在簇 和簇
同时出现的数据对象的个数。当 的关联程度强; 当
, 值越大, 表明簇
和簇
的关联程度弱。
2
基于 Bagging 的聚类集成方法
为了提高学习器的泛化能力, 进年来有若干新理论和方
在该聚类算法中,以第一个聚类结果中的第一个簇 1 为 基准, 根据式 (3), 分别在聚类结果 2 , 3 … 中分别寻找相关 度最大的簇, 依次类推, 直到第一个聚类结果 中的每一簇在 剩余的聚类结果中都找到相关度最大的簇为止。 并将式 (1) 进
[2] [1]
1
1.1
基聚类算法介绍
k 均值算法
K-means 算法是一个著名的聚类学习算法 [6]。首先, 随机
收稿日期:2009-01-15;修订日期:2009-10-19。 基金项目:山东省中青年科学家科研奖励基金项目 (2006BS01020);山东省高新技术自主创新工程专项计划基金项目 (2007ZZ17);山东省自然 科学基金项目 (Y2007G16);山东省科技攻关计划基金项目 (2008GG10001015);山东省教育厅科技计划基金项目 (J07YJ04)。 作者简介:李杉 (1984-),女,山东济南人,硕士研究生,研究方向为人工智能、机器学习; 张化祥 (1967-),男,山东济南人,教授,硕士 生导师,研究方向为人工智能、机器学习、数据挖掘。E-mail:lishan0529@
1 2
1.2
改进的 k 均值算法
基于传统 k 均值算法存在的缺陷,我们在改进的 k 均值
= { 1, 2 … = { 1 , 2… = { 1,
} } (1)
算法中引入了加权的概念 [7], 基本思想是: 由于每个数据对象 对聚类效果的影响不同,所以对每个数据对象赋予一定的权 重, 首先计算每个数据对象与其它数据对象的余弦距离, 然后 计算其平均值, 平均值越大, 该数据对象为孤立点的可能性就 越大, 因此, 对该数据对象赋予较小的权值, 对于平均值较小 的数据对象, 赋予较大的权值, 以便使其更加接近数据中心。 将簇中的每个数据对象计算加权平均值后,将数据库中的每 个数据对象赋给最类似的簇, 重复此操作, 直到平方误差的总 和达到满意值为止。 算法步骤为: 算法: 改进的 k 均值算法。 输入: 簇的数目 k 和 n 个数据对象。 输出: k 个簇, 使其平方误差总和最小。 步骤: (1) 选取聚类个数 k。 (2) 从数据集中任意选定 k 个向量作为初始聚类中心:1,
1 2
行调整, 使得每个聚类结果的相关度最大的簇一一对应。 最后 把 每个 聚 类 结果 的 每 一簇 与 其相 关 度 最大 的 簇合 并, 形成一个新的聚类结果 = { 1 , 2… }
1 2
= = =
1 2
1 2
… … …Leabharlann 1 2…。
对于存在于多个簇的有争议的数据对象和仍没有被聚类 的数据对象, 采取选择最优簇的思想, 即假设对某一对象 , 计 算它与其所在的每个簇的聚类中心 间的欧式距离, 根据计算 结果将它分配给最近的簇。
要: 提出一种基于 Bagging 的集成聚类方法 , 采 用一种新的数据 集采样技术生成 数据子集, 尽可能的 保持了子样本 的多 样性 和最大相关性, 然后应用一 种改进的 k 均值聚类算法生 成个体学习器, 根据互信息 对数据集的不同 聚类结果进行处 理, 最后 通过计算有争议 的数据对象与 各个聚类中心的 距离将其重新 划分到新的聚类 结果中。 在多 个 UCI 标 准数据集上的 实验 结果 表明, 该方法能 有效改善聚类质 量。 关键 词 : 聚类 ; 子样 本 ; k 均值聚 类 ; 个体学习器 ; 互信息 中图 法分类号 : TP18 文献标 识码 : A 文 章编号 : 1000-7024 (2010) 01-0164-03