基于k最相似聚类的子空间聚类算法(精)

合集下载

《基于DBSCAN和相似度的子空间聚类算法研究》范文

《基于DBSCAN和相似度的子空间聚类算法研究》范文

《基于DBSCAN和相似度的子空间聚类算法研究》篇一一、引言随着数据科学的迅速发展,如何对海量数据进行有效、准确、高效的处理已经成为科研和应用领域的核心问题。

子空间聚类算法作为一种重要的数据处理手段,在许多领域如图像处理、生物信息学、社交网络分析等得到了广泛应用。

本文将重点研究基于DBSCAN(基于密度的带有噪声的空间聚类)和相似度的子空间聚类算法,探讨其原理、应用及优势。

二、DBSCAN算法概述DBSCAN是一种基于密度的聚类算法,其核心思想是将具有足够高密度的区域划分为簇,并在这些簇中提取出特定的结构信息。

该算法通过扫描数据库中的每个点,根据给定的半径ε(称为邻域距离)和最小点数目MinPts(成为邻域中最小点数),来判断并聚类各点。

此算法不仅可以对簇内具有紧密度的数据进行有效聚类,同时还能识别出噪声点。

三、基于相似度的子空间聚类子空间聚类是针对多维数据的一种聚类方法,其基本思想是在数据空间的子集中进行聚类。

相似度度量是子空间聚类中非常重要的一个环节,其能够反映数据点之间的紧密程度。

基于相似度的子空间聚类算法主要通过对数据进行预处理,如特征选择、降维等,然后在选定子空间上计算数据点间的相似度,并依据相似度进行聚类。

四、DBSCAN与相似度结合的子空间聚类算法结合DBSCAN的密度信息和相似度度量,可以开发出一种新型的子空间聚类算法。

首先,我们利用DBSCAN在数据集上进行初步的密度划分和噪声识别,以得到数据的基本结构和大致的聚类方向。

其次,我们利用相似度度量在选定的子空间上对数据进行进一步的细分和聚类。

这种结合了DBSCAN的密度信息和相似度度量的子空间聚类算法,能够更准确地反映数据的内在结构,同时提高聚类的效率和准确性。

五、算法应用与优势该算法在多个领域都有广泛的应用前景。

例如,在图像处理中,可以利用该算法对图像进行特征提取和子空间聚类,以实现图像的自动分类和识别;在生物信息学中,可以利用该算法对基因表达数据进行子空间聚类,以发现基因之间的相互作用关系;在社交网络分析中,可以利用该算法对用户行为进行聚类分析,以理解用户的兴趣和行为模式。

k临近值算法

k临近值算法

k临近值算法
K值近邻算法
K值近邻算法(K-Nearest Neighbor Algorithm)是一种最简单的机器学习算法,它基于定义的实例空间和类标签,并且基于最近邻算法做出预测。

算法的工作原理是:存在一个样本数据集合,也称作训练样本集,并且每个样本都存在标签,即我们知道样本集中每一个数据与所属分类的对应关系。

输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似数据(最近邻)的分类标签。

一般来说,我们只选择样本数据集中前k个最相似的数据,这就是k-近邻算法中k的出处,通常k是不大于20的整数。

最后,选择k个最相似数据中出现次数最多的分类,作为新数据的分类。

K值近邻算法的优点:
1)简单易懂:K近邻算法最大的优点就是它的简单易懂,无需训练,使用直观易懂,而且比较容易理解;
2)精度高:虽然K近邻算法最大的优点就是简单易懂,但是它的精度却一般可达到90%以上;
3)误差低:K近邻算法仅仅比较最邻近的几个样本,所以它的误差也比较低。

K值近邻算法的缺点:
1)计算量大:K近邻算法需要计算每个样本到其他样本的距离,所以它的计算量比较大,当样本数量增多时,计算量会急剧增加;
2)空间复杂度大:K近邻算法需要保存样本集,所以它的空间复杂度也比较高;
3)容易受外界干扰:样本不平衡时,K近邻算法容易受到外界干扰,这就是所谓的维数灾难。

《2024年基于DBSCAN和相似度的子空间聚类算法研究》范文

《2024年基于DBSCAN和相似度的子空间聚类算法研究》范文

《基于DBSCAN和相似度的子空间聚类算法研究》篇一一、引言随着数据科学的迅速发展,大数据分析已经变得越来越重要。

传统的聚类算法主要集中于特征空间中的点,而子空间聚类则提供了在多维数据集中更细粒度的理解。

DBSCAN(基于密度的带噪声空间聚类)算法以及基于相似度的聚类算法,各自有其优势和局限。

因此,本研究提出了一种结合DBSCAN和相似度的子空间聚类算法,以提升数据处理的准确性和效率。

二、相关研究回顾2.1 DBSCAN算法DBSCAN是一种基于密度的聚类算法,它通过寻找高密度区域并扩展这些区域以形成聚类。

这种算法能够有效地处理噪声数据,且在形状复杂的聚类中表现良好。

然而,在处理大型数据集时,DBSCAN的效率可能受到挑战。

2.2 相似度聚类算法相似度聚类算法主要依据数据点之间的相似性进行聚类。

这种方法可以有效地处理具有复杂关系的子空间数据。

然而,相似度计算可能会受到数据维度的干扰,对于高维数据,相似度计算可能变得困难且计算成本高昂。

三、基于DBSCAN和相似度的子空间聚类算法本研究提出的算法结合了DBSCAN的密度感知特性和相似度聚类的子空间分析优势。

算法的主要步骤如下:3.1 数据预处理首先,对数据进行预处理,包括特征选择、数据清洗和标准化等步骤。

这一步的目的是为了确保数据的准确性和一致性。

3.2 子空间划分根据数据的特征和关系,将数据划分为不同的子空间。

这一步有助于我们更好地理解和处理数据的结构。

3.3 基于DBSCAN的子空间聚类在每个子空间中,应用DBSCAN算法进行聚类。

这可以帮助我们识别出各个子空间中的高密度区域,从而更好地理解数据的分布情况。

3.4 相似度分析在每个子空间中,计算各数据点之间的相似度。

这可以帮助我们识别出具有相似特征的数据点,并进一步分析它们之间的关系。

3.5 合并与优化根据子空间的聚类结果和相似度分析结果,合并或调整子空间中的聚类,以达到最优的聚类效果。

四、实验与结果分析本部分详细介绍了我们的实验设计和实验结果分析。

聚类分析及k-means算法

聚类分析及k-means算法
斜交空间距离
相似系数
相似系数表示作为对 象的两个分类单位 (所进行的分类单位) 间相似程度的指标。
相似系数通常介于0 cij 和1 之间,相似系数等 于1 ,说明两个样品完 全相同;相似系数等 于0,说明样品完全不 同。
n
t 1
xti
xi
xtj
xj
n
2
t1 xti xi
2
n
t1 xtj x j
K-means算法的编程实现
应用: 用k-means算法对20个在[0,100]的
随机数分成三类。
1. 调用matlab代码k-means 调用格式:[distance,index]=kmeans(x,k) 2.编写k-means代码
建模比赛中聚类方法运用
1989年国际赛B题 蠓虫的分类
2011年东北三省数学建模联赛C 测井曲线自动分层问题
举例应用
中国男足近几年到底在亚洲处于几流水平?下 图是采集的亚洲15只球队在2005年-2010年间大 型杯赛的战绩
对数据做了如下预处理:对于世界杯,进入决赛 圈则取其最终排名,没有进入决赛圈的,打入预 选赛十强赛赋予40,预选赛小组未出线的赋予50。 对于亚洲杯,前四名取其排名,八强赋予5,十六 强赋予9,预选赛没出现的赋予17。这样做是为了 使得所有数据变为标量,便于后续聚类。
聚类分析常用方法
1. 直接聚类法 2. 有序样品聚类法 3. 模糊聚类法 4. K-means聚类法 5. 系统聚类法 6. 图论聚类法
直接聚类法
先把各个分类对象单独视为一类,然后根据距 离最小的原则,依次选出一对分类对象,并成 新类。如果其中一个分类对象已归于一类,则 把另一个也归入该类;如果一对分类对象正好 属于已归的两类,则把这两类并为一类。每一 次归并,都划去该对象所在的列与列序相同的 行。经过m-1次就可以把全部分类对象归为一 类,这样就可以根据归并的先后顺序作出聚类 谱系图。

《2024年基于DBSCAN和相似度的子空间聚类算法研究》范文

《2024年基于DBSCAN和相似度的子空间聚类算法研究》范文

《基于DBSCAN和相似度的子空间聚类算法研究》篇一一、引言随着大数据时代的到来,数据的规模和复杂性不断增长,如何有效地对高维数据进行聚类成为了数据挖掘和机器学习领域的重要研究课题。

传统的聚类算法如K-means等在处理复杂数据时常常遇到维度灾难和空间分布不均等问题。

为了解决这些问题,本文提出了一种基于DBSCAN和相似度的子空间聚类算法,旨在提高聚类的准确性和效率。

二、相关研究背景DBSCAN(Density-Based Spatial Clustering of Applications with Noise)是一种基于密度的聚类算法,它能够发现任意形状的聚类并能够识别噪声数据。

在过去的几年里,DBSCAN已被广泛应用于各种数据挖掘和机器学习任务中。

然而,对于高维数据的处理,DBSCAN的效率和准确性仍有待提高。

三、算法原理本文提出的算法结合了DBSCAN的密度聚类思想和基于相似度的子空间划分策略。

首先,算法通过计算数据点之间的相似度,将数据划分为多个子空间。

然后,在每个子空间中应用DBSCAN 算法进行密度聚类。

通过这种方式,算法可以更好地处理高维数据中的复杂结构,并提高聚类的准确性。

四、算法实现1. 相似度计算:在算法的初始阶段,我们首先计算数据点之间的相似度。

相似度的计算可以采用多种方法,如欧氏距离、余弦相似度等。

通过相似度计算,我们可以将数据划分为多个子空间。

2. 子空间划分:根据相似度计算结果,将数据划分为若干个子空间。

子空间的划分可以采用多种策略,如基于k近邻图的划分等。

子空间的划分应该考虑到数据的分布和结构特点,以便在后续的聚类过程中能够更好地发现数据的内在规律。

3. DBSCAN聚类:在每个子空间中应用DBSCAN算法进行密度聚类。

在聚类过程中,算法会根据密度阈值将相似的数据点归为一类,并能够识别噪声数据。

通过这种方式,算法可以更好地处理高维数据中的复杂结构,并提高聚类的准确性。

基于k最相似聚类的子空间聚类算法

基于k最相似聚类的子空间聚类算法

基于k最相似聚类的子空间聚类算法
单世民;闫妍;张宪超
【期刊名称】《计算机工程》
【年(卷),期】2009(035)014
【摘要】子空间聚类是聚类研究领域的一个重要分支和研究热点,用于解决高维聚类分析面临的数据稀疏问题.提出一种基于k最相似聚类的子空间聚类算法.该算法使用一种聚类间相似度度量方法保留k最相似聚类,在不同子空间上采用不同局部密度阈值,通过k最相似聚类确定子空间搜索方向.将处理的数据类型扩展到连续型和分类型,可以有效处理高维数据聚类问题.实验结果证明,与CLIQUE和SUBCLU 相比,该算法具有更好的聚类效果.
【总页数】3页(P4-6)
【作者】单世民;闫妍;张宪超
【作者单位】大连理工大学软件学院,大连,116621;大连理工大学软件学院,大连,116621;大连理工大学软件学院,大连,116621
【正文语种】中文
【中图分类】TP311
【相关文献】
1.高维空间基于样式相似性的最大子空间聚类 [J], 卢炎生;胡蓉;邹磊;周翀
2.一种基于相似维的高维子空间聚类算法 [J], 陈铭;吉根林
3.基于k-近邻与局部相似度的稀疏子空间聚类 [J], 郑毅; 马盈仓; 杨小飞; 续秋霞
4.基于稀疏子空间聚类的文本谱聚类算法研究 [J], 原虹
5.基于子空间聚类算法的时空轨迹聚类 [J], 马林兵;李鹏
因版权原因,仅展示原文概要,查看原文内容请购买。

子空间聚类算法解析

子空间聚类算法解析子空间聚类算法是一种用于处理高维数据的聚类方法。

高维数据是指具有大量特征的数据,对于传统的聚类算法而言,高维数据会面临维度灾难的问题,即随着特征维度的增加,数据之间的距离会愈发稀疏,聚类效果会受到严重影响。

为了解决这个问题,子空间聚类算法引入了子空间的概念,将高维数据投影到低维子空间中进行聚类,从而降低维度灾难的影响。

子空间聚类算法主要包括两个步骤:子空间构建和聚类划分。

首先,需要构建表示数据的子空间,一般可以通过主成分分析(PCA)、因子分析等方法得到数据的主要特征子空间。

然后将数据投影到这些子空间中,得到降低维度后的数据表示。

接着,在降维后的子空间中进行聚类划分,可以使用传统的聚类算法,如k-means、DBSCAN等。

1.子空间聚类算法有较好的鲁棒性。

由于数据在子空间中被降维处理,可以过滤掉噪声和冗余特征,提高聚类的准确性和鲁棒性。

2.子空间聚类算法能够发现数据的局部和全局结构。

通过将数据投影到不同的子空间中,可以捕捉到数据在不同维度上的局部和全局结构信息。

3.子空间聚类算法能够处理特征选择问题。

由于高维数据可能存在大量冗余特征,通过子空间聚类算法可以选择数据的主要特征子空间,减少特征数量,提高聚类效果。

4.子空间聚类算法具有较好的可解释性。

子空间聚类得到的结果可以转化为可视化的形式,便于理解和解释聚类结果。

然而,子空间聚类算法也存在一些挑战和限制:1.子空间聚类算法对子空间的选择较为敏感。

不同的子空间表示方法可能得到不同的聚类结果,选择合适的子空间表示方法是一个挑战。

2.子空间聚类算法可能会受到噪声和异常值的干扰。

由于子空间构建和降维过程中,可能存在噪声和异常值的影响,导致聚类结果不准确。

3.子空间聚类算法的计算复杂度较高。

由于需要进行降维和聚类操作,计算复杂度相对较高,需要较长的计算时间。

总结来说,子空间聚类算法是一种解决高维数据聚类问题的有效方法。

通过将数据投影到低维子空间中进行聚类,能够降低高维数据的维度灾难问题,提高聚类效果。

《2024年基于DBSCAN和相似度的子空间聚类算法研究》范文

《基于DBSCAN和相似度的子空间聚类算法研究》篇一一、引言随着大数据时代的到来,数据的处理和挖掘技术愈发显得重要。

在众多的数据挖掘算法中,聚类算法是其中的一个重要研究方向。

聚类是将一组无标签的观测对象或数据划分为几个类或子空间,使得同一子空间内的对象相似性较高,而不同子空间的对象相似性较低。

其中,DBSCAN算法和基于相似度的子空间聚类算法是两种常见的聚类方法。

本文将探讨基于DBSCAN和相似度的子空间聚类算法的研究。

二、DBSCAN算法概述DBSCAN(Density-Based Spatial Clustering of Applications with Noise)是一种基于密度的聚类算法。

该算法将具有足够高密度的区域划分为簇,并在这些簇中扩展出更多的簇。

DBSCAN算法的优点在于可以发现任意形状的簇,并且对于噪声数据有较好的处理能力。

然而,对于高维数据的处理,DBSCAN算法往往面临挑战,因为高维数据中存在“维数灾难”问题。

三、基于相似度的子空间聚类算法针对高维数据的处理问题,基于相似度的子空间聚类算法应运而生。

该算法首先通过计算不同子空间内的数据点之间的相似度来构建子空间内的相似度矩阵,然后根据该矩阵进行聚类。

该算法能够有效地处理高维数据中的“维数灾难”问题,同时可以捕捉到不同子空间内的数据关系。

然而,基于相似度的子空间聚类算法对于相似度度量方式的选取以及子空间的划分等问题的处理仍有待改进。

四、基于DBSCAN和相似度的子空间聚类算法研究为了解决上述问题,本文提出了一种基于DBSCAN和相似度的子空间聚类算法。

该算法首先利用DBSCAN算法对原始数据进行预处理,将数据划分为不同的簇或子空间。

然后,在每个子空间内计算数据点之间的相似度,构建相似度矩阵。

最后,根据相似度矩阵进行聚类分析。

具体而言,首先通过DBSCAN算法确定每个数据点的密度值和邻域关系,将具有高密度且密度相连的区域划分为簇或子空间。

聚类分割算法

聚类分割算法聚类分割算法是一类常用于将数据集划分成具有相似特征的子集的方法。

这些算法主要用于无监督学习,即在没有先验标签的情况下,自动发现数据集内在的模式。

以下是一些常见的聚类分割算法:1. K均值聚类(K-Means Clustering):- K均值是最常见的聚类算法之一。

它将数据集分为K个簇,每个簇由其质心表示。

算法的目标是使每个数据点到其所属簇的质心的距离最小化。

2. 层次聚类(Hierarchical Clustering):-层次聚类根据数据点之间的相似性构建树状结构。

可以通过聚合或分割来创建簇。

分为凝聚式层次聚类(自底向上)和分裂式层次聚类(自顶向下)。

3. DBSCAN(Density-Based Spatial Clustering of Applications with Noise):- DBSCAN基于密度的聚类算法,能够发现具有足够密度的区域,并将稀疏区域视为噪声。

它不需要预先指定簇的数量。

4. Mean Shift聚类:- Mean Shift是一种基于梯度上升的聚类算法。

它通过不断迭代调整数据点的位置,使其移向密度最大的区域,从而找到簇的中心。

5. OPTICS(Ordering Points To Identify the Clustering Structure):- OPTICS是一种基于密度的聚类算法,类似于DBSCAN,但允许在数据集中存在不同密度的区域,并通过产生一系列密度相关的点来表示簇。

6. 谱聚类(Spectral Clustering):-谱聚类利用数据集的谱信息,通过将数据投影到低维子空间来执行聚类。

它在处理非凸形状的簇和图分割问题时效果较好。

7. 模糊聚类(Fuzzy Clustering):-模糊聚类考虑了数据点与簇的隶属度,而不是将每个数据点硬性地分配到一个簇。

模糊c均值(FCM)是模糊聚类的一个典型算法。

这只是聚类分割算法的一小部分,每个算法都有其适用的场景和限制。

python基于空间相似度的K-means轨迹聚类的实现

python基于空间相似度的K-means轨迹聚类的实现这⾥分享⼀些轨迹聚类的基本⽅法,涉及轨迹距离的定义、kmeans聚类应⽤。

需要使⽤的python库如下import pandas as pdimport numpy as npimport randomimport osimport matplotlib.pyplot as pltimport seaborn as snsfrom scipy.spatial.distance import cdistfrom itertools import combinationsfrom joblib import Parallel, delayedfrom tqdm import tqdm数据读取假设数据是每⼀条轨迹⼀个excel⽂件,包括经纬度、速度、⽅向的航班数据。

我们从⽂件中读取该数据,保存在字典中。

获取数据的地址,假设在多个⽂件中def get_alldata_path(path):all_path = pd.DataFrame(columns=['path_root','path0','path1','path2','path','datalist'])path0 = os.listdir(path)for path_temp0 in path0:path1 = os.listdir(path+path_temp0)for path_temp1 in path1:path2 = os.listdir(path+path_temp0+'\\'+path_temp1)for path_temp2 in path2:path3 = os.listdir(path+path_temp0+'\\'+path_temp1+'\\'+path_temp2)all_path.loc[all_path.shape[0]] = [path,path_temp0,path_temp1,path_temp2,path+path_temp0+'\\'+path_temp1+'\\'+path_temp2+'\\',path3]return all_path这样你就可以得到你的数据的地址,⽅便后⾯读取需要的数据#设置数据根⽬录path = 'yourpath'#获取所有数据地址data_path = get_alldata_path(path)读取数据,保存成字典格式,字典的key是这条轨迹的名称,value值是⼀个DataFrame,需要包含经纬度信息。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
针对上述算法存在的问题,本文算法的主要工作集中在 以下 3 个方面:(1)采用一种聚类间相似度计算方法,通过其 确定 k 最相似聚类,缩小搜索空间,提高了算法可伸缩性和 执行效率;(2)在子空间聚类搜索过程中摒弃传统算法采用的 全局密度阈值,在不同子空间中采用不同密度阈值,提高了 子空间聚类算法聚类结果的精度;(3)将子空间聚类算法处理 的数据对象扩展为连续型数据和分类型数据。
(大连理工大学软件学院,大连 116621)
摘 要:子空间聚类是聚类研究领域的一个重要分支和研究热点,用于解决高维聚类分析面临的数据稀疏问题。提出一种基于 k 最相似聚 类的子空间聚类算法。该算法使用一种聚类间相似度度量方法保留 k 最相似聚类,在不同子空间上采用不同局部密度阈值,通过 k 最相似 聚类确定子空间搜索方向。将处理的数据类型扩展到连续型和分类型,可以有效处理高维数据聚类问题。实验结果证明,与 CLIQUE 和 SUBCLU 相比,该算法具有更好的聚类效果。 关键词:聚类算法;子空间聚类;高维数据
1 概述
高维聚类分析是聚类分析的研究难点[1],具体表现为: (1)高维数据中存在大量无关属性,导致在全维空间中存在簇 的可能性几乎为零;(2)在高维空间中,数据间距几乎相等的 情况普遍存在。传统聚类算法在低维数据集上表现良好,但 在对高维数据对象聚类时会遇到困难。为解决上述问题,文 献[2]首先提出子空间聚类的概念。
CLIQUE 算法是最早且最具代表性的子空间聚类算法[3], 它搜索最大的密集超立方体,并以此为基础发现子空间聚类。 另一个具有代表性的算法 SUBCLU[4]具有更好的聚类精度, 它采用 DBSCAN 算法中的密度连通概念形成子空间聚类。以 上 2 个算法通过全局密度阈值确定子空间聚类,如果子空间 维数的不同,子空间密集程度也会不同。它们没有考虑数据 类型的多样性。用于分类型数据的聚类算法 ROCK[5]虽然取 得了较好的聚类结果,但全局方法的使用导致算法复杂度增加。
Subspace Cluar Clustering
SHAN Shi-min, YAN Yan, ZHANG Xian-chao
(School of Software, Dalian University of Technology, Dalian 116621)
本文以所有一维空间聚类为基础,通过发现包含相同数 据对象的相似聚类来确定子空间搜索方向,进而将不同维度 中的相似聚类进行合并,最终发现子空间聚类。
为了处理不同类型的数据,对于连续型数据,采用 DBSCAN 方法在每一维上对所有数据对象进行聚类。对于分 类数据,由于其自身的无序性特点,在每一维上将属性值相 同的数据对象作为一个自然聚类。
【Abstract】Subspace clustering is an important part and research hotspot in clustering research, which resolves the problem of clustering sparse data in high dimensional data environment. A subspace clustering algorithm based on k most similar clustering is presented. This algorithm holds the k most similar clustering by the similarity of the clusters, discovers the different subspace through the different local density threshold, ascertains the subspace search direction by the k most similar clustering and clusters both continuous data and categorical data. The high dimensional data can be effectively clustered in this algorithm. Experimental results show that this algorithm is more effective in clustering than CLIQUE and SUBCLU. 【Key words】clustering algorithm; subspace clustering; high dimensional data
设 k 维子空间 Sk ⊆ A,其中,k≤n。在 Sk 子空间中的元 组集合记做 TSk(xi1, xi2,…, xik)={Xi|Xi∈Sk, xij=Xi.Aj|j∈[1,k]}。将 Sk 子空间投影到每一维产生的不同元组的数目记为 πSk(DB)。 2.2 算法基本策略 2.2.1 算法策略及相关定义
2 问题描述及算法策略
2.1 问题描述 设 A=﹛A1,A2,…,Ad﹜代表数据维集合,A=A1×A2×…×Ad
代表一个 d 维数据空间,其中,d 为正整数。设 DB 代表由
n 个位于 d 维特征空间的数据对象组成的集合,记为 DB={Xi|i∈[1,n],xij=Xi.Aj},其中,点 Xi=(xi1,xi2,…,xij,…,xid), Xi 的第 j 个属性值 xij 为其在 Aj 维上的取值。
第 35 卷 第 14 期 Vol.35 No.14 ·博士论文·
计算机工程 Computer Engineering
文章编号:1000—3428(2009)14—0004—03
文献标识码:A
2009 年 7 月 July 2009
中图分类号:TP311
基于 k 最相似聚类的子空间聚类算法
单世民,闫 妍,张宪超
相关文档
最新文档