各种密度聚类算法
各种聚类算法的优缺点

各种聚类算法的优缺点在机器学习领域中,聚类(cluster)是最基本的无监督学习问题之一。
聚类算法是指把具有相似性质的数据对象分组的算法,被广泛应用于数据挖掘、模式识别等领域。
本文将介绍几种常见的聚类算法、它们的优缺点,并与之间做出比较。
一、K-Means聚类算法K-Means算法又称为K均值算法,是最为普及的一种聚类算法。
该算法通过将 n 个对象分到 k 个类的方法来使每个数据对象都与所属类的均值最为接近。
K-Means聚类算法有以下优缺点:优点:1.简单、易于实现。
2.计算速度快。
缺点:1.需要预先设定数据类别数量,且对初始化比较敏感。
2.数据集分布不均匀或聚类类别的数量差别较大时,聚类效果较差。
二、层次聚类算法层次聚类算法是一种基于树形结构的聚类方法,可以得到不同类别的层次结构。
该算法的核心思想就是通过计算每个数据对象间的距离并逐步将他们聚合成层次结构。
层次聚类算法的优缺点如下:优点:1.可以帮助我们发现数据对象之间的内部关系和层次结构。
2.不需要预先设定聚类类别数量。
缺点:1.计算复杂度较高,不适合大规模数据集。
2.聚类的结果可能会很大,难以在可视化方面得到较好的展示效果。
三、DBSCAN聚类算法DBSCAN是基于密度的聚类算法。
该算法将具有密度连接的数据点视为一组,并且可以在其它密度较低的区域中选择单个数据点。
DBSCAN聚类算法的优缺点如下:优点:1.不需要预设聚类类别数量。
2.能够发现任意形态的聚类。
缺点:1.初始化比较敏感,对参数设置等因素较为敏感。
2.难以解决密度分布不均一、噪音点分布不规律的问题。
四、BIRCH聚类算法BIRCH算法是基于描述的聚类方法,是聚类中的层次算法。
BIRCH的全称是Balanced Iterative Reducing and Clustering using Hierarchies,它采用一种合并聚类方式,通过类的层次结构来简化聚类过程。
BIRCH聚类算法的优缺点如下:优点:1.该算法能够处理海量数据。
常见的六大聚类算法

常见的六大聚类算法六大常见的聚类算法包括K-means聚类算法、层次聚类算法、DBSCAN 算法、OPTICS算法、谱聚类算法和高斯混合模型聚类算法。
1. K-means聚类算法:K-means聚类算法是一种基于距离的聚类算法,它通过最小化数据点与聚类中心之间的欧氏距离来划分数据点。
算法的步骤如下:a.随机选择K个聚类中心。
b.将每个数据点分配到距离最近的聚类中心。
c.更新聚类中心为选定聚类的平均值。
d.重复步骤b和c直到聚类中心不再改变或达到最大迭代次数。
2.层次聚类算法:层次聚类算法是一种自底向上或自顶向下递归地将数据划分成不同的聚类的方法。
它通过计算数据点之间的距离或相似度来判断它们是否应该被合并到同一个聚类中。
算法的步骤如下:a.初始化每个数据点为一个单独的聚类。
b.计算两个最近的聚类之间的距离或相似度。
c.合并两个最近的聚类,形成一个新的聚类。
d.重复步骤b和c直到所有数据点都被合并到一个聚类中。
3.DBSCAN算法:DBSCAN(Density-Based Spatial Clustering of Applicationswith Noise)算法是一种基于密度的聚类算法,它通过寻找具有足够密度的数据点来划分聚类。
算法的步骤如下:a.随机选择一个未被访问的数据点。
b.如果该数据点的密度达到预设的阈值,则将其归为一个聚类,同时将其相邻且密度达到阈值的数据点添加到聚类中。
c.重复步骤a和b直到所有数据点都被访问。
4.OPTICS算法:OPTICS(Ordering Points To Identify the Clustering Structure)算法是一种基于密度的聚类算法,它通过将数据点按照密度排序来划分聚类。
算法的步骤如下:a.计算每个数据点的可达距离和局部可达密度。
b.根据可达距离和局部可达密度排序所有数据点。
c.根据可达距离和阈值划分聚类。
d.重复步骤b和c直到所有数据点都被访问。
各种密度聚类算法

一,什么是聚类?聚类: - 将一个对象的集合分割成几个类,每个类内的对象之间是相似的,但与其他类的对象是不相似的。
评判聚类好坏的标准: 1 ,能够适用于大数据量。
2 ,能应付不同的数据类型。
3 ,能够发现不同类型的聚类。
4 ,使对专业知识的要求降到最低。
5 ,能应付脏数据。
6 ,对于数据不同的顺序不敏感。
7 ,能应付很多类型的数据。
8 ,模型可解释,可使用。
二,聚类所基于的数据类型。
聚类算法通常基于“数据矩阵”和“ Dissimilarity矩阵”。
怎么样计算不同对象之间的距离?1 ,数值连续的变量(体重,身高等):度量单位的选取对于聚类的结果的很重要的。
例如将身高的单位从米变为尺,将体重的单位从公斤变为磅将对聚类的结果产生很大的影响。
为了避免出现这种情况,我们必须将数据标准化:将数据中的单位“去掉”。
A, 计算绝对背离度。
B, 计算标准量度。
下面我们考虑怎样来计算两个对象之间的差异。
1 ,欧几里得距离。
2 ,曼哈顿距离。
这两种算法有共同之处: d(i,j)>=0,d(i,i)=0,d(i,j)=d(j,i),d(i,j)=<d(i,h)+d(h,j) 。
3 , Minkowski 距离。
这是上述两种算法的通式。
并且对于不同的变量,我们可以给它赋于不同的 weight.2 ,二元数据变量:如果还是用上面的方法来计算的话,肯定会出现错误。
这儿分两种情况,对称的与非对称的。
3 , Nominal 变量: ( 例如红,黄,绿,蓝….)4 , ordinal 变量(例如科长,处长,局长…. )5 , ratio-scaled 变量:6, 以上几种混合的变量(多数情况是这样的):三,分割的的方法。
1,K 均值算法:给定类的个数 K ,将 n 个对象分到 K 个类中去,使得类内对象之间的相似性最大,而类之间的相似性最小。
缺点:产生类的大小相差不会很大,对于脏数据很敏感。
改进的算法: k—medoids 方法。
密度聚类算法详解课件

04
密度聚类算法在数据挖掘中的应用 场景
在图像分类中的应用
01
总结词
密度聚类算法在图像分类中能够有效地识别和区分不同类别的图像。
02
详细描述
通过构建像素之间的相似性矩阵,密度聚类算法可以发现图像中的密集
区域和稀疏区域,从而将不同的图像分为不同的类别。
03
应用案例
DBSCAN算法可以用于图像分类,例如在人脸识别、物体识别等应用中
密度聚类算法详解课件
目录
CONTENTS
• 密度聚类算法概述 • DBSCAN算法详解 • DENCLUE算法详解 • 密度聚类算法在数据挖掘中的应用场景 • 密度聚类算法的优缺点及未来发展趋势
01
密度聚类算法概述
定义与背景
定义
密度聚类算法是一种基于数据密 度的聚类方法,通过搜索数据空 间中的密集区域来发现聚类。
参数与优化策略
参数
DENCLUE算法的主要参数包括高斯混合模型的组件数、高斯分布的协方差矩阵 、迭代次数等。这些参数需要根据具体数据集和问题进行调整和优化。
优化策略
在算法的迭代过程中,可以使用EM算法来优化高斯混合模型的参数,以及使用 K-means算法来对密度分布进行聚类。此外,可以使用一些启发式方法来初始化 高斯混合模型的参数,以提高算法的性能。
DENCLUE(Density based Clustering based on Locally Aggregated Mode Learning)是一种基于密度的聚类算法 。它通过学习局部模式的密度分布来进行聚类。
数学模型
该算法主要基于概率密度估计,通过学习数据的局部密度分 布来进行聚类。它使用一个高斯混合模型(GMM)来估计数 据的局部密度分布,并使用一个聚类算法(如K-means)对 估计的密度分布进行聚类。
各种聚类算法的比较

各种聚类算法的比较聚类算法是一种无监督学习方法,用于将样本划分为具有相似特征的不同组别。
在机器学习和数据挖掘中被广泛应用。
有许多不同的聚类算法可供选择,每个算法有其独特的优点和适用范围。
在本文中,我们将比较几种常用的聚类算法,以帮助选择最适合特定问题和数据集的算法。
1.K均值聚类算法:K均值算法是一种经典的聚类算法。
它将数据点分为K个不同的簇,使得同一簇内的数据点之间的距离尽可能小,不同簇之间的距离尽可能大。
该算法计算复杂度较低,适用于大数据集。
然而,该算法对初始聚类中心的选择非常敏感,并且只能处理数值型数据。
2.层次聚类算法:层次聚类算法通过计算数据点之间的相似性将它们逐步聚类成树状结构。
该算法不需要事先指定聚类个数,并且可以处理各种数据类型。
然而,该算法在处理大数据集时计算复杂度较高,并且结果的质量受到相似性度量的影响。
3.密度聚类算法:密度聚类算法使用数据点密度来识别簇。
该算法可以处理不规则形状的簇,并且对初始聚类中心的选择不敏感。
DBSCAN是一种常用的密度聚类算法。
然而,该算法对密度参数的选择敏感,并且在处理高维数据时效果可能不好。
4.基于模型的聚类算法:基于模型的聚类算法将数据点建模为一些概率分布的样本。
该算法可以处理不同形状和大小的簇,并且能够进行概率推断。
高斯混合模型(GMM)是一种常用的基于模型的聚类算法。
然而,该算法对模型的选择和参数估计比较困难。
5.谱聚类算法:谱聚类算法通过矩阵分解来对数据进行聚类。
该算法可以处理非线性可分的数据,并且不需要事先指定聚类个数。
然而,该算法在处理大数据集时计算开销较大,并且对相似度矩阵的构建方法敏感。
以上只是一些常见的聚类算法,实际上还有许多其他聚类算法可供选择,如affinity propagation、BIRCH、OPTICS等。
每种算法都有其独特的特点和适用范围。
在选择聚类算法时,需要考虑数据集的规模、维度、特征类型以及问题的特殊需求等因素。
常用聚类算法(基于密度的聚类算法

常⽤聚类算法(基于密度的聚类算法前⾔:基于密度聚类的经典算法 DBSCAN(Density-Based Spatial Clustering of Application with Noise,具有噪声的基于密度的空间聚类应⽤)是⼀种基于⾼密度连接区域的密度聚类算法。
DBSCAN的基本算法流程如下:从任意对象P 开始根据阈值和参数通过⼴度优先搜索提取从P 密度可达的所有对象,得到⼀个聚类。
若P 是核⼼对象,则可以⼀次标记相应对象为当前类并以此为基础进⾏扩展。
得到⼀个完整的聚类后,再选择⼀个新的对象重复上述过程。
若P是边界对象,则将其标记为噪声并舍弃缺陷:如聚类的结果与参数关系较⼤,导致阈值过⼤容易将同⼀聚类分割,或阈值过⼩容易将不同聚类合并固定的阈值参数对于稀疏程度不同的数据不具适应性,导致密度⼩的区域同⼀聚类易被分割,或密度⼤的区域不同聚类易被合并DBSCAN(Density-Based Spatial Clustering of Applications with Noise)⼀个⽐较有代表性的基于密度的聚类算法。
与层次聚类⽅法不同,它将簇定义为密度相连的点的最⼤集合,能够把具有⾜够⾼密度的区域划分为簇,并可在有“噪声”的空间数据库中发现任意形状的聚类。
基于密度的聚类⽅法是以数据集在空间分布上的稠密度为依据进⾏聚类,⽆需预先设定簇的数量,因此特别适合对于未知内容的数据集进⾏聚类。
⽽代表性算法有:DBSCAN,OPTICS。
以DBSCAN算法举例,DBSCAN⽬的是找到密度相连对象的最⼤集合。
1.DBSCAN算法⾸先名词解释:ε(Eps)邻域:以给定对象为圆⼼,半径为ε的邻域为该对象的ε邻域核⼼对象:若ε邻域⾄少包含MinPts个对象,则称该对象为核⼼对象直接密度可达:如果p在q的ε邻域内,⽽q是⼀个核⼼对象,则说对象p从对象q出发是直接密度可达的密度可达:如果存在⼀个对象链p1 , p2 , … , pn , p1=q, pn=p, 对于pi ∈D(1<= i <=n), pi+1 是从 pi 关于ε和MinPts直接密度可达的,则对象p 是从对象q关于ε和MinPts密度可达的密度相连:对象p和q都是从o关于ε和MinPts密度可达的,那么对象p和q是关于ε和MinPts密度相连的噪声: ⼀个基于密度的簇是基于密度可达性的最⼤的密度相连对象的集合。
密度聚类算法的原理

密度聚类算法的原理
密度聚类算法的原理基于样本点的密度来进行聚类。
该算法将密度高的样本点作为簇的核心,然后逐渐将密度相邻的样本点加入到簇中,最终形成具有足够密度的簇。
算法步骤如下:
1. 初始化:设定半径r和最小样本点数目minPts作为聚类的
参数,设置未访问标记和簇标记。
2. 选择一个未访问的样本点p,找到其未访问的邻域中的所有
样本点。
3. 如果邻域中的样本点数目大于等于minPts,则将p设定为核心样本点,并将其邻域中的样本点加入簇中。
4. 对簇中的样本点进行进一步的密度可达判断,即对簇中样本点的邻域进行递归访问,将密度可达的样本点加入簇中。
5. 在所有的样本点都被访问过之前,重复2-4步骤。
6. 最终得到一些具有足够密度的簇,并且将那些被访问但不满足成为核心样本点的样本点判定为噪声点或者边界点。
密度聚类算法的核心思想是通过样本点的密度来区分不同的簇,并且能够处理具有不同形状和密度的数据集。
列举常用聚类算法

列举常用聚类算法聚类算法是一种将数据集中的相似数据分组的方法。
它是无监督学习的一种应用,可以在没有标签或类别信息的情况下对数据进行分类。
在机器学习和数据挖掘中,聚类算法被广泛应用于数据分析、图像处理、模式识别等领域。
本文将列举常用的聚类算法。
一、K均值聚类算法(K-means Clustering)K均值聚类算法是一种基于距离度量的聚类方法,它将数据集划分为K 个簇,每个簇包含距离其它簇最近的点。
该算法首先随机选择K个点作为初始质心,然后将每个点分配到与其距离最近的质心所在的簇中,并计算每个簇内所有点的平均值作为新的质心。
重复以上过程直到质心不再改变或达到预定迭代次数。
二、层次聚类算法(Hierarchical Clustering)层次聚类算法是一种自下而上或自上而下逐步合并或拆分簇来建立层次结构的方法。
该算法有两种实现方式:凝聚层次聚类和分裂层次聚类。
凝聚层次聚类从每个数据点开始,将它们逐步合并成越来越大的簇,直到所有点都被合并为一个簇。
分裂层次聚类从整个数据集开始,将其逐步拆分成越来越小的簇,直到每个簇只包含一个点。
三、DBSCAN聚类算法(Density-Based Spatial Clustering of Applications with Noise)DBSCAN聚类算法是一种基于密度的聚类方法,它可以识别任意形状的簇,并能够自动排除离群值。
该算法首先选择一个未访问的核心点作为起始点,并找到其可达范围内的所有点,并将它们加入同一簇中。
然后继续寻找未访问的核心点,并重复以上过程直到所有核心点都被访问完毕。
四、谱聚类算法(Spectral Clustering)谱聚类算法是一种基于图论和线性代数的聚类方法,它将数据集看作是一个图,在图上进行划分。
该算法首先构建一个相似度矩阵或邻接矩阵,并通过特征值分解或奇异值分解来获取特征向量和特征值。
然后将特征向量作为新的数据集,使用K均值或层次聚类等方法对其进行聚类。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
什么是聚类?聚类:- 将一个对象的集合分割成几个类,每个类内的对象之间是相似的,但与其他类的对象是不相似的。
评判聚类好坏的标准:1 ,能够适用于大数据量。
2 ,能应付不同的数据类型。
3 ,能够发现不同类型的聚类。
4 ,使对专业知识的要求降到最低。
5 ,能应付脏数据。
6 ,对于数据不同的顺序不敏感。
7 ,能应付很多类型的数据。
8 ,模型可解释,可使用。
二,聚类所基于的数据类型。
聚类算法通常基于“数据矩阵”和“ Dissimilarity 矩阵”。
怎么样计算不同对象之间的距离?1 ,数值连续的变量(体重,身高等):度量单位的选取对于聚类的结果的很重要的。
例如将身高的单位从米变为尺,将体重的单位从公斤变为磅将对聚类的结果产生很大的影响。
为了避免出现这种情况,我们必须将数据标准化:将数据中的单位“去掉”。
A, 计算绝对背离度。
B, 计算标准量度。
下面我们考虑怎样来计算两个对象之间的差异。
1 ,欧几里得距离。
2 ,曼哈顿距离。
这两种算法有共同之处:d(i,j)>=0,d(i,i)=0,d(i,j)=d(j,i),d(i,j)=<d(i,h)+d(h,j) 。
3 ,Minkowski 距离。
这是上述两种算法的通式。
并且对于不同的变量,我们可以给它赋于不同的weight.2 ,二元数据变量:如果还是用上面的方法来计算的话,肯定会出现错误。
这儿分两种情况,对称的与非对称的。
3 ,Nominal 变量:( 例如红,黄,绿,蓝,.)4 ,ordinal 变量(例如科长,处长,局长,. )5 ,ratio-scaled 变量:6, 以上几种混合的变量(多数情况是这样的):三,分割的的方法。
1,K 均值算法:给定类的个数K ,将n 个对象分到K 个类中去,使得类内对象之间的相似性最大,而类之间的相似性最小。
缺点:产生类的大小相差不会很大,对于脏数据很敏感改进的算法:k —medoids 方法。
这儿选取一个对象叫做mediod 来代替上面的中心的作用,这样的一个medoid 就标识了这个类。
步骤:1,任意选取K 个对象作为medoids (O1,O2,,Oi,Ok )。
以下是循环的:2,将余下的对象分到各个类中去(根据与medoid 最相近的原则);3,对于每个类(Oi )中,顺序选取一个Or ,计算用Or 代替Oi 后的消耗—E(Or )。
选择E 最小的那个Or 来代替Oi 。
这样K 个medoids 就改变了,下面就再转到2 。
4,这样循环直到K 个medoids 固定下来。
这种算法对于脏数据和异常数据不敏感,但计算量显然要比K 均值要大,一般只适合小数据量。
2 ,C lara 算法。
上次课提到K-medoids 算法不适合于大数据量的计算。
这次课我们介绍Clara 算法,这是一种基于采用的方法,它能够处理大量的数据。
Clara 算法的思想就是用实际数据的抽样来代替整个数据,然后再在这些抽样的数据上利用K-medoids算法得到最佳的medoids。
Clara算法从实际数据中抽取多个采样,在每个采样上都用K-medoids 算法得到相应的(O1,O2,Oi,Ok ),然后在这当中选取E 最小的一个作为最终的结果。
Clara 算法的效率取决于采样的大小,一般不太可能得到最佳的结果。
在Clara 算法的基础上,我们提出了Clarans 的算法,与Clara 算法不同的是:在Clara 算法寻找最佳的medoids 的过程中,采样都是不变的。
而Clarans 算法在每一次循环的过程中所采用的采样都是不一样的。
与上次课所讲的寻找最佳medoids 的过程不同的是,必须人为地来限定循环的次数。
四,层次聚类层次聚类,就是把所有的记录层次聚类可以分为两种:凝聚的方式和分割的方式,取决于聚类层次结构的形成是自顶向下的还是自底向上的。
凝聚的方式:这是一种至底向上的方法,将每一条记录看作一个类,然后根据一些规则将他们聚合成越来越大的类,直到满足一些预先设定的条件。
大多数的层次聚类方法属于这一类。
分割的方式:这种自顶向下的方法是一个与凝聚的方式相反的过程,将整个数据库作为一个大的类,然后按照一些规则将这个类分成小的类,直到满足一些预定的条件,例如类的数目到了预定值,最近的两个类之间的最小距离大于设定值。
例3 :图5 给出了对于集合{a,b,c,d,e} 层次聚类两种方式的聚类过程。
从这个图我们可以看出,凝聚的方式是将每一个记录看作一个类,再按照一定的规则逐步将这些类合并。
举个例子,如果类C1 和类C2 之间的距离小于预定的最小距离,那么他们就会被合并为一个类,这儿两个类的距离是由两个类中距离最近的一对记录来确定的。
分割的方式则是先将所有的记录作为一个大的类,然后再根据一些规则将它进行分割,例如最近的两个记录之间的距离。
无论凝聚的方式还是分割方式,用户都可以根据自己的要求来设定所得类的个数。
层次聚类虽然比较简单,但是在选择凝聚或者分割点的时候经常会遇到一些困难,这个是非常关键的,因为一旦记录被凝聚或者分割以后,下一步的工作是建立在新形成的类的基础之上的因此,如果其中任何一步没有做好的话,就会影响最终聚类的结果。
这个方法并不是太好,因为要牵涉到很大数量的类和记录。
一个比较有前途的能够提高聚类质量的方向是将层次聚类和其它的聚类结合起来进行,下面我们会介绍一些这样的方法:1 ,叫做“ Birth ” , 它首先把层次聚类的形成过程到结果看作一棵树,然后再用其他的聚类方法来进行修剪。
2 ,叫做“ Cure ”,他用一定数量的记录来代表一个类,然后将他们缩为类的中心。
3 ,叫做“ Rock ” , 它是基于类之间的联系将类合并。
4 ,叫做“ Chameleon ”,在层次聚类中寻找自动的模式。
1,Birch: 这是一种综合的层次聚类的方法,它介绍了两个概念,聚类特征和聚类特征树,它们是用来表示聚类的。
这些结构能够帮助聚类方法能运行得更快,能够处理大数据量。
下面我们来看一下上面提到的结构,一个聚类特征是由关于记录子集的三重总概变量组成。
假设在一个子类中有N 个记录,那么这个子类的聚类特征就是CF=(N,LS,SS), 其中LS 是N 个点(记录)的直线相加,SS 是N 个点的平方和相加。
一个聚类特征本质上是对于给定的子类的统计和,它记录了衡量一个子类的最关键的部分,用存储统计值代替了存储整个类的记录,提高了存储的效率。
一个聚类特征树是一个垂直平衡树,它为一个层次聚类存了各个步骤的聚类特征。
图8.6 给出了一个例子,我们约定一个“非叶子节点”是有“孩子”的, 这个“非叶子节点”记录了它的孩子的聚类特征。
一个聚类特征有两个变量——“分枝要素B ”和“门限T ”,B 限定了每个“非叶子节点”最多含有的孩子的个数,T 限定了存在叶节点的子类的最大半径,这两个参数影响了最后产生的树的大小。
那么“ Birch ”是怎样工作的呢?1 ,它扫描整个数据库一次,建立一个初始化的聚类特征树。
2 ,它用一个聚类算法来聚合这些叶节点。
在第一阶段,聚类特征树随着记录一个一个的加入而自动形成的:一个记录被放入那个离它最近的叶节点(类)中去。
如果放入以后这个子类的半径大于门限值T 的话,那么这个叶节点就会被分割。
这个放入的信息也会传递到根节点中去。
聚类特征树的大小可以通过调节参数来改变,如果要存储的树需要的内存超过了主内存,那就要减小门限值重新建立一棵树,这个重建过程并不需要将整个记录扫描一次。
而是建立在老的树的叶节点的基础之上的。
因此,建立一个树记录需要被扫描一次,此外还有一些方法进一步扫描记录以提高聚类特征树的质量,当树建好以后,我们可以在第二阶段用其他的聚类算法了。
Birch 算法用可利用的资源产生最好的聚类,给定一限定的主内存,一个很重要的考虑是尽量减少从I/O 请求所需要的时间。
Birch 算法用了多种聚类的技术,对数据库的一次扫描产生一个基本好的聚类,一次或者更多的附加扫描能够提高聚类的质量。
Birch 的效果怎么样?由于每一个节点只能有一定数量的“孩子”,实际产生的聚类特征树并不是自然生成的聚类。
而且,如果聚类生成的类不成球形的话,这种算法就运用得很好,因为它用半径或者直径来控制类的边界。
2,Cure:大多数的算法或者只能用于球状类和有相似大小的类上面,或者无法解决特例的问题。
Cure 算法则能够解决这些问题。
Cure 采用一种很新颖的层次聚类算法,这种方法是介于“基于中心”和“基于记录”的方法之间的。
一定数量的记录被选中,而不是用中心或者一个记录来代替整个类。
那些能代表这个类的几个记录, 首先在一个类中选择几个较为分散的记录作为代表整个类的记录,然后用一个特别的Fraction 将他们压缩到类的中心。
在每一步,那些有最大相似度的类就会被合并。
由于用了多个记录来代表类,使得这种算法能够很好地对付非球状的的类以及一些例外的情况结构。
那么,在大数据量的情况下能够在不牺牲聚类质量的情况下,对付大数据量进行得很好。
为了对付大数据量,Cure 用了随机抽取和分割的方法:1,选取有s 个记录的采样。
2,将这s 个采样分割成p 个部分,每个有s/p 个记录。
3,将s 个记录分成s/pq 个类4,通过随机采样去除那些特例的情况。
5,将这些类进行聚类,五,基于密度的方法:1,DBSCAN:这个方法将密度足够大的那部分记录组成类,这儿定义了几个新的名词:1,对于给定的记录,我们称在其半径 e 范围内的一个记录为这个记录的e- 邻居。
2,如果一个记录的e- 邻居个数超过一个最小值,MinPts 那么我们就将这个记录称做中心记录。
3,一个记录的集合D, 我们说一个记录p 是记录q 的“ Directlydensity-reachable ”记录,如果p是q的e- 邻居,' 并且q 是个中心记录。
4,对于这样的一个链p1,p2,,pn ,如果,p1=q,pn=p, 且Pi+1 是pi 的“ Directlydensity-reachable ”,那么我们就将p 称做q 的“ density-reachable ”。
5, 如果p,q 都是一个记录o 的“ density-reachable ”,那么就称p,q “ density-connected ”。
根据上面的定义,我们怎样来发现类呢?首先扫描一下数据库,计算每一个点(记录)的e- 邻居的个数,如果一个记录的e- 邻居的个数大于一个门限值,那么就将这个记录叫做中心记录,这样一个新的以这个记录为中心的类就产生了。
接着,就寻找这个记录的所有的“ density-reachable ”记录,这个过程可能会将一些类也合并过,这个过程直到没有新的记录假如为止。
2,OPTICS:虽然DBSCAN算法能够根据给定的参数e和Min Pts来对记录进行聚类,但是这仍然由用户主观来选择参数,参数就影响了最终产生的类,实际上这也是很多聚集算法面临的问题。