k-means聚类算法的研究全解
三维k-means聚类算法

三维k-means聚类算法
在机器学习和数据挖掘领域,聚类是一种常见的数据分析技术,它通过将数据点分组成具有相似特征的簇来发现数据的内在结构。
而k-means算法是一种常用的聚类算法,它通过迭代的方式将数据
点分配到k个簇中,以最小化簇内的方差来实现聚类。
在三维空间中,数据通常具有更加复杂的特征和结构,因此传
统的二维k-means算法在处理三维数据时可能会面临一些挑战。
为
了解决这个问题,研究人员提出了三维k-means聚类算法,它是对
传统k-means算法的扩展,专门用于处理三维数据。
三维k-means聚类算法的核心思想与传统的k-means算法类似,都是通过迭代的方式不断优化簇的中心位置,以最小化簇内的方差。
然而,由于三维数据的特殊性,三维k-means算法在计算簇中心和
数据点之间的距离时需要考虑更多的因素,比如数据点在三个维度
上的坐标。
在实际应用中,三维k-means聚类算法可以被广泛应用于各种
领域,比如医学影像分析、气象数据分析、地质勘探等。
通过对三
维数据的聚类分析,可以帮助人们更好地理解数据的内在结构,发
现隐藏在数据中的规律和特征,为进一步的数据分析和应用提供有力的支持。
总之,三维k-means聚类算法是一种针对三维数据特点设计的聚类算法,它能够有效地处理三维数据,并在各种领域中发挥重要作用。
随着对三维数据分析需求的不断增加,相信三维k-means聚类算法将会得到更广泛的应用和进一步的发展。
kmeans算法原理

kmeans算法原理K-Means算法,又叫k均值算法,是一种比较流行的数据聚类算法,它是一种迭代聚类算法,旨在将数据分为K个聚类,每个聚类具有最相似的数据点。
K-Means算法最初被使用于一些研究领域,例如音频处理和图像处理,但是在数据挖掘和机器学习领域中,K-Means 算法也被广泛使用,用于挖掘和识别隐藏的模式和结构,以及比较大型数据集的好处。
K-Means算法的基本原理K-Means算法是一种基于迭代的聚类算法,它利用距离公式将数据集分为k个不同的聚类,每个聚类具有最相似的数据点。
K-Means 算法的基本流程如下:(1)首先,确定数据集中簇的数量K。
(2)然后,将数据集中的每个数据点分配到K个不同的聚类。
(3)最后,按照每个聚类的平均值更新每个聚类的中心点,并将每个数据点根据距离新的聚类中心点的距离重新分配到新的聚类中。
K-Means算法的优点(1)K-Means算法的计算容易,它的时间复杂度较低,可以在大数据集上应用。
(2)可以用来快速对大型数据集进行聚类,可以轻松发现隐藏在数据中的模式和结构。
(3)K-Means算法也可以用来进行压缩,K-Means算法可以确定数据元素的聚类,从而减少数据集的大小。
(4)K-Means算法也可以用来发现预测模型,K-Means可以用来挖掘和识别隐藏的模式和结构,从而发现预测模型。
K-Means算法的缺点(1)K-Means算法为聚类选择的K值敏感,只有当K值适当时,K-Means算法才能得到最佳结果。
(2)K-Means算法在处理非球形数据集时效果不佳,K-Means算法会将数据分配到最近的聚类中心,但是对于非球形数据集来说,最近的聚类中心并不能很好的表示数据。
(3)K-Means算法在选择聚类中心的时候也有一定的局限性,K-Means算法选择的聚类中心受到初始值的影响,因此算法的结果受初始值的影响。
结论K-Means算法可以有效的将大型数据集分割成不同的聚类,是聚类分析中一种最常用的算法。
kmeans聚类算法原理与步骤

kmeans聚类算法原理与步骤K-means聚类算法原理与步骤K-means聚类算法是一种常用的无监督学习算法,用于将数据集划分成不同的类别。
该算法的原理和步骤如下:一、算法原理1. 初始化:选择K个初始的聚类中心点,可以是随机选择或者根据领域知识进行选择。
2. 数据分配:根据欧氏距离等度量方式,将每个样本点分配到与其最近的聚类中心点所代表的类别。
3. 聚类中心更新:根据当前分配的聚类结果,重新计算每个类别的聚类中心点。
4. 重复步骤2和步骤3,直到聚类中心点不再发生变化或达到预设的迭代次数。
5. 输出最终的聚类结果。
二、算法步骤1. 选择聚类的数量K:根据问题的具体要求和领域知识,确定聚类的数量K。
2. 初始化聚类中心点:从数据集中随机选择K个样本点作为初始的聚类中心点。
3. 计算样本点到聚类中心点的距离:对于每个样本点,计算其与各个聚类中心点之间的距离,常用的距离度量方式是欧氏距离。
4. 将样本点分配到最近的聚类中心点所代表的类别:将每个样本点分配到与其最近的聚类中心点所代表的类别,形成初始的聚类结果。
5. 更新聚类中心点:根据当前的聚类结果,重新计算每个类别的聚类中心点,通常是计算类别内样本点的均值。
6. 重复步骤3和步骤5,直到聚类中心点不再发生变化或达到预设的迭代次数。
如果聚类中心点不再发生变化,则算法收敛;如果达到预设的迭代次数,但聚类中心点仍在发生变化,则可以考虑增加迭代次数或调整聚类的数量K。
7. 输出聚类结果:将最终的聚类结果输出,每个样本点属于某个类别。
三、算法优缺点1. 优点:- K-means算法简单易实现,计算效率高。
- 对大规模数据集有较好的可扩展性。
- 聚类结果具有较好的可解释性。
2. 缺点:- 对初始聚类中心点的选择敏感,可能会得到不同的聚类结果。
- 对噪声和异常点较为敏感,可能会影响聚类结果的准确性。
- 需要提前确定聚类的数量K,如果选择不当可能会影响聚类结果。
K-Means聚类算法的研究

Ab t a t Th l o t m fK- s r c : e a g r h o me n so e k n f ca sc l se n l o t m ,i c u i g b t n o n s a d as h r g s F r i a s i n i d o l s ia c u tr g ag r h l i i n ld n o h ma y p i t n lo s o t e . o a
Th s a c bo us e i g rt m f K -M e ns e Re e r h a ut Cl t rng Al o ih o a
ZHOU —wu.YU —f i Ai Ya e
( ol eo o ue cec n eh ooy A hi nvr t, ee 2 03 ,hn ) C lg f mp t S i eadTcn lg , n u U i sy H fi 30 9 C ia e C r n ei
第2 卷 1
第 2期
计 算 机 技 术 与 发 展
COMP UTER T : ECHNOLOGY AND DEVE LOP MENT
21 0 1年 2月
V0 . No. 1 2l 2 Fe . 2 b 011
K Me n — a s聚 类 算 法 的 研 究
周 爱武 , 于亚 飞
降低 , 而且 聚类结果 更接近 实际数 据分 布。
关键词 : — e n 算法 ; K M as 初始 聚类 中心 ; 孤立 点
中图 分类号 : P 0 . T 3 16 文献标 识码 : A 文章编 号 :6 3 6 9 2 1 ) 2 0 6 - 4 1 7 — 2 X( 0 1 0 — 0 2 0
K-means聚类算法研究

个数据对象作为初始的聚类中心 , 初 始的代表一个 聚类 。对于剩下的其他数据集 。 则分别计算它们 到 这些聚类中心的相似度 ( 以欧 氏距离作 为相似度 测 量准则) ,并根据最短距离将每个数据对象赋给 各 个聚类中心 。然后再计算新获得 的每一个聚类的距 离平均值得 到新 的聚类 中心 , 如果连续两次计算 出
进 行 了详 细 的分析 。
关键词 : 聚类分析 ; K — m e a n s 算法 中图分类号 : T P 3 1 1 文献标识码 : A 文章编号 : 1 6 7 2 - 4 4 7 X ( 2 0 1 3 ) 0 5 - 0 0 1 7 - 0 3 文 采 用 Ma l t a b 7 . 0实 现 了 K- me a n s 聚 类 算
法, 下面这个例子 , 显示 K - me a d s 聚类算法对于一 组二维数据集合 的聚类效果。
输入 : 包含 n 个数据对象的集合置,
x ={ X l , x 2 , … , X n }
b e i g n f o r j = 1 t o k d o
c o m p u t e D ( , z j ) = x i 一 l; / / 计算剩下的数
据对象到各聚类中心的距离 i f D ( , z ) = m i n { D ( X i Z ) } t h e n ∈ C j ; / / 根 据最 短距离将数据对象分类
J 已经收敛 , 聚类算法结束。通常采用平方误差准则
函数 作为 聚类目 标准则, 即 . , = ∑ : 。 ∑ 鹇I P 一 『,
∑g z 。 是分类 的中心 , 即 = 。 的数据 , 可以降低数据量及计算量 , 并可 以避免 杂 p是一个数据 对象 , ¨ 一,目 质的不 良影响。 上述算法的特 点是首先必须指定 k个初 始聚类 中 本 文简要介绍了 K - me a n s 聚类算法 的算法流 心, 然后借着 反复迭代运算 , 逐次降低 目标准则函 程, 复杂度 , 并用 Ma d a b实现 , 根据实验结果分析 了
K-means聚类算法的研究的开题报告

K-means聚类算法的研究的开题报告一、选题背景K-means聚类算法是一种常用的聚类算法,它可以把数据分成K个簇,每个簇代表一个聚类中心。
该算法适用于大数据分析、图像分析等领域。
由于其具有简单、快速、效果明显等特点,因此备受研究者的关注。
二、研究意义K-means聚类算法在大数据分析、图像分析等领域的应用广泛,研究该算法有着十分重要的意义。
本次研究将对该算法进行探究,通过改进和优化算法,提高其聚类效果和运行效率,为实际应用提供更加可靠、有效的解决方案。
三、研究内容与方法本研究将围绕K-means聚类算法展开,重点探讨以下内容:1. K-means聚类算法原理及优缺点分析2. 基于距离的K-means聚类算法优化3. 基于密度的K-means聚类算法研究4. 算法的实现与效果评估在研究方法上,将采用文献调研、数学统计方法、算法实现和效果评估等多种方法对K-means聚类算法进行研究。
四、计划进度安排本研究总计时长为12周,具体进度安排如下:第1-2周:文献调研,研究K-means聚类算法的原理和优缺点分析第3-4周:基于距离的K-means聚类算法优化第5-6周:基于密度的K-means聚类算法研究第7-8周:算法实现第9-10周:效果评估第11-12周:论文撰写和答辩准备五、预期研究结果本研究将针对K-means聚类算法进行深入探究,并尝试改进和优化算法,提高其聚类效果和运行效率。
预期研究结果将包括以下几个方面:1.对该算法的优缺点进行全面分析,揭示其内在机制和局限性。
2.基于距离和密度两种方法对算法进行优化,提高其聚类效果和运行效率。
3.通过实验评估算法效果,得出具体的结论。
4.输出论文成果,向相关领域进行贡献。
六、研究的难点1.算法优化的设计,需要具备一定的数学和计算机知识。
2.实验的设计需要满足实际应用场景,需要有较强的应用能力。
3.研究过程中可能遇到一些技术难点,需要耐心解决。
七、可行性分析K-means聚类算法是广泛使用的算法之一,其研究具有实际意义和可行性。
K-means算法详解

算法实例
O x y
1
2 3 4 5Βιβλιοθήκη 00 1.5 5 5
2
0 0 0 2
数据对象集合S见表1,作为一个聚类分析的二 维样本,要求的簇的数量k=2。 O (1)选择 O1 0,2 , 2 0,0 为初始的簇中心, 即 M 1 O1 0,2 , M 2 O2 0,0 。 (2)对剩余的每个对象,根据其与各个簇中心的 距离,将它赋给最近的簇。 对 O3 : 2 2
0 5
0 5
2
2 2
2
2
5
29
1
5
5
2
0 2
• 因为 d M 1 , O 5 d M 2 , O 5 所以将 O 5分配给 C
• 更新,得到新簇
E1 0 0
2 2
C1 O1 ,O5
和
2
C 2 O 2 , O 3 , O 4
xi1,xi2,„xid和xj1,xj2,„xjd分别是样本xi和xj对应d个描 述属性A1,A2,„Ad的具体取值。 • 样本xi和xj之间的相似度通常用它们之间的距离d(xi,xj) 来表示,距离越小,样本xi和xj越相似,差异度越小;距
离越大,样本xi和xj越不相似,差异度越大。
欧式距离公式如下:
d xi , x j
x
d k 1
ik
x jk
2
平均误差准则函数
• K-means聚类算法使用误差平方和准则函数来评价聚类 性能。给定数据集X,其中只包含描述属性,不包含类别
属性。假设X包含k个聚类子集X1,X2,„XK;各个聚类子集
中的样本数量分别为n1,n2,„,nk;各个聚类子集的均值代 表点(也称聚类中心)分别为m1,m2,„,mk。 • 误差平方和准则函数公式为:
k-means聚类算法研究及应用

k-means聚类算法研究及应用
K-means聚类算法研究及应用
一、简介
K-means聚类算法是一种非监督学习算法,它是一种广泛应用在模式分类和无监督式学习的数据挖掘技术。
它使用了基于距离的聚类算法,以相似性作为衡量子簇类别的标准,任务是将样本(属性)空间中的数据分为K个不同的类,使聚类的误差平方和最小化:通常假设样本由簇中心所处的子空间所构建,每个子空间由一个簇中心控制,因此K-means算法常常被形象地称为“均值聚类”算法。
二、原理
K-means聚类算法是一种迭代算法,它的基本思想是:首先,随机选取若干个“簇中心”,然后将其他的数据点根据其与“簇中心”的距离,归到最近的“簇中心”所代表的簇中。
然后根据新聚集的簇,重新更新这些“簇中心”;如此不断迭代,最终计算得到一组稳定的“簇中心”,这组“簇中心”所代表的簇就是最后的结果了。
三、应用
1、生物信息学:K-means聚类算法用于基因芯片和定量PCR,以及蛋白质表达数据。
2、计算机视觉:K-means用于图像分割,聚类,像素重新分配等。
3、自然语言处理:K-means用于文本聚类,文档分类,文本挖掘等方面。
4、机器学习:K-means用于各种拟合问题,比如参数估计,探索异常
值等等。
四、总结
K-means聚类算法是一种简单高效的聚类算法,它可以有效地将数据空间分割成几个簇,属于非监督学习算法,它的核心在于划分数据空间,对数据的模式分类和无监督式学习有较好的应用,如生物信息学、计
算机视觉、自然语言处理、机器学习等领域。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
k-means聚类算法的研究1.k-means算法简介1.1 k-means算法描述给定n个对象的数据集D和要生成的簇数目k,划分算法将对象组织划分为k个簇(k<=n),这些簇的形成旨在优化一个目标准则。
例如,基于距离的差异性函数,使得根据数据集的属性,在同一个簇中的对象是“相似的”,而不同簇中的对象是“相异的”。
划分聚类算法需要预先指定簇数目或簇中心,通过反复迭代运算,逐步降低目标函数的误差值,当目标函数收敛时,得到最终聚类结果。
这类方法分为基于质心的(Centroid-based)划分方法和基于中心的(Medoid-based)划分方法,而基于质心的划分方法是研究最多的算法,其中k-means算法是最具代表和知名的。
k-means算法是1967年由MacQueen首次提出的一种经典算法,经常用于数据挖掘和模式识别中,是一种无监督式的学习算法,其使用目的是对几何进行等价类的划分,即对一组具有相同数据结构的记录按某种分类准则进行分类,以获取若干个同类记录集。
k-means聚类是近年来数据挖掘学科的一个研究热点和重点,这主要是因为它广泛应用于地球科学、信息技术、决策科学、医学、行为学和商业智能等领域。
迄今为止,很多聚类任务都选择该算法。
k-means算法是应用最为广泛的聚类算法。
该算法以类中各样本的加权均值(成为质心)代表该类,只用于数字属性数据的聚类,算法有很清晰的几何和统计意义,但抗干扰性较差。
通常以各种样本与其质心欧几里德距离总和作为目标函数,也可将目标函数修改为各类中任意两点间欧几里德距离总和,这样既考虑了类的分散度也考虑了类的紧致度。
k-means算法是聚类分析中基于原型的划分聚类的应用算法。
如果将目标函数看成分布归一化混合模型的似然率对数,k-means算法就可以看成概率模型算法的推广。
k-means算法基本思想:(1)随机的选K个点作为聚类中心;(2)划分剩余的点;(3)迭代过程需要一个收敛准则,此次采用平均误差准则。
(4)求质心(作为中心);(5)不断求质心,直到不再发生变化时,就得到最终的聚类结果。
k-means聚类算法是一种广泛应用的聚类算法,计算速度快,资源消耗少,但是k-means算法与初始选择有关系,初始聚类中心选择的随机性决定了算法的有效性和聚类的精度,初始选择不一样,结果也不一样。
其缺陷是会陷于局部最优。
1.2 k-means算法实现步骤k-means聚类算法的处理流程如下:首先,随机选择k个对象,每个对象代表一个簇的初始均值或中心;对剩余的每个对象,根据其与各簇中心的距离,将它指派到最近(或最相似)的簇,然后计算每个簇的新均值,得到更新后的簇中心;不断重复,直到准则函数收敛。
通常,采用平方误差准则,即对于每个簇中的每个对象,求对象到其中心距离的平方和,这个准则试图生成的k个结果簇尽可能地紧凑和独立。
1.2.1 k-means聚类算法的形式化描述算法:k-means输入:聚类个数k,以及包含n个数据对象的数据库D输出:满足方差最小标准的k个聚类处理流程:Step1 从n个数据对象任意选择k个对象作为初始聚类中心;Step2 根据簇中对象的平均值,将每个对象重新赋给最类似的簇;Step3 更新簇的平均值,即计算每个簇中对象的平均值;Step4 循环Step2到Step3直到每个聚类不再发生变化为止。
1.2.2 k-means聚类算法的具体步骤1)Function k-means()2)输入:包含n个对象的数据集及簇的数目3)输出:k个簇的集合4)初始化k个簇中心{w1,w2,…,w k},其中w j= i l,j ∈{1,2,…,k},l ∈{1,2,…,n}5)使每一个聚类C j与簇中心w j中相对应6)repeat7)for每一个输入向量i l,其中l ∈{1,2,…,n } do8)将i l分配给最近的簇中心w j*所属的聚类C j*(即|i l—w j*|≦|i l—w j|),j ∈(1,2,…,k))9)for 每一个聚类C j,其中j ∈{1,2,…,k}10)将簇中心更新为当前的C j中所有样本的中心点,即|iwjlj cij lC∈∑=11)计算准则函数E12) Until E 不再明显地改变或者聚类的成员不再变化1.2.3 相关定义(1)两个数据对象间的距离:①明氏距离(Minkowski Distance )∑==p k x x x x d 11/qq jk ik j i )|-|(),( (公式1)这里的x i =( x i1,x i2,…,x ip )和x j =( x j1,x j2,…,x jp )是两个p 维的数据对象并且 i≠j 。
②欧式距离(Euclidean Distance )当明氏距离中q=2时,公式1即欧式距离。
∑==p k x x x x d 11/22jk ik j i )|-|(),( (公式2)③马氏距离(Mahalanobis Distance )p p ⨯=∑)(ij σ (公式3) 其中∑==nk x x x x n 1j k j i k i ij )-)(-(1-1σ,i ,j=1,2…,p 。
如果∑-1存在,则马氏距离为 ),(),(),(j i 1T j i j i 2x x x x x x d M -∑= (公式4)④兰式距离(Canberra Distance ):∑=+=p k L x x x x x x d 1jkik jk ik j i |-|p 1),( (公式5) (2)准则函数E对于K-means 算法,通常使用准则函数E ,也就是误差平方和(Sum of Squared Error ,SSE )作为度量聚类质量的目标函数。
∑∑=∈=ki C x i x d E 1i 2),(C (公式6)其中,d( )表示两个对象之间的距离,可以利用明氏、欧式、马氏或兰氏距离求得。
对于相同的k 值,更小的SSE 说明簇中对象越集中。
对于不同的k 值,越大的k 值应该越小的SSE 。
2.k-means 算法应用实例k-means 聚类广泛应用于地球科学、信息技术、决策科学、医学、行为学和商业智能等领域。
现以其在气象、遥感两个方面的应用为例,使用MATLAB语言编程,实现k-means算法的应用。
2.1 k-means算法应用实例(一)以我国主要城市2008年1~4月份的平均气温数据为基础,使用MATLAB语言编程,实现k-means算法。
2.1.1 算法代码(1)k-means算法主程序k=3;x =[ -3.0 0.6 9.1 15.8-3.6 -0.7 8.6 15.8-2.0 2.5 10.6 16.3-5.5 -3.3 7.1 13.1-12.1 -9.3 3.4 11.4-12.6 -7.9 3.8 12.2-15.6 -9.4 3.0 12.1-17.6 -10.5 2.7 11.34.2 4.0 11.4 15.91.52.5 11.3 15.63.7 3.9 12.7 17.11.02.7 12.5 16.811.0 9.1 15.3 19.33.5 5.5 14.6 18.7-2.0 1.0 10.3 16.3-0.7 2.8 12.1 16.91.2 4.9 14.4 18.52.3 5.5 15.2 18.912.8 11.6 20.1 23.29.4 10.4 19.1 22.916.9 13.3 20.9 25.36.27.3 15.5 19.03.7 5.4 13.4 17.21.02.2 11.8 15.710.7 8.5 13.7 18.01.5 1.4 5.6 10.1-1.7 1.8 12.5 16.4-6.6 -4.1 9.1 13.8-9.6 -7.9 3.4 8.3-10.2 -7.7 7.3 13.4-15.6 -9.6 5.2 11.1];[n,d] = size(x);bn=round(n/k*rand);%第一个随机数在前1/K的范围内nc=[x(bn,:);x(2*bn,:);x(3*bn,:)];%初始聚类中心for i=1:length(x),if cid(i)==1,plot(x(i,1),x(i,2),'r*') % 显示第一类hold onelseif cid(i)==2,plot(x(i,1),x(i,2),'b*') %显示第二类hold onelseif cid(i)==3,plot(x(i,1),x(i,2),'g*') %显示第三类hold onendendendendstrt=['红色*为第一类;蓝色*为第二类;绿色*为第三类' ];text(-4,-3.6,strt);(2)kmeans函数如下:%BasicKMeans.m主类function [cid,nr,centers] = kmeans(x,k,nc)[n,d] = size(x);% 设置cid为分类结果显示矩阵cid = zeros(1,n);% Make this different to get the loop started.oldcid = ones(1,n);% The number in each cluster.nr = zeros(1,k);% Set up maximum number of iterations.maxgn= 100;iter = 1;while iter < maxgn%计算每个数据到聚类中心的距离for i = 1:ndist = sum((repmat(x(i,:),k,1)-nc).^2,2);[m,ind] = min(dist); % 将当前聚类结果存入cid中cid(i) = ind;endfor i = 1:k%找到每一类的所有数据,计算他们的平均值,作为下次计算的聚类中心ind = find(cid==i);nc(i,:) = mean(x(ind,:));% 统计每一类的数据个数nr(i) = length(ind);endend% Now check each observation to see if the error can be minimized some more. % Loop through all points.maxiter = 2;iter = 1;move = 1;while iter < maxiter & move ~= 0move = 0;% 对所有的数据进行再次判断,寻求最佳聚类结果for i = 1:ndist = sum((repmat(x(i,:),k,1)-nc).^2,2);r = cid(i); % 将当前数据属于的类给rdadj = nr./(nr+1).*dist'; % 计算调整后的距离[m,ind] = min(dadj); % 早到该数据距哪个聚类中心最近if ind ~= r % 如果不等则聚类中心移动cid(i) = ind;%将新的聚类结果送给cidic = find(cid == ind);%重新计算调整当前类别的聚类中心nc(ind,:) = mean(x(ic,:));move = 1;endenditer = iter+1;endcenters = nc;if move == 0disp('No points were moved after the initial clustering procedure.')elsedisp('Some points were moved after the initial clustering procedure.')end2.1.2 使用数据2.1.3 分类效果及结果分析(1)聚类过程No points were moved after the initial clustering procedure.cid =Columns 1 through 182 2 2 1 1 1 1 1 2 2 2 23 2 2 2 2 2Columns 19 through 313 3 3 3 2 2 3 2 2 1 1 1 1nr =9 16 6centers =-11.7111 -7.7444 5.0000 11.85560.6625 2.8750 11.6313 16.375011.1667 10.0333 17.4333 21.2833(2)分类效果图图1 案例一效果图(3)分类结果分析在本案例中主要是对全国主要城市的气温进行k-means聚类分析,从而总结出不同地区相同时间段内气温变化的相似性和差异性。