数据挖掘导论Iris KDD分析
《数据挖掘导论》目录

《数据挖掘导论》⽬录⽬录什么是数据挖掘常见的相似度计算⽅法介绍决策树介绍基于规则的分类贝叶斯分类器⼈⼯神经⽹络介绍关联分析异常检测数据挖掘数据挖掘(英语:Data mining),⼜译为资料探勘、数据采矿。
它是数据库知识发现(英语:Knowledge-Discovery in Databases,简称:KDD)中的⼀个步骤。
数据挖掘⼀般是指从⼤量的数据中通过算法搜索隐藏于其中信息的过程。
数据挖掘通常与计算机科学有关,并通过统计、在线分析处理、情报检索、机器学习、专家系统(依靠过去的经验法则)和模式识别等诸多⽅法来实现上述⽬标。
常见的数据相似度计算汉密尔顿距离(r = 1)欧式距离(r = 2)上确界距离(r = max)⼆元数据相似性简单匹配系数(Simple Matching Coefficient,SMC):Jaccard 系数:余弦相似度:⼴义Jaccard系数:⽪尔逊相关系数(Pearson’s correlation):决策树(decision tree)(TODO)决策树是⼀个树结构(可以是⼆叉树或⾮⼆叉树)。
其每个⾮叶节点表⽰⼀个特征属性上的测试,每个分⽀代表这个特征属性在某个值域上的输出,⽽每个叶节点存放⼀个类别。
使⽤决策树进⾏决策的过程就是从根节点开始,测试待分类项中相应的特征属性,并按照其值选择输出分⽀,直到到达叶⼦节点,将叶⼦节点存放的类别作为决策结果。
构造决策树的关键步骤是分裂属性。
所谓分裂属性就是在某个节点处按照某⼀特征属性的不同划分构造不同的分⽀,其⽬标是让各个分裂⼦集尽可能地“纯”。
尽可能“纯”就是尽量让⼀个分裂⼦集中待分类项属于同⼀类别。
构造决策树的关键性内容是进⾏属性选择度量,属性选择度量是⼀种选择分裂准则,是将给定的类标记的训练集合的数据划分D“最好”地分成个体类的启发式⽅法,它决定了拓扑结构及分裂点split_point的选择。
属性选择度量算法有很多,⼀般使⽤⾃顶向下递归分治法,并采⽤不回溯的贪⼼策略。
Iris数据集

Iris数据集Iris数据集是机器学习领域中最经典的数据集之一,常被用来进行分类问题的研究和算法评估。
该数据集由英国统计学家Ronald Fisher于1936年采集整理,包含了150个样本和4个特征。
本文将详细介绍Iris数据集的背景信息、数据结构和常见的应用场景。
1. 背景信息:Iris数据集是基于鸢尾花的特征测量而创建的。
该数据集包含了三个不同品种的鸢尾花:山鸢尾(setosa)、变色鸢尾(versicolor)和维吉尼亚鸢尾(virginica)。
每一个品种的鸢尾花都有50个样本,共计150个样本。
这些鸢尾花腔本是在20世纪30年代早期从美国加利福尼亚州的高山地区采集得到的。
2. 数据结构:Iris数据集的每一个样本都有四个特征,分别是:- 萼片长度(sepal length):以厘米为单位,表示鸢尾花萼片的长度。
- 萼片宽度(sepal width):以厘米为单位,表示鸢尾花萼片的宽度。
- 花瓣长度(petal length):以厘米为单位,表示鸢尾花花瓣的长度。
- 花瓣宽度(petal width):以厘米为单位,表示鸢尾花花瓣的宽度。
这四个特征被用作输入变量,用于预测鸢尾花的品种。
品种的类别被编码为三个离散值:0表示山鸢尾,1表示变色鸢尾,2表示维吉尼亚鸢尾。
3. 应用场景:Iris数据集在机器学习和统计学的研究中被广泛使用,特殊是在分类问题的研究和算法评估中。
以下是一些常见的应用场景:- 分类算法评估:由于Iris数据集的简单性和可解释性,它常被用来评估不同分类算法的性能。
研究人员可以使用该数据集来比较不同算法在分类任务上的准确度、召回率、精确度等指标。
- 特征选择:Iris数据集的特征维度较小,适适合于特征选择算法的研究。
研究人员可以通过比较不同特征选择算法的效果,来确定哪些特征对于鸢尾花品种分类最为重要。
- 可视化技术研究:Iris数据集的四个特征可以方便地用于可视化技术的研究。
数据挖掘导论Iris KDD分析(DOC)

`题目 iris数据集的KDD实验学院名称信息科学与技术学院专业名称计算机科学与技术学生姓名何东升学生学号201413030119 指导教师实习地点成都理工大学实习成绩二〇一六年 9月iris数据集的KDD实验第1章、实验目的及内容1.1 实习目的知识发现(KDD:Knowledge Discovery in Database)是从数据集中识别出有效的、新颖的、潜在有用的,以及最终可理解的模式的非平凡过程。
知识发现将信息变为知识,从数据矿山中找到蕴藏的知识金块,将为知识创新和知识经济的发展作出贡献。
该术语于1989年出现,Fayyad定义为"KDD"是从数据集中识别出有效的、新颖的、潜在有用的,以及最终可理解的模式的非平凡过程”。
KDD的目的是利用所发现的模式解决实际问题,“可被人理解”的模式帮助人们理解模式中包含的信息,从而更好的评估和利用。
1.2 算法的核心思想作为一个KDD的工程而言,KDD通常包含一系列复杂的挖掘步骤.Fayyad,Piatetsky-Shapiro 和Smyth 在1996年合作发布的论文<From Data Mining to knowledge discovery>中总结出了KDD包含的5个最基本步骤(如图).1: selection: 在第一个步骤中我们往往要先知道什么样的数据可以应用于我们的KDD工程中.2: pre-processing: 当采集到数据后,下一步必须要做的事情是对数据进行预处理,尽量消除数据中存在的错误以及缺失信息.3: transformation: 转换数据为数据挖掘工具所需的格式.这一步可以使得结果更加理想化.4: data mining: 应用数据挖掘工具.5:interpretation/ evaluation: 了解以及评估数据挖掘结果.1.3实验软件:Weka3-9.数据集来源:/ml/datasets/Iris第2章、实验过程2.1数据准备1.从uci的数据集官网下载iris的数据源2.抽取数据,清洗数据,变换数据3.iris的数据集如图Iris也称鸢尾花卉数据集,是一类多重变量分析的数据集。
KDD中的几个关键问题研究

KDD中的几个关键问题研究KDD中的几个关键问题研究KDD(Knowledge Discovery in Databases,数据库中的知识发现)是数据挖掘和机器学习领域的关键技术之一,它涉及数据的收集、清洗、转换、建模和分析等多个环节,旨在从大规模数据中发现有价值的信息和知识。
然而,在进行KDD的过程中,会面临一些关键问题,包括数据预处理、特征选择、模型构建和结果解释等方面。
本文将围绕这几个问题展开探讨。
首先,数据预处理是KDD中的一个关键环节。
原始数据往往存在噪声、缺失值和不一致性等问题,因此需要对数据进行清洗和重构。
数据清洗旨在去除噪声和异常值,使数据更加可靠和准确;数据重构则是通过填补缺失值、归一化、规范化等方式,使数据具有更好的可比性和一致性。
数据预处理的好坏直接影响到后续步骤的准确性和可靠性,因此,如何有效地进行数据预处理是KDD中的一个重要问题。
其次,特征选择是KDD中的另一个关键环节。
在大规模数据中,存在很多特征,但其中只有一部分对于所关注的问题具有重要性。
通过特征选择可以剔除对问题无关的特征,减少特征的维度,并提高模型的性能和可解释性。
特征选择的方法包括过滤式、包裹式和嵌入式等多种,每种方法都有其优缺点和适用场景,选择合适的方法进行特征选择是KDD中的一项重要任务。
第三,模型构建是KDD中的核心环节。
在大规模数据中,构建一个准确、高效和可解释的模型是KDD的终极目标。
模型的选择和构建涉及到多种机器学习方法和算法,包括决策树、支持向量机、神经网络等。
同时,模型的性能评估和调优也是模型构建过程中的关键问题。
通过交叉验证、学习曲线和模型评估指标等方法,可以评估模型的准确性和泛化能力,进一步优化模型的性能。
最后,结果解释是KDD中的一个重要环节。
在KDD的过程中,可以得到大量的信息和知识,但如何解释和理解这些结果并转化为业务价值是一个关键问题。
结果解释涉及到可视化、解释性分析和模型解释等多个方面。
数据挖掘导论

本书的亮点之一在于对可视化分析的独到见解。作者指出,可视化是解决复杂 数据挖掘问题的有效手段,可以帮助我们直观地理解数据和发现隐藏在其中的 规律。书中详细讨论了可视化技术的种类、优缺点以及在数据挖掘过程中的作 用。还通过大量实例,让读者切实感受到可视化分析在数据挖掘中的强大威力。
除了可视化分析,本书还对关联规则挖掘、聚类分析等众多经典算法进行了深 入阐述。例如,在关联规则挖掘部分,作者首先介绍了Apriori算法的基本原 理和实现过程,然后提出了一系列改进措施,如基于哈希表的剪枝、基于密度 的剪枝等,有效提高了算法的效率和准确率。在聚类分析部分,不仅详细讨论 了K-Means、层次聚类等经典算法,还对如何评价聚类效果进行了深入探讨。
第4章:关联规则挖掘。讲解了关联规则的定义、算法和实际应用。
第5章:聚类分析。讨论了聚类算法的类型、原理和应用。
第6章:分类。介绍了分类算法的原理、应用及评估方法。
第7章:回归分析。讲解了回归分析的原理、方法和实际应用。
第8章:时间序列分析。探讨了时间序列的基本概念、模型和预测方法。
第9章:社交网络分析。讲解了社交网络的基本概念、测量指标和挖掘方法。
《数据挖掘导论》是一本非常优秀的书籍,全面介绍了数据挖掘领域的基本概 念、技术和应用。通过阅读这本书,我不仅对数据挖掘有了更深入的了解,还 从中获得了不少启示和收获。书中关键点和引人入胜的内容也让我进行了深入 思考。从个人角度来说,这本书给我带来了很多情感体验和思考。结合本书内 容简单探讨了数据挖掘在生活中的应用前景。
在阅读这本书的过程中,我最大的收获是关于数据挖掘技术的理解。书中详细 介绍了各种数据挖掘技术的原理、优缺点以及适用场景。尤其是关联规则挖掘、 聚类分析和分类算法等部分,让我对这些技术有了更深入的认识。通过这些技 术的学习,我明白了如何从大量数据中提取有用的信息和知识。
数据挖掘导论

数据挖掘导论数据挖掘导论是一门研究如何从大规模数据中发现隐藏模式、提取有用信息的学科。
它涵盖了多个领域,包括统计学、机器学习、数据库技术和人工智能等。
本文将详细介绍数据挖掘导论的基本概念、方法和应用。
一、数据挖掘导论的基本概念数据挖掘导论的核心概念包括数据预处理、数据挖掘任务、数据挖掘过程和模型评估等。
1. 数据预处理数据预处理是数据挖掘的第一步,它包括数据清洗、数据集成、数据转换和数据规约等操作。
数据清洗是指去除噪声和异常值,数据集成是指将多个数据源的数据整合在一起,数据转换是指将数据转换为适合挖掘的形式,数据规约是指减少数据的维度和规模。
2. 数据挖掘任务数据挖掘任务包括分类、聚类、关联规则挖掘、异常检测和预测等。
分类是指将数据分为不同的类别,聚类是指将数据分为相似的群组,关联规则挖掘是指发现数据中的关联关系,异常检测是指发现与大部分数据不符的异常值,预测是指根据历史数据预测未来的趋势。
3. 数据挖掘过程数据挖掘过程包括问题定义、数据收集、数据预处理、模型构建、模型评估和模型应用等步骤。
问题定义是指明确挖掘的目标和需求,数据收集是指获取相关的数据,模型构建是指选择合适的算法和模型进行挖掘,模型评估是指对挖掘结果进行评估,模型应用是指将挖掘结果应用于实际问题中。
4. 模型评估模型评估是判断挖掘模型的好坏的过程,常用的评估指标包括准确率、召回率、精确率和F1值等。
准确率是指分类正确的样本占总样本的比例,召回率是指分类正确的正例占所有正例的比例,精确率是指分类正确的正例占所有分类为正例的样本的比例,F1值是准确率和召回率的调和平均值。
二、数据挖掘导论的方法数据挖掘导论使用了多种方法和算法,包括决策树、神经网络、支持向量机、关联规则挖掘和聚类分析等。
1. 决策树决策树是一种基于树状结构的分类模型,它通过一系列的判断条件将数据分为不同的类别。
决策树的优点是易于理解和解释,但容易过拟合。
2. 神经网络神经网络是一种模拟人脑神经元网络的模型,它通过训练学习数据的模式和规律。
数据挖掘导论

数据挖掘导论数据挖掘是一种从大量数据中发现有价值信息的过程,它涉及到多个领域,包括统计学、机器学习和数据库管理等。
数据挖掘技术可以帮助我们发现隐藏在数据背后的模式、关联和趋势,从而为决策和预测提供支持。
在数据挖掘导论中,我们将介绍数据挖掘的基本概念、技术和应用。
本课程将涵盖以下内容:1. 数据挖掘概述:- 数据挖掘的定义和目标- 数据挖掘的应用领域- 数据挖掘的过程和步骤2. 数据预处理:- 数据清洗:处理缺失值、异常值和噪声- 数据集成:合并多个数据源的数据- 数据变换:对数据进行规范化、离散化和归一化等操作- 数据规约:通过抽样和维度约简减少数据量3. 数据挖掘技术:- 分类:使用已知类别的样本训练模型,对新样本进行分类- 聚类:将相似的数据对象归为一类- 关联规则挖掘:发现数据项之间的关联关系- 预测:基于已有的数据预测未来的趋势和结果4. 数据挖掘算法:- 决策树算法:通过树状结构进行分类和预测- 神经网络算法:模拟人脑神经元的工作原理进行学习和预测- 支持向量机算法:通过找到最优超平面对数据进行分类- 关联规则挖掘算法:如Apriori算法和FP-Growth算法等5. 数据挖掘应用:- 金融领域:风险评估、信用评分和欺诈检测等- 市场营销:客户细分、推荐系统和市场预测等- 医疗健康:疾病诊断、药物发现和基因分析等- 社交网络:用户行为分析、社交推荐和舆情分析等数据挖掘导论课程旨在帮助学生了解数据挖掘的基本概念和技术,并能够应用这些技术解决实际问题。
通过学习本课程,学生将掌握数据挖掘的基本原理和方法,了解数据挖掘在不同领域的应用,并具备使用数据挖掘工具进行数据分析和模型建立的能力。
本课程的评估方式包括课堂作业、实验报告和期末考试。
通过课堂作业和实验报告,学生将有机会运用所学知识解决实际问题,并展示他们的分析和建模能力。
期末考试将检验学生对数据挖掘概念和技术的理解程度。
数据挖掘导论是数据科学和人工智能领域的重要基础课程,对于从事数据分析、人工智能研究和决策支持等工作的人员具有重要意义。
数据挖掘导论

数据挖掘导论导论:数据挖掘是一种通过分析大量数据来发现隐藏模式、关联规则和趋势的过程。
它涉及使用统计学、机器学习和数据库技术来识别和提取有用的信息。
数据挖掘可以帮助企业和组织做出决策、预测未来趋势、发现市场机会等。
1. 数据挖掘的定义和目标:数据挖掘是指从大量数据中自动发现模式、关联规则和趋势的过程。
其目标是通过分析数据来获取有价值的信息,以支持决策和预测未来趋势。
2. 数据挖掘的步骤:数据挖掘通常包括以下步骤:2.1 数据收集:收集与分析目标相关的数据,可以是结构化或非结构化的数据。
2.2 数据预处理:清洗数据、处理缺失值和异常值,以及对数据进行转换和归一化等操作,以确保数据的质量和一致性。
2.3 特征选择:选择最具预测能力的特征,以减少数据维度并提高模型的性能。
2.4 模型选择:选择适合问题的数据挖掘模型,如分类、聚类、关联规则等。
2.5 模型构建:使用选择的模型来构建数据挖掘模型,并对数据进行训练和优化。
2.6 模型评估:评估模型的性能和准确性,可以使用交叉验证、混淆矩阵等方法。
2.7 模型应用:将训练好的模型应用于新的数据,并进行预测、分类、聚类等任务。
3. 数据挖掘的技术和方法:数据挖掘使用多种技术和方法来发现隐藏的模式和规律,其中包括:3.1 分类:将数据分为不同的类别或标签,用于预测和分类任务。
3.2 聚类:将数据分组成相似的集群,用于发现数据的内在结构和关系。
3.3 关联规则:发现数据中的关联关系和频繁项集,用于市场篮子分析、推荐系统等。
3.4 预测分析:基于历史数据来预测未来的趋势和结果,如销售预测、股票预测等。
3.5 异常检测:发现数据中的异常值和离群点,用于欺诈检测、故障诊断等。
3.6 文本挖掘:从大量文本数据中提取有用的信息,如情感分析、主题建模等。
4. 数据挖掘的应用领域:数据挖掘在各个领域都有广泛的应用,包括但不限于:4.1 金融领域:用于信用评估、风险管理、交易分析等。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
`题目 iris数据集的KDD实验学院名称信息科学与技术学院专业名称计算机科学与技术学生姓名何东升学生学号201413030119 指导教师实习地点成都理工大学实习成绩二〇一六年 9月iris数据集的KDD实验第1章、实验目的及内容1.1 实习目的知识发现(KDD:Knowledge Discovery in Database)是从数据集中识别出有效的、新颖的、潜在有用的,以及最终可理解的模式的非平凡过程。
知识发现将信息变为知识,从数据矿山中找到蕴藏的知识金块,将为知识创新和知识经济的发展作出贡献。
该术语于1989年出现,Fayyad定义为"KDD"是从数据集中识别出有效的、新颖的、潜在有用的,以及最终可理解的模式的非平凡过程”。
KDD的目的是利用所发现的模式解决实际问题,“可被人理解”的模式帮助人们理解模式中包含的信息,从而更好的评估和利用。
1.2 算法的核心思想作为一个KDD的工程而言,KDD通常包含一系列复杂的挖掘步骤.Fayyad,Piatetsky-Shapiro 和Smyth 在1996年合作发布的论文<From Data Mining to knowledge discovery>中总结出了KDD包含的5个最基本步骤(如图).1: selection: 在第一个步骤中我们往往要先知道什么样的数据可以应用于我们的KDD工程中.2: pre-processing: 当采集到数据后,下一步必须要做的事情是对数据进行预处理,尽量消除数据中存在的错误以及缺失信息.3: transformation: 转换数据为数据挖掘工具所需的格式.这一步可以使得结果更加理想化.4: data mining: 应用数据挖掘工具.5:interpretation/ evaluation: 了解以及评估数据挖掘结果.1.3实验软件:Weka3-9.数据集来源:/ml/datasets/Iris第2章、实验过程2.1数据准备1.从uci的数据集官网下载iris的数据源2.抽取数据,清洗数据,变换数据3.iris的数据集如图Iris也称鸢尾花卉数据集,是一类多重变量分析的数据集。
通过花萼长度,花萼宽度,花瓣长度,花瓣宽度4个属性预测鸢尾花卉属于(Setosa,Versicolour,Virginica)三个种类中的哪一类。
2.2 实验过程2.2.1.建模(1)C4.5数据挖掘算法使用weka进行有指导的学习训练,选择C4.5数据挖掘算法,在Weka中名为J48,将test options 设置为 Percentage split ,使用默认百分比66%。
选择class作为输出属性。
如图所示:2.设置完成后点击start开始执行(2)Simple KMeans算法1加载数据到Weka,切换到Cluster选项卡,选择Simple KMeans算法、2.设置算法参数,显示标准差,迭代次数设为5000次,其他默认。
簇数选择3,因为花的种类为3。
如下图所示3.在Cluster Mode 面板选择评估数据为Use trainin set,并单击Ignore attribu,忽略class属性。
4.点击start按钮,执行程序第三章实验结果及分析3.1 C4.5结果分析1.运行结果=== Run information ===Scheme: weka.classifiers.trees.J48 -C 0.25 -M 2Relation: irisInstances: 150Attributes: 5sepal lengthsepal widthpetal lengthpetal widthclassTest mode: split 66.0% train, remainder test=== Classifier model (full training set) ===J48 pruned tree------------------petal width <= 0.6: Iris-setosa (50.0)petal width > 0.6| petal width <= 1.7| | petal length <= 4.9: Iris-versicolor (48.0/1.0)| | petal length > 4.9| | | petal width <= 1.5: Iris-virginica (3.0)| | | petal width > 1.5: Iris-versicolor (3.0/1.0)| petal width > 1.7: Iris-virginica (46.0/1.0)Number of Leaves : 5Size of the tree : 9Time taken to build model: 0.01 seconds=== Evaluation on test split ===Time taken to test model on training split: 0 seconds=== Summary ===Correctly Classified Instances 49 96.0784 %Incorrectly Classified Instances 2 3.9216 %Kappa statistic 0.9408Mean absolute error 0.0396Root mean squared error 0.1579Relative absolute error 8.8979 %Root relative squared error 33.4091 %Total Number of Instances 51=== Detailed Accuracy By Class ===TP Rate FP Rate Precision Recall F-Measure MCC ROC Area PRC Area Class1.000 0.000 1.000 1.000 1.000 1.000 1.000 1.000 Iris-setosa1.000 0.063 0.905 1.000 0.950 0.921 0.969 0.905 Iris-versicolor0.882 0.000 1.000 0.882 0.938 0.913 0.967 0.938 Iris-virginicaWeighted Avg. 0.961 0.023 0.965 0.961 0.961 0.942 0.977 0.944=== Confusion Matrix ===a b c <-- classified as15 0 0 | a = Iris-setosa0 19 0 | b = Iris-versicolor0 2 15 | c = Iris-virginica从上述结果可以看出正确率为96.0784 %所以petal width和petal length 可以很好的判断花的类别。
3.1 Simple KMeans 算法结果=== Run information ===Scheme: weka.clusterers.SimpleKMeans -init 0 -max-candidates 100 -periodic-pruning 10000 -min-density 2.0 -t1 -1.25 -t2 -1.0 -V -N 3 -A "weka.core.EuclideanDistance -R first-last" -I 500 -num-slots 1 -S 10Relation: irisInstances: 150Attributes: 5sepal lengthsepal widthpetal lengthpetal widthIgnored:classTest mode: evaluate on training data=== Clustering model (full training set) ===kMeans======Number of iterations: 6Within cluster sum of squared errors: 6.998114004826762Initial starting points (random):Cluster 0: 6.1,2.9,4.7,1.4Cluster 1: 6.2,2.9,4.3,1.3Cluster 2: 6.9,3.1,5.1,2.3Missing values globally replaced with mean/modeFinal cluster centroids:Cluster#Attribute Full Data 0 1 2(150.0) (61.0) (50.0) (39.0)=========================================================== sepal length 5.8433 5.8885 5.006 6.8462+/-0.8281 +/-0.4487 +/-0.3525 +/-0.5025sepal width 3.054 2.7377 3.418 3.0821+/-0.4336 +/-0.2934 +/-0.381 +/-0.2799petal length 3.7587 4.3967 1.464 5.7026+/-1.7644 +/-0.5269 +/-0.1735 +/-0.5194petal width 1.1987 1.418 0.244 2.0795+/-0.7632 +/-0.2723 +/-0.1072 +/-0.2811Time taken to build model (full training data) : 0 seconds=== Model and evaluation on training set ===Clustered Instances0 61 ( 41%)1 50 ( 33%)2 39 ( 26%)从实验结果可以看出分出的类为3个且比例与元数据的class的比例1:1:1的比例不是很相近。
从C4.5的结果来看pental width和pental length 更加符合,重新选择属性,仅选择pental width和pental length 结果如下=== Run information ===Scheme: weka.clusterers.SimpleKMeans -init 0 -max-candidates 100 -periodic-pruning 10000 -min-density 2.0 -t1 -1.25 -t2 -1.0 -V -N 3 -A "weka.core.EuclideanDistance -R first-last" -I 5009 -num-slots 1 -S 10Relation: irisInstances: 150Attributes: 5petal lengthpetal widthIgnored:sepal lengthsepal widthclassTest mode: evaluate on training data=== Clustering model (full training set) ===kMeans======Number of iterations: 6Within cluster sum of squared errors: 1.7050986081225123Initial starting points (random):Cluster 0: 4.7,1.4Cluster 1: 4.3,1.3Cluster 2: 5.1,2.3Missing values globally replaced with mean/modeFinal cluster centroids:Cluster#Attribute Full Data 0 1 2(150.0) (52.0) (50.0) (48.0)=========================================================== petal length 3.7587 4.2962 1.464 5.5667+/-1.7644 +/-0.5053 +/-0.1735 +/-0.549petal width 1.1987 1.325 0.244 2.0562+/-0.7632 +/-0.1856 +/-0.1072 +/-0.2422Time taken to build model (full training data) : 0.02 seconds=== Model and evaluation on training set ===Clustered Instances0 52 ( 35%)1 50 ( 33%)2 48 ( 32%)从结果可以看出pental width和pental length 能够很好的作为分类的属性值第四章心得体会从这次的作业中学习了KDD以及KDD模型过程的建立。