数据挖掘技术期末报告
数据挖掘期末总结PPT怎么做

数据挖掘期末总结PPT怎么做一、引言数据挖掘是一门相对较新的学科,通过应用统计学、人工智能和机器学习等方法,从大规模数据集中提取出有价值的信息和知识。
本学期的数据挖掘课程主要介绍了数据挖掘的基本概念、技术和应用。
通过学习和实践,我对数据挖掘的基本过程、常用算法和实际应用有了更深入的理解和掌握。
在本次期末总结PPT中,我将对本学期的学习成果进行总结和展示。
二、学习成果总结1. 数据挖掘的基本概念和流程在本学期的学习中,我了解了数据挖掘的基本概念,包括数据挖掘的定义、目标、任务和应用范围。
同时,我也掌握了数据挖掘的基本流程,从问题定义、数据预处理、特征选择到建模评估和模型优化,了解每个阶段的重要性和相应的方法。
2. 数据预处理技术数据预处理是数据挖掘过程中的重要步骤,对原始数据进行清洗、变换和集成,以便更好地进行后续分析和建模。
我学习了数据清洗、数据变换、数据集成和数据规约等预处理技术的基本原理和方法,并通过实验来探索数据质量的分析和数据清洗的过程。
3. 特征选择和降维技术特征选择是指从原始数据中选择出最具有代表性的特征,降低数据维度,提高数据挖掘效果。
我学习了特征选择的基本原理和方法,包括过滤式、包裹式和嵌入式方法,并通过实验来评估特征选择的效果。
此外,我也了解了主成分分析(PCA)等降维技术的原理和应用。
4. 常用的数据挖掘算法在本学期的课程中,我学习了一些常用的数据挖掘算法,包括关联规则挖掘、分类与回归、聚类分析和异常检测等。
对于每个算法,我了解了其基本原理、算法流程和应用场景,并通过实验来实践应用。
5. 数据挖掘的实际应用数据挖掘在各个领域都有广泛的应用,如商业、医疗、金融等。
通过学习和案例分析,我了解了数据挖掘在市场分析、客户关系管理、疾病预测和金融风险评估等方面的实际应用。
这些案例不仅帮助我理解数据挖掘的实际应用场景,还加深了我对数据挖掘算法和技术的理解。
三、学习心得体会在本学期的学习中,我对数据挖掘的理论和实践有了更深入的了解和认识。
数据挖掘经验总结汇报

数据挖掘经验总结汇报数据挖掘经验总结汇报引言:数据挖掘是一项重要的技术,它可以帮助我们从大量的数据中发现隐藏的模式和关联规则,为决策提供有力支持。
在过去的一段时间里,我参与了一个数据挖掘项目,通过分析和挖掘数据,我积累了一些经验和教训,现在将在本文中进行总结和汇报。
1. 数据收集和预处理:在数据挖掘项目中,数据的质量和准确性对于结果的影响非常大。
因此,我首先花费了大量的时间和精力来收集和预处理数据。
数据收集的过程中,我遇到了一些困难,如数据缺失、重复和噪声等问题。
为了解决这些问题,我使用了数据清洗、数据集成和数据转换等技术。
通过这些预处理步骤,我成功地获得了高质量的数据集,为后续的分析和挖掘奠定了基础。
2. 特征选择和特征工程:在数据挖掘过程中,选择合适的特征对于结果的准确性和可解释性至关重要。
我通过分析数据集中的各个特征,使用了统计方法和领域知识来选择最相关和最有价值的特征。
此外,我还进行了特征工程,通过组合、转换和创建新的特征来提高模型的性能。
这些步骤帮助我准确地描述了数据集中的特征,并为后续的建模和分析提供了有力支持。
3. 模型选择和建模:在数据挖掘项目中,选择适合的模型对于结果的准确性和稳定性至关重要。
我在项目中尝试了多种不同的模型,如决策树、支持向量机和神经网络等。
通过对比和评估这些模型的性能,我最终选择了最适合数据集的模型。
此外,我还进行了模型调参和优化,以提高模型的泛化能力和预测准确性。
这些步骤帮助我构建了一个高效和准确的数据挖掘模型。
4. 模型评估和结果解释:在数据挖掘项目中,模型的评估和结果的解释对于项目的成功和可持续发展至关重要。
我使用了多种评估指标,如准确率、召回率和F1值等,来评估模型的性能。
此外,我还使用了可视化工具和图表来解释和展示结果,使非技术人员也能够理解和使用这些结果。
这些步骤帮助我有效地评估了模型的性能,并为项目的成功提供了有力支持。
结论:通过参与数据挖掘项目,我积累了丰富的经验和教训。
数据挖掘技术分析期末总结

数据挖掘技术分析期末总结第一章:引言数据挖掘技术在当前信息爆炸的时代扮演着至关重要的角色。
数据挖掘技术能够从大量、复杂、多源、高维度的数据中发现隐藏的、有用的信息,并利用这些信息做出智能决策。
本文将对数据挖掘技术进行分析和总结,包括数据挖掘的定义、应用、技术和挑战等方面。
第二章:数据挖掘的定义和基本概念本章将对数据挖掘的定义和基本概念进行介绍。
数据挖掘是一门综合性的学科,它将数据库技术、机器学习、统计学和模式识别等多个学科的知识融合于一体。
数据挖掘的基本概念包括数据预处理、特征选择、数据采样、模型选择、模型评估等。
第三章:数据挖掘的技术和方法本章将对数据挖掘的技术和方法进行详细介绍。
数据挖掘的核心技术包括分类、聚类、关联规则挖掘、异常检测和预测分析等。
针对不同的任务和数据类型,我们可以选择不同的数据挖掘方法,如决策树、神经网络、支持向量机等。
第四章:数据挖掘的应用领域本章将对数据挖掘的应用领域进行梳理。
数据挖掘技术可以广泛应用于金融、电子商务、医疗、交通、社交网络等各个领域。
在这些领域中,数据挖掘可以帮助企业发现市场机会、提高生产效率、优化运营管理等。
第五章:数据挖掘的挑战和未来发展趋势本章将对数据挖掘的挑战和未来发展趋势进行分析和展望。
随着科技的不断发展,数据量的不断增加,数据挖掘面临着各种挑战,如数据隐私保护、模型解释性和数据不平衡等。
然而,数据挖掘仍然有很大的发展空间,未来可能出现更多的研究和应用领域。
第六章:结论本文通过对数据挖掘技术的分析和总结,我们可以得出以下结论:数据挖掘技术在当今社会具有重要的应用价值;数据挖掘技术包括了多种技术和方法,可以根据不同的任务和数据类型进行选择;数据挖掘技术还面临着各种挑战,但未来仍然有很大的发展潜力。
总结:数据挖掘技术是当今社会中处理和分析大数据的重要工具。
在数据挖掘技术的帮助下,我们可以从大数据中发现有价值的信息,并据此做出智能决策。
数据挖掘技术的应用领域广泛,可以帮助企业进行市场预测、产品推荐和风险控制等。
数据挖掘知识点期末总结

数据挖掘知识点期末总结数据挖掘是一门涉及数据分析、机器学习、统计学和数据库技术的跨学科领域。
它利用各种算法和技术,从大规模数据集中提取模式和知识,以帮助人们做出更好的决策。
在信息时代,数据成为了我们生活和工作中的重要资源,而数据挖掘技术的发展,使得我们能够更好地利用这些数据。
在本文中,我们将回顾数据挖掘的基本概念、技术和应用,并对其未来发展进行展望。
一、数据挖掘的基本概念1. 数据挖掘的定义数据挖掘是指通过建立模型、使用算法,自动地发现数据中的模式、规律和知识的过程。
数据挖掘的目的是从大规模数据中提取有用的信息,以帮助人们做出决策、发现隐藏的信息和规律。
2. 数据挖掘的过程数据挖掘的过程通常包括数据清洗、特征选择、模型构建、模型评估和模型应用等步骤。
数据清洗主要是清理数据中的异常值和缺失值,特征选择是从大量特征中选择出最重要的特征,模型构建是利用算法建立模型,模型评估是评估模型的表现,模型应用是将模型应用到实际情况中进行预测。
二、数据挖掘的技术1. 分类算法分类算法是数据挖掘中常用的一种算法,它通过对训练数据进行学习,构建一个分类模型,用来预测数据的类别。
常见的分类算法包括决策树、支持向量机、朴素贝叶斯和神经网络等。
2. 聚类算法聚类算法是将数据集中的对象分成多个组,使得组内的对象之间相似度较高,组间的相似度较低。
聚类算法可以用来发现数据中的潜在结构,帮助我们理解数据的内在特点。
常见的聚类算法包括K均值、层次聚类和DBSCAN等。
3. 关联规则挖掘关联规则挖掘是用来发现数据中项之间的相关性和规律的技术。
通过关联规则挖掘,我们可以找到数据中多个项之间的潜在关系,从而帮助企业做出更好的决策。
常见的关联规则挖掘算法包括Apriori和FP-growth等。
4. 时间序列分析时间序列分析是一种用来处理时间序列数据的技术,它可以识别出数据中的趋势、周期和季节性,并用来预测未来的值。
时间序列分析在金融、气象和交通等领域有着广泛的应用。
数据挖掘与报告工作总结

数据挖掘与报告工作总结在当今数字化时代,数据已成为企业和组织决策的重要依据。
数据挖掘作为从大量数据中提取有价值信息的关键技术,为企业的发展提供了有力支持。
而准确、清晰的报告则是将挖掘出的数据转化为可理解、可行动的决策依据的重要环节。
在过去的一段时间里,我深入参与了数据挖掘与报告工作,积累了丰富的经验,也取得了一定的成果。
在此,我将对这段时间的工作进行总结和回顾。
一、数据挖掘工作数据挖掘是一个复杂而又充满挑战的过程,需要综合运用多种技术和方法。
在工作中,我首先面临的是数据收集和整理的问题。
为了确保数据的质量和完整性,我需要从多个数据源获取数据,并进行清洗、转换和整合。
这一过程需要耐心和细心,因为任何错误或缺失的数据都可能影响到后续的分析结果。
在数据预处理完成后,我开始运用各种数据挖掘算法进行分析。
例如,分类算法帮助我们将客户分为不同的类别,以便制定个性化的营销策略;聚类算法则用于发现数据中的相似模式和群体;关联规则挖掘则可以揭示不同产品之间的购买关系。
在选择算法时,我会根据具体的业务问题和数据特点进行评估和选择,以确保算法的有效性和适用性。
同时,特征工程也是数据挖掘中至关重要的一环。
通过对原始数据进行特征提取、选择和构建,能够提高模型的性能和准确性。
在特征工程中,我会运用统计分析、领域知识和数据可视化等手段,深入理解数据的内在结构和关系,从而提取出有意义的特征。
在模型训练和优化过程中,我会不断调整参数,进行交叉验证,以评估模型的性能。
同时,我也会关注模型的过拟合和欠拟合问题,采取相应的措施进行改进。
例如,增加数据量、使用正则化技术或者选择更简单的模型结构。
二、报告工作数据挖掘的结果只有通过清晰、准确的报告才能被决策者理解和应用。
在报告工作中,我始终注重以简洁明了的方式呈现复杂的数据分析结果。
首先,我会明确报告的目标和受众。
根据不同的受众,如管理层、业务部门或者技术人员,调整报告的内容和重点。
对于管理层,我会着重呈现关键的业务指标和结论,以及对业务决策的建议;对于业务部门,我会提供更具体的业务分析和案例;对于技术人员,则会分享更多的技术细节和模型评估指标。
数据挖掘报告(模板)

第一章:数据挖掘基本理论数据挖掘的产生:随着计算机硬件和软件的飞速发展,尤其是数据库技术与应用的日益普及,人们面临着快速扩张的数据海洋,如何有效利用这一丰富数据海洋的宝藏为人类服务业已成为广大信息技术工作者的所重点关注的焦点之一。
与日趋成熟的数据管理技术与软件工具相比,人们所依赖的数据分析工具功能,却无法有效地为决策者提供其决策支持所需要的相关知识,从而形成了一种独特的现象“丰富的数据,贫乏的知识”。
为有效解决这一问题,自二十世纪90年代开始,数据挖掘技术逐步发展起来,数据挖掘技术的迅速发展,得益于目前全世界所拥有的巨大数据资源以及对将这些数据资源转换为信息和知识资源的巨大需求,对信息和知识的需求来自各行各业,从商业管理、生产控制、市场分析到工程设计、科学探索等。
数据挖掘可以视为是数据管理与分析技术的自然进化产物。
自六十年代开始,数据库及信息技术就逐步从基本的文件处理系统发展为更复杂功能更强大的数据库系统;七十年代的数据库系统的研究与发展,最终导致了关系数据库系统、数据建模工具、索引与数据组织技术的迅速发展,这时用户获得了更方便灵活的数据存取语言和界面;此外在线事务处理手段的出现也极大地推动了关系数据库技术的应用普及,尤其是在大数据量存储、检索和管理的实际应用领域。
自八十年代中期开始,关系数据库技术被普遍采用,新一轮研究与开发新型与强大的数据库系统悄然兴起,并提出了许多先进的数据模型:扩展关系模型、面向对象模型、演绎模型等;以及应用数据库系统:空间数据库、时序数据库、多媒体数据库等;日前异构数据库系统和基于互联网的全球信息系统也已开始出现并在信息工业中开始扮演重要角色。
被收集并存储在众多数据库中且正在快速增长的庞大数据,已远远超过人类的处理和分析理解能力(在不借助功能强大的工具情况下),这样存储在数据库中的数据就成为“数据坟墓”,即这些数据极少被访问,结果许多重要的决策不是基于这些基础数据而是依赖决策者的直觉而制定的,其中的原因很简单,这些决策的制定者没有合适的工具帮助其从数据中抽取出所需的信息知识。
数据挖掘期末笔记总结

数据挖掘期末笔记总结数据挖掘是一门研究如何通过大规模数据进行知识发现和模型构建的学科。
它是人工智能、机器学习和数据库技术的交叉学科,涉及数据预处理、特征选择、模型建立和模型评估等方面。
数据挖掘的任务包括分类、聚类、关联规则挖掘、异常检测和时序预测等。
本次期末笔记总结将从数据预处理、特征选择、聚类、分类和模型评估等方面进行概括。
1. 数据预处理数据预处理是数据挖掘的第一步,目的是将原始数据转化为适合进行挖掘的数据。
数据预处理包括数据清洗、数据集成、数据转换和数据规约。
数据清洗主要是处理缺失值、噪声和异常值;数据集成是将多个数据源合并成一个一致的数据集;数据转换是将数据转化为适合挖掘算法的形式;数据规约是简化数据,提高计算效率。
2. 特征选择特征选择是从所有可能的特征中选择出有用的特征,用于构建模型或进行数据分析。
特征选择的方法包括过滤法、包裹法和嵌入法。
过滤法是通过计算特征与目标变量之间的相关性来选择特征;包裹法是通过构建模型来评估特征的重要性;嵌入法是将特征选择嵌入到模型训练过程中,根据特征的权重来选择特征。
3. 聚类聚类是将相似的数据对象分组到同一个簇中的过程。
聚类可以用于数据的探索性分析、异常检测和市场细分等任务。
常用的聚类算法包括K均值聚类、层次聚类和密度聚类。
K均值聚类是一种基于距离度量的聚类算法,将数据点划分到K个簇中,使得每个数据点到所属簇的质心的距离最小化;层次聚类是一种通过不断地合并和拆分簇来构建聚类层次结构的算法;密度聚类是一种通过计算数据点的密度来进行聚类的算法。
4. 分类分类是基于已有的类别标签训练模型,然后预测新样本的类别标签。
分类是监督学习的一种形式,常用的分类算法包括决策树、朴素贝叶斯、支持向量机和神经网络。
决策树通过将数据集划分为不同的子集来构建一个预测模型;朴素贝叶斯通过计算事件发生的先验概率和条件概率来进行分类;支持向量机通过寻找一个超平面来将不同类别的数据分隔开;神经网络通过多个神经元的连接和激活函数的计算来进行分类。
(完整)数据挖掘课程报告

数据挖掘课程报告学习“数据挖掘”这门课程已经有一个学期了,在这十余周的学习过程中,我对数据挖掘这门技术有了一定的了解,明确了一些以前经常容易混淆的概念,并对其应用以及研究热点有了进一步的认识.以下主要谈一下我的心得体会,以及我对数据挖掘这项课题的见解。
随着数据库技术和计算机网络的迅速发展以及数据库管理系统的广泛应用,人们积累的数据越来越多,而数据挖掘(Data Mining)就是在这样的背景下诞生的。
简单来说,数据挖掘就是从大量的数据中,抽取出潜在的、有价值的知识、模型或规则的过程。
作为一类深层次的数据分析方法,它利用了数据库、人工智能和数理统计等多方面的技术.从某种角度上来说,数据挖掘可能并不适合进行科学研究,因为从本质上来说,数据挖掘这个技术是不能证明因果的,以一个最典型的例子来说,例如数据挖掘技术可以发现啤酒销量和尿布之间的关系,但是显然这两者之间紧密相关的关系可能在理论层面并没有多大的意义。
不过,仅以此来否定数据挖掘的意义,显然就是对数据挖掘这项技术价值加大的抹杀,显然,数据挖掘这项技术从设计出现之初,就不是为了指导或支持理论研究的,它的重要意义在于,它在应用领域体现出了极大地优越性.首先有一点是我们必须要明确的,即我们为什么需要数据挖掘这门技术?这也是在开课前一直困扰我的问题。
数据是知识的源泉,然而大量的数据本身并不意味信息.尽管现代的数据库技术使我们很容易存储大量的数据,但现在还没有一种成熟的技术帮助我们分析、理解这些数据。
数据的迅速增加与数据分析方法的滞后之间的矛盾越来越突出,人们希望在对已有的大量数据分析的基础上进行研究,但是目前所拥有的数据分析工具很难对数据进行深层次的处理,使得人们只能望“数”兴叹。
数据挖掘正是为了解决传统分析方法的不足,并针对大规模数据的分析处理而出现的。
数据挖掘可以帮助人们对大规模数据进行高效的分析处理,以节约时间,将更多的精力投入到更高层的研究中,从而提高科研工作的效率。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
.数据挖掘技术期末报告评分:优□|良□|中□|及格□|不及格□一、实验目的基于从UCI公开数据库中下载的数据,使用数据挖掘中的分类算法,用Weka平台的基本功能对数据集进行分类,对算法结果进行性能比较,画出性能比较图,另外针对不同数量的训练集进行对比实验,并画出性能比较图训练并测试。
二、实验环境实验采用Weka平台,数据使用来自从UCI公开数据库中下载,主要使用其中的Breast Cancer Wisc-onsin (Original) Data Set数据。
Weka是怀卡托智能分析系统的缩写,该系统由新西兰怀卡托大学开发。
Weka使用Java写成的,并且限制在GNU通用公共证书的条件下发布。
它可以运行于几乎所有操作平台,是一款免费的,非商业化的机器学习以及数据挖掘软件。
Weka提供了一个统一界面,可结合预处理以及后处理方法,将许多不同的学习算法应用于任何所给的数据集,并评估由不同的学习方案所得出的结果。
三、实验步骤3.1数据预处理本实验是针对威斯康辛州(原始)的乳腺癌数据集进行分类,该表含有Sample code number(样本代码),Clump Thickness(丛厚度),Uniformity of Cell Size(均匀的细胞大小),Uniformity of Cell Shape (均匀的细胞形状),MarginalAdhesion(边际粘连),Single Epithelial Cell Size(单一的上皮细胞大小),Bare Nuclei(裸核),Bland Chromatin(平淡的染色质),Normal Nucleoli(正常的核仁),Mitoses(有丝分裂),Class(分类),其中第二项到第十项取值均为1-10,分类中2代表良性,4代表恶性。
通过实验,希望能找出患乳腺癌客户各指标的分布情况。
该数据的数据属性如下:1. Sample code number(numeric),样本代码;2. Clump Thickness(numeric),丛厚度;3.Uniformity of Cell Size(numeric)均匀的细胞大小;4. Uniformity of Cell Shape(numeric),均匀的细胞形状;5.Marginal Adhesion(numeric),边际粘连;6.Single Epithelial Cell Size(numeric),单一的上皮细胞大小;7.Bare Nuclei(numeric),裸核;8.Bland Chromatin(numeric),平淡的染色质;9. Normal Nucleoli(numeric),正常的核仁;10.Mitoses(numeric),有丝分裂;11.Class(enum),分类。
3.2数据分析由UCI公开数据库得到一组由逗号隔开的数据,复制粘贴至excel表中,选择数据——分列——下一步——逗号——完成,该数据是有关乳腺癌数据集,有11个属性,分别为Sample code number(样本代码),Clump Thickness(丛厚度),Uniformity of Cell Size(均匀的细胞大小),Uniformity of Cell Shape (均匀的细胞形状),Marginal Adhesion(边际粘连),Single Epithelial Cell Size(单一的上皮细胞大小),Bare Nuclei(裸核),Bland Chromatin(平淡的染色质),Normal Nucleoli(正常的核仁),Mitoses(有丝分裂),Class (分类),因为复制粘贴过来的数据没有属性,所以手工添加一行属性名。
Weka分类数据需把excel保存为一个csv 文件。
图1中显示的是使用“Exploer”打开“乳腺癌数据集.csv.arff”的情况.如图1所示:(图1)3.2.1 数据预处理很明显发现,所用的数据都是(numeric)数值型的,需要将数值型离散化,将“Clump Thickness ”,“Uniformity of Cell Size ”,“Uniformity of Cell Shape”,“Marginal Adhesion ”,“Marginal Adhesion ”,“Bare Nuclei ”,“Bland Chromatin ”,“Normal Nucleoli ”,“Mitoses”,“Class”离散化。
我们需要借助Weka中名为“Discretize”的Filter来完成。
在区域2中点“Choose”,出现一棵“Filter树”,逐级找到“weka.filters.unsupervised.attribute.Discretize”点击,即可。
现在“Choose”旁边的文本框应该显示“Discretize -B 10 -M -0.1 -R first-last”。
如图箭头所示,点击这个文本框会弹出新窗口以修改离散化的参数。
我们需将第1,2,3,4,5,6,7,8,9,10项离散化,其中第一项为id,可移除。
把attributeIndices右边改成“1,2,3,4,5,6,7,8,9,10”。
我们把这两个属性都分成10段,于是把“bins”改成“10”。
其它不变。
点“OK”回到“Explorer”,可以看到“Clump Thickness ”,“Uniformity of Cell Size ”,“Uniformity of Cell Shape”,“Marginal Adhesion ”,“Marginal Adhesion ”,“Bare Nuclei ”,“Bland Chromatin ”,“Normal Nucleoli ”,“Mitoses”,已经被离散化成分类型的属性。
经移除后剩10项属性,其中一项如图2所示,10项属性可视化如图3所示:(图2)(图3)3.3.1决策树分类用“Explorer”打开刚才得到的“乳腺癌数据集.csv.arff”,并切换到“Class”。
点“Choose”按钮选择“tree(weka.classifiers.trees.j48)”,这是Weka中实现的决策树算法。
得到结果如图4和图5所示:(图4)(图5)这个是针对第一项Clump Thickness丛厚度和第九项Mitoses有丝分裂项运用C4.5决策算法得到误差分析的结果,分析可知总共有699个数据进行分类,Clump Thickness (丛厚度)其中102个为正确分类,正确分类率为26.03726%,517个为错误分类,错误分类为73.9268%。
而第九项Mitoses 有丝分裂项也是分析699个数据,其中正确分类有579个数据,正确率为82.8326%,错误分类的有120个,错误分类的有17.1674%。
根据混淆矩阵,被错误分类实例很多如图(图6)3.3.2贝叶斯分类为了与上面决策树作比较,贝叶斯也选择第一项第一项Clump Thickness丛厚度和第九项Mitoses有丝分裂项,得到结果如下图7,8所示:(图7)(图8)这个是针对第一项Clump Thickness丛厚度和第九项Mitoses有丝分裂项运用贝叶斯算法得到误差分析的结果,分析可知总共有699个数据进行分类,Clump Thickness(丛厚度)其中198个为正确分类,正确分类率为28.3262%,501个为错误分类,错误分类为71.6738%。
而第九项Mitoses有丝分裂项其中正确分类有467个数据,正确率为66.8097%,错误分类的有232个,错误分类的有33.1903%。
根据混淆矩阵,被错误分类实例很多,相对来说,Clump Thickness丛厚度用两种方法混淆程度差不多,错综复杂,而Mitoses有丝分裂项用贝叶斯分类明显混淆矩阵要比用决策树方法混淆率要低,中间第六项到就第九项明显混响不是很多,如图9所示。
基于以上两种分析,建议用贝叶斯分类方法分类,降低混淆率,提高正确率。
(图9)3.3.3K最近邻算法分类在刚才进行决策树分类和贝叶斯分类的的的那个页面,点“Choose”按钮选择“laze->ibk”,选择Cross-Validatioin folds=10,然后点击“start”按钮:同样选择图中箭头指向选择属性,然后点击“start”按钮:为了与上面决策树和贝叶斯作比较,K最近邻算法分类也选择第一项Clump Thickness丛厚度和第九项Mitoses有丝分裂项,得到结果如下图10,11所示:(图10)(图11)这个是针对第一项Clump Thickness丛厚度和第九项Mitoses有丝分裂项运用K最近邻算法得到误差分析的结果,分析可知总共有699个数据进行分类,Clump Thickness(丛厚度)其中191个为正确分类,正确分类率为27.3247%,508个为错误分类,错误分类为72.6753%。
而第九项Mitoses有丝分裂项其中正确分类有546个数据,正确率为78.1116%,错误分类的有153个,错误分类的有21.8884%。
根据混淆矩阵,被错误分类实例很多,相对来说,Clump Thickness丛厚度与前两个算法混淆程度差不多,错综复杂,甚至比前两个更要复杂,而Mitoses有丝分裂项用K最近邻算法明显混淆矩阵要比用决策树方法和贝叶斯方法混淆率要低,中间第四项到就最后明显混响不是很多,如图12所示:(图12)3.4三种分类方法结果比较如表所示:决策树贝叶斯K最近邻算法Clump Thickness正确率26.03726%28.3262%27.3247%,ClumpThickness标准误差0.3109 0.3119 0.3227Mitoses正确率82.8326% 66.8097% 78.1116%Mitoses标准误差0.1755 0.2104 0.1989四、三种算法在进行测试的性能比较要进行性能比较,则需比较这10项属性的预测,同上文一样,这里只比较第一项Clump Thickness丛厚度和第九项Mitoses有丝分裂项,点“more options...”按钮,选勾选“out prediction”,其他不勾选,然后点击“OK”按钮如图13所示:(图13)得到性能测试结果如下,图14分别为第一项Clump Thickness丛厚度用决策树方法、贝叶斯、K最近邻算法预测的结果,图15分别为第九项Mitoses有丝分裂项用决策树方法、贝叶斯、K最近邻算法预测的结果。
结果如下:(图14)分析第一项Clump Thickness丛厚度。
性能分析应该包括两个部分,一个部分是测试速度,另一个部分是测试的质量。