数据挖掘神经网络法的研究现状和发展趋势综述

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

数据挖掘神经网络法的研究现状和发展趋势综述

摘要:随着计算机技术的迅猛发展,数据挖掘技术越来越受到世界的关注。从数据挖掘的概念出发,介绍了数据挖掘的对象、功能及其挖掘过程,结合数据挖掘的几种常见挖掘算法:决策树法、关联规则法和神经网络法等,对其主要思想及其改进做了相关描述;总结了国内外数据挖掘的研究现状和应用,指出了数据挖掘的发展趋势。

关键词:数据挖掘;决策树法;关联规则法;神经网络法;研究现状;发展趋势

0引言

数据挖掘作为一个新兴的多学科交叉应用领域,正在各行各业的决策支持活动中扮演着越来越重要的角色。随着信息技术的迅速发展,各行各业都积累了海量异构的数据资料。这些数据往往隐含着各种各样有用的信息,仅仅依靠数据库的查询检索机制和统计学方法很难获得这些信息,迫切需要将这些数据转化成有用的信息和知识,从而达到为决策服务的目的。数据挖掘分析得到的信息和知识现在已经得到了广泛的应用,例如商务管理、生产控制、市场分析、工程设计和科学探索等。数据挖掘是一个多学科领域,它融合了数据库技术、人工智能、机器学习、统计学、知识工程、信息检索等最新技术的研究成果。本文主要介绍了数据挖掘的几种主要算法及其改进,并对国内外的研究现状及研究热点进行了总结,最后指出其发展趋势[1]

1研究背景

1.1数据挖掘

目前数据挖掘是人工智能和数据库领域的研究热点,数据挖掘是发现数据库中隐含知识的重要步骤。数据挖掘出现于20世纪80年代末,早期主要研究从数据库中发现知识(Knowlegde Discovery in Database,KDD),数据挖掘的概念源于1995年在加拿大召开了第一届知识发现和数据挖掘国际会议[2]。数据挖掘作为一种多学科综合的产物,综合利用人工智能、机器学习、模式识别、统计学、数据库、可视化技术等,自动分析数据并从中得到潜在隐含的知识,从而帮助决策者做出合理并正确的决策。

1.2数据挖掘对象

数据挖掘的对象可以是任何类型的数据源,可以是关系数据库,此类包含结构化数据的数据源;也可以是数据仓库、文本、多媒体数据、空间数据、时序数据、Web数据,此类包含半结构化数据甚至是异构型数据的数据源[2]。发现知识的方法可以是数字的、非数字的,也可以是归纳的,最终被发现了的知识可以用于信息管理、查询优化、决策支持及数据自身的维护等[1]

1.3数据挖掘功能

目前数据挖掘的主要功能包括概念描述、关联分析、分类、聚类和偏差检测等。概念描述主要用于描述对象内涵并且概括此对象相关特征,概念描述分为特征性描述和区别性描述,特征性描述描述对象的相同特征,区别性描述描述对象的不同特征;关联分析主要用来发

现数据库中相关的知识以及数据之间的规律,关联分为简单关联、时序关联、因果关联;分类和聚类就是根据需要训练相应的样本来对数据分类和合并;偏差分析用于对对象中异常数据的检测。

1.4数据挖掘过程

数据挖掘主要分3个阶段:数据准备、数据挖掘、结果的评价和表达。数据准备主要是完成对大量数据的选择、净化、推测、转换、数据的缩减,数据准备阶段的工作好坏将影响到数据挖掘的效率和准确度以及最终模式的有效性,在数据准备阶段可以消除在挖掘过程中无用的数据,从而提高数据挖掘的效率和准确度;数据挖掘的工作首先需要选择相应的挖掘实施算法,例如决策树、分类、聚类、粗糙集、关联规则、神经网络、遗传算法等,然后对数据进行分析,从而得到知识的模型;结果评价和表达主要是确定知识的模式模型是否有效以便发现有意义的模型[3]

2数据挖掘主要方法

2.1决策树法

决策树法是数据挖掘的分类功能中一种比较常用的方法。决策树法起源于概念学习系统CLS,然后发展到ID3方法,ID3算法是由Quinlan首先提出,该算法是以信息论为基础,以信息熵和信息增益度为衡量标准。ID3算法的主要思想是:首先计算各属性的信息增益,然后选取具有最高增益的属性作为给定集合的测试属性。所以造成ID3用信息增益选择属性时偏向选择取值多的属性,但是取值多的属性不一定找到最优解,为了克服此问题,出现了改进算法——C4.5

算法[4]。C4.5算法不但克服了ID3偏向选择取值多的属性这一缺点,还实现了对连续属性的离散化处理和对不完整数据的处理。虽然C4.5算法在速度和预测精度等方面占有优势,但是由于C4.5在构造树的过程中,需要对数据集进行多次的顺序扫描和排序,导致该算法在性能方面较为低效。针对C4.5算法效率不高的问题,很多学者提出了针对改进措施:一种有效的C4.5的改进模型R-C4.5,该决策树模型通过合并分类较差的分支,减少了无意义的分支进一步的划分,有效避免了碎片的产生,在保持模型预测准确率的同时,有效改进了树的健壮性[5]。而从C4.5在连续值属性离散化方面的局限性来看,C4.5算法在对连续值属性进行离散化处理时,为了找到较好的划分点,C4.5算法需要测试所有潜在的划分信息增益,这样就大大降低了该算法分类的效率。基于Fayyad和Irani对C4.5算法的改进,调整了其对连续值属性惩罚的基础,指定一个阈值a,通过 a 值的判定与增益率的判定,决定是否继续构造节点[6]。此外,考虑到有新样本添加到数据库中的情况,按照C4.5算法,需要对所有的样本进行重新学习,这样会造成大量时间的浪费,所以在此提出一种增量学习方法,最大限度地保留决策树中的原本分支及分类结果,减少了计算量[7]。2.2关联规则法

关联模式中最著名的是Apriori算法,它是由R.Agrawal等人首先提出来的[8],其算法思想是:首先找出频繁性至少和预定义的最小支持度一样的所有频集,然后由频集产生强关联规则。

最典型的例子就是沃尔玛尿布和啤酒事件,在此例中,商家就是利用统计这两种商品在一次购买中共同出现的频数,将出现频数多的搭配转化为关联规则[9]。Apriori算法的实现是通过对数据库D的多次扫描来发现所有的频繁项目集。在每一次扫描中只考虑具有同一长度的所有项目集,在进行第一次扫描中,Apriori算法计算D 中所有单个项目的支持度,生成所有长度为1的频繁项目集;在后续的每一次扫描中,首先以K-1次扫描所生成的所有项目集为基础产生新的候选项目集,然后扫描数据库D,计算这些候选项目集的支持度,删除其支持度低于用户给定的最小支持度的项目集;最后,生成所有长度为K的频繁项目集。重复以上过程直到再也发现不了新的频繁项目集为止。由此可见,若要提高Apriori算法的效率,可以减少对数据库的扫描次数或者减少不必要的频繁项目集的生成[10],对Apriori算法的改进主要方法有:①基于划分的方法:其基本思想是:对于整个交易数据库而言,如果一个项集是频繁项集,那么它必然有这样的结果,即至少在一个分割的部分内它是频繁的;②基于抽样的方法:首先从数据库中抽取一个样本并生成该样本的候选项集,当然希望这些项集在全局数据库中是频繁的,在接下来的一次扫描中,算法将统计这些项集确切的支持度以及负边界的支持度。如果在负边界中没有一个是频繁的,那么算法将找到所有的频繁项集,否则,负边界中的项集有可能是频繁项集;③增量更新方法:其基本思想是使用该技术来对所发现的频繁项集和相应的关联规则进行维护,以便在数据库发生变化时避免对所有的频繁项集和相应

相关文档
最新文档