数据挖掘-分类-

合集下载

数据挖掘算法种类

数据挖掘算法种类

数据挖掘算法种类数据挖掘是从大量数据中发现有用的信息和模式的过程,而数据挖掘算法是实现这一过程的核心工具。

随着数据的不断增长和业务需求的提升,数据挖掘算法也不断发展和完善。

本文将介绍几种常见的数据挖掘算法。

一、分类算法分类算法是数据挖掘中最常用的算法之一。

它通过对已知数据集进行学习,构建一个分类模型,然后使用该模型对未知数据进行分类。

常见的分类算法有决策树、朴素贝叶斯、逻辑回归、支持向量机等。

决策树算法是一种基于树结构的分类方法,它通过对属性的选择和划分建立一棵决策树,从而实现对数据的分类。

朴素贝叶斯算法基于贝叶斯定理和特征条件独立性假设,通过计算后验概率来进行分类。

逻辑回归算法是一种广义线性模型,通过对输入与输出之间的关系进行建模,实现对数据的分类。

支持向量机算法通过构建一个最优超平面,将数据进行分割,从而实现对数据的分类。

二、聚类算法聚类算法是将数据按照其相似性进行分组的一种方法。

它通过计算数据对象之间的距离或相似度,将相似的对象划分到同一簇中。

常见的聚类算法有k-means、层次聚类、DBSCAN等。

k-means算法是一种基于距离的聚类算法,它通过迭代计算数据对象与簇中心之间的距离,将数据划分到最近的簇中。

层次聚类算法将数据对象逐步合并或分割,构建一个层次化的聚类结构。

DBSCAN算法是一种基于密度的聚类算法,它通过计算数据对象的邻域密度来确定簇的形状。

三、关联规则算法关联规则算法用于发现数据中的关联规则,即一个事件或项集与另一个事件或项集之间的关系。

常见的关联规则算法有Apriori、FP-Growth等。

Apriori算法是一种频繁项集挖掘算法,它通过迭代计算数据中的频繁项集,然后生成关联规则。

FP-Growth算法是一种基于前缀树的关联规则挖掘算法,它通过构建一个FP树来高效地挖掘频繁项集。

四、回归算法回归算法用于建立一个输入变量与输出变量之间的关系模型,从而预测未知数据的输出值。

数据挖掘中的数据分类算法综述

数据挖掘中的数据分类算法综述

分析Technology AnalysisI G I T C W 技术136DIGITCW2021.021 决策树分类算法1.1 C 4.5分类算法的简介及分析C4.5分类算法在我国是应用相对较早的分类算法之一,并且应用非常广泛,所以为了确保其能够满足在对规模相对较大的数据集进行处理的过程中有更好的实用性能,对C4.5分类算法也进行了相应的改进。

C4.5分类算法是假如设一个训练集为T ,在对这个训练集建造相应的决策树的过程中,则可以根据In-formation Gain 值选择合理的分裂节点,并且根据分裂节点的具体属性和标准,可以将训练集分为多个子级,然后分别用不同的字母代替,每一个字母中所含有的元组的类别一致。

而分裂节点就成为了整个决策树的叶子节点,因而将会停止再进行分裂过程,对于不满足训练集中要求条件的其他子集来说,仍然需要按照以上方法继续进行分裂,直到子集所有的元组都属于一个类别,停止分裂流程。

决策树分类算法与统计方法和神经网络分类算法相比较具备以下优点:首先,通过决策树分类算法进行分类,出现的分类规则相对较容易理解,并且在决策树中由于每一个分支都对应不同的分类规则,所以在最终进行分类的过程中,能够说出一个更加便于了解的规则集。

其次,在使用决策树分类算法对数据挖掘中的数据进行相应的分类过程中,与其他分类方法相比,速率更快,效率更高。

最后,决策树分类算法还具有较高的准确度,从而确保在分类的过程中能够提高工作效率和工作质量。

决策树分类算法与其他分类算法相比,虽然具备很多优点,但是也存在一定的缺点,其缺点主要体现在以下几个方面:首先,在进行决策树的构造过程中,由于需要对数据集进行多次的排序和扫描,因此导致在实际工作过程中工作量相对较大,从而可能会使分类算法出现较低能效的问题。

其次,在使用C4.5进行数据集分类的过程中,由于只是用于驻留于内存的数据集进行使用,所以当出现规模相对较大或者不在内存的程序及数据即时无法进行运行和使用,因此,C4.5决策树分类算法具备一定的局限性。

数据挖掘领域中的分类和回归区别

数据挖掘领域中的分类和回归区别

数据挖掘领域中的分类和回归区别
数据挖掘领域中的分类和回归区别
分类和回归的区别在于输出变量的类型。

1)定量输出称为回归,或者说是连续变量预测;
2)定性输出称为分类,或者说是离散变量预测。

拿⽀持向量机举个例⼦:
分类问题和回归问题都要根据训练样本找到⼀个实值函数g(x).
回归问题是:给定⼀个新的模式,根据训练集推断它所对应的输出y(实数)是多少。

也就是使⽤y=g(x)来推断任⼀输⼊x所对应的输出值。

分类问题是:给定⼀个新的模式,根据训练集推断它所对应的类别(如:+1,-1)。

也就是使⽤y=sign(g(x))来推断任⼀输⼊x所对应的类别。

综上,回归问题和分类问题的本质⼀样,不同仅在于他们的输出的取值范围不同。

分类问题中,输出只允许取两个值;⽽在回归问题中,输出可取任意实数。

数据挖掘的方法有哪些

数据挖掘的方法有哪些

数据挖掘的方法有哪些数据挖掘是一种通过分析大量数据来发现模式、趋势和规律的过程。

它可以帮助人们从海量的数据中提取有用的信息,对商业决策、市场营销、科学研究等领域都有着重要的作用。

在数据挖掘的过程中,有许多不同的方法可以被使用,下面将介绍其中一些常见的方法。

1. 分类。

分类是数据挖掘中最常用的方法之一。

它通过对已知类别的数据进行学习,然后将这种学习应用到新的数据中,从而对新数据进行分类。

在分类过程中,常用的算法包括决策树、朴素贝叶斯、支持向量机等。

这些算法可以帮助我们对数据进行有效的分类,例如将邮件分类为垃圾邮件和非垃圾邮件,将疾病患者分类为患病和健康等。

2. 聚类。

聚类是另一种常见的数据挖掘方法,它将数据集中的对象分成若干个组,使得同一组内的对象相似度较高,而不同组之间的对象相似度较低。

聚类可以帮助我们发现数据中的隐藏模式和结构,对于市场细分、社交网络分析等领域有着广泛的应用。

常用的聚类算法包括K均值、层次聚类、DBSCAN等。

3. 关联规则挖掘。

关联规则挖掘是一种发现数据中项之间关联关系的方法。

它可以帮助我们发现数据中的潜在规律和趋势,对于超市商品搭配、交易分析等有着重要的作用。

常用的关联规则挖掘算法包括Apriori 算法、FP-growth算法等。

4. 异常检测。

异常检测是一种发现数据中异常值的方法。

它可以帮助我们发现数据中的异常情况,对于欺诈检测、设备故障预警等有着重要的应用。

常用的异常检测算法包括基于统计学的方法、基于距离的方法、基于密度的方法等。

5. 文本挖掘。

文本挖掘是一种对文本数据进行分析和挖掘的方法。

它可以帮助我们从海量的文本数据中提取出有用的信息,对于舆情分析、情感分析、文本分类等有着重要的作用。

常用的文本挖掘算法包括词袋模型、TF-IDF算法、主题模型等。

除了上述提到的方法,数据挖掘还涉及到回归分析、时间序列分析、神经网络等多种方法。

随着数据挖掘技术的不断发展,新的方法和算法也在不断涌现。

数据挖掘中的分类算法在金融行业的应用

数据挖掘中的分类算法在金融行业的应用

数据挖掘中的分类算法在金融行业的应用随着数字化时代的到来,数据的增长速度呈指数级增长,金融行业作为一个充满数据的领域也面临着巨大的挑战和机遇。

数据挖掘作为一种从大规模数据中挖掘出有用模式和信息的技术,具有广泛的应用前景。

其中,分类算法作为数据挖掘领域的重要组成部分,在金融行业中发挥着重要的作用。

一、分类算法简介分类算法是数据挖掘中的一种常见方法,它通过学习已知类别的样本数据,构建分类模型,以对新样本进行分类。

常见的分类算法包括决策树、朴素贝叶斯、支持向量机、逻辑回归等。

这些算法具有不同的特点和适用范围,可以根据具体问题的需求选择合适的算法进行应用。

二、分类算法在金融行业的应用1. 信用评分信用评分是金融行业中重要的应用之一。

通过分类算法,可以对客户的信用进行评估,预测其还款能力和违约风险。

例如,可以利用决策树算法根据客户的个人信息、征信记录、就业情况等数据,构建一个信用评分模型,对客户进行分级,为金融机构提供参考。

2. 贷款申请审批在金融行业中,贷款审批是一项繁琐而重要的任务。

分类算法可以帮助金融机构对贷款申请进行自动化审批。

通过对客户的个人信息、征信记录、财务状况等数据进行分析,可以预测客户的还款能力和风险,并给出相应的审批结果。

这不仅提高了审批的效率,同时也减少了人为的主观因素。

3. 欺诈检测金融行业存在大量的欺诈行为,例如信用卡盗刷、虚假交易等。

分类算法可以通过对交易数据进行分析,识别出异常行为和欺诈嫌疑。

例如,可以利用支持向量机算法构建欺诈检测模型,对交易进行实时监测和风险评估,及时发现和防范欺诈行为,保护客户的资产安全。

4. 市场预测金融市场的波动对投资者来说是一个不确定因素。

分类算法可以通过对历史市场数据进行分析,预测股票价格的涨跌趋势。

例如,可以利用逻辑回归算法根据股票的历史价格、交易量、市场情绪等数据,构建一个市场预测模型。

这不仅对投资者的决策有指导意义,同时也提高了投资者的收益率。

简述数据挖掘分类方法

简述数据挖掘分类方法

注。
粗糙 集 理 论 主要 是 针对 数 据 的模 糊性 问题 的 而提 参 考文 献: 出的 粗糙 集对 不 精确 概 念 的描述 方法 是通 过 上 下近 [ Ha J w iMihl eK m e 数 据 挖 掘— — 概 念 与技 - M】 1 d i e, cen a b r ] a i g[ 北 京 : 等教 育 出版 社 .0 1 2 9 3 4 高 2 0 :7 — 3 似概念 选 两个精 确 概念 来 表示 。 一个 概 念( 集合1 或 的下 2 a明 张 ] D3的 研 究 U. 机 发 展 . 0 】 微 2 2 0 近似 概念 f 或集 合1 的是 . 下近 似 中的元 素肯 定 属 于 [ g , 载 鸿 决 策 树 学 习 算 法 I 指 其 5 :— 该概 念 , 个 概念 ( 一 或复 合) 的上 近 似概 念f 或集 合 ) 的 ()6 9 指 【 3 】王 光宏 ,蒋 平 数 据 挖 掘 综 述 D 1同济 大 学 学报 ,0 43 ( : 20 ,22 ) 是 . 上 近似 中 的元素 可能 属 于该概 念 。 其 粗糙集 理 论将 24 — 2 6 52 分类 能力 和知 识联 系在一 起 .使 用等 价关 系来 形 式化 【】 伟 杰 , 辉 , 建 秋 , 关 联 规 则 挖 掘 综 述 Ⅱ计 算 机 工程 , 4蔡 张晓 朱 等 ] 地表 示 分类 .知识 表 示 为等 价关 系集 R与 空 间 u的之 2 0 ()3 — 3 0 15 :1 3 间 的映射 关 系 。 在分 类 问题 中 , 粗糙 集可 以用 来进 行属 【] 效 尧 , 伟 决 策树 在 数 据 挖 掘 中 的 应 用研 究 Ⅱ安 庆 师 范 学 5江 江 ] 自然科 学版 )2 0 ( :3 8 ,0 31 8 — 5 ) 性消 减 .还可 以求 取 数据 中最小 不变 集和 最小 规 则羹 院 学报 ( [Y清毅 , 6- ] 张波 , 庆 生 目前 数 据 挖 掘 算 法 的 评 价 Ⅱ小 型 微 型 计 蔡 ] f 即属 性约 简算 法1 算机 系统 ,0 01 : 5 7 2 0 ( 7— 7 ) 另 外 .粗 糙 集 方法 得 到 的分类 规 则 一般 是 符 号形 [ 肖攸 安 , 腊 元 数 据 挖 掘 与 知 识 发 现 的 理 论 方 法 及 技 术 分 析 7 ] 李 式 的显 式规 则 . 是 数据 挖 掘所 追 求 的. 正 因此 近 年 来得 U交通 与 计 算 机 ,0 21:7 6 】 20 ()5 — 1 到越 来越 广泛 的应 用 。粗糙集 可 以利用 特 征归 约f 以 可 [ 罗 可 , 睦 纲 , 东妹 数 据 挖 掘 中 分 类 算 法 综 述 [C 机 工 8 】 林 郗 J t算 l 识别 和 删 除无 助 于 给定 训练 数 据分 类 的属 性1和 相关 程 ,0 5 1 3 5 2 0 ( )- 分析 ( 根据 分类 任 务评 估每个 属 性 的贡献 和意 义1提 高 [ ht: bo .d .e a d iaai edtl 4 4 7 。 9 t / lgc nn t l d /rc /eas 1 12 ] p/ s / a n tl i/ 1 获取 分类 模式 的速度 .但 找 出可 以描 述 给定数 据 集 中 【 ]t : w 1 ht / ww. bo s o za q nacie2 1/ 12 / 0 p/ c lg. m/ho i /rh /0 0 /5 n c a v 1 14 9 471 t l 7hm ’ 所有 概念 的最 小 属性 子集 问题 是一个 N P困难 的 .

数据挖掘系统分类

数据挖掘系统分类
数据挖掘系统分类
ቤተ መጻሕፍቲ ባይዱ
内容要点
1
了解数据挖掘的分类规则
数据挖掘分类
2
按照一般功能,可以将数据挖掘分为:
描述式数据挖掘
预测式数据挖掘
数据挖掘分类——不同的角度,不同的分类
3
所适合的 应用类型
所用的技 术类型
待挖掘的 数据库类

待发现的 知识类型
数据挖掘分类的多维视图
4
待挖掘的数据库
关系的, 事务的, 面向对象的, 对象-关系的, 主动的, 空间的, 时间序列的, 文本 的, 多媒 体的, 异种的, 遗产的, WWW, 等.
特征分类, 先聚类再关联
OLAM 的结构
7
挖掘查询
挖掘结果
第4层
OLAM 引擎
用户 GUI API
OLAP 引擎
用户界面
第3层 OLAP/OLAM
数据立方体 API
过滤和集成
Databases
MDDB
数据库 API
数据清理 数据集成
元数据
过滤
数据仓库
第2 层 MDDB
第 1层 数据存储
小结
8
了解数据挖掘的分类规则
OLAP挖掘: 数据挖掘与数据仓库的集成
6
数据挖掘系统, DBMS, 数据仓库系统的耦合
不耦合, 松耦合, 半紧密耦合, 紧密耦合
联机分析挖掘
挖掘与 OLAP 技术的集成
交互挖掘多层知识
通过下钻, 上卷, 转轴, 切片, 切块等操作, 在不同的抽象层挖掘知识和模式的 必要性.
多种挖掘功能的集成
所挖掘的知识
特征, 区分, 关联, 分类, 聚类, 趋势, 偏离和孤立点分析, 等. 多/集成的功能, 和多层次上的挖掘

数据挖掘PPT-第3章分类

数据挖掘PPT-第3章分类

应用市场:医疗诊断、人脸检测、故障诊断和故障预警 ······
2 of 56
More
高级大数据人才培养丛书之一,大数据挖掘技术与应用
第三章 分类
3.1 基本概念 3.2 决策树 3.3 贝叶斯分类 3.4 支持向量机 3.5 实战:决策树算法在Weka中的实现 习题
3 of 56
*** 基本概念
6 of 56
高级大数据人才培养丛书之一,大数据挖掘技术与应用
第三章 分类
3.1 基本概念 3.2 决策树 3.3 贝叶斯分类 3.4 支持向量机 3.5 实战:决策树算法在Weka中的实现 习题
7 of 56 7
*** 决策树
第三章 分类
决策树是数据挖掘的有力工具之一,决策树学习算法是从一组样本数据集(一个样 本数据也可以称为实例)为基础的一种归纳学习算法,它着眼于从一组无次序、无规则 的样本数据(概念)中推理出决策树表示形式的分类规则。
E
X ,a
g X,a H X,a
第三章 分类
*** 分类的基本概念
分类(Classification)是一种重要的数据分析形式,它提取刻画重要数据类的模型。 这种模型称为分类器,预测分类的(离散的、无序的)类标号。这些类别可以用离散值 表示,其中值之间的次序没有意义。
分类也可定义为: 分类的任务就是通过学习得到一个目标函数(Target Function)ƒ ,把每个属性集x映 射到一个预先定义的类标号y 。
11
No Small 55K ?
12 Yes Medium 80K ?
13 Yes Large 110K ?
14
No Small 95K ?
15
No Large 67K ?
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

p
i
p n n 其中,
i i
为S中的样本属于第i类 C i 的概率,n为S中样本的个数。
13
2 决策树算法
期望熵
属性A划分样本集S导致的期望熵E(S, A)为:
E ( S , A)
vValues ( A )
S E S S
v v
其中,Values(A)为属性A取值的集合
S S 为S中A取值为v的样本子集, v s S | A s v
要性、减少变量的数目提供参考。
7
二 决策树分类
1.4 构造
决策树的构造就是进行属性选择度量确定各个特征属性之间的拓扑结构。 它通常由两个步骤组成:
(1)构建决策树 开始时,所有的训练样本都在根节点;递归地通过选定的属性来划分样 本。 (2)树剪枝 许多分支反映的是训练数据中的噪声和孤立点,通过剪去最不可靠的分 支,提高树独立于测试数据正确分类的可靠性。

高 中 中

是 否 否

良 优 优

买 不买 买
22
2 决策树算法
计 数 64 64 128 60 64 64 64 年龄 青 青 中 老 老 老 中 收入 高 高 高 中 低 低 低 学生 否 否 否 否 是 是 是 信誉 良 优 良 良 良 优 优 归类:买计算机? 不买 不买 买 买 买 不买 买
分类
2011-12-3 1
主要内容



分类问题综述 决策树分类 基本概念 决策树算法 小结 贝叶斯分类
2
一 分类问题综述
1 定义
分类就是通过分析训练集中的数据,为每个类别建立分类模型;然后用 这个分类模型对数据库中的其他记录进行分类。
分类模型的输入集是一组记录集合和几种类别的标记,这个输入集又称 为示例数据或训练集。
18
计数
64 64 128 60 64 64 64 128 64 132
年龄
青 青 中 老 老 老 中 青 青 老
收入
高 高 高 中 低 低 低 中 低 中
学生
否 否 否 否 是 是 是 否 是 是
信誉
良 优 良 良 良 优 优 良 良 良
归类:买计算机?
不买 不买 买 买 买 不买 买 不买 买 买
15
例子:
属性1 A A A A A B B B B C C C C C
训练例子的简单平面数据库
数据库T: 属性2 70 90 85 95 70 90 78 65 75 80 70 80 80 96 属性3 真 真 假 假 假 真 假 真 假 真 真 假 假 假 属性4 类1 类2 类2 类2 类1 类1 类1 类1 类1 类2 类2 类1 类1 类1
16
2 决策树算法
其中:9个样本属于类1,5个样本属于类2,因此有:
E (T )
9 9 5 5 log 2 log 2 0.940 14 14 14 14
根据属性1把初始样本集分成3个子集,得出结果:
5 2 2 3 3 4 4 4 E ( x1 , T ) log 2 log 2 log 2 0 14 5 5 5 5 14 4 4
注:测试属性集的组成以及测试属性的先后顺序对决策树的学习具有举足 轻重的影响。
10
2 决策树算法
2.1.3 例子
人员 1 2 3 4 5 6 眼睛颜色 黑色 蓝色 灰色 蓝色 灰色 黑色 头发颜 色 黑色 金色 金色 红色 红色 金色 所属人 种 黄种人 白种人 白种人 白种人 白种人 混血
眼睛颜色 黑色 蓝色 [2,4,8] 灰色 [3,5,7]
64 12 8 64 13 2 64 32 32

中 青 青 老 青 中 中

低 中 低 中 中 中 高

是 否 是 是 是 否 是

优 良 良 良 优 优 良
不买
买 不买 买 买 买 买 买
21
2 决策树算法
计 数 年龄 收入 学生 信誉 归类:买计算机?
第2-1步计算年龄的熵
年龄共分三个组: 青年、中年、老年 青年买与不买比例为128/256 S1(买)=128 S2(不买)= 256 S=S1+S2=384 P1=128/384 P2=256/384 I(S1,S2)=I(128,256) =-P1Log2P1-P2Log2P2 =-(P1Log2P1+P2Log2P2) =0.9183
v
E S v 为将 S v 中的样本划分为C个类的信息熵
S
v
S
为 S v 和S中得样本个数之比
14
2 决策树算法
信息增益
属性A划分样本集S的信息增益为:
Gain(S , A) E (S ) E (S , A)
其中, E(S)为划分样本集S为c个类的熵; E(S, A)为属性A划分样本集S导致的期望熵。
1.2决策树的表示 基本组成部分:决策结点、分支和叶子。
青 学生? 否 不买 是 中 买 优 不买 年龄? 老
信誉? 良 买

6
二 决策树分类
1.3 决策树的优点
(1)推理过程容易理解,决策推理过程可以表示成If -Then形式; (2)推理过程完全依赖于属性变量的取值特点; (3)可自动忽略目标变量没有贡献的属性变量,也为判断属性 变量的重
[1,6]
7
8
灰色
蓝色
黑色
黑色
混血
混血
不属于同一类,非叶结点
11
2 决策树算法
眼睛颜色
黑色
头发颜色
蓝色 头发颜色
灰色 头发颜色
黑色
金色
金色 红色
黑色
金色
黑色 红色
混血[7]
黄种人[1] 混血[6] 白种人[2]
白种人[4] 混血[8]
白种人[3] 白种人[5]
ቤተ መጻሕፍቲ ባይዱ
12
2 决策树算法
2.2 ID3算法
8
2 决策树算法
2.1 CLS算法
CLS(概念学习系统)算法是早期的决策树学习算法。它是许多决策树 学习算法的基础。 2.1.1 基本思想
从一棵空决策树开始,选择某一属性(分类属性)作为测试属性。该测 试属性对应决策树中的决策结点。根据该属性的值的不同,可将训练样本分 成相应的子集,如果该子集为空,或该子集中的样本属于同一个类,则该子 集为叶结点,否则该子集对应于决策树的内部结点,即测试结点,需要选择 一个新的分类属性对该子集进行划分,直到所有的子集都为空或者属于同一 类。
第1步计算决策属性的熵
决策属性“买计算机?”。该属性分 两类:买/不买 S1(买)=641 S2(不买)= 383 S=S1+S2=1024 P1=641/1024=0.6260 P2=383/1024=0.3740 I(S1,S2)=I(641,383) =-P1Log2P1-P2Log2P2 =-(P1Log2P1+P2Log2P2) =0.9537
4
一 分类问题综述
3 一般解决方法
分类问题一般是用一种学习算法确定分类模型,该模型可以很好地拟合 输入数据中类标号和属性集之间的联系。学习算法得到的模型不仅要很好拟 合输入数据,还要能够正确地预测未知样本的类标号。因此,训练算法的主 要目标就是要建立能够准确地预测未知样本类标号的模型。
通过以上描述,可以看出解决分类问题一般包括两个步骤: (1)模型构建(归纳) 通过对训练集合的归纳,建立分类模型。
9
2 决策树算法
2.1.2 决策树的构建
(1) 生成一颗空决策树和一张训练样本属性集; (2) 若训练样本集T 中所有的样本都属于同一类,则生成结点T , 并终止 学习算法;否则转(3), (3) 根据某种策略从训练样本属性表中选择属性A 作为测试属性, 生成 测试结点A (4 )若A的取值为v1,v2,…,vm, 则根据A 的取值的不同,将T 划分成 m个 子集T1,T2,…,Tm; (5) 从训练样本属性表中删除属性A; (6) 转步骤(2), 对每个子集递归调用CLS;
2.2.3 ID3 决策树建立算法
(1) 决定分类属性; (2) 对目前的数据表,建立一个节点N (3) 如果数据库中的数据都属于同一个类,N就是树叶,在树叶上标出 所属的类 (4) 如果数据表中没有其他属性可以考虑,则N也是树叶,按照少数服从 多数的原则在树叶上标出所属类别 (5) 否则,根据平均信息期望值E或GAIN值选出一个最佳属性作为节点N 的测试属性 (6)节点属性选定后,对于该属性中的每个值: 从N生成一个分支,并将数据表中与该分支有关的数据收集形成分支节 点的数据表,在表中删除节点属性那一栏,如果分支数据表非空,则运用以 上算法从该节点建立子树。
64
32 32 63 1

中 中 老 老

中 高 中 中

否 是 否 否

优 良 优 优

买 买 不买 买
19
2 决策树算法
计 数 64 64 128 60 64 64 64 128 64 132 64 32 32 63 1 年龄 青 青 中 老 老 老 中 青 青 老 青 中 中 老 老 收入 高 高 高 中 低 低 低 中 低 中 中 中 高 中 中 学生 否 否 否 否 是 是 是 否 是 是 是 否 是 否 否 信誉 良 优 良 良 良 优 优 良 良 良 优 优 良 优 优 归类:买计算机? 不买 不买 买 买 买 不买 买 不买 买 买 买 买 买 不买 买
P1=256/256 P2=0/256
I(S1,S2)=I(256,0) =-P1Log2P1-P2Log2P2 =-(P1Log2P1+P2Log2P2) =0
相关文档
最新文档