决策树详细易懂,很多例子

合集下载

决策树例题分析

决策树例题分析
• 建设大工厂需要投资600万元,可使用10年。销路好每年赢利200万元,销 路不好则亏损40万元。
• 建设小工厂投资280万元,如销路好,3年后扩建,扩建需要投资400万元, 可使用7年,每年赢利190万元。不扩建则每年赢利80万元。如销路不好则 每年赢利60万元。
• 试用决策树法选出合理的决策方案。 经过市场调查,市场销路好的概率为 0.7,销路不好的概率为0.3。
5
• 计算完毕后,开始对决策树进行剪枝,在每个决策结点删去除 了最高期望值以外的其他所有分枝,最后步步推进到第一个决 策结点,这时就找到了问题的最佳方案
• 方案的舍弃叫做修枝,被舍弃的方案用“≠”的记号来表示,最 后的决策点留下一条树枝,即为最优方案。
6
• A1、A2两方案投资分别为450万和240万,经营年限为5年,销 路好的概率为0.7,销路差的概率为0.3,A1方案销路好、差年 损益值分别为300万和负60万;A2方案分别为120万和30万。
1
例:设某茶厂计划创建精制茶厂,开始有两个方案,方案一是建年加工能力 为800担的小厂,方案二是建年加工能力为2000担的大厂。两个厂的使用期 均为10年,大厂投资25万元,小厂投资10万元。产品销路没有问题,原料来 源有两种可能(两种自然状态):一种为800担,另一种为2000担。两个方案每 年损益及两种自然状态的概率估计值见下表
自然状态
原料800担 原料2000担
概率 建大厂(投资25万元) 建小厂(投资10万元)
0.8
13.5
0.2
25.5
15.0 15.0
2
补充: 风险型决策方法——决策树方法
• 风险决策问题的直观表示方法的图示法。因为图的形状像树,所以被称为决 策树。

决策树例题

决策树例题
• 建设大工厂需要投资600万元,可使用10年。销路好 每年赢利200万元,销路不好则亏损40万元。
• 建设小工厂投资280万元,如销路好,3年后扩建,扩 建需要投资400万元,可使用7年,每年赢利190万元。 不扩建则每年赢利80万元。如销路不好则每年赢利60 万元。
• 试用决策树法选出合理的决策方案。 经过市场调查, 市场销路好的概率为0.7,销路不好的概率为0.3。
25
益损值 方案
甲 乙 丙
状态 需求量较 需求量一 高般
600 400 800 350 350 220
需求量 较低
-150 -350 50
需求量很低
-350 -700 -100

400 250
90
-50
益损值 方案
状态 需求 量较 高
需求量 一般
需求量 需求量 最大后 较低 很低 悔值

200 0
13
➢最后比较决策点1的情况: • 由于点③(719万元)与点②(680万元)
相比,点③的期望利润值较大,因此取 点③而舍点②。这样,相比之下,建设 大工厂的方案不是最优方案,合理的策 略应采用前3年建小工厂,如销路好,后 7年进行扩建的方案。
14
决策树法的一般程序是: (1)画出决策树图形 决策树指的是某个决策问题未来发展情 况的可能性和可能结果所做的估计,在图纸上的描绘决策树 (2)计算效益期望值 两个行动方案的效益期望值计算过程: 行动方案A1(建大厂)的效益期望值: 13.5×0.8×10+25.5×0.2×10-25=134万元 行动方案A2(建小厂)的效益期望值: 15×0.8×10+15×0.2×10-10=140万元 (3)将效益期望值填入决策树图 首先在每个结果点后面填上 相应的效益期望值;其次在每个方案节点上填上相应的期望值, 最后将期望值的角色分支删减掉。只留下期望值最大的决策分 支,并将此数值填入决策点上面,至此决策方案也就相应选出

决策树

决策树

决策树决策树法(Decision Tree)决策树(decision tree)一般都是自上而下的来生成的。

每个决策或事件(即自然状态)都可能引出两个或多个事件,导致不同的结果,把这种决策分支画成图形很像一棵树的枝干,故称决策树。

决策树就是将决策过程各个阶段之间的结构绘制成一张箭线图,我们可以用下图来表示。

选择分割的方法有好几种,但是目的都是一致的:对目标类尝试进行最佳的分割。

从根到叶子节点都有一条路径,这条路径就是一条“规则”。

决策树可以是二叉的,也可以是多叉的。

对每个节点的衡量:1) 通过该节点的记录数2) 如果是叶子节点的话,分类的路径3) 对叶子节点正确分类的比例有些规则的效果可以比其他的一些规则要好。

决策树的构成要素[1]决策树的构成有四个要素:(1)决策结点;(2)方案枝;(3)状态结点;(4)概率枝。

如图所示:总之,决策树一般由方块结点、圆形结点、方案枝、概率枝等组成,方块结点称为决策结点,由结点引出若干条细支,每条细支代表一个方案,称为方案枝;圆形结点称为状态结点,由状态结点引出若干条细支,表示不同的自然状态,称为概率枝。

每条概率枝代表一种自然状态。

在每条细枝上标明客观状态的内容和其出现概率。

在概率枝的最末稍标明该方案在该自然状态下所达到的结果(收益值或损失值)。

这样树形图由左向右,由简到繁展开,组成一个树状网络图。

决策树对于常规统计方法的优缺点优点:1)可以生成可以理解的规则;2)计算量相对来说不是很大;3) 可以处理连续和种类字段;4) 决策树可以清晰的显示哪些字段比较重要。

缺点:1) 对连续性的字段比较难预测;2) 对有时间顺序的数据,需要很多预处理的工作;3) 当类别太多时,错误可能就会增加的比较快;4) 一般的算法分类的时候,只是根据一个字段来分类。

决策树的适用范围[1]科学的决策是现代管理者的一项重要职责。

我们在企业管理实践中,常遇到的情景是:若干个可行性方案制订出来了,分析一下企业内、外部环境,大部分条件是己知的,但还存在一定的不确定因素。

c4.5决策树例题

c4.5决策树例题

c4.5决策树例题决策树是一种常见的机器学习算法,用于分类和预测任务。

C4.5是决策树算法的一种改进版本,可以处理具有多个特征和多个类别的数据集。

下面是一个关于购买电子产品的例题,展示C4.5决策树的具体步骤:假设我们要根据以下属性来预测一个人是否会购买电子产品:1.年龄:青年、中年、老年2.收入:低、中、高3.学历:中学、大学、研究生4.信用等级:差、一般、良好、优秀我们有一个包含以下训练数据的数据集:以下是C4.5决策树的具体步骤:步骤1:计算初始熵计算每个可能的类别的初始熵。

在这个例子中,购买电子产品的可能类别是是和否,因此初始熵为:H(D) = -((6/10) * log2(6/10) + (4/10) * log2(4/10)) ≈ 0.971步骤2:计算每个属性的信息增益计算每个属性的信息增益(即使用该属性进行划分后的熵的减少量)。

对于每个属性,计算其每个可能值的条件熵,并将其与初始熵进行比较来计算信息增益。

具体步骤如下:a) 对于属性"年龄",计算其各个值的条件熵:•年龄=青年:购买(2是, 2否),条件熵=-((2/4) * log2(2/4) + (2/4) * log2(2/4)) = 1.0•年龄=中年:购买(3是, 1否),条件熵=-((3/4) * log2(3/4) + (1/4) * log2(1/4)) ≈ 0.811•年龄=老年:购买(1是, 1否),条件熵=-((1/2) * log2(1/2) + (1/2) * log2(1/2)) = 1.0然后,计算年龄属性的信息增益:Gain(年龄) = H(D) - ((4/10) *1.0 + (4/10) * 0.811 + (2/10) * 1.0) ≈ 0.124b) 对于属性"收入",计算其各个值的条件熵:•收入=低:购买(1是, 1否),条件熵=-((1/2) * log2(1/2) + (1/2) * log2(1/2)) = 1.0•收入=中:购买(3是, 1否),条件熵=-((3/4) * log2(3/4) + (1/4) * log2(1/4)) ≈ 0.811•收入=高:购买(2是, 2否),条件熵=-((2/4) * log2(2/4) + (2/4) * log2(2/4)) = 1.0然后,计算收入属性的信息增益:Gain(收入) = H(D) - ((2/10) * 1.0 + (4/10) * 0.811 + (4/10) * 1.0) ≈ 0.291c) 对于属性"学历",计算其各个值的条件熵:•学历=中学:购买(1是, 1否),条件熵=-((1/2) * log2(1/2) + (1/2) * log2(1/2)) = 1.0•学历=大学:购买(3是, 2否),条件熵=-((3/5) * log2(3/5) + (2/5) * log2(2/5)) ≈ 0.971•学历=研究生:购买(3是, 1否),条件熵=-((3/4) * log2(3/4) + (1/4) * log2(1/4)) ≈ 0.811然后,计算学历属性的信息增益:Gain(学历) = H(D) - ((2/10) *1.0 + (5/10) * 0.971 + (3/10) * 0.811) ≈ 0.128d) 对于属性"信用等级",计算其各个值的条件熵:•信用等级=差:购买(0是, 1否),条件熵=0•信用等级=一般:购买(1是, 1否),条件熵=-((1/2) * log2(1/2) + (1/2) * log2(1/2)) = 1.0•信用等级=良好:购买(2是, 1否),条件熵=-((2/3) * log2(2/3) + (1/3) * log2(1/3)) ≈ 0.918•信用等级=优秀:购买(3是, 1否),条件熵=-((3/4) * log2(3/4) + (1/4) * log2(1/4)) ≈ 0.811然后,计算信用等级属性的信息增益:Gain(信用等级) = H(D) - ((1/10) * 0 + (2/10) * 1.0 + (3/10) * 0.918 + (4/10) * 0.811) ≈ 0.115步骤3:选择信息增益最大的属性作为当前节点的划分属性根据信息增益,选择信息增益最大的属性作为当前节点的划分属性。

决策树例题分析及解答

决策树例题分析及解答

13
最后比较决策点1的情况: • 由于点③(719万元)与点②(680万元) 相比,点③的期望利润值较大,因此取 点③而舍点②。这样,相比之下,建设 大工厂的方案不是最优方案,合理的策 略应采用前3年建小工厂,如销路好,后 7年进行扩建的方案。
14
决策树法的一般程序是: (1)画出决策树图形 决策树指的是某个决策问题未来发展情 况的可能性和可能结果所做的估计,在图纸上的描绘决策树 (2)计算效益期望值 两个行动方案的效益期望值计算过程: 行动方案A1(建大厂)的效益期望值: 13.5×0.8×10+25.5×0.2×10-25=134万元 行动方案A2(建小厂)的效益期望值: 15×0.8×10+15×0.2×10-10=140万元 (3)将效益期望值填入决策树图 首先在每个结果点后面填上 相应的效益期望值;其次在每个方案节点上填上相应的期望值, 最后将期望值的角色分支删减掉。只留下期望值最大的决策分 支,并将此数值填入决策点上面,至此决策方案也就相应选出
600
800 350 400
22
2、悲观决策(极大极小决策、小中取大)
决策者持悲观态度,或由于自己实力比较, 担心由于决策失误会造成巨大损失,因 此追求低风险。
本着稳中求胜的精神,在不知道未来各种 可能状态发生概率的前提下,将各个方案 在各种状态下可能取得的最大收益值作为 该方案的收益值,然后再从各方案收益值 中找出最大收益值的方案。
玉米 棉花 花生 合计 资源供给量 资源余缺量
在生产出16.5万公顷玉米的前提下,将获得 5.28万元的利润,在忙劳动力资源尚剩余680 个工日可用于其他产品生产。
3
例:设某茶厂计划创建精制茶厂,开始有两个方案,方案 一是建年加工能力为 800担的小厂,方案二是建年加工能 力为 2000 担的大厂。两个厂的使用期均为 10 年,大厂投 资25万元,小厂投资10万元。产品销路没有问题,原料来 源有两种可能 ( 两种自然状态 ) :一种为 800 担,另一种为 2000担。两个方案每年损益及两种自然状态的概率估计值 见下表

决策树例题分析及解答

决策树例题分析及解答

23
悲观原则
需求量 较高 需求量 一般 需求量 较低 需求量 很低
min -350 -700
甲 乙
600 800
400 350
-150 -350
-350 -700


350
400
220
250
50
90
-100
-50
-100
-50
24
3、最小后悔准则(最小机会损失准则) 用益损值表计算出后悔值(同一状态下各 方案的最大益损值与已采用方案的益损 值之差),取后悔值最小的方案
ห้องสมุดไป่ตู้先将各个方案可能带来的最大遗憾计算出来。
遗憾值的计算方法:将每一种自然状态下各个方案可 能取得的最大收益值找出来,其遗憾值为0,其余各方 案的收益值与找出的该状态下的最大收益值相减,即 为该方案在该状态下的遗憾值;然后再从各方案在各 种自然状态下的遗憾值中,找出最大遗憾值;最后从 各方案最大遗憾值中找出遗憾值最小的方案。
乙 800 350 -350 -700
丙 350 220 50 -100
丁 400 250 90 -50
21
损益值 方案
状态 需求量 需求量 需求量较 需求量 max
较高 一般 低 很低

乙 丙 丁
600
800 350 400
400
350 220 250
-150
-350 50 90
-350
-700 -100 -50
19
非确定性决策方法
是指决策者对环境情况几乎一无所知,决 策者只好根据自己的主观倾向进行决策 1、乐观决策(极大极大决策 、大中取大)
决策者持乐观态度,有具有较强的实力,担心失 去获利的机会。愿冒大的风险,意图大的回报。 决策者凭借冒险精神,在不知道未来各种可能 状态发生概率的前提下,将各个方案在各种状 态下可能取得的最大收益值作为该方案的收益 值,然后,再从各方案收益值中找出最大收益 值的方案。

分类决策树ID3算法-理论加实例

分类决策树ID3算法-理论加实例

第6章 决策树
决策树基本概念
关于归纳学习(3)
归纳学习由于依赖于检验数据,因此又称为检验学习。 归纳学习存在一个基本的假设:
任一假设如果能够在足够大的训练样本集中很好的逼 近目标函数,则它也能在未见样本中很好地逼近目标函数。 该假定是归纳学习的有效性的前提条件。
第6章 决策树
决策树基本概念
关于归纳学习(4)
第 6 章 决策树
决策树基本概念 决策树算法 决策树研究问题
主要内容
决策树基本概念 决策树算法 决策树研究问题
第6章 决策树
关于分类问题
决策树基本概念
分类(Classification)任务就是通过学习获得一个目标函数 (Target Function)f, 将每个属性集x映射到一个预先定义好的类 标号y。

不买

在沿着决策树从上到下的遍历过程中,在每个结点都有一个 测试。对每个结点上问题的不同测试输出导致不同的分枝,最后 会达到一个叶子结点。这一过程就是利用决策树进行分类的过程, 利用若干个变量来判断属性的类别
第6章 决策树
决策树算法
CLS(Concept Learning System)算法
CLS算法是早期的决策树学习算法。它是许多决策树学习算法 的基础。
归类:买计算机?
不买 不买 买 买 买 不买 买 不买 买 买 买 买 买 不买 买
假定公司收集了左表数据,那么对 于任意给定的客人(测试样例), 你能帮助公司将这位客人归类吗?
即:你能预测这位客人是属于“买” 计算机的那一类,还是属于“不买” 计算机的那一类?
又:你需要多少有关这位客人的信 息才能回答这个问题?
3、可自动忽略目标变量没有贡献的属性变量,也为判断属性 变量的重要性,减少变量的数目提供参考。

举例说明决策树的预测过程 -回复

举例说明决策树的预测过程 -回复

举例说明决策树的预测过程-回复决策树是一种广泛应用于各个领域的机器学习算法,其能够通过一系列的问题和条件判断来预测未知数据的分类或结果。

下面,我将详细解释决策树的预测过程,并通过一个具体的例子来说明。

决策树是一种基于树状结构的模型,其主要分为两个步骤:训练和预测。

训练过程是通过已有的数据集来构建决策树模型,而预测过程则是利用训练好的模型对未知数据进行分类或结果预测。

在训练过程中,决策树通过分析数据集的特征和标签之间的关系来构建树形结构。

下面我们以一个医疗诊断的例子来说明。

假设我们有一个数据集,其中包含了患者的年龄、性别、体温、症状等特征,以及最终的诊断结果(例如感冒、流感等)。

我们的目标是构建一个决策树模型,能够根据患者的特征来预测其最可能的诊断结果。

首先,我们需要选择一个合适的特征作为根节点,以便将数据集分成更小的子集。

常见的选择方法有信息增益、基尼指数等,这些方法可以评估一个特征的重要性。

假设我们选择了年龄作为根节点。

接下来,我们根据年龄的不同取值(例如0-10岁、11-20岁等)将数据集划分成子集。

对于每个子集,我们需要继续选择一个特征作为节点,以便进一步细分数据。

假设我们选择了体温作为第二层的节点。

对于每个年龄段的数据子集,我们可以根据不同的体温范围(例如正常、发烧等)来进行划分。

继续进行下去,我们可以一直选择新的特征作为节点,直到满足某个停止条件(例如子集中的样本数量小于某个阈值,或者所有样本都属于同一类别)为止。

最终得到一个树状结构,即我们的决策树模型。

接下来,我们可以使用训练好的决策树模型来预测未知数据。

预测过程可以通过沿着树的路径从根节点开始进行。

根据每个节点的特征和条件判断,我们可以选择相应的分支继续向下走,直到到达叶节点。

例如,假设我们要对一个年龄为15岁、体温为37.5度的患者进行诊断。

我们可以根据根节点的条件判断,如果患者年龄小于10岁,则进入左侧分支;否则进入右侧分支。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

No
Married 80K
?
10
NO
MarSt
Single, Divorced
Married
< 80K
TaxInc
NO > 80K
NO
YES
Apply Model to Test Data
Refund
Yes
No
Test Data
Refund Marital Taxable Status Income Cheat
决策树的结构
决策树算法以树状结构表示数据 分类的结果。每个决策点实现一个 具有离散输出的测试函数,记为分 支。
根节点 非叶子节点(决策点) 叶子节点 分支
决策树的结构
根部节点(root node) 非叶子节点(non-leaf node)
(代表测试的条件,对数据属性的测试)
分支(branches)(代表测试的结果)
No
Married 80K
?
10
NO
MarSt
Single, Divorced
Married
Assign Cheat to “No”
< 80K
TaxInc
NO > 80K
NO
YES
决策树原理
▪ 基本算法(贪心算法)
自上而下分而治之的方法 开始时,所有的数据都在根节点 属性都是离散值字段 (如果是连续的,将其离散化) 所有记录用所选属性递归的进行分割 属性的选择是基于一个启发式规则或者一个统计的度量 (如,
No
Married 80K
?
10
NO
MarSt
Single, Divorced
Married
< 80K
TaxInc
NO > 80K
NO
YES
Apply Model to Test Data
Refund
Yes
No
Test Data
Refund Marital Taxable Status Income Cheat
记它。Βιβλιοθήκη 决策树分类1. 训练阶段
从给定的训练数据集DB,构造出一棵决策树 class = DecisionTree( DB )
2. 分类阶段
从根开始,按照决策树的分类属性逐层往下划分,直到 叶节点,获得概念(决策、分类)结果。
y = DecisionTree( x )
Example of a Decision Tree
//多数表决 (6)选择attribute_list中的最优分类属性test_attribute; //用信息增益作为属性选择度量 (7)标记结点N为test_attribute; (8)for each test_attribute中的已知值ai //划分samples (9)由结点N生长出一个条件为test_attribute=ai的分枝; (10)设si为samples中test_attribute=ai的样本集合;
叶节点(leaf node)
(代表分类后所获得的分类标记)
4
2020/10/4
单变量树
每个内部节点中的测试只使用一个输入维。如果使用 的输入维 是离散的,取n个可能的值之一,则该节点检 测 的值,并取相应的分支,实现一个n路划分。
决策点具有离散分支,而数值输入应当离散化。如果 是数值的(有序的),则测试函数是比较:
Married 80K
?
10
NO
MarSt
Single, Divorced
Married
< 80K
TaxInc
NO > 80K
NO
YES
Apply Model to Test Data
Refund
Yes
No
Test Data
Refund Marital Taxable Status Income Cheat
No
Married 80K
?
10
NO
MarSt
Single, Divorced
Married
< 80K
TaxInc
NO > 80K
NO
YES
Apply Model to Test Data
Refund
Yes
No
Test Data
Refund Marital Taxable Status Income Cheat
决策树 Decision Tree
简介
决策树算法是一种归纳分类算法,它通过对训练集的学 习,挖掘出有用的规则,用于对新集进行预测。
有监督的学习。 非参数学习算法。对每个输入使用由该区域的训练数 据计算得到的对应的局部模型。 决策树归纳的基本算法是贪心算法,自顶向下递归方 式构造决策树。 贪心算法:在每一步选择中都采取在当前状态下最好/优的选择。 在其生成过程中,分割方法即属性选择度量是关键。通 过属性选择度量,选择出最好的将样本分类的属性。
//一个划分 (11)if si为空 then (12)加上一个叶结点,标记为标记samples中最普通的类;
information gain)
▪ 停止分割的条件
一个节点上的数据都是属于同一个类别 没有属性可以再用于对数据进行分割
算法:Generate_decision_tree由给定的训练数据产生一棵决策树 输入:训练数据集samples,用离散值属性表示;候选属性的集合attribute_list。 输出:一棵决策树 方法: (1)创建结点N; (2)if samples 都在同一个类C then (3)返回N作为叶结点,用类C标记; (4)if attribute_list 为空 then (5)返回N作为叶结点,标记samples中最普通的类;
fm (x) : x j wm0
其中 wm0 是适当选择阈值。该决策节点将输入空间一份
为二:Lm x | x j wm0 和
,称为一个二元
划分。
决策树根据所选取的属性是数值型还是离散型,每次将 数据划分成两个或n个子集。然后使用对应的子集递归地 进行划分,直到不需要划分,此时,创建一个树叶节点标
Another Example of Decision Tree
Apply Model to Test Data
Start from the root of tree.
Refund
Yes
No
Test Data
Refund Marital Taxable Status Income Cheat
No
No
Married 80K
?
10
NO
MarSt
Single, Divorced
Married
< 80K
TaxInc
NO > 80K
NO
YES
Apply Model to Test Data
Refund
Yes
No
Test Data
Refund Marital Taxable Status Income Cheat
相关文档
最新文档