决策树
常用的决策树有哪些,有什么异同【面试经验】

常用的决策树有哪些,ID3、C4.5、CART有哪些异同?【面试经验】常用的决策树算法包括ID3、C4.5和CART。
这些算法在构建决策树时有一些共同点和不同点。
共同点:1.目标:它们的目标都是创建一个能够预测未知数据的树状模型。
2.递归过程:都是通过递归的方式划分数据集,生成决策树的各个节点和分支。
3.特征选择:在构建过程中,都需要选择一个最优特征作为当前节点的分裂标准。
不同点:1.特征选择准则:o ID3:使用信息增益作为特征选择的标准。
它只能处理离散型特征,并且倾向于选择取值较多的特征。
o C4.5:是ID3的改进版本,使用信息增益比来选择特征。
它既可以处理离散型特征,也可以处理连续型特征,并且通过引入一个分裂信息项来修正信息增益,以解决ID3中倾向于选择取值较多特征的问题。
o CART:使用基尼不纯度(Gini index)来选择特征。
它既可以用于分类问题,也可以用于回归问题。
CART生成的决策树是二叉树,每个节点只有两个分支。
2.树的结构:o ID3和C4.5:生成的是多叉树,即每个节点可以有多个分支。
o CART:生成的是二叉树,即每个节点只有两个分支。
3.剪枝策略:o ID3:通常不直接支持剪枝操作。
o C4.5:支持后剪枝操作,可以通过设置置信度阈值来控制剪枝的程度。
o CART:既支持后剪枝操作,也支持预剪枝操作。
可以通过设置树的最大深度、最小样本数等参数来控制剪枝的程度。
4.应用场景:o ID3:由于只能处理离散型特征且倾向于选择取值较多的特征,其应用场景相对有限。
o C4.5:既可以处理离散型特征也可以处理连续型特征,因此在实际应用中更为灵活。
o CART:既可以用于分类问题也可以用于回归问题,因此在处理实际问题时具有更广泛的应用场景。
总之,ID3、C4.5和CART是三种常用的决策树算法,它们在特征选择准则、树的结构、剪枝策略和应用场景等方面存在一些异同点。
选择哪种算法取决于具体的问题和数据特征。
决策树

Power BI 提供了强大的数据可 视化功能,可以轻松地创建和 共享决策树图表。它支持多种 数据源,并具有高度的自定义 性和交互性。
02
Tableau
Tableau 是一款功能强大的数 据可视化工具,也支持决策树 的可视化。它提供了丰富的图 表类型和可视化选项,以及强 大的数据分析和挖掘功能。
佳的过拟合现象。
提高泛化能力
剪枝后的决策树结构更为简洁,有 助于提高模型在新数据上的泛化能 力。
减少计算资源消耗
简化决策树结构可以降低模型训练 和预测的计算复杂度,节省计算资 源。
预剪枝策略及实现
设定决策树生长的最大深度
01
在决策树生长过程中,限制树的最大深度,防止树生长过于庞
大。
设定叶节点最小样本数
代价复杂性剪枝(Cost-Complexity Pr…
引入一个代价复杂性参数,通过最小化代价复杂性函数来实现剪枝,该函数权衡了模型复杂度与 训练误差。
最小描述长度剪枝(Minimum Descripti…
基于信息论原理,通过最小化描述决策树所需的编码长度来实现剪枝。
剪枝效果评估方法
交叉验证
将数据集划分为训练集和验证集,使用训练集生成不同剪枝程度的 决策树,在验证集上评估其性能,选择性能最优的剪枝程度。
• 交互性和动画:一些工具提供了交互性和动画功能,如鼠标悬停提示、节点点击事件、动态展示决策过程等。 这些功能可以帮助用户更好地理解和探索决策树的结构和逻辑。
• 布局和排列:决策树的可视化还需要考虑布局和排列的问题。不同的布局算法可以产生不同的可视化效果,如 垂直布局、水平布局、径向布局等。选择合适的布局算法可以使决策树的可视化更加清晰和易于理解。
决策树的简单介绍

决策树的简单介绍决策树是一种常用于机器学习和数据挖掘领域的模型,它是一种树形结构,用于对一个问题进行决策过程的建模。
决策树通过学习训练数据中的规律,然后对新的数据进行分类或预测。
关键概念:1.节点(Node):决策树的每个分支点都是一个节点,用于对数据进行判别。
2.根节点(Root Node):决策树的起始节点,表示整个数据集。
3.内部节点(Internal Node):决策树中的非叶子节点,用于进行数据的划分。
4.叶节点(Leaf Node):决策树中的最终节点,表示分类或者输出的结果。
5.分支(Branch):连接节点的线,代表不同的决策路径。
6.特征(Feature):决策树在每个节点上选择的属性或特征,用于进行数据的分割。
决策过程:1.选择最优特征:决策树通过分析数据,选择对数据进行最优划分的特征。
2.划分数据集:根据选择的特征,将数据集划分成不同的子集。
3.递归建树:对每个子集递归地应用相同的建树过程,直到满足停止条件。
4.生成叶节点:当达到停止条件时,在当前节点生成叶子节点,表示最终的决策结果。
决策树的优势:1.易解释性强:决策树的结构清晰,容易被理解和解释。
2.适用于多类别问题:决策树能够处理多类别问题,并且可以输出概率值。
3.对数据预处理要求低:对数据的分布和缺失值的处理相对不敏感。
4.能够处理数值型和离散型数据:决策树可以处理混合类型的特征。
决策树的缺点:1.容易过拟合:对于复杂的数据,决策树容易学习过多细节,导致在新数据上表现不佳。
2.不稳定性:对数据的小变化非常敏感,可能导致生成不同的决策树。
3.无法处理复杂关系:决策树可能难以捕捉到一些复杂的关系,如异或关系。
总体而言,决策树是一种强大的机器学习工具,特别适用于数据集具有明显分割特征的情况。
决策树计算公式

决策树计算公式摘要:一、决策树的定义与特点1.决策树的定义2.决策树的特点二、决策树计算公式1.信息增益公式2.基尼指数公式3.剪枝策略三、决策树在实际应用中的优势与局限性1.优势2.局限性四、决策树与其他机器学习算法的比较1.对比算法2.优缺点分析五、决策树在机器学习领域的发展趋势1.发展现状2.未来趋势正文:一、决策树的定义与特点决策树是一种基本的分类和回归方法,它通过一系列的问题对数据进行分类或预测。
决策树具有以下特点:1.树形结构:以层次化的方式组织数据和规则;2.易于理解:通过颜色和图示表示不同类别的数据;3.可扩展性:可以很容易地添加新数据和规则;4.能够处理连续和离散数据。
二、决策树计算公式1.信息增益公式信息增益(IG)用于选择最佳的属性进行分割,公式为:IG(A) = H(A) - H(A|B)其中,H(A) 表示属性的熵,H(A|B) 表示在已知属性B 的情况下,属性的熵。
2.基尼指数公式基尼指数(Gini)用于度量数据集中类别的混乱程度,公式为:Gini(A) = 1 - (ΣP(Ai) * P(Ai))其中,P(Ai) 表示属于第i 个类别的概率。
3.剪枝策略为了防止过拟合,需要对决策树进行剪枝。
常见的剪枝策略有:a) 预剪枝:在构建完整决策树之前,根据验证集的表现停止树的生长;b) 后剪枝:在构建完整决策树后,根据验证集的表现修剪树的结构。
三、决策树在实际应用中的优势与局限性1.优势a) 易于理解和解释:决策树的结构直观,可以方便地解释数据分类或预测的过程;b) 计算简单:只需要计算熵和基尼指数,不需要进行复杂的矩阵运算;c) 适用于多种数据类型:可以处理连续和离散数据,同时适用于分类和回归问题。
2.局限性a) 容易过拟合:当决策树过于复杂时,可能对训练集的表现很好,但对测试集的表现较差;b) 对噪声敏感:如果数据集中存在噪声,决策树可能会选择错误的属性进行分割,导致预测结果不准确;c) 无法处理缺失值:如果数据集中存在缺失值,决策树可能无法正确处理这些数据。
风险管理之决策树

风险管理之决策树风险管理是企业管理中至关重要的一个方面,它涉及到识别、评估和应对各种可能影响企业目标实现的潜在风险。
为了更有效地应对风险,企业通常会采用决策树作为一种决策支持工具,帮助管理者在面临复杂情况下做出明智的决策。
什么是决策树决策树是一种模拟人类决策过程的树形结构模型,它通过节点、分支和叶子节点的形式对决策进行建模。
决策树的根节点代表一个决策问题或情景,分支代表选择或决策的可能路径,叶子节点表示最终的决策结果或结论。
在风险管理中,决策树可以帮助管理者分析不同决策选项的风险和收益,以便做出最优的决策。
利用决策树进行风险管理步骤一:确定决策问题在利用决策树进行风险管理时,首先需要明确当前所面临的决策问题。
这可能涉及到投资决策、项目选择、风险防范等方面的问题。
在确定决策问题后,可以开始构建决策树。
步骤二:构建决策树构建决策树的过程包括定义决策变量、确定决策树节点、设置节点之间的关系等步骤。
在这一步中,需要考虑潜在的风险因素和可能的决策选择,以及它们之间的关系。
通过建立决策树,管理者可以清晰地展示决策路径,有助于分析各种选择对企业风险的影响。
步骤三:评估风险和收益一旦决策树建立完成,接下来就是评估不同决策路径的风险和收益。
这可能涉及到制定风险评估标准、收益估算等工作。
通过对每种决策路径的风险和收益进行评估,管理者可以更清晰地了解各种选择的优劣势,有助于做出理性的决策。
步骤四:制定决策策略最后一步是制定具体的决策策略。
在制定决策策略时,管理者需要考虑到不同决策路径的风险和收益,并根据企业的战略目标和风险承受能力做出最终的决策。
决策策略应该能够最大化企业的利益,并有效管理风险。
通过以上步骤,企业可以利用决策树实现更有效的风险管理,提高决策质量,降低潜在风险。
然而,应该意识到决策树只是一种工具,最终的决策还是需要结合管理者的经验和判断力来做出。
因此,在风险管理过程中,建议不仅仅依赖于决策树,还应结合实际情况综合考虑,以达到更好的决策效果。
简单说明决策树原理

决策树原理简介一、什么是决策树决策树是一种机器学习中常用的分类和回归方法。
它通过对样本的特征进行一系列的判断,最终达到对样本进行分类或预测的目的。
决策树是一种可视化的算法,其结果可以形成一棵树状结构,每个内部节点代表一个特征判断,每个叶子节点代表一种分类或回归结果。
决策树在实践中被广泛应用,特别适用于复杂问题的决策以及数据探索性分析。
二、决策树的构造过程1. 特征选择决策树的构造过程从根节点开始,每次选择一个最好的特征作为当前节点的分裂条件。
特征选择的目标是使得对样本的划分尽可能的准确,即分类结果的纯度最高。
2. 样本划分选定了特征后,决策树根据该特征的取值将样本划分为不同的子集,每个子集对应一个子树。
划分的方式可以是二分法或多分法,具体取决于特征的类型和取值个数。
划分后,每个子树都会继续进行特征选择和样本划分的过程,直到满足终止条件。
3. 终止条件决策树的构建直到满足以下终止条件之一时才会停止: - 当前节点包含的样本属于同一类别。
- 当前节点包含的样本属于同一回归结果。
- 没有更多的特征可供选择,或者样本已经被划分得非常纯净。
4. 剪枝操作决策树的构建可能会造成过拟合现象,即模型过于复杂,对训练集的拟合程度很高,但是在新的数据上表现较差。
为了解决过拟合问题,可以对决策树进行剪枝操作。
剪枝过程可以通过删除一些节点或合并一些相邻节点来实现,目的是降低模型的复杂度,提高泛化能力。
三、决策树的优缺点1. 优点•决策树易于理解和解释,由于其树状结构,可以直观地表示特征间的关系。
•决策树能够处理混合数据类型,不需要对数据进行归一化处理。
•决策树算法可以灵活处理大型数据集。
2. 缺点•决策树容易产生过拟合,特别是在数据的噪声较大或特征维度较高时。
•决策树对于那些取值较多的属性有偏好,因为它通常选择那些能够更好地区分样本的特征进行分裂。
•决策树的稳定性较差,数据的微小变化可能导致生成完全不同的树。
四、决策树的应用场景决策树具有广泛的应用场景,包括但不限于以下几个方面:1. 医学诊断决策树可以用于医学诊断,根据患者的症状和检查结果判断患者的疾病类别。
分类分析--决策树(经典决策树、条件推断树)

分类分析--决策树(经典决策树、条件推断树)分类分析--决策树决策树是数据挖掘领域中的常⽤模型。
其基本思想是对预测变量进⾏⼆元分离,从⽽构造⼀棵可⽤于预测新样本单元所属类别的树。
两类决策树:经典树和条件推断树。
1 经典决策树经典决策树以⼀个⼆元输出变量(对应威斯康星州乳腺癌数据集中的良性/恶性)和⼀组预测变量(对应九个细胞特征)为基础。
具体算法如下:(1) 选定⼀个最佳预测变量将全部样本单元分为两类,实现两类中的纯度最⼤化(即⼀类中良性样本单元尽可能多,另⼀类中恶性样本单元尽可能多)。
如果预测变量连续,则选定⼀个分割点进⾏分类,使得两类纯度最⼤化;如果预测变量为分类变量(本例中未体现),则对各类别进⾏合并再分类。
(2) 对每⼀个⼦类别继续执⾏步骤(1)。
(3) 重复步骤(1)~(2),直到⼦类别中所含的样本单元数过少,或者没有分类法能将不纯度下降到⼀个给定阈值以下。
最终集中的⼦类别即终端节点(terminal node)。
根据每⼀个终端节点中样本单元的类别数众数来判别这⼀终端节点的所属类别。
(4) 对任⼀样本单元执⾏决策树,得到其终端节点,即可根据步骤3得到模型预测的所属类别。
上述算法通常会得到⼀棵过⼤的树,从⽽出现过拟合现象。
结果就是,对于训练集外单元的分类性能较差。
为解决这⼀问题,可采⽤10折交叉验证法选择预测误差最⼩的树。
这⼀剪枝后的树即可⽤于预测。
R中的rpart包⽀持rpart()函数构造决策树,prune()函数对决策树进⾏剪枝。
下⾯给出判别细胞为良性或恶性的决策树算法实现。
(1)使⽤rpart()函数创建分类决策树:#⽣成树:rpart()函数可⽤于⽣成决策树library(rpart)set.seed(1234)dtree <- rpart(class ~ ., data=df.train, method="class",parms=list(split="information"))#rpart() 返回的cptable值中包括不同⼤⼩的树对应的预测误差,因此可⽤于辅助设定最终的树的⼤⼩。
决策树

概率
0.3 0.5 0.2 0.2 0.6 0.2 0.3 0.5 0.2 0.3 0.6 0.1
A低
B高
B低
今以方案A高为例,说明损益期望值的计算,概率分叉 点7的损益期望值为:
5000×0.3+1000×0.5-3000×0.2=1400万元
概率分叉点2的损益期望值为:
1400×0.3-50×0.7=385万元
枝 分 圆形结点称为状态结点 案 方
2
概率枝
损益值
由状态结点引出若干条细支,表示不同的自然状态,称为概率枝。每条概 1 方案 损益值 枝 分枝 率 率枝代表一种自然状态。在每条细枝上标明客观状态的内容和其出现概率 概 决策
结点 概率 3 。在概率枝的最末稍标明该方案在该自然状态下所达到的结果 (收益值或 枝 概率分叉点 (自然状态点) 损益值 损失值)。这样树形图由左向右,由简到繁展开,组成一个树状网络图。
同理,可得概率分叉点 3、4、5、6各方案的损益期望
值分别为125、0、620和1100。
承包商可做出决策,如投A 工程,宜投高标,如投B 工程,宜投低标。而且从损益期望值角度看,选定B工 程投低标更为有利。
销路好(0.7) 680万元 2 建大厂 930万元 5 销路差(0.3) 200万元
-40万元
决策树(Decision Tree)
决策树对于常规统计方法的优缺点 优点:
1)
2)
3) 可以处理连续和种类字段 4) 决策树可以清晰的显示哪些字段比较重要。 缺点: 1) 2) 3) 4) 。
决策树(Decision Tree)
决策树的适用范围
科学的决策是现代管理者的一项重要职责。我们在企业管理实践中常 、外部环境
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
10
年度损益值
单位/万元
11
• 解:决策分析步骤: • (1)绘制决策树,如图 所示: • (2)计算各方案的期望损益值。
•
•
12
• 节点②:[100×0.7+(-30) ×0.3]×10-280=330 节点② × × 万元) (万元) • 节点③:[45×0.7+10×0.3]×10-150=195(万 节点③ × × × ( 元) • 将以上计算结果填入决策树的相应节点② 将以上计算结果填入决策树的相应节点②、③ 处上方,表示两个方案可获得的经济效果。 处上方,表示两个方案可获得的经济效果。 • (3)剪枝决策。通过对两个方案的最终期望收益 )剪枝决策。 值比较可知, 值比较可知,对生产线进行全部改造的方案更加 合理。它在10年期可使企业收回 年期可使企业收回280万元的投资, 万元的投资, 合理。它在 年期可使企业收回 万元的投资 并获利330万元,经济效果明显优于生产线的部 万元, 并获利 万元 分改造方案,因而, 分改造方案,因而,最佳决策方案应为全部改造 生产线方案。在决策树上应剪去A2部分改造生产 生产线方案。在决策树上应剪去 部分改造生产 线方案枝,保留A1全部改造生产线方案枝。 线方案枝,保留 全部改造生产线方案枝。 全部改造生产线方案枝
13
多阶段决策
• 多阶段决策是指在一个决策问题中包含着 两个或两个以上层次的决策, 两个或两个以上层次的决策,即在一个决 策问题的决策方案中又包含着另一个或几 个决策问题。 个决策问题。只有当低一层次的决策方案 确定之后,高一层次的决策方案才能确定。 确定之后,高一层次的决策方案才能确定。 因此, 因此,处理多阶决策问题必须通过依次的 计算、分析和比较, 计算、分析和比较,直到整个问题的决策 方案确定为止。 方案确定为止
• 根据以上情况,该公司确定进货期为一周, 根据以上情况,该公司确定进货期为一周, 并设计了3种进货方案 种进货方案: 进货方案为每周 并设计了 种进货方案:A1进货方案为每周 进货10000×7=70000(公斤); 进货方 );A2进货方 进货 × (公斤); 案为每周进货8000×7=56000(公斤); );A3 案为每周进货 × (公斤); 进货方案为每周进货6000×7=42000(公 进货方案为每周进货 × ( )。在 双节”到来之前, 斤)。在“双节”到来之前,公司将决策选 择哪种进货方案, 择哪种进货方案,以便做好资金筹集和销售 网点的布置工作。 网点的布置工作。
9
• 例2:某企业为了生产某种新产品,决定对 : 一条生产线的技术改造问题拟出两种方案, 一是全部改造,二是部分改造。若采用全 部改造方案,需投资280万元。若采用部分 改造方案只需投资150万元;两个方案的使 用期都是10年.估计在此期间,新产品销路 好的概率是0.7,销路不好的概率是0.3,两 个改造方案的年度损益值如表 所示。请问 该企业的管理者应如何决策改造方案。
7
8
• 分别计算状态节点②③④处的期望收益值,并填 分别计算状态节点②③④处的期望收益值, ②③④处的期望收益值 入图 中。 • 节点②: 节点② 70000×0.5+49000×0.3+28000×0.2=55300 × × × • 节点③; 节点③ 56000×0.5+56000×0.3+35000×0.2=51800 × × × • 节点④: 节点④ 42000×0.5+42000×0.3+42000×0.2=42000 × × × • 比较状态节点处的期望收益值,节点②处最大, 比较状态节点处的期望收益值,节点②处最大, 故应将方案A2、 枝剪枝 留下A1分枝 枝剪枝, 分枝, 方 故应将方案 、A3枝剪枝,留下 分枝,A1方 案即每周进货70000公斤为最优方案。 公斤为最优方案。 案即每周进货 公斤为最优方案
4
• 例1:某市果品公司准备组织新年(双节)期间柑 :某市果品公司准备组织新年(双节) 橘的市场供应,供应时间预计为70天 橘的市场供应,供应时间预计为 天。根据现行价 格水平,假如每公斤柑橘进货价格为3元,零售价 格水平,假如每公斤柑橘进货价格为 元 格预计为4元 每公斤的销售纯收益为1元 格预计为 元,每公斤的销售纯收益为 元。零售经 营新鲜果品,一般进货和销售期为一周( 天 营新鲜果品,一般进货和销售期为一周(7天), 如果超过一周没有卖完, 如果超过一周没有卖完,便会引起保管费用和腐烂 损失的较大上升。如果销售时间超过一周, 损失的较大上升。如果销售时间超过一周,平均每 公斤损失0.5元 根据市场调查, 公斤损失 元。根据市场调查,柑橘销售量与当 前其他水果的供应和销售情况有关。 前其他水果的供应和销售情况有关。如果其他水果 供应充分,柑橘日销售量将为6000公斤;如果其他 公斤; 供应充分,柑橘日销售量将为 公斤 水果供应稍不足,则柑橘日销售量将为8000公斤; 公斤; 水果供应稍不足,则柑橘日销售量将为 公斤 如果其他水果供应不足进一步加剧, 如果其他水果供应不足进一步加剧,则会引起价格 上升,则柑橘的日销售量10000公斤。调查结果显 公斤。 上升,则柑橘的日销售量 公斤 在此期间, 示,在此期间,水果储存和进货状况将引起水将达 到果市场如下变化: 周是其他水果价格上升 周是其他水果价格上升, 周 到果市场如下变化:5周是其他水果价格上升,3周 是其他水果供应稍不足, 周是其他水果充分供应 周是其他水果充分供应。 是其他水果供应稍不足,2周是其他水果充分供应。 现在需提前两个月到外地订购柑橘, 现在需提前两个月到外地订购柑橘,由货源地每周 发货一次。 发货一次。 5
第四节 决策树方法
• 一 决策树结构 • 利用决策树形图进行决策分析的方法称为决策树分析法。 利用决策树形图进行决策分析的方法称为决策树分析法。当 决策涉及多方案选择时, 决策涉及多方案选择时,借助由若干节点和分支构成的树状图 可形象地将各种可供选择的方案、 形,可形象地将各种可供选择的方案、可能出现的状态及其概 率,以及各方案在不同状态下的条件结果值简明地绘制在一张 图标上,以便讨论研究。决策树形图的优点在于系统地、 图标上,以便讨论研究。决策树形图的优点在于系统地、连贯 地考虑各方案之间的联系,整个决策分析过程直观易懂、 地考虑各方案之间的联系,整个决策分析过程直观易懂、清晰 明了。决策树形图可分为单阶段决策树和多阶段决策树。 明了。决策树形图可分为单阶段决策树和多阶段决策树。单阶 段决策树是指决策问题只需进行一次决策活动, 段决策树是指决策问题只需进行一次决策活动,便可以选出理 想的方案。单阶段决策树一般只有一个决策节点。 想的方案。单阶段决策树一般只有一个决策节点。如果所需决 策的问题比较复杂,通过一次决策不能解决, 策的问题比较复杂,通过一次决策不能解决,而是要通过一系 列相互联系的决策才能选出最满意方案, 列相互联系的决策才能选出最满意方案,这种决策就称为多阶 段决策。多阶段决策的目标是使各次决策的整体效果达到最优。 段决策。多阶段决策的目标是使各次决策的整体效果达到最优。 • 决策树分析法是进行风险型决策分析的重要方法之一。 决策树分析法是进行风险型决策分析的重要方法之一。该方 法将决策分析过程以图解方式表达整个决策的层次、 法将决策分析过程以图解方式表达整个决策的层次、阶段及其 相应决策依据,具有层次清晰、计算方便等特点, 相应决策依据,具有层次清晰、计算方便等特点,因而在决策 活动中被广泛运用。 活动中被广泛运用。
3
步骤
• 决策树形图是人们对某个决策问题未来可能发生的 状态与方案的可能结果所作出的预测在图纸上的分 析。因此画决策树形图的过程就是拟定各种可行方 案的过程, 案的过程,也是进行状态分析和估算方案结果值的 过程。画决策树形图时, 过程。画决策树形图时,应按照图的结构规范由左 向右逐步绘制、逐步分析。其步骤如下: 向右逐步绘制、逐步分析。其步骤如下: • (1)根据实际决策问题,以初始决策点为树根出发, )根据实际决策问题,以初始决策点为树根出发, 从左至右分别选择决策点、方案枝、状态节点、 从左至右分别选择决策点、方案枝、状态节点、概 率枝等画出决策树。 率枝等画出决策树。 • (2)从右至左逐步计算各个状态节点的期望收益值 ) 或期望损失值,并将其数值标在各点上方。 或期望损失值,并将其数值标在各点上方。 • (3)在决策点将各状态节点上的期望值加以比较, )在决策点将各状态节点上的期望值加以比较, 选取期望收益值最大的方案。 选取期望收益值最大的方案。对落选的方案要进行 剪枝” 即在效益差的方案枝上画上“ 符号。 “剪枝”,即在效益差的方案枝上画上“∥”符号。 最后留下一条效益最好的方案。 最后留下一条效益最好的方案。
14
• 例四:某连锁店经销商准备在一个新建居 例四: 民小区兴建一个新的连锁店,经市场行情 分析与推测,该店开业的头3年,经营状况 好的概率为0.75,营业差的概率为0.25;如 果头3年经营状况好,后7年经营状况也好 的概率可达0.85;但如果头3年经营状态差 后7年经营状态好的概率仅为0.1,差的概率 为0.9.兴建连锁店的规模有两个方案:一是 建中型商店。二是先建小型商店,若前3年 经营效益好,再扩建为中型商店。各方案 年均收益及投资情况如表 所示。该连锁 店管理层应如何决策?
6
解:分析原问题,柑橘的备选进货方案共有3个, 分析原问题,柑橘的备选进货方案共有 个 每个备选方案面临种3种自然状态,因此,由决策 每个备选方案面临种 种自然状态,因此, 种自然状态 点出发,右边连出3条方案枝 末端有3个状态节 条方案枝, 点出发,右边连出 条方案枝,末端有 个状态节 每个状态节点分别引出3条概率枝 条概率枝, 点,每个状态节点分别引出 条概率枝,在概率枝 的末端有9个结果点 柑橘日销量10000公斤 个结果点, 公斤、 的末端有9个结果点,柑橘日销量10000公斤、 8000公斤、6000公斤的概率分别为 、0.3、 公斤、 公斤的概率分别为0.5、 、 公斤 公斤的概率分别为 0.2 。将有关数据填入决策图中,如图 所示: 将 决策树又称决策图,是以方框和圆圈及节点,并由直线连 决策树又称决策图,是以方框和圆圈及节点, 接而形成的一种像树枝形状的结构图。 接而形成的一种像树枝形状的结构图。单阶段决策树如图 所示: 所示: