新决策树例子
决策树例题经典案例三个方案

决策树例题经典案例三个方案
为了适应市场的需要,某地准备扩大电视机生产。
市场预测表明:产品销路好的概率为0.7;销路差的概率为0.3。
备选方案有三个:第一个方案是建设大工厂,需要投资600万元,可使用10年;如销路好,每年可赢利200万元;如销路不好,每年会亏损40万元。
第二个方案是建设小工厂,需投资280万元;如销路好,每年可赢利80万元;如销路不好,每年也会赢利60万元。
第三个方案也是先建设小工厂,但是如销路好,3年后扩建,扩建需投资400万元,可使用7年,扩建后每年会赢利190万元。
各点期望:
点②:0.7×200×10+0.3×(-40)×10-600(投资)=680(万元)
点⑤:1.0×190×7-400=930(万元)
点⑥:1.0×80×7=560(万元)
比较决策点4的情况可以看到,由于点⑤(930万元)与点⑥(560万元)相比,点⑤的期望利润值较大,因此应采用扩建的方案,而舍弃不扩建的方案。
把点⑤的930万元移到点4来,可计算出点③的期望利润值。
点③:0.7×80×3+0.7×930+0.3×60×(3+7)-280 = 719(万元)
最后比较决策点1的情况。
由于点③(719万元)与点②(680万元)相比,点③的期望利润值较大,因此取点③而舍点②。
这样,相比之下,建设大工厂的方案不是最优方案,合理的策略应采用前3年建小工厂,如销路好,后7年进行扩建的方案。
人工智能决策树例题经典案例

人工智能决策树例题经典案例一、经典案例:天气预测决策树在天气预测中有广泛应用,下面是一个关于是否适宜进行户外运动的示例:1. 数据收集:- 温度:高(>30℃)/中(20℃-30℃)/低(<20℃)- 降水:是/否- 风力:高/中/低- 天气状况:晴朗/多云/阴天/雨/暴雨- 应该户外运动:是/否2. 构建决策树:- 根据温度将数据分为三个分支:高温、中温、低温- 在每个分支中,继续根据降水、风力和天气状况进行划分,最终得到是否适宜户外运动的决策3. 决策树示例:温度/ / \高温中温低温/ | | \ |降水无降水风力适宜/ \ | | / \是否高中低| |不适宜适宜- 如果温度是高温且有降水,则不适宜户外运动- 如果温度是高温且无降水,则根据风力判断,如果风力是高,则不适宜户外运动,如果风力是中或低,则适宜户外运动 - 如果温度是中温,则不论降水和风力如何,都适宜户外运动- 如果温度是低温,则需要考虑风力,如果风力是高,则适宜户外运动,如果风力是中或低,则不适宜户外运动4. 参考内容:决策树的构建和应用:决策树通过对输入特征进行划分,构建了一棵树形结构,用于解决分类或回归问题。
构建决策树主要包括数据预处理、特征选择、划分策略和停止条件等步骤。
特征选择可以使用信息增益、基尼指数等算法,划分策略可以使用二叉划分或多叉划分,停止条件可以是叶子节点纯度达到一定阈值或达到预定的树深度。
决策树的应用包括数据分类、特征选择和预测等任务。
天气预测案例中的决策树:将天气预测问题转化为分类问题,通过构建决策树,可以得到识别是否适宜户外运动的规则。
决策树的决策路径可以用流程图或树状图表示,帮助理解和解释决策过程。
决策树的节点表示特征值,分支表示判断条件,叶子节点表示分类结果。
决策树的生成算法可以基于启发式规则或数学模型,如ID3、C4.5、CART等。
决策树的优缺点:决策树具有可解释性强、易于理解和实现、能处理非线性关系等优点。
决策树案例

决策树案例决策树是一种常见的机器学习算法,它通过使用树状数据结构建立模型,并根据特征选择来做出决策。
以下是一个决策树的案例:假设我们要建立一个决策树模型来预测一个人是否会购买一款新的电视。
我们收集了一些关于不同人群的数据,包括他们的年龄、性别、收入水平和是否购买电视的记录。
我们首先根据这些特征来构建决策树。
我们首先选择一个特征来作为根节点,根据这个节点将数据分为不同的类别。
在这个例子中,我们可以选择收入水平作为根节点。
我们检查每个人的收入水平,将收入水平低于一定阈值的人标记为“不购买”,收入水平高于阈值的人标记为“购买”。
下一步我们考虑子节点,即进入左子树和右子树的条件。
我们可以选择不同的特征来作为子节点。
在这个例子中,我们可以选择年龄作为左子树的条件,性别作为右子树的条件。
我们根据这些条件进一步细分人群。
例如,对于左子树,我们可以选择年龄小于一定阈值的人群。
如果他们的收入水平低于另一个阈值,我们将他们标记为“不购买”;如果他们的收入水平高于阈值,我们将他们标记为“购买”。
对于右子树,我们可以根据性别进一步分类。
通过不断选择特征和条件,我们可以构建出一个树状结构。
在最后一层,我们可以得到最终的决策结果。
根据这个决策树模型,我们可以根据一个人的特征来预测他是否会购买电视。
决策树的优点是易于理解和解释,可以处理多种数据类型,包括数值型和分类型。
它也可以处理缺失值和异常值,并且对于大型数据集可以高效地进行训练和预测。
然而,决策树也有一些缺点。
它容易过拟合,即在训练集上表现良好但在测试集上表现较差。
为了解决这个问题,可以通过剪枝等技术来限制决策树的复杂度。
另外,决策树对于特征选择比较敏感,不同的选择可能得到不同的结果。
总而言之,决策树是一个用于分类和回归的常见机器学习算法。
通过选择特征和条件,我们可以构建出一个树状结构,用于预测未知数据的类别或数值。
虽然决策树有一些缺点,但它仍然是一个有用的工具,在实际应用中被广泛使用。
决策树在生活中的例子

决策树在生活中的例子决策树是一种常见的机器学习算法,它通过一系列的决策规则来对数据进行分类或预测。
这些决策规则可以用树状图形式表示,每个内部节点表示一个特征或属性,每个叶子节点表示一个类别或是一个预测的结果。
决策树的可解释性和易于理解的特点使得它在生活中有着广泛的应用。
以下是生活中常见的决策树的例子:1.疾病诊断决策树:医生在进行疾病诊断时,通常会根据患者的症状和检测结果,利用决策树来判断患者可能患有的疾病类型。
例如,医生可以通过询问患者是否有发烧、咳嗽等症状来进行初步判断,然后根据进一步的检测结果来确认疾病的类型。
2.贷款申请决策树:银行在进行贷款申请审核时,会根据申请人的个人信息(如年龄、工作年限、征信记录等)以及贷款金额等因素,利用决策树来判断该申请是否应该得到批准。
例如,银行可以根据申请人的年龄和工作年限来判断其信用等级,从而决定是否批准贷款申请。
3.产品推荐决策树:电商网站通常会根据用户的浏览历史、购买记录等信息,利用决策树来推荐相关产品给用户。
例如,当一个用户浏览了几个相似的产品时,网站可以根据用户的浏览记录和购买记录来推测该用户对其他相似产品的兴趣,从而向用户推荐相关的产品。
4.旅行路线决策树:当人们计划旅行时,他们通常会面临选择旅行目的地和路线的问题。
决策树可以帮助人们做出决策。
例如,当人们根据旅行偏好、时间和预算等因素,在一组候选目的地中进行选择时,决策树可以根据这些因素来帮助人们决定最佳的旅行目的地和路线。
5.个人理财决策树:当人们面临个人理财决策时,决策树可以作为辅助工具。
例如,当人们考虑是否购买其中一种投资产品时,决策树可以根据他们的风险偏好、投资目标和市场状况等因素来帮助他们决策。
决策树还可以帮助人们制定个人预算和理财计划。
决策树在生活中的应用不仅限于上述例子,而且还可以扩展到更多的领域,例如教育、市场营销、自然灾害预测等。
通过采用适当的特征选择和数据预处理方法,决策树能够提供准确和可解释的结果,使得人们能够更好地做出决策。
决策树算法最经典应用案例

决策树算法最经典应用案例决策树算法是一种常用的机器学习算法,它可以应用于各种实际问题,帮助人们做出决策。
下面列举了决策树算法的十个经典应用案例。
1. 银行贷款风险评估银行可以使用决策树算法来评估客户的信用风险,根据客户的个人信息、收入情况、信用记录等特征,构建决策树模型,预测客户是否有偿还贷款的能力。
2. 电商推荐系统电商平台可以利用决策树算法根据用户的历史购买记录、浏览行为、个人偏好等信息,构建决策树模型,实现个性化的商品推荐,提高用户购买转化率。
3. 医学诊断医生可以使用决策树算法来辅助诊断疾病。
根据患者的症状、生理指标、病史等特征,构建决策树模型,帮助医生判断患者是否患有某种疾病,从而指导治疗方案。
4. 电影评分预测在线视频平台可以利用决策树算法根据用户的观看历史、评分记录、影片类型等信息,构建决策树模型,预测用户对未观看的电影的评分,从而为用户推荐感兴趣的电影。
5. 股票市场预测投资者可以使用决策树算法来预测股票市场的涨跌。
根据股票的历史交易数据、市场指标、财务数据等特征,构建决策树模型,预测股票的涨跌趋势,指导投资决策。
6. 人脸识别人脸识别系统可以利用决策树算法根据人脸图像的特征,构建决策树模型,识别出不同的人脸。
决策树的每个节点表示一个特征的判断,通过逐层判断,最终确定人脸的身份。
7. 自然语言处理自然语言处理任务中,如情感分析、文本分类等,可以使用决策树算法来构建模型,根据文本的词频、句法结构等特征,判断文本的情感倾向或类别。
8. 网络安全检测网络安全检测系统可以使用决策树算法来识别恶意攻击。
根据网络流量的特征、用户行为等信息,构建决策树模型,判断网络流量是否存在安全风险。
9. 智能交通智能交通系统可以利用决策树算法根据交通流量、车速、天气等信息,构建决策树模型,预测交通拥堵情况,为驾驶员提供最佳出行路线。
10. 疾病预测医疗领域可以利用决策树算法根据患者的基因、病史、生活习惯等特征,构建决策树模型,预测患者是否患有某种遗传性疾病,从而进行早期干预和治疗。
决策树西瓜例题经典案例

以下是一个经典的西瓜例题案例,用于介绍决策树算法:
假设有一个数据集,包含了一些西瓜的特征和它们是否为好瓜的标签。
特征包括色泽、根蒂、敲声、纹理等,标签有是(好瓜)和否(坏瓜)两类。
我们的目标是通过构建决策树模型来预测新输入的西瓜是否为好瓜。
首先,我们需要根据数据集计算一些指标,如信息熵和信息增益,来确定最优的划分特征。
然后,根据最优特征划分数据集,每个子集继续重复这个过程,直到满足停止条件(比如子集只包含一类标签或特征已经用完)。
最后,我们可以将得到的决策树用于预测新的未知样本。
这个经典的西瓜例题案例展示了决策树算法的基本原理和应用,它可以帮助我们理解如何使用决策树算法解决实际问题。
决策树例题经典案例280

决策树例题经典案例280决策树是一种常用的机器学习算法,它可以用于分类和回归任务。
决策树通过对数据集进行分割,构建一个树形结构,从而实现对数据的预测或分类。
在本文中,我们将通过经典案例来介绍决策树的应用和实现。
案例背景:假设我们有一个电商平台,我们希望通过用户的行为数据来预测用户是否会购买某种产品。
我们收集了一些用户的行为数据,包括浏览页面次数、点击广告次数、加入购物车次数等。
我们希望通过这些数据来构建一个决策树模型,从而预测用户的购买行为。
数据集:我们收集了1000个用户的行为数据,每个用户有以下特征:1. 浏览页面次数(0-100)。
2. 点击广告次数(0-10)。
3. 加入购物车次数(0-5)。
4. 是否购买(是/否)。
数据预处理:在构建决策树模型之前,我们需要对数据进行预处理。
首先,我们将数据集分为训练集和测试集,其中训练集占80%,测试集占20%。
然后,我们对特征进行归一化处理,将所有特征缩放到0-1之间,以便模型能够更好地学习特征之间的关系。
决策树模型构建:我们使用Python中的scikit-learn库来构建决策树模型。
首先,我们选择合适的决策树算法,比如ID3、CART等。
然后,我们通过训练集来训练模型,调整模型的参数,如最大深度、最小样本分割数等,以提高模型的准确性和泛化能力。
模型评估:在模型训练完成后,我们需要对模型进行评估。
我们使用测试集来评估模型的准确性、精确度、召回率等指标,以及绘制ROC曲线、混淆矩阵等来评估模型的性能。
模型预测:最后,我们使用训练好的决策树模型来对新的用户数据进行预测。
当有新的用户数据输入时,模型可以根据用户的行为特征来预测用户是否会购买产品,从而为电商平台提供决策支持。
总结:通过本案例的介绍,我们了解了决策树在电商平台中的应用。
决策树模型可以通过用户的行为数据来预测用户的购买行为,为电商平台提供决策支持。
同时,我们也学习了如何使用Python中的scikit-learn库来构建和评估决策树模型。
python决策树经典案例

python决策树经典案例以Python决策树经典案例为题,列举以下十个案例。
1. 预测鸢尾花品种鸢尾花数据集是一个经典的分类问题,其中包含了三个不同品种的鸢尾花的测量数据。
通过使用决策树算法,我们可以根据花瓣和花萼的长度、宽度等特征,预测鸢尾花的品种。
2. 判断信用卡申请的风险在信用卡申请过程中,银行需要评估申请人的信用风险。
使用决策树算法,我们可以根据申请人的个人信息(如年龄、收入、债务等),预测其信用卡申请是否有风险。
3. 识别垃圾邮件垃圾邮件是每个人都会遇到的问题,而决策树可以帮助我们自动识别垃圾邮件。
通过对邮件的主题、发送者、内容等特征进行分析,决策树可以判断一封邮件是否为垃圾邮件。
4. 预测房价房价预测是房地产市场中的一个重要问题。
通过使用决策树算法,我们可以根据房屋的各种特征(如面积、地理位置、卧室数量等),预测房屋的价格。
5. 识别植物病害农作物病害的及时识别对于农业生产非常重要。
使用决策树算法,可以根据植物叶片的形状、颜色、纹理等特征,判断植物是否受到病害的侵袭。
6. 预测股票涨跌股票市场的波动性很大,而决策树可以用来预测股票的涨跌。
通过分析股票的历史数据和各种市场指标,决策树可以预测股票的未来走势。
7. 判断病人是否患有某种疾病医疗诊断是决策树算法的另一个应用领域。
通过分析病人的症状、体征等信息,决策树可以帮助医生判断病人是否患有某种疾病,并给出相应的治疗建议。
8. 预测客户流失率对于一家公司来说,客户流失是一个重要的问题。
通过使用决策树算法,我们可以根据客户的消费行为、购买记录等信息,预测客户的流失率,并采取相应的措施来留住客户。
9. 判断某人是否适合借贷在金融行业中,决策树可以用来评估某个人是否适合借贷。
通过分析个人的收入、信用记录、职业等信息,决策树可以判断一个人是否有能力偿还借款。
10. 识别手写数字手写数字识别是机器学习领域中的一个经典问题。
通过使用决策树算法,可以根据手写数字的像素点信息,准确地识别出手写数字是哪个数字。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
rpart包的rpart函数Iris数据集library(rpart) #加载rpart包head(iris) #看看iris数据集里有哪些变量iris以鸢尾花的特征作为数据来源,数据集包含150个数据,分为3类,每类50个数据,每个数据包含4个属性分别是花萼长度、花萼宽带、花瓣长度、花瓣宽度用gini度量纯度=rpart(Species~.,data=iris,method="class",parms=list(split="gini")) # rpart(formula, data, method, parms, ...)得到决策树对象,其中(1)formula是回归方程的形式,y~x1+x2+…,iris一共有5个变量,因变量是Species,自变量是其余四个变量,所以formula可以省略为Species~.(2)data是所要学习的数据集(3)method根据因变量的数据类型有如下几种选择:anova(连续型),poisson(计数型),class(离散型),exp(生存型),因为我们的因变量是花的种类,属于离散型,所以method选择class(4)parms可以设置纯度的度量方法,有gini(默认)和information(信息增益)两种。
plot, uniform=T, branch=0, margin=,main="Classification Tree\nIris Species by Petal and Sepal Length")#plot的对象是由rpart得到的决策树对象,可以把这课决策树画出来,其中(1) uniform可取T,F两个值,T表示图形在空间上均匀分配(2) branch刻画分支的形状,取值在0和1之间,branch=0是倒v型,branch=1是直角型,而当branch属于(0,1)时是梯形Classification T reeIris Species by Petal and Sepal Lengthbranch=0.5|(3)margin刻画图的大小,margin越大,决策树越小,上述三幅图的margin=,而当margin=1时,决策树变小了(4)main是图的标题,其中“\n”是换行的意思text, =T, fancy=T, col="blue")text, =T, fancy=F, col="blue")(1) =T,在每个节点处都会显示落在该节点的观测个数和对应的分类,=F 时就不显示观测个数了。
(2) fancy=T、F的区别见上图(3) col=“blue”就是写在树上的信息的颜色。
还有另一种画图函数library,branch=0,=2,type=1,extra=1,="gray",="green",="blue",="red" ,main="决策树"),branch=0,=0,type=1,extra=1,="gray",="green",="blue",="red", main="决策树")(1)是分支的形状参数,=0时画出来的分支跟plot里的一样,就是一条线,而当=2时,分支的宽度是数据的标准差,=1时,是方差(2) type:type=0只对叶子节点画圆圈。
type=1对根节点和叶子节点画圆圈,分裂属性的值会写在节点框的上面。
type=2时跟type=1近似,但分裂属性的值会写在节点框的下面。
type=3时每个根节点左右分支对应的属性的取值范围都标出来了(之前那些都只标了左分支的属性取值),并且只对叶子节点画圆圈。
type=4时,跟type=3近似,但对叶子节点和根节点都画圆圈。
(3) extra是表示在节点处显示的额外信息的种类。
当extra=0(缺省值)时,无额外信息。
当extra=1,在节点处会显示落在该节点的观测个数和对应的分类(如上图)。
当extra=2,在节点处会显示(在该点分类正确的个数/落在该节点的观测个数)。
(4) ="gray",="green",="blue",="red"分别是决策树中节点框的阴影颜色、填充颜色、边框颜色、和分类属性的颜色用信息增益度量纯度=rpart(Species~.,data=iris,method="class",parms=list(split="informati on"))plot, uniform=T, branch=0, margin=,main="Classification Tree\nIris Species by Petal and Sepal Length")text, =T, fancy=T, col="blue")由上面两幅图可以看出,对于iris数据集,无论是用信息增益(information)还是gini来选择分裂属性,得到的决策树都是一样的。
决策树检验因为iris数据集比较简单,不需修树,我们可以把原来的150个样本随机分成学习集和测试集,用学习集来生成决策树,然后用测试集验证决策树的准确性。
ind <- sample(2, nrow(iris), replace=TRUE, prob=c, )=iris[ind==1,] #生成训练集=iris[ind==2,] #生成测试集=rpart(Species~., , method=“class”)=predict, [,-5], type="class")table[,5],准确率=1-2/43=%,与原来的96%准确性几乎一样,所以这颗决策树有加好的泛化能力。
我们再考虑另一个复杂一点的例子。
数据说明:通过7个变量(分别是怀孕次数npregnant,身体质量指数bmi,葡萄糖水平glucose,心脏血样,皮下脂肪厚度skinfold thickness,遗传影响pedigree,年龄age)来判断一个人是否患有糖尿病。
(123)<- rpart(pima[,9] ~., data = pima[,1:7], cp=, parms=list(split="gini")) 数据的第八列和第九列其实是一样的,有糖尿病(diabetic)的记为1,正常的记为0,把第九列的分类属性作为因变量, Pima数据集的前七列作为自变量,用gini来衡量纯度,结果解释:以根节点为例,观测总数是532,其中177例糖尿病,355例正常,该节点的分类属性是正常,所以错判例数(loss)是177,(错判率,正确判断率)=。
如果根节点的观测满足glucose>=(即128),则观测值落入左边的分支,否则落入右边的分支。
,branch=0,=0,type=1,extra=1,="gray",="green",="blue",="red", main="决策树")图的解释:1.每个节点框中的数字是:(落在该节点有糖尿病的个数/正常的个数)2.每个节点框内的diabetic、normal表示该节点对应的分类属性printcp #列出cp值cp: complexity parameter复杂性参数,用来修剪树的当决策树复杂度超过一定程度后,随着复杂度的提高,测试集的分类精确度反而会降低。
因此,建立的决策树不宜太复杂,需进行剪枝。
该剪枝算法依赖于复杂性参数cp,cp随树复杂度的增加而减小,当增加一个节点引起的分类精确度变化量小于树复杂度变化的cp倍时,则须剪去该节点。
故建立一棵既能精确分类,又不过度适合的决策树的关键是求解一个合适的cp值。
一般选择错判率最小值对应的cp值来修树plotcp=prune,cp=$cptable[$cptable[,"xerror"]),"CP"])?xerror:交叉验证(cross validation)错判率的估计xstd:交叉验证错判率的标准差建立树模型要权衡两方面问题,一个是要拟合得使分组后的变异较小,另一个是要防止过度拟合,而使模型的误差过大,前者的参数是CP,后者的参数是Xerror。
所以要在Xerror最小的情况下,也使CP尽量小。
Party包的ctree函数party包的处理方式:它的背景理论是“条件推断决策树”(conditional inference trees):它根据统计检验来确定自变量和分割点的选择。
即先假设所有自变量与因变量均独立。
再对它们进行卡方独立检验,检验P值小于阀值的自变量加入模型,相关性最强的自变量作为第一次分割的自变量。
自变量选择好后,用置换检验来选择分割点。
用party包建立的决策树不需要剪枝,因为阀值就决定了模型的复杂程度。
所以如何决定阀值参数是非常重要的(参见ctree_control)。
较为流行的做法是取不同的参数值进行交叉检验,选择误差最小的模型参数。
Ctree在Iris数据上的应用##先载入包party##构造分类树iris_ctree<-ctree(Species~.,data=iris)##画出分类树的图plot(iris_ctree)plot(iris_ctree,type="simple")##比较用分类树预测的结果和实际结果之间的区别table(predict(iris_ctree),iris$Species)##由结果可以看出,由该决策树得到的结果的错误率为6/150=4%Ctree在diabetes数据上的应用##载入diabetes的数据data2=("F:\\课件\\讨论班\\研一秋季学期\\我的讲稿##观察diabetes的数据head(data2)##构造分类树pima_ctree=ctree(class~npregnant+glucose+++bmi+pedigree+age,data=data2)##画出分类树的图plot(pima_ctree)plot(pima_ctree,type="simple")##计算错判率##由结果可以看出,由该决策树得到的结果的错误率为109/532=%##能否修改参数改变模型?ctree_control(teststat = c("quad", "max"),testtype = c("Bonferroni", "MonteCarlo","Univariate", "Teststatistic"),mincriterion = , minsplit = 20, minbucket = 7,stump = FALSE, nresample = 9999, maxsurrogate = 0,mtry = 0, savesplitstats = TRUE, maxdepth = 0)teststat a character specifying the type of the test statistic to be applied. testtype a character specifying how to compute the distribution of the test statistic.mincriterion the value of the test statistic (for?testtype =="Teststatistic"), or 1 - p-value (for other values of?testtype)that must be exceeded in order to implement a split.minsplit the minimum sum of weights in a node in order to be considered for splitting.minbucket the minimum sum of weights in a terminal node.stump a logical determining whether a stump (a tree with three nodes only)is to be computed.nresample number of Monte-Carlo replications to use when the distribution of the test statistic is simulated.maxsurrogate number of surrogate splits to evaluate. Note the currently only surrogate splits in ordered covariables are implemented.mtry number of input variables randomly sampled as candidates at each node for random forest like algorithms. The default?mtry = 0?means thatno random selection takes place.savesplitstats a logical determining if the process of standardized two-sample statistics for split point estimate is saved for each primary split. maxdepth maximum depth of the tree. The default?maxdepth = 0?means that no restrictions are applied to tree sizes.####尝试修改mincriterion=(mincriterion=的结果与原来一样,故应该为默认值)pima_ctree=ctree(class~npregnant+glucose+++bmi+pedigree+age,data=data2,control= ctree_control(mincriterion=)table(predict(pima_ctree),data2$class)##计算错判率##由结果可以看出,由该决策树得到的结果的错误率为97/532=%plot(pima_ctree)##此时树变得更复杂了。