Clementine决策树CHAID算法

合集下载

决策树算法介绍(DOC)

决策树算法介绍(DOC)

决策树算法介绍(DOC)3.1 分类与决策树概述3.1.1 分类与预测分类是⼀种应⽤⾮常⼴泛的数据挖掘技术,应⽤的例⼦也很多。

例如,根据信⽤卡⽀付历史记录,来判断具备哪些特征的⽤户往往具有良好的信⽤;根据某种病症的诊断记录,来分析哪些药物组合可以带来良好的治疗效果。

这些过程的⼀个共同特点是:根据数据的某些属性,来估计⼀个特定属性的值。

例如在信⽤分析案例中,根据⽤户的“年龄”、“性别”、“收⼊⽔平”、“职业”等属性的值,来估计该⽤户“信⽤度”属性的值应该取“好”还是“差”,在这个例⼦中,所研究的属性“信⽤度”是⼀个离散属性,它的取值是⼀个类别值,这种问题在数据挖掘中被称为分类。

还有⼀种问题,例如根据股市交易的历史数据估计下⼀个交易⽇的⼤盘指数,这⾥所研究的属性“⼤盘指数”是⼀个连续属性,它的取值是⼀个实数。

那么这种问题在数据挖掘中被称为预测。

总之,当估计的属性值是离散值时,这就是分类;当估计的属性值是连续值时,这就是预测。

3.1.2 决策树的基本原理1.构建决策树通过⼀个实际的例⼦,来了解⼀些与决策树有关的基本概念。

表3-1是⼀个数据库表,记载着某银⾏的客户信⽤记录,属性包括“姓名”、“年龄”、“职业”、“⽉薪”、......、“信⽤等级”,每⼀⾏是⼀个客户样本,每⼀列是⼀个属性(字段)。

这⾥把这个表记做数据集D。

银⾏需要解决的问题是,根据数据集D,建⽴⼀个信⽤等级分析模型,并根据这个模型,产⽣⼀系列规则。

当银⾏在未来的某个时刻收到某个客户的贷款申请时,依据这些规则,可以根据该客户的年龄、职业、⽉薪等属性,来预测其信⽤等级,以确定是否提供贷款给该⽤户。

这⾥的信⽤等级分析模型,就可以是⼀棵决策树。

在这个案例中,研究的重点是“信⽤等级”这个属性。

给定⼀个信⽤等级未知的客户,要根据他/她的其他属性来估计“信⽤等级”的值是“优”、“良”还是“差”,也就是说,要把这客户划分到信⽤等级为“优”、“良”、“差”这3个类别的某⼀类别中去。

clementine算法原理

clementine算法原理

clementine算法原理Clementine算法原理Clementine算法是一种常用的数据挖掘算法,用于发现数据集中的隐含模式和关联规则。

它是一种基于决策树的分类算法,可以用于预测未知数据的类别。

本文将介绍Clementine算法的原理及其应用。

一、Clementine算法的基本原理Clementine算法的基本原理是通过对已知数据集的学习,构建一个决策树模型,然后利用该模型对未知数据进行分类。

算法的核心思想是将数据集划分为多个子集,每个子集对应一个决策树节点,通过比较不同特征的取值来划分数据。

在构建决策树的过程中,算法会根据某种准则选择最佳的特征作为划分依据,直到所有数据都被正确分类或无法继续划分为止。

二、Clementine算法的具体步骤1. 数据预处理:对原始数据进行清洗、去噪、缺失值处理等操作,保证数据的质量和完整性。

2. 特征选择:根据特征的重要性和相关性对数据进行特征选择,筛选出对分类结果有影响的特征。

3. 数据划分:将数据集划分为训练集和测试集,通常采用70%的数据作为训练集,30%的数据作为测试集。

4. 构建决策树:根据训练集的数据,利用信息增益、基尼系数等准则选择最佳的特征进行划分,递归地构建决策树。

5. 决策树剪枝:为了避免过拟合现象,需要对决策树进行剪枝操作,去除一些不必要的节点和分支。

6. 模型评估:使用测试集对构建好的决策树模型进行评估,计算分类准确率、召回率、F1值等指标,评估模型的性能。

三、Clementine算法的应用领域Clementine算法在数据挖掘领域有着广泛的应用。

它可以用于市场分析、客户分类、信用评估等多个领域。

1. 市场分析:通过对市场数据的分析,可以预测产品的销售情况、消费者的购买偏好等,为企业的市场决策提供依据。

2. 客户分类:通过对客户的个人信息、购买记录等进行分析,可以将客户划分为不同的类别,为企业的客户管理和营销活动提供指导。

3. 信用评估:通过对个人信用记录、收入状况等进行分析,可以评估个人的信用水平,为银行等金融机构的信贷决策提供参考。

clementine使用经典实例

clementine使用经典实例

Clementine使用经典实例收藏下面使用Adventure Works数据库中的Target Mail作例子,通过建立分类树和神经网络模型,决策树用来预测哪些人会响应促销,神经网络用来预测年收入。

Target Mail数据在SQL Server样本数据库AdventureWorksDW中的dbo.vTargetMail视图,关于Target Mail详见:/zh-cn/library/ms124623.aspx#DataMining1. 定义数据源将一个Datebase源组件加入到数据流设计区,双击组件,设置数据源为dbo.vTargetMail视图。

在Types栏中点“Read Values”,会自动读取数据个字段的Type、Values等信息。

Values是字段包含的值,比如在数据集中NumberCardsOwned字段的值是从0到4的数,HouseOwnerFlag只有1和0两种值。

Type是依据Values判断字段的类型,Flag类型只包含两种值,类似于boolean;Set是指包含有限个值,类似于enumeration;Ragnge是连续性数值,类似于float。

通过了解字段的类型和值,我们可以确定哪些字段能用来作为预测因子,像AddressLine、Phone、DateFirstPurchase等字段是无用的,因为这些字段的值是无序和无意义的。

Direction表明字段的用法,“In”在SQL Server中叫做“Input”,“Out”在SQL Server中叫做“PredictOnly”,“Both”在SQL Server中叫做“Predict”,“Partition”用于对数据分组。

2. 理解数据在建模之前,我们需要了解数据集中都有哪些字段,这些字段如何分布,它们之间是否隐含着相关性等信息。

只有了解这些信息后才能决定使用哪些字段,应用何种挖掘算法和算法参数。

在除了在建立数据源时Clementine能告诉我们值类型外,还能使用输出和图形组件对数据进行探索。

决策树的训练算法

决策树的训练算法

决策树的训练算法
决策树的训练算法主要有以下几种:
1. ID3算法:ID3(Iterative Dichotomiser 3)是一种用于决策树学习的经典算法。

它基于信息熵的概念,通过计算每个特征的信息增益来选择最优的划分特征。

2. C4.5算法:C4.5算法是ID3算法的改进版,它在选择划分特征时使用信息增益比来解决ID3算法中对取值较多的特征有偏好的问题。

此外,C4.5算法还支持处理连续特征。

3. CART算法:CART(Classification and Regression Tree)算法是一种用于生成二叉决策树的算法。

它根据基尼系数来选择最优的划分特征,并使用回归树或分类树来处理连续特征。

4. CHAID算法:CHAID(Chi-square Automatic Interaction Detector)算法是一种适用于分类问题的决策树算法。

它使用卡方检验来选择最优的划分特征,并根据卡方统计量的值来评估特征的重要性。

5. 梯度提升决策树(GBDT)算法:GBDT算法是一种集成学习算法,它将多颗决策树进行级联,每颗树的输出作为下一颗树的输入。

GBDT通过梯度下降的方式逐步优化模型的预测能力。

这些算法在决策树的构建过程中采用不同的策略和指标,适用于不同类型的数据和问题。

在实际应用中,可以根据数据特点和问题需
求选择合适的算法进行训练。

clementine决策树c5.0算法

clementine决策树c5.0算法

1.C5.0算法的优缺点输出类型:指定分析输出的内容。

指定希望最终生成的模型是决策树还是规则集。

组符号:如果选择该选项,C5.0会尝试将所有与输出字段格式相似的字符值合并(采用ChiMerge分箱法检查当前分组变量个各个类别能否合并,如果可以应先合并后再分支)。

如果没有选择该选项,C5.0会为用于拆分母节点的字符字段的每个值创建一个子节点。

使用推进:提高其精确率。

这种方法按序列建立多重模型。

第一个模型以通常的方式建立。

随后,建立第二个模型,聚焦于被第一个模型错误分类的记录。

以此类推,最后应用整个模型集对样本进行分类,使用加权投票过程把分散的预测合并成综合预测。

试验次数选项允许控制用于助推的模型数量。

交互验证:如果选择了该选项,C5.0将使用一组基于训练数据自己建立的模型,来估计基于全部数据建立的模型的精确度。

如果数据集过小,不能拆分成传统意义上的训练集和测试集,这将非常有用。

或用于交叉验证的模型数目。

模式:对于简单的训练,绝大多数C5.0参数是自动设置。

高级训练模式选项允许对训练参数更多的直接控制。

简单模式:偏好(支持):选择“准确性”C5.0会生成尽可能精确的决策树,某些情况下,会导致过度拟合。

选择“普遍性”以使用不易受该问题影响的算法设置。

预期噪声(%):指定训练集中的噪声或错误数据期望比率专家模式:修剪纯度:决定生成决策树或规则集被修剪的程度。

提高纯度值将获得更小,更简洁的决策树。

降低纯度值将获得更加精确的决策树。

子分支最小记录数:子群大小可以用于限制决策树任一分支的拆分数。

全局修剪:第一阶段:局部修剪;第二阶段:全局修剪。

辨别属性:如果选择了该选项,C5.0会在建立模型前检测预测字段的有用性。

被发现与分析无关的预测字段将不参与建模过程。

这一选项对许多预测字段元的模型非常有用,并且有助于避免过度拟合。

C5.0”成本”选项见“CHAID“成本”选项----误判成本值,调整误判C5.0的模型评价可通过Analysis节点实现。

Clementine12中的数据挖掘算法

Clementine12中的数据挖掘算法

Clementine12中的数据挖掘算法分析Clementine12中的算法,大体被分为如下四大类(可参见软件的modeling选项):第一大类:Automated 自动化类,这里只有Time Series是真正的挖掘算法,该算法用于生成时间序列模型。

其他两个是用于筛选算法的,Binary Classifier用筛选二元分类算法,Numeric Predictor用来筛选数值目标属性的预测算法。

第二大类:用于聚类的算法Segmentation,Clementine中实现了四种用于聚类的算法。

K-means:K均值算法;Kohonen:神经网络TwoStep:两部法Anomaly:异常值处理,确切地说该算法不属于聚类算法,但其原理类似于聚类算法,通过聚类,找出数据中的异常值。

第三大类:分类预测这部分的算法比较多,可以进行更为细致的分类,决策树类,C5.0,C&RT,CHAID,QUEST,属性约简类:PCA/Factor主成分分析/因子分析Feature Selection 属性选择回归类:Logistic 逻辑回归Rgression:线性回归专门用于分类预测的算法:Neural Net:神经网络SVM:支持向量机Bayes Net:贝叶斯网络其他未知其原理的算法:Decision ListDiscriminantSLRMCoxGenLin下面是谢邦昌教授的数据挖掘(Data Mining)十种分析方法,以便于大家对模型的初步了解,不过也是日常挖掘中经常遇到的算法,希望对大家有用!(甚至有数据挖掘公司,用其中的一种算法就能独步天下)1、记忆基础推理法(Memory-Based Reasoning;MBR)记忆基础推理法最主要的概念是用已知的案例(case)来预测未来案例的一些属性(attribute),通常找寻最相似的案例来做比较。

记忆基础推理法中有两个主要的要素,分别为距离函数(distance function)与结合函数(combination function)。

基于clementine的数据挖掘算法决策树

基于clementine的数据挖掘算法决策树

从变量自身 考察
变量重要性分析方法
变量与输出变量
、变量间的相关 程度
变量值中缺失值所占比例 分类变量中,类别个数占样本比例 数值变量的变异系数 数值型变量的标准差
输入、输出变量均为数值型:做两个变量的相
关性分析
输入变量为数值型、输出变量为分类型:方差 分析(输出变量为控制变量、输入变量为观测变 量) 输入变量为分类型、输出为数值型:方差分析 (输入变量为控制变量、输出变量为观测变量) 输入、输出变量均为分类型:卡方检验
2、计算每个属性的熵。
(1)先计算属性“年龄”的熵。 • 对于年龄=“<=30”:s11=2,s21=3,p11=2/5,p21=3/5, 对于年龄=“31…40”:s12=4,s22=0,p12=4/4=1,p22=0, 对于年龄=“>40”:s13=3,s23=2,p13=3/5,p23=2/5, •
s1 j s2

smj
pij
是 Sj 中的样本属于类 Ci 的概率。
sij sj
Gain( A) I ( S ) E ( A)
Gain A I
s1 , s2 ,
, sm
E A
C5.0算法应用场景
场景:利用决策树算法分析具有哪些特点的用户最可能流失:
用户 1 年龄 <=30 出账收入 智能机 信用等级 高 否 一般 类别:是否流失 否
核心问题
决策树的生长 决策树的减枝 树剪枝的原因:完整的决策树对训练样本特征的 捕捉“过于精确”--- 过拟和 常用的修剪技术: 预修剪:用来限制决策树的充分生长。

利用训练样本集完成决策树的建立
过程 分枝准则的确定涉及:
•第一,如何从众多的输入变量中

决策树算法原理介绍

决策树算法原理介绍

决策树算法原理介绍
决策树算法是一种常用的机器学习算法,主要用于分类和回归问题。

它的基本原理是通过递归地将数据集划分成若干个子集,并在每个划分点选择最优的划分标准,以构建一棵树状图。

决策树算法的基本步骤如下:
1. 构建根节点:将整个数据集作为根节点,设定一个划分标准,将数据集划分为两个或多个子集。

2. 递归构建子节点:对每个子集,重复上述划分过程,直到满足停止条件(例如子集中所有样本都属于同一类别,或达到预设的深度限制等)。

3. 剪枝处理:为了处理过拟合问题,可以对决策树进行剪枝处理,删除部分分支以提高模型的泛化能力。

决策树算法的优点包括直观易懂、可解释性强、对数据预处理要求低等。

但同时,它也存在一些缺点,如容易受到噪声数据和异常值的影响、对于非线性关系的分类效果不佳等。

为了解决这些问题,可以对决策树算法进行改进和优化,如使用集成学习等技术进行模型融合等。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

CHAID算法(Chi-Square Automatic Interaction Detection)CHAID提供了一种在多个自变量中自动搜索能产生最大差异的变量方案。

不同于C&R树和QUEST节点,CHAID分析可以生成非二进制树,即有些分割有两个以上的分支。

CHAID模型需要一个单一的目标和一个或多个输入字段。

还可以指定重量和频率领域。

CHAID分析,卡方自动交互检测,是一种用卡方统计,以确定最佳的分割,建立决策树的分类方法。

1.CHAID方法(卡方自动交叉检验)CHAID根据细分变量区分群体差异的显著性程度(卡方值)的大小顺序,将消费者分为不同的细分群体,最终的细分群体是由多个变量属性共同描述的,因此属于多变量分析。

在形式上,CHAID非常直观,它输出的是一个树状的图形。

1.它以因变量为根结点,对每个自变量(只能是分类或有序变量,也就是离散性的,如果是连续变量,如年龄,收入要定义成分类或有序变量)进行分类,计算分类的卡方值(Chi-Square-Test)。

如果几个变量的分类均显著,则比较这些分类的显著程度(P值的大小),然后选择最显著的分类法作为子节点。

2.CHIAD可以自动归并自变量中类别,使之显著性达到最大。

3.最后的每个叶结点就是一个细分市场CHAID 自动地把数据分成互斥的、无遗漏的组群,但只适用于类别型资料。

当预测变量较多且都是分类变量时,CHAID分类最适宜。

2.CHAID分层的标准:卡方值最显著的变量3.CHAID过程:建立细分模型,根据卡方值最显著的细分变量将群体分出两个或多个群体,对于这些群体再根据其它的卡方值相对最显著的细分变量继续分出子群体,直到没有统计意义上显著的细分变量可以将这些子群体再继续分开为止。

4.CHAID的一般步骤-属性变量的预处理-确定当前分支变量和分隔值属性变量的预处理:-对定类的属性变量,在其多个分类水平中找到对目标变量取值影响不显著的分类,并合并它们;-对定距型属性变量,先按分位点分组,然后再合并具有同质性的组;-如果目标变量是定类变量,则采用卡方检验-如果目标变量为定距变量,则采用F检验(统计学依据数据的计量尺度将数据划分为三大类,即定距型数据(Scale)、定序型数据(Ordinal)和定类型数据(Nominal)。

定距型数据通常指诸如身高、体重、血压等的连续性数据,也包括诸如人数、商品件数等离散型数据;定序型数据具有内在固有大小或高低顺序,但它又不同于定距型数据,一般可以数值或字符表示。

如职称变量可以有低级、中级和高级三个取值,可以分别用1、2、3等表示,年龄段变量可以有老、中、青三个取值,分别用A、B、C表示等。

这里无论是数值型的1、2、3还是字符型的A、B、C,都是有大小或高低顺序的,但数据之间却是不等距的。

因为低级和中级职称之间的差距与中级和高级职称之间的差距是不相等的;定类型数据是指没有内在固定大小或高低顺序,一般以数值或字符表示的分类数据。

)F检验:比较两组数据的方差2s,22sFs大小,假设检验两组数据没有显著差异,F<F表,则接受原假设,两组数据没有显著差异;F>F表,拒绝原假设,两组数据存在显著差异。

属性变量预处理的具体策略-如果仅有一个或两个分组,则不做合并处理值>merge)-根据卡方统计量(或似然比卡方)的P-值决定合并哪些组(Pα-如果用户指定在合并同时还考虑组拆分(Allow splitting merged categories),则新近合并的组中如果包括三个以上的原始分组,应根据检验结果判断是否需再拆分成两组(P-值<αsplit-merge)确定当前分支变量和分隔值-计算经预处理后的各属性变量与目标变量的卡方检验统计量和P-值。

P-值最小的变量(与目标变量联系最紧密)作为当前的最佳分支变量,该变量的所有分组形成该分支下的子节点对每个子节点重复上述处理,直到满足收敛条件为止5.CHAID的适用范围当预测变量是分类变量时,CHAID方法最适宜。

对于连续型变量,CHAID在缺省状态下将连续变量自动分为10段处理,但是可能有遗漏。

当预测变量是人口统计变量时,研究者可以很快找出不同细分市场特征,免去对交叉分析表归并与检查之苦。

6.CHAID的预剪枝基本参数:1.决策树最大深度:如果决策树的层数已经达到指定深度,则停止生长。

2.树中父节点和子节点所包含的最少样本量或比例:对父节点是指,如果节点的样本量已低于最少样本量或比例,则不再分组;对于子节点是指,如果分组后生成的子节点中的样本量低于最小样本或比例,则不必进行分组。

3.当输入变量与输出变量的相关性小于一个指定值,则不必进行分组。

7.CHAID模块的优点:-不像CART和QUEST模块,CHAID可产生多分枝的决策树-目标变量可以定距或定类的-从统计显著性角度确定分支变量和分隔值,进而优化树的分枝过程-CHAID是建立在因果关系的探讨中的,依据目标变量实现对输入变量众多水平的划分例:心脏数据综合诊断数据现有数据OVERALL_DIAGNOSIS(综合诊断)本案例是一个医学心脏病综合诊断报告案例,目的通过已知的22个变量F1~F22来预测每个病人是否正常。

0-正常,1-异常卡方检验:(1)零假设H:心脏病检验结果与F13变量无关。

(F13变量对输出变量无影响)0卡方值越大,说明两者有关系可能性越大。

(2)确定自由度:(行数-1)*(列数-1)=1选择显著水平α=0.05,对应的卡方值K为3.841(3)卡方值=2-=37.35>10.828>3.481 (48*12587*7)*267/(55*212*135*132)拒绝原假设。

故心脏病检验结果与F13有关。

(卡方值为37.35时,对应的P值已趋于0,即“心脏病检验结果与F13有关”成立的概率趋于1-0=100%)建立CHAID模型-在“建模”中选择CHAID节点,将其加入数据流中“TYPE”节点-“Range”范围:用来描述数值,如0-100或0.75-1.25范围。

一个范围值可以是一个整数,实数,日期/时间。

-“Discrete”离散:用于不同的字符串数值的确切数目是未知的。

这是一个未初始化的数据类型,即对数据的存储和使用的所有可能的信息尚不清楚。

一旦数据被读取,类型标志,集,或无类型的,取决于最大集大小属性对话框中指定的流。

-“Flag”标志:用于具有两个不同值的数据,如Yes和No或1和2的数据。

可能是文本,整数,实数,日期/时间数据。

注:日期/时间是指三种类型的存储时间,日期或时间戳-“Set”集:用来描述具有多个不同的值的数据,每个被视为一个集的成员,如小型/中型/大型数据。

在这个版本的Clementine ,一套可以有任何存储数值---字符串或日期/时间。

请注意,设置类型设置不会自动改变字符串的值。

-“Ordered Set ”有序集合:用来描述具有多个不同的值的数据,有一种内在的秩序。

例如,工资类别或满意度排名可以分为一组有序。

有序集的顺序是指通过其元素的自然排序顺序。

例如, 1 ,3,5 ,是一组整数的默认排序顺序,而高,低,师范大学(升序按字母顺序排列)是一组字符串的顺序。

有序的集合类型,可让您定义一组有序数据的可视化,建立模型(C5.0, C&R Tree, TwoStep),并扩展到其他应用程序,如SPSS ,承认有序数据作为一个独特的类型。

此外,任何存储类型(真实的,整数,字符串,日期,时间,等等)的领域都可以被定义为一个有序的集合。

-“Typeless”无类型:用于数据不符合任何上述类型的集合类型或包含太多值的集合类型。

它是有用于一个集合包含太多值(如帐号)。

CHAID“字段”选项目标。

对于需要一个或多个目标字段的模型,请选择目标字段。

此操作与在类型节点中将字段的方向设置为输出类似。

输入。

选择输入字段。

此操作与在类型节点中将字段的方向设置为输入类似。

分区字段。

该字段允许使用指定字段将数据分割为几个不同的样本,分别用于模型构建过程中的训练、检验和验证阶段。

通过用某个样本生成模型并用另一个样本对模型进行检验,可以预判出此模型对类似于当前数据的大型数据集的拟合优劣。

如果已使用类型或分区节点定义了多个分区字段,则必须在每个用于分区的建模节点的“字段”选项卡中选择一个分区字段。

(如果仅有一个分区字段,则将在启用分区后自动引入此字段。

)同时请注意,要在分析时应用选定分区,同样必须启用节点“模型选项”选项卡中的分区功能。

(取消此选项,则可以在不更改字段设置的条件下禁用分区功能。

)使用频数字段。

此选项允许选择某个字段作为频数权重。

如果训练数据中的每条记录代表多个单元(例如,正在使用聚合的数据),则可采用此项。

字段值应为代表每条记录的单元数。

使用加权字段。

此选项允许选择某个字段作为案例权重。

案例权重将作为对输出字段各个水平上方差的差异的一种考量。

CHAID“模型”选项剪枝:参数1-模型名称指定要产生模型的名称-使用分区数据若用户定义了此选项,则模型会选择训练集作为建模数据集,并利用测试集对模型评价。

利用训练集建立模型,用测试集剪枝。

-方法该节点提供了CHAID和Exhaustive CHAID两种方法,后者会花更多时间,但会得到更为可靠的结果Exhaustive CHAID算法是CHAID的改进算法。

它的改进主要集中在如何避免自由度的影响上。

在选择最佳分组变量时采用了“将分组进行到底“的策略。

也就是说,仍然保留输入变量预处理的结果,并将各分组作为决策树的各分枝。

但在计算检验统计量的概率P值时,将继续合并输入变量的分组,直到最终形成两个组或两个“超类”为止,进而确保所有输入变量的检验统计量的自由度都相同。

最后,再比较概率P值,取概率P值最小的输入变量为当前最佳分组变量。

-模式生成模型:计算机直接给出最终模型,自动建立和剪枝决策树。

启动交互回话:可以逐层建立,修改和删除节点。

若同时勾选“使用树指令”,则可以指定任意层节点的分割方式或字节点数,所做设定也可以保存,以供下次建树使用。

-最大树状图深度:用户可以自定义CHAID树的最大层数,避免过度拟合问题。

(完整的决策树能够准确反映训练样本集中数据的特征,但可能因其失去一般代表性而无法用于对新数据的分类预测,这种现象称为“过度拟合”现象)CHAID“专家”选项-模式该节点提供简单和专家模式-Alpha 用于合并:指定合并的显著水平。

若要避免合并,该值应设为1。

该选项对于Exhaustive CHAID 无效。

默认值为0.05,表示当P 值>0.05时,认为输入变量目前的分组水平对输出变量取值没有显著影响,可以合并;否则不能合并。

(该值越大,合并的可能性越不容易,树就会越庞大)-Alpha 用于分割:设定分割标准。

相关文档
最新文档