数据挖掘分类算法介绍
数据挖掘中的分类与回归算法

数据挖掘中的分类与回归算法数据挖掘是一门从大量数据中提取有用信息的学科。
其中分类和回归算法是数据挖掘中非常常用的方法。
分类算法是通过将数据集中的数据按照某种规则分成不同的类别,从而确定数据的类别或标签,而回归算法则是预测一个连续值的过程。
一、分类算法1.1 决策树分类算法决策树分类算法是一种基于树型结构的算法,通过对样本特征的判断,不断划分样本空间,最终得到一系列的叶子节点,每个叶子节点都表示一个类别。
决策树分类算法的优点是易于理解、计算成本低,但是在分类时容易出现过拟合的情况。
1.2 支持向量机分类算法支持向量机分类算法是一种基于数据结构的算法,通过将样本映射到高维空间,然后找到样本空间中的最大超平面来进行分类。
支持向量机分类算法的优点是鲁棒性好、适用于高维数据和非线性分类问题,但是需要进行特征选择和调参。
1.3 朴素贝叶斯分类算法朴素贝叶斯分类算法是一种基于贝叶斯定理的算法,它假设样本的各个属性是相互独立的,从而对每个样本进行分类。
朴素贝叶斯分类算法的优点是计算速度快、对缺失数据适应性好,但是需要做出属性独立性的假设。
二、回归算法2.1 线性回归算法线性回归算法是一种通过建立线性模型来预测连续变量的方法。
该方法建立一个线性方程,通过拟合样本数据求解未知的系数,从而得到预测结果。
线性回归算法的优点是计算简单、容易解释结果,但是对非线性数据的拟合效果差。
2.2 非线性回归算法非线性回归算法是一种通过建立非线性模型来预测连续变量的方法。
该方法可以更好地拟合非线性数据,但是计算成本较高,需要用到复杂的优化算法。
2.3 回归树算法回归树算法是一种基于树形结构建立回归模型的方法。
它与决策树分类算法类似,通过不断将样本空间划分成更小的子空间来预测连续变量,从而得到预测结果。
回归树算法的优点是易于理解、计算成本低,但是容易出现过拟合的情况。
总之,数据挖掘中的分类和回归算法都是非常重要的方法,根据不同的数据和任务需求可以选择适当的算法进行分析和预测。
数据挖掘的分类算法

数据挖掘的分类算法数据挖掘是指通过分析大量数据来发现隐藏在其中的规律和趋势的过程。
分类算法是数据挖掘中的一种重要方法,主要是通过构建模型将数据划分为不同的类别。
在本文中,我们将讨论几种常见的分类算法。
1. 决策树算法决策树算法是一种基于树形数据结构的分类算法。
它将数据集分成许多小的子集,并对每个子集进行分类。
决策树的节点表示一个属性,每个分支代表该属性可能的取值。
通过选择适当的划分条件,可以使决策树的分类效果更加准确。
2. 朴素贝叶斯算法朴素贝叶斯算法是一种基于概率论的分类算法。
它基于贝叶斯定理,利用先验概率和条件概率推断后验概率,并将数据分为不同的类别。
朴素贝叶斯算法在文本分类、垃圾邮件识别等方面有广泛的应用。
3. 支持向量机算法支持向量机算法是一种基于分类的学习方法,通过构造一个最优的超平面将数据集分为两个或多个类别。
该算法可以用于解决多分类、回归、异常检测等问题。
支持向量机算法在人脸识别、文本分类、图像识别等方面有很好的应用。
4. K近邻算法K近邻算法通过计算样本之间的距离来确定每个样本的类别,即将每个样本划分到与其最近的K个邻居的类别中。
该算法是一种简单有效的分类算法,在文本分类、医学诊断等方面得到了广泛应用。
5. 神经网络算法神经网络算法是一种基于类似人类神经系统的计算模型,通过构造多个神经元并利用它们之间的联系来分类。
该算法可以解决多分类、回归、信号识别等问题,并在语音识别、图像处理等方面得到了广泛应用。
总之,分类算法在数据挖掘中起着重要的作用。
通过对不同分类算法的了解和应用,可以提高分类的准确性和效率。
在实际应用中,需要根据数据类型、数据量和应用场景等因素选择合适的分类算法。
数据挖掘算法种类

数据挖掘算法种类数据挖掘是从大量数据中发现有用的信息和模式的过程,而数据挖掘算法是实现这一过程的核心工具。
随着数据的不断增长和业务需求的提升,数据挖掘算法也不断发展和完善。
本文将介绍几种常见的数据挖掘算法。
一、分类算法分类算法是数据挖掘中最常用的算法之一。
它通过对已知数据集进行学习,构建一个分类模型,然后使用该模型对未知数据进行分类。
常见的分类算法有决策树、朴素贝叶斯、逻辑回归、支持向量机等。
决策树算法是一种基于树结构的分类方法,它通过对属性的选择和划分建立一棵决策树,从而实现对数据的分类。
朴素贝叶斯算法基于贝叶斯定理和特征条件独立性假设,通过计算后验概率来进行分类。
逻辑回归算法是一种广义线性模型,通过对输入与输出之间的关系进行建模,实现对数据的分类。
支持向量机算法通过构建一个最优超平面,将数据进行分割,从而实现对数据的分类。
二、聚类算法聚类算法是将数据按照其相似性进行分组的一种方法。
它通过计算数据对象之间的距离或相似度,将相似的对象划分到同一簇中。
常见的聚类算法有k-means、层次聚类、DBSCAN等。
k-means算法是一种基于距离的聚类算法,它通过迭代计算数据对象与簇中心之间的距离,将数据划分到最近的簇中。
层次聚类算法将数据对象逐步合并或分割,构建一个层次化的聚类结构。
DBSCAN算法是一种基于密度的聚类算法,它通过计算数据对象的邻域密度来确定簇的形状。
三、关联规则算法关联规则算法用于发现数据中的关联规则,即一个事件或项集与另一个事件或项集之间的关系。
常见的关联规则算法有Apriori、FP-Growth等。
Apriori算法是一种频繁项集挖掘算法,它通过迭代计算数据中的频繁项集,然后生成关联规则。
FP-Growth算法是一种基于前缀树的关联规则挖掘算法,它通过构建一个FP树来高效地挖掘频繁项集。
四、回归算法回归算法用于建立一个输入变量与输出变量之间的关系模型,从而预测未知数据的输出值。
数据挖掘中的数据分类算法综述

分析Technology AnalysisI G I T C W 技术136DIGITCW2021.021 决策树分类算法1.1 C 4.5分类算法的简介及分析C4.5分类算法在我国是应用相对较早的分类算法之一,并且应用非常广泛,所以为了确保其能够满足在对规模相对较大的数据集进行处理的过程中有更好的实用性能,对C4.5分类算法也进行了相应的改进。
C4.5分类算法是假如设一个训练集为T ,在对这个训练集建造相应的决策树的过程中,则可以根据In-formation Gain 值选择合理的分裂节点,并且根据分裂节点的具体属性和标准,可以将训练集分为多个子级,然后分别用不同的字母代替,每一个字母中所含有的元组的类别一致。
而分裂节点就成为了整个决策树的叶子节点,因而将会停止再进行分裂过程,对于不满足训练集中要求条件的其他子集来说,仍然需要按照以上方法继续进行分裂,直到子集所有的元组都属于一个类别,停止分裂流程。
决策树分类算法与统计方法和神经网络分类算法相比较具备以下优点:首先,通过决策树分类算法进行分类,出现的分类规则相对较容易理解,并且在决策树中由于每一个分支都对应不同的分类规则,所以在最终进行分类的过程中,能够说出一个更加便于了解的规则集。
其次,在使用决策树分类算法对数据挖掘中的数据进行相应的分类过程中,与其他分类方法相比,速率更快,效率更高。
最后,决策树分类算法还具有较高的准确度,从而确保在分类的过程中能够提高工作效率和工作质量。
决策树分类算法与其他分类算法相比,虽然具备很多优点,但是也存在一定的缺点,其缺点主要体现在以下几个方面:首先,在进行决策树的构造过程中,由于需要对数据集进行多次的排序和扫描,因此导致在实际工作过程中工作量相对较大,从而可能会使分类算法出现较低能效的问题。
其次,在使用C4.5进行数据集分类的过程中,由于只是用于驻留于内存的数据集进行使用,所以当出现规模相对较大或者不在内存的程序及数据即时无法进行运行和使用,因此,C4.5决策树分类算法具备一定的局限性。
数据挖掘十大经典算法

数据挖掘十大经典算法数据挖掘是一种通过计算机科学的方法,从大量数据中挖掘出有用的信息和知识的过程。
在这个过程中,数据挖掘算法扮演着非常重要的角色,它们能够帮助我们从数据中抽取出精华,更好地理解和利用数据。
下面是十大经典数据挖掘算法。
1. K-Means算法:K-Means算法是一种聚类算法,可以将数据集分成K个不同的类别。
这种算法的基本思想是将数据分成若干个类别,使得同一类别内的数据点的距离比其他类别内的数据点的距离更短。
2. Apriori算法:Apriori算法是一种关联规则挖掘算法,可以用来发现最常见的数据项之间的关联性。
这种算法基于频繁项集的概念,通过计算数据中频繁项集的支持度和置信度来挖掘关联规则。
3. 决策树算法:决策树算法是一种基于树结构的分类算法,可以将数据集分成若干个不同的类别。
这种算法的基本思想是通过递归地将数据集划分成不同的子集,直到子集中所有数据都属于同一类别为止。
4. SVM算法:SVM算法是一种基于统计学习理论的分类算法,可以用于解决非线性问题。
这种算法的基本思想是将数据集映射到高维空间中,然后在高维空间中建立超平面,将不同类别的数据分开。
5. 神经网络算法:神经网络算法是一种模拟人脑神经系统的分类算法,可以用来处理非线性问题。
这种算法的基本思想是通过构建一个多层的神经网络,将输入数据映射到输出数据。
6. 贝叶斯分类算法:贝叶斯分类算法是一种基于贝叶斯定理的分类算法,可以用来预测数据的类别。
这种算法的基本思想是根据已知数据的先验概率和新数据的特征,计算这个数据属于不同类别的概率,然后选择概率最大的类别作为预测结果。
7. 随机森林算法:随机森林算法是一种基于决策树的集成算法,可以用来处理大量的数据和高维数据。
这种算法的基本思想是通过随机选取特征和样本,构建多个决策树,然后将多个决策树的结果汇总,得到最终的分类结果。
8. Adaboost算法:Adaboost算法是一种基于加权的集成算法,可以用来提高分类算法的准确率。
数据挖掘软件的分类算法和聚类算法应用案例

数据挖掘软件的分类算法和聚类算法应用案例第一章介绍数据挖掘软件的分类算法数据挖掘是从大量数据中提取有价值信息的过程,分类算法是其中最常用也最基本的技术手段之一。
下面我们将介绍几种常见的分类算法及其应用案例。
1.1 决策树算法决策树算法是一种基于树形结构的分类方法,通过一系列问题的回答来判断数据属于哪个类别。
常见应用场景是客户流失预测。
例如,在电信行业中,根据用户的个人信息、通话记录等数据,可以使用决策树算法预测某个用户是否会流失,从而采取相应措施。
1.2 朴素贝叶斯算法朴素贝叶斯算法是一种基于贝叶斯定理的概率分类方法,它假设特征之间相互独立。
常见应用场景是垃圾邮件过滤。
例如,根据邮件的关键词、发件人等特征,可以使用朴素贝叶斯算法判断某封邮件是否为垃圾邮件。
1.3 支持向量机算法支持向量机算法是一种常用的二分类算法,它将数据映射到高维空间中,通过学习一个分隔超平面来进行分类。
常见应用场景是图像识别。
例如,在人脸识别领域,可以使用支持向量机算法将不同人脸的特征进行分类,从而实现人脸识别功能。
第二章介绍数据挖掘软件的聚类算法聚类算法是将数据对象划分成不同的类别或簇的过程,属于无监督学习的范畴。
下面我们将介绍几种常见的聚类算法及其应用案例。
2.1 K均值算法K均值算法是一种基于距离度量的聚类方法,将数据划分为K个簇,每个簇的中心点称为聚类中心。
常见应用场景是客户细分。
例如,在市场营销领域中,可以使用K均值算法对用户的消费数据进行聚类,将用户划分为不同的细分群体,从而有针对性地推送广告和优惠信息。
2.2 层次聚类算法层次聚类算法是一种基于距离或相似度的聚类方法,它将数据对象自底向上或自顶向下逐渐合并,形成聚类层次结构。
常见应用场景是文本分析。
例如,在文本挖掘中,可以使用层次聚类算法对大量文件进行聚类,将相似的文件放在同一个簇中,进而快速找到相关文档。
2.3 密度聚类算法密度聚类算法是一种基于密度的聚类方法,它将数据对象划分为具有足够高密度的区域,并与邻近的高密度区域分离开来。
数据挖掘经典算法

数据挖掘经典算法数据挖掘是一种从大量数据中提取有用信息的过程。
数据挖掘算法是数据挖掘的核心,它们可以帮助我们从数据中发现隐藏的模式和关系。
在本文中,我们将介绍一些经典的数据挖掘算法。
1. 决策树算法决策树算法是一种基于树形结构的分类算法。
它通过对数据集进行分割,将数据分成不同的类别。
决策树算法的优点是易于理解和解释,但它也容易过拟合。
2. K-均值聚类算法K-均值聚类算法是一种基于距离的聚类算法。
它将数据集分成K个簇,每个簇包含距离最近的数据点。
K-均值聚类算法的优点是简单易用,但它也容易受到初始值的影响。
3. 支持向量机算法支持向量机算法是一种基于最大间隔分类的算法。
它通过找到一个超平面,将数据分成两个类别。
支持向量机算法的优点是可以处理高维数据,但它也需要大量的计算资源。
4. 朴素贝叶斯算法朴素贝叶斯算法是一种基于概率的分类算法。
它通过计算每个特征在每个类别中的概率,来预测新数据的类别。
朴素贝叶斯算法的优点是简单易用,但它也容易受到特征之间的相关性影响。
5. Apriori算法Apriori算法是一种基于频繁项集的关联规则挖掘算法。
它通过找到频繁项集,来发现数据中的关联规则。
Apriori算法的优点是可以处理大规模数据,但它也需要大量的计算资源。
6. 随机森林算法随机森林算法是一种基于决策树的集成学习算法。
它通过构建多个决策树,来提高分类的准确率。
随机森林算法的优点是可以处理高维数据,但它也需要大量的计算资源。
7. AdaBoost算法AdaBoost算法是一种基于加权的分类算法。
它通过对错误分类的数据进行加权,来提高分类的准确率。
AdaBoost算法的优点是可以处理复杂的分类问题,但它也容易受到噪声数据的影响。
8. 神经网络算法神经网络算法是一种基于人工神经网络的分类算法。
它通过模拟人脑的神经元,来学习数据中的模式和关系。
神经网络算法的优点是可以处理非线性数据,但它也需要大量的计算资源。
9. DBSCAN算法DBSCAN算法是一种基于密度的聚类算法。
数据挖掘算法分类

数据挖掘算法分类
x
数据挖掘算法分类
数据挖掘(Data Mining)是一种从数据库中挖掘有价值信息的统计计算技术,他可以帮助发现有价值的潜在规律和发现新的知识。
数据挖掘算法可以分成四类:
一、分类算法:
分类算法是数据挖掘算法中最常用的技术,它可以根据给定的样本集合,建立一个预测模型,从而用来识别新样本的类别。
典型的分类算法有:决策树(Decision Tree)、朴素贝叶斯(Naive Bayes)、神经网络(Neural Networks)等。
二、关联分析算法:
关联分析算法是数据挖掘算法中最关注的技术,它可以根据不同的数据项之间的关系来发现对某一商品或者服务感兴趣的客户群,从而可以针对不同客户群提供合适的营销活动,增加销售。
使用关联分析时,必须要注意规则的支持度(support)和置信度(confidence)的问题,以及它们之间的权衡关系。
三、聚类算法:
聚类算法是数据挖掘算法中最有用的一种技术,它可以根据给定的数据样本,把它们聚类到若干个不同的簇中,从而进一步了解数据样本。
典型的聚类算法有:K-Means聚类(K-Means Clustering)、DBSCAN聚类(DBSCAN Clustering)等。
四、回归分析算法:
回归分析算法是数据挖掘算法中用于识别数据和规律的一种技术,它可以根据给定的数据集,建立一个预测模型,从而用来预测新数据的值。
典型的回归算法有:线性回归(Linear Regression)、局部加权回归(Locally Weighted Regression)等。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
数据挖掘分类算法介绍-----------------------------------------------------------------------------------------------------------------------------分类是用于识别什么样的事务属于哪一类的方法,可用于分类的算法有决策树、bayes分类、神经网络、支持向量机等等。
决策树例1一个自行车厂商想要通过广告宣传来吸引顾客。
他们从各地的超市获得超市会员的信息,计划将广告册和礼品投递给这些会员。
但是投递广告册是需要成本的,不可能投递给所有的超市会员。
而这些会员中有的人会响应广告宣传,有的人就算得到广告册不会购买。
所以最好是将广告投递给那些对广告册感兴趣从而购买自行车的会员。
分类模型的作用就是识别出什么样的会员可能购买自行车。
自行车厂商首先从所有会员中抽取了1000个会员,向这些会员投递广告册,然后记录这些收到广告册的会员是否购买了自行车。
数据如下:在分类模型中,每个会员作为一个事例,居民的婚姻状况、性别、年龄等特征作为输入列,所需预测的分类是客户是否购买了自行车。
使用1000个会员事例训练模型后得到的决策树分类如下:※图中矩形表示一个拆分节点,矩形中文字是拆分条件。
※矩形颜色深浅代表此节点包含事例的数量,颜色越深包含的事例越多,如全部节点包含所有的1000个事例,颜色最深。
经过第一次基于年龄的拆分后,年龄大于67岁的包含36个事例,年龄小于32岁的133个事例,年龄在39和67岁之间的602个事例,年龄32和39岁之间的229个事例。
所以第一次拆分后,年龄在39和67岁的节点颜色最深,年龄大于67岁的节点颜色最浅。
※节点中的条包含两种颜色,红色和蓝色,分别表示此节点中的事例购买和不购买自行车的比例。
如节点“年龄>=67”节点中,包含36个事例,其中28个没有购买自行车,8个购买了自行车,所以蓝色的条比红色的要长。
表示年龄大于67的会员有74.62%的概率不购买自行车,有23.01%的概率购买自行车。
在图中,可以找出几个有用的节点:1. 年龄小于32岁,居住在太平洋地区的会员有72.75%的概率购买自行车;2. 年龄在32和39岁之间的会员有68.42%的概率购买自行车;3. 年龄在39和67岁之间,上班距离不大于10公里,只有1辆汽车的会员有66.08%的概率购买自行车;4. 年龄小于32岁,不住在太平洋地区,上班距离在1公里范围内的会员有51.92%的概率购买自行车;在得到了分类模型后,将其他的会员在分类模型中查找就可预测会员购买自行车的概率有多大。
随后自行车厂商就可以有选择性的投递广告册。
数据挖掘的一般流程第一步,建立模型,确定数据表中哪些列是要用于输入,哪些是用于预测,选择用何种算法。
这时建立的模型内容是空的,在模型没有经过训练之前,计算机是无法知道如何分类数据的。
第二步,准备模型数据集,例子中的模型数据集就是1000个会员数据。
通常的做法是将模型集分成训练集和检验集,比如从1000个会员数据中随机抽取700个作为训练集,剩下300个作为检验集。
第三步,用训练数据集填充模型,这个过程是对模型进行训练,模型训练后就有分类的内容了,像例子图中的树状结构那样,然后模型就可以对新加入的会员事例进行分类了。
由于时效性,模型内容要经常更新,比如十年前会员的消费模式与现在有很大的差异,如果用十年前数据训练出来的模型来预测现在的会员是否会购买自行车是不合适的,所以要按时使用新的训练数据集来训练模型。
第四步,模型训练后,还无法确定模型的分类方法是否准确。
可以用模型对300个会员的检验集进行查询,查询后,模型会预测出哪些会员会购买自行车,将预测的情况与真实的情况对比,评估模型预测是否准确。
如果模型准确度能满足要求,就可以用于对新会员进行预测。
第五步,超市每天都会有新的会员加入,这些新加入的会员数据叫做预测集或得分集。
使用模型对预测集进行预测,识别出哪些会员可能会购买自行车,然后向这些会员投递广告。
Naïve BayesNaïve Bayes是一种由统计学中Bayes法发展而来的分类方法。
例1有A、B两个政党对四个议题进行投票,A政党有211个国会议员,B政党有223个国会议员。
下表统计了政党对四个议题赞成或反对的票数。
A政党的议员有20%概率赞成国家安全法,43%概率赞成个人财产保护法,94%概率赞成遗产税,89%概率赞成反分裂法。
B政党的议员有98%概率赞成国家安全法,97%概率赞成个人财产保护法,83%概率赞成遗产税,99.5%概率赞成反分裂法。
基于这样的数据,Naïve Bayes能预测的是如果一个议员对国家安全法投了赞成票,对个人财产保护法投了反对票,对遗产税投了赞成票,对反分裂法投了赞成票。
哪么,这个议员有多大的概率属于A政党,又有多少的概率属于B政党。
例2一个产品在生产后经检验分成一等品、二等品、次品。
生产这种产品有三种可用的配方,两种机器,两个班组的工人。
下面是1000个产品的统计信息。
使用Naïve Bayes模型,每次在制定生产计划,确定生产产品所用的配方、机器及工人,便能预测生产中有多少的一等品、二等品和次品。
神经网络神经网络是一种模拟生物上神经元的工作的机器学习方法。
下面是银行用来识别给申请信用卡的客户发放何种信用卡的神经网络。
图中每个椭圆型节点接受输入数据,将数据处理后输出。
输入层节点接受客户信息的输入,然后将数据传递给隐藏层,隐藏层将数据传递给输出层,输出层输出客户属于哪类信用卡。
这类似于人脑神经元受到刺激时,神经脉冲从一个神经元传递到另一个神经元。
每个神经元节点内部包含有一个组合函数∑和激活函数f。
X1, X2是其他神经元的输出值,对此神经元来说是输入值,组合函数将输入值组合后传递给激活函数。
激活函数经过特定的计算后得到输出值y,y有被传递给其他神经元。
输入边上的w1和w2是输入权值,用于在组合函数中对每个输入值进行加权。
训练模型时,客户事例输入,神经网络计算出客户的类别,计算值与真实值比较后,模型会修正每个输入边上的权值。
在大量客户事例输入后,模型会不断调整,使之更吻合真实情况,就像是人脑通过在同一脉冲反复刺激下改变神经键连接强度来进行学习。
回归分类算法是建立事例特征对应到分类的方法。
分类必须是离散的,像信用卡的种类只有三种,如果是要通过客户收入、婚姻状况、职业等特征预测客户会使用信用卡消费多少金额时,分类算法就无能为力了,因为消费金额可能是大于0的任意值。
这时只能使用回归算法。
例如,下表是工厂生产情况。
使用线性回归后,得到了一个回归方程:生产数量=α+β·机器数量+γ·工人数量。
代表每多一台机器就可以多生产β单位的产品,每多一个工人就可以多生产γ单位的产品。
除了简单的线性回归和逻辑回归两种,决策树可以建立自动回归树模型,神经网络也可以进行回归,实际上,逻辑回归就是去掉隐藏层的神经网络。
例如,服装销售公司要根据各地分销店面提交的计划预计实际销售量。
使用自动回归树得到上图的模型,假如山东销售店提交的计划童装数量是500套,预计销售量是-100+0.6×500=200套,按6Sigma原则,有99.97%的概率实际销售量可能是200±90套。
广州提交计划童装300套,预计销售量是20+0.98×300=314±30套。
广州的销售店制定的童装计划比山东的准确。
聚类分类算法的目的是建立事例特征到类别的对应法则。
但前提是类别是已存在的,如已知道动物可以分成哺乳类和非哺乳类,银行发行的信用卡有银卡、金卡、白金卡三种。
有时在分类不存在前,要将现有的事例分成几类。
比如有同种材料要分类装入到各个仓库中,这种材料有尺寸、色泽、密度等上百个指标,如果不熟悉材料的特性很难找到一种方法将材料分装。
又例如,银行刚开始信用卡业务时,没有将客户分类,所有的客户都使用同一种信用卡。
在客户积累到一定的数量后,为了方便管理和制定市场策略,需要将客户分类,让不同类别的客户使用不同的信用卡。
但问题是,银行该把客户分成几个类别,谁该属于哪一类。
假定银行仅仅要参照客户的收入和使用信用卡销售金额两个指标对客户分类。
通常情况下,仅仅是衡量这些指标的高低来分类,如规定收入小于4000,且消费小于2000的客户分成第一类;收入在4000至8000,消费在2000至4000的客户分成第二类;收入在8000至12000,消费在4000至6000的客户分成第三类;收入在12000以上,消费在6000以上分成第四类。
下面的图展示了这种分类。
图中三角形的点代表客户,图中的红色线条是对客户的分类。
可以看到这种不合理,第一类别没有包含任何事例,而第四类也只有少量事例,而第二和第三类分界处聚集着大量事例。
观测图像,发现大部分客户事例聚集在一起形成了三个簇,下图中用三个椭圆标出了这些簇。
同在一个簇中的客户有着类似的消费行为,黑色簇中的客户消费额与收入成正比;蓝色簇中的客户不习惯使用信用卡消费,可以对这类客户发放一种低手续费的信用卡,鼓励他们使用信用卡消费;绿色簇中的客户消费额相对收入来说比较高,应该为这类客户设计一种低透支额度的信用卡。
聚类模型就是这种可以识别有着相似特征事例,把这些事例聚集在一起形成一个类别的算法。
聚类模型除了能将相似特征的事例归为一类外,还常用来发现异常点。
像上图中用红圈标出的点,这两个客户偏离了已有的簇,他们的消费行为异于一般人,消费远超出收入。
意味他们有其他不公开的收入来源,这些客户是有问题的。
科学试验中,研究人员对异常点很感兴趣,通过研究不寻常的现象提出新的理论。
聚类的另一个用途是发现属性间隐含的关系。
例如有30名学生考试成绩:教师想知道学科之间是否有关联,如果学生某门学科成绩优秀,是否会在另一门学科上也有优势。
通过聚类后将30名学生分成了3个类:分类1学生的共同特点是他们的物理、数学、化学平均分都比较高,但语文、历史、英语的分数很低;分类2则恰恰相反。
从中,可以得到规则:物理、数学和化学这三门学科是有相关性的,这三门学科相互促进,而与语文、历史、英语三门学科相排斥。
分类1中的学生序列聚类新闻网站需要根据访问者在网页上的点击行为来设计网站的导航方式。
通过聚类算法可以发现网页浏览者的行为模式,比如识别出了一类浏览者的行为:喜欢察看体育新闻和政治新闻。
但浏览者访问网页是有顺序的,先浏览体育新闻再浏览政治新闻,与先浏览政治新闻再浏览体育新闻是两种不同的行为模式,当一个浏览者在浏览体育新闻时,需要预测他下一步会访问哪个网页。
超市里也需要识别顾客购物的顺序,比如发现一类购物顺序是:尿布——奶瓶——婴儿手推车——幼儿玩具,当一个顾客购买了尿布的时候,就可以陆续向顾客寄发奶瓶、婴儿手推车、幼儿玩具的传单。