分类器入门:最近临域与贝叶斯网络
机器学习中的贝叶斯网络技术

机器学习中的贝叶斯网络技术近年来,随着人工智能的飞速发展,机器学习成为了热门的话题之一。
在机器学习中,贝叶斯网络技术非常重要。
贝叶斯网络是一种利用贝叶斯定理推断概率分布的有向无环图模型,它能够将观测到的数据与先验知识相结合,从而有效地预测未知数据。
贝叶斯定理是指在已知当下条件的情况下,对于某一事件发生的概率的推断。
该定理主要用于计算在已知先验知识的情况下,某个事件的概率变化。
在贝叶斯网络中,每个变量都被认为是相互依赖的,这种依赖关系表示为图中的边。
这些变量包括观测变量和隐藏变量。
观测变量表示已知的数据,而隐藏变量则表示未知的数据。
贝叶斯网络常常用来进行分类和回归分析。
例如,贝叶斯分类器是一种常见的应用程序,它用于分类文本、图像等数据。
贝叶斯回归模型可以用于估计变量之间的关系和预测未知量。
在机器学习中,贝叶斯网络还被用于决策分析和搜索引擎优化。
贝叶斯网络的优点是能够处理缺失数据和噪声数据。
此外,贝叶斯网络还能够自动地学习变量之间的关系,而无需人工干预。
这些特点使得贝叶斯网络在许多不同的应用领域中得到了广泛的应用。
除了在机器学习中的应用外,贝叶斯网络还被用于建立不确定性模型。
例如,在传染病预测方面,贝叶斯网络可以用来建立传染病传播的模型。
在金融领域中,贝叶斯网络被用于预测股价和汇率的波动。
此外,贝叶斯网络还可以用于图像识别和语音识别等领域中。
尽管贝叶斯网络有许多优点,但它也存在着一些缺点。
其中最主要的问题是模型的复杂性。
由于贝叶斯网络中每个节点之间都存在着依赖关系,因此模型往往比较复杂。
此外,由于网络中存在许多未知的参数,因此模型的训练和调优也非常困难。
总的来说,贝叶斯网络是一个强大的工具,它可以用于推断概率分布和建立不确定性模型。
尽管它存在着一些缺点,但在很多应用领域中,贝叶斯网络仍然是最有效和最常见的方法之一。
随着机器学习技术的不断发展,相信贝叶斯网络在未来也会有更广阔的应用前景。
贝叶斯分类器百度百科

百科名片贝叶斯分类器的分类原理是通过某对象的先验概率,利用贝叶斯公式计算出其后验概率,即该对象属于某一类的概率,选择具有最大后验概率的类作为该对象所属的类种类贝叶斯分类器的分类原理是通过某对象的先验概率,利用贝叶斯公式计算出其后验概率,即该对象属于某一类的概率,选择具有最大后验概率的类作为该对象所属的类。
目前研究较多的贝叶斯分类器主要有四种,分别是:Naive Bayes、TAN、BAN 和GBN。
解释贝叶斯网络是一个带有概率注释的有向无环图,图中的每一个结点均表示一个随机变量,图中两结点间若存在着一条弧,则表示这两结点相对应的随机变量是概率相依的,反之则说明这两个随机变量是条件独立的。
网络中任意一个结点X 均有一个相应的条件概率表(Conditional Probability Table,CPT),用以表示结点X 在其父结点取各可能值时的条件概率。
若结点X 无父结点,则X 的CPT 为其先验概率分布。
贝叶斯网络的结构及各结点的CPT 定义了网络中各变量的概率分布。
分类贝叶斯分类器是用于分类的贝叶斯网络。
该网络中应包含类结点C,其中 C 的取值来自于类集合( c1 , c2 , ... , cm),还包含一组结点X = ( X1 , X2 , ... , Xn),表示用于分类的特征。
对于贝叶斯网络分类器,若某一待分类的样本D,其分类特征值为x = ( x1 , x2 , ... , x n) ,则样本D 属于类别ci 的概率P( C = ci | X1 = x1 , X2 = x 2 , ... , Xn = x n) ,( i = 1 ,2 , ... , m) 应满足下式:P( C = ci | X = x) = Max{ P( C = c1 | X = x) , P( C = c2 | X = x ) , ... , P( C = cm | X = x ) } 而由贝叶斯公式:P( C = ci | X = x) = P( X = x | C = ci) * P( C = ci) / P( X = x) 其中,P( C = ci) 可由领域专家的经验得到,而P( X = x | C = ci) 和P( X = x) 的计算则较困难。
贝叶斯分类

详解贝叶斯分类器1.贝叶斯决策论贝叶斯分类器是一类分类算法的总称,贝叶斯定理是这类算法的核心,因此统称为贝叶斯分类。
贝叶斯决策论通过相关概率已知的情况下利用误判损失来选择最优的类别分类。
“风险”(误判损失)= 原本为cj的样本误分类成ci产生的期望损失,期望损失可通过下式计算:为了最小化总体风险,只需在每个样本上选择能够使条件风险R(c|x)最小的类别标记。
最小化分类错误率的贝叶斯最优分类器为:即对每个样本x,选择能使后验概率P(c|x)最大的类别标记。
利用贝叶斯判定准则来最小化决策风险,首先要获得后验概率P(c|x),机器学习要实现的是基于有限的训练样本集尽可能准确的估计出后验概率P(c|x)。
主要有两种模型:一是“判别式模型”:通过直接建模P(c|x)来预测,其中决策树,BP神经网络,支持向量机都属于判别式模型。
另外一种是“生成式模型”:通过对联合概率模型P(x,c)进行建模,然后再获得P(c|x)。
对于生成模型来说:基于贝叶斯定理,可写为下式(1)通俗的理解:P(c)是类“先验”概率,P(x|c)是样本x相对于类标记c的类条件概率,或称似然。
p(x)是用于归一化的“证据”因子,对于给定样本x,证据因子p(x)与类标记无关。
于是,估计p(c|x)的问题变为基于训练数据来估计p(c)和p(x|c),对于条件概率p(x|c)来说,它涉及x所有属性的联合概率。
2.极大似然估计假设p(x|c))具有确定的形式并且被参数向量唯一确定,则我们的任务是利用训练集估计参数θc,将P(x|c)记为P(x|θc)。
令Dc表示训练集D第c类样本的集合,假设样本独立同分布,则参数θc对于数据集Dc的似然是对进行极大似然估计,就是去寻找能最大化P(Dc|θc)的参数值。
直观上看,极大似然估计是试图在θc所有可能的取值中,找到一个能使数据出现的“可能性”最大的值。
上式的连乘操作易造成下溢,通常使用对数似然:此时参数θc的极大似然估计为在连续属性情形下,假设概率密度函数,则参数和的极大似然估计为:也就是说,通过极大似然法得到的正态分布均值就是样本均值,方差就是的均值,在离散情况下,也可通过类似的方式估计类条件概率。
周志华 机器学习 西瓜书 全书16章 ppt Chap07贝叶斯分类器

P X x1, x2, , xm | Y=ci P X1 x1 | Y=ci P X2 x2 | Y=ci PX3 x3 | Y=ci P Xm xm | Y=ci
朴素贝叶斯分类器
估计后验概率
主要困难:类条件概率
上的联合概率难以从有限的训练样本估计获得。
假设有 种可能的类别标记,即
, 是将
一个真实标记为 的样本误分类为 所产生的损失。基于后验概
率
可获得将样本 分类为 所产生的期望损失
(expected loss)或者称条件风险(conditional risk)
N
R Y ci | X x1, x2, , xm ij P Y c j | X x1, x2, , xm j 1
施决策的基本方法。
在分类问题情况下,在所有相关概率都已知的理想情形下,贝叶斯决 策考虑如何基于这些概率和误判损失来选择最优的类别标记。
贝叶斯决策论
贝叶斯决策论(Bayesian decision theory)是在概率框架下实
施决策的基本方法。
在分类问题情况下,在所有相关概率都已知的理想情形下,贝叶斯决 策考虑如何基于这些概率和误判损失来选择最优的类别标记。
计算任意两个属性之间的条件互信息 (CMI:conditional mutual information)
以属性为结点构建完全图,任意两个结点之间边的权重设为 构建此完全图的最大带权生成树
朴素贝叶斯分类器
朴素贝叶斯分类器
由于对所有类别来说 定准则有
相同,因此基于式 (7.6)的贝叶斯判
这就是朴素贝叶斯分类器的表达式
朴素贝叶斯分类器
朴素贝叶斯分类器的训练器的训练过程就是基于训练集 估计类
模式识别--第三讲 贝叶斯分类器

二、 各种贝叶斯分类器
根据分类决策规则的不同,贝叶斯分类有多种形式,下面介绍比较常见的几 种贝叶斯分类器。
1、 最小错误率贝叶斯分类器
当已知类别出现的先验概率 P (i ) 和每个类中的样本分布的类条件概率 密度 P ( x | i ) 时 ,可以求得一个待分类样本属于每类的后验概率 P( i | x) , 将其划归到后验概率最大的那一类中, 这种分类器称为最小错误率贝叶斯分 类器(Minimum Error Rate Bayes’ Classifier) ,其分类决策规则可表示为:
对于随机性分类决策, 可以利用贝叶斯公式来计算样本属于各类的后 验概率:
第 3 页 自动化学院 模式识别与智能系统研究所 高琪 gaoqi@
《模式识别》讲义 2013 版:第三讲 贝叶斯分类器
设 i , i 1, 2, c 是特征空间 中不同 的 类 , 每类都 有其出 现的先验 概率
第三讲贝叶斯分类器自动化学院模式识别与智能系统研究所贝叶斯估计最大似然估计是把待估的参数看作确定性的未知量而贝叶斯估计则是把待估的参数作为具有某种分布形式的随机变量通过对第i类学习样本x的观察使概率密度分布px获得参数分布的概率密度函数再通过求取其数学期望获得参数估计值
《模式识别》讲义 2013 版:第三讲 贝叶斯分类器
图 1 确定性分类决策
随机性分类决策 Stochastic Classifying 特征空间中有多个类, 当样本属于某类时,其特征向量会以一定的概 率取得不同的值;现有待识别的样本特征向量取了某 值,则它按不同概率 有可能属于不同的类,分类决策将它按概率的大小划归到某一类别中。
图 2 随机性分类决策
第 2 页 自动化学院 模式识别与智能系统研究所 高琪 gaoqi@
第7章贝叶斯分类器20190406

第 7 章目录
第 7 章 贝叶斯分类器.....................................................................................................................1 7.1 贝叶斯决策论....................................................................................................................1 1、式(7.1)的解释 .............................................................................................................1 2、式(7.2)的解释 .............................................................................................................1 3、式(7.3)的解释 .............................................................................................................2 4、式(7.4)的解释 .............................................................................................................2 5、式(7.5)的推导 .............................................................................................................2 6、式(7.6)的解释 .............................................................................................................2 7、判别式模型与生成式模型 ......................................................................................... 2 8、式(7.7)和式(7.8)的解释 .............................................................................................3 9、先验概率和条件概率、后验概率和似然概率 .........................................................3 7.2 极大似然估计....................................................................................................................4 7.3 朴素贝叶斯分类器............................................................................................................5 7.4 半朴素贝叶斯分类器........................................................................................................5 1、式(7.21)的解释 ...........................................................................................................5 2、图 7.1 的解释..............................................................................................................6 3、式(7.22)的解释 ...........................................................................................................6 4、TAN 算法的解释........................................................................................................6 5、式(7.23)的推导 ...........................................................................................................6 6、式(7.24)和式(7.25)的解释 .........................................................................................7 7.5 贝叶斯网............................................................................................................................7 1、式(7.26)的解释 ...........................................................................................................8 2、式(7.27)的解释 ...........................................................................................................8 3、图 7.4 的解释..............................................................................................................8 4、“评分搜索”的解释 ................................................................................................... 8 5、式(7.32)的解释 ...........................................................................................................9 6、贝叶斯网推断的解释 ................................................................................................. 9 7、式(7.33)的解释 ...........................................................................................................9 8、图 7.5 的解释..............................................................................................................9 7.6 EM 算法............................................................................................................................10 1、式(7.34)的解释 .........................................................................................................10 2、式(7.35)的解释 .........................................................................................................10 3、式(7.36)的解释 ......................................................................................................... 11 4、EM 算法的解释........................................................................................................ 11 7.7 本章小节.......................................................................................................................... 11
贝叶斯分类器例题

贝叶斯分类器例题
1.朴素贝叶斯分类器:一个例子是识别垃圾邮件。
给定一封邮件,可以根据邮件中的关键词和主题来判断该邮件是否为垃圾邮件。
通过朴素贝叶斯分类器,可以将邮件分为垃圾邮件和非垃圾邮件两类。
2.贝叶斯网络分类器:另一个例子是疾病诊断。
给定一个病人的症状和病史,可以根据贝叶斯网络分类器来预测该病人可能患有哪种疾病。
通过计算每个疾病的概率,可以得出最可能的诊断结果。
3.信用卡欺诈识别:在这个例子中,我们使用贝叶斯分类器来识别信用卡欺诈行为。
给定一系列交易数据,包括交易金额、交易地点、交易时间等,我们需要判断这些交易是否为欺诈行为。
通过训练一个贝叶斯分类器,可以学习到正常交易和欺诈交易的特征,并利用这些特征来预测新的交易是否为欺诈行为。
4.情感分析:在这个例子中,我们使用贝叶斯分类器来进行情感分析。
给定一篇文章或一段评论,我们需要判断该文本的情感倾向是积极还是消极。
通过训练一个贝叶斯分类器,可以学习到积极和消极文本的特征,并利用这些特征来预测新的文本的情感倾向。
5.基因分类:在这个例子中,我们使用贝叶斯分类器来进行基因分类。
给定一个基因序列,我们需要将其分类为不同的基因家族或亚家族。
通过训练一个贝叶斯分类器,可以学习到不同基因家族或亚家族的特征,并利用这些特征来预测新的基因序列的家族或亚家族归属。
以上这些例题只是贝叶斯分类器的一些应用示例,实际上贝叶斯分类器的应用非常广泛,它可以应用于任何需要分类的领域,如金融、医疗、社交媒体等。
贝叶斯分类器ppt课件

P( y j | X) P( yi | X), 1 i k, i j
根据贝叶斯定理, 我们有
P(y j
|
X)
P(X
| y j )P( y j ) P(X)
由于P(X) 对于所有类为常数, 只需要最大化P(X|yj)P(yj)即可.
朴素贝叶斯分类(续)
4
估计P(yj) 类yj的先验概率可以用 P (yj)=nj/n 估计
non-mammals
sometimes yes
non-mammals
no
yes
mammals
yes
no
non-mammals
sometimes yes
non-mammals
no
yes
non-mammals
no
yes
mammals
no
yes
non-mammals
yes
no
mammals
no
yes
non-mammals
mammals
no
no
non-mammals
yes
no
non-mammals
yes
no
mammals
sometimes yes
non-mammals
no
yes
non-mammals
no
yes
mammals
no
yes
non-mammals
no
yes
mammals
yes
no
non-mammals
sometimes yes
1是 2否 3否 4是 5否 6否 7是 8否 9否 10 否
单身 已婚 单身 已婚 离婚 已婚 离婚 单身 已婚 单身
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
9.3.1 贝叶斯网络的表达
CDA数据分析师(严谨课程体系+专业师资团队+优质服务体验,学数据分析就学CDA!)
20
贝叶斯网络分类原理
贝叶斯网络也称为贝叶斯信念网络, 20世纪80年代由劳瑞茨恩和斯皮吉尔霍特尔提出。 贝叶斯网络最初用于人工智能中专家系统的知识表示。它以因果关系图的形式,展现专 家知识各因素的内在因果关系 该图为1988年劳瑞茨恩和斯皮吉尔霍特尔 图中的圆圈对应各个变量。例如,吸烟节点 提出的被称为“ Asia"模型的因果关系图 表示病人是一个吸烟者,亚洲旅游节点表示 中的一部分,用于帮助对新病人病情作出 病人最近到亚洲旅游。有向线段粗略代表因 果关系。例如,吸烟会增加发展中国家支气 诊断 管炎和肺癌的患病率,年龄与患肺癌的可能 性有关,支气管炎容易导致呼吸困难,肺结 核和肺癌均会导致肺部X光片异常,等等 20世纪90年代以后,贝叶斯网络开始应用 于数据分析领域。如何从庞大数据中寻找 输入变量之间的相关性,输入变量的组合 取值会对输出变量有怎么的影响,如何通 过恰当的网络结构直观展示这些关系,都 是贝叶斯网络研究的重点
P( A | Bi ) P( Bi ) P( A | B j )பைடு நூலகம்P( B j )
j
12/65 CDA数据分析师(严谨课程体系+专业师资团队+优质服务体验,学数据分析就学CDA!)
贝叶斯公式带来的思考
P A | D
PD | AP A PD
• 给定某些样本D,在这些样本中计算某结论A1、 A2……An出现的概率,即P(Ai|D)
18/65 CDA数据分析师(严谨课程体系+专业师资团队+优质服务体验,学数据分析就学CDA!)
对朴素贝叶斯的思考
• P(y|x1,x2,...,xn)与P(y,x1,x2,...,xn)成正比。由此可知,整个概率计算的核心是 给定输出变量条件下,输入变量联合概率计算, 由概率乘法公式:
可知,联合概率的计算与变量的排列顺序有关。由于最坏情况下可有n!种排列 方式,因此计算复杂度是比较高的。 • 为了便于计算,朴素贝叶斯分类法中假设输入变量条件独立。虽然朴素贝叶 斯分类法在实际应用中效果不错,但是该假设仍显得苛刻。一般情况下,输 入变量独立的假设很可能是不成立的,于是无法回避的最大问题仍是联合概 率的计算。 为此,人们开始探索各种有效途径,希望既能够直观表示变量的联合分布, 又便于分类预测时简化计算,这就是贝叶斯网络
Interpretation:
train: 训练集(注意,不带输出标签) cl k : 输出标签(对应训练集,必须是factor型的) : kNN的k,邻居个数 test : 测试集(自然不应该带标签)
其他参数,一般不用指定了
CDA数据分析师(严谨课程体系+专业师资团队+优质服务体验,学数据分析就学CDA!)
21/65 CDA数据分析师(严谨课程体系+专业师资团队+优质服务体验,学数据分析就学CDA!)
贝叶斯网络构成
贝叶斯网络由网络结构S和参数集合θ两个部分组成 网络结构S 网络结构S用来表示分类型随机变量 集合X={X1, X2, X3, ..., Xn} 之间的独立和条件独立关系。网络 结构S由节点和弧线组成,是一个有 向无环图。其中,每个节点分别与 分类型变量Xi一一对应。图中的每 条弧线代表变量之间存在依赖关系。 如果节点之间没有弧线连接,表示 它们条件独立。节点Xi的父节点记 为Pai,父节点的取值集合用 参数集合θ
CDA数据分析师(严谨课程体系+专业师资团队+优质服务体验,学数据分析就学CDA!)
在R中实现kNN
require(class) #install.package(‘class’) knn(train, test, cl, k = 1, l = 0, prob = FALSE, use.all = TRUE)
式中, k表示变量Y所有可能取值的个数。 另外,如果输入变量为数值型,则P(xim|yi)为条件概率密度。
• 要比较的是P(y1|x)和P(y2|x) 的相对大小,而根据公式P(y|x) =P(x|y)*P(y) / P(x),二者的分母都是除以P(x),实践时可以不计算该 系数。 • 编程的限制:小数乘积下溢出怎么办?
13/65 CDA数据分析师(严谨课程体系+专业师资团队+优质服务体验,学数据分析就学CDA!)
贝叶斯公式的应用
• 8支步枪中有5支已校准过,3支未校准。一名射手用校准 过的枪射击,中靶概率为0.8;用未校准的枪射击,中靶 概率为0.3;现从8支枪中随机取一支射击,结果中靶。 求该枪是已校准过的概率。 • 解:
kNN之前的数据标准化
• 极差标准化
• 中心标准化(z-score)
• 生成哑变量( m-1 principle)
CDA数据分析师(严谨课程体系+专业师资团队+优质服务体验,学数据分析就学CDA!)
K的选取
K值越小,模型越依赖于最近的 样本点的取值,不稳健;K值越 大,虽然模型稳健性增强了, 但是敏感度下降。因此需要采 用遍历的方法,选取最合适的K 值。 如左表所示,根据ROC曲线下面 积,选择K=15较合理。 为了避 免无法决策的麻烦,K一般取奇 数。
5 8 PA 1 G 1 0.8 PG 1 3 8 PA 0 G 1 0.2 PG 0
PA 1 G 0 0.3
PG 1 A 1 ?
PA 0 G 0 0.7
PG 1 A 1
PA 1G i PG i
是否约会成功的KNN法演示
如何预测一个婚恋网站新注册的男生是否会 约会成功呢?这很简单,看看和这个新来的 男生条件最接近的男生是否约会成功了。 比如蓝色点代表约会成功的人,红色点代表 新来的男生,他和两个蓝色点一个灰色点最 近,因此该点约会成功地可能性是2/3。 K邻域法属于惰性算法,其特点是不事先建立 全局的判别公式或规则。当新数据需要分类 时,根据每个样本和原有样本之间的距离, 取最近K个样本点的众数(Y为分类变量的情 形)或均值( Y为连续变量的情形)作为新 样本的预测值。这体现了一句老话“近朱者 赤,近墨者黑”。
声音识别 图像识别 欺诈识别
存在明确的分类,和 信息抽取 决策的不同在于决策 为二分类,标注为多 自然语言处理 分类 ...
CDA数据分析师(严谨课程体系+专业师资团队+优质服务体验,学数据分析就学CDA!)
9.1 KNN算法
CDA数据分析师(严谨课程体系+专业师资团队+优质服务体验,学数据分析就学CDA!)
9.2 朴素贝叶斯
CDA数据分析师(严谨课程体系+专业师资团队+优质服务体验,学数据分析就学CDA!)
11
概率
• 条件概率: • 全概率公式:
P AB P A B P B
• 贝叶斯(Bayes)公式:
P A P A | Bi PBi
i
PBi A
16/65 CDA数据分析师(严谨课程体系+专业师资团队+优质服务体验,学数据分析就学CDA!)
朴素贝叶斯分类器计算示例
以超市顾客的数据为例,这里只考虑两个输入变量:性别( X1)和年龄段( X2),是 否购买( Y)为输出变量,数据如下表所示: 现需对性别( X1)为1、年龄 段( X2)为A的新顾客,利用 朴素贝叶斯分类法预测其是 否购买 由于是否购买( Y)包括购买( yes)和不购买( no)两种,究竟是购买还是不购买具 有不确定性。为减少这种不确定性,应收集数据,观察顾客的相关特征,并以此修正先 前的不确定性,得到后验概率。 根据贝叶斯公式,分别计算该顾客购买和不购买的可能性
max P Ai | D max PD | Ai P Ai max PD | Ai P Ai max PD | Ai P D
max P( A | D) max P( D | A ) i i • 第一个等式:贝叶斯公式; • 第二个等式:样本给定,则对于任何Ai,P(D)是常数,仅为归 一化因子; • 第三个箭头:若这些结论A1、A2……An的先验概率相等(或近 似),则得到最后一个等式:即第二行的公式。
2/65 CDA数据分析师(严谨课程体系+专业师资团队+优质服务体验,学数据分析就学CDA!)
分类器概念
预测类型
排序(Rankings)
方法
逻辑回归 决策树
适用场景
不存在稳定的可辨识 的结果。比如流失经 常是一个定义,而很 少存在真实流失的情 况
举例
信用评分 流失预测 营销响应
神经网络
存在可以直接辨识的 贝叶斯网络、 决策(Decisions)KNN(基于记忆 结果。比如人脸图像 的模型)、SVM、 识别,是可以直接知 深度学习 道是否为某个人的脸 标注(Tagging) 隐马尔可夫 条件随机场
• 其实是:对于给定分类的条件下,特征独立
• 每个特征同等重要(特征均衡性)
15/65 CDA数据分析师(严谨课程体系+专业师资团队+优质服务体验,学数据分析就学CDA!)
朴素贝叶斯分类器原理
朴素贝叶斯分类法是一种较为简单且应用极为广泛的贝叶斯方法,其目标是在训练 集样本集的基础上,学习和归纳输入和输出变量取值之间的规律性,以实现对新数 据输出变量值的分类预测。输入变量条件独立是朴素贝叶斯分类法应用的基本前提
iG
PA 1 G 1PG 1
0.8
5 3 0.8 0.3 8 8
5 8
0.8163
14/65 CDA数据分析师(严谨课程体系+专业师资团队+优质服务体验,学数据分析就学CDA!)