贝叶斯实验报告

合集下载

贝叶斯实验报告范文

贝叶斯实验报告范文

贝叶斯实验报告范文一、实验目的掌握贝叶斯推断的基本原理和方法,通过实验研究贝叶斯公式在实际问题中的应用。

二、实验原理贝叶斯推断是一种通过先验概率和观测数据来推断未知变量的方法。

根据贝叶斯公式,我们可以通过已知的先验概率和条件概率来推导后验概率,从而对未知变量进行推断。

三、实验过程1.实验准备:准备一个贝叶斯实验案例,例如:假设有一个盒子里有红球和蓝球,我们不知道红球和蓝球的比例。

先验概率分别是P(R)=0.5和P(B)=0.52.实验步骤:a)假设我们从盒子里随机取了一个球,结果是红色,我们要计算取到红色球的概率。

根据贝叶斯公式:P(R,D)=P(D,R)*P(R)/P(D)其中,P(R,D)代表在已知取到红色球的条件下,取到红色球的概率;P(D,R)代表在已知取到红色球的条件下,取到红色球的概率;P(R)代表取到红色球的概率;P(D)代表取到红色球的概率。

根据已知条件,P(D,R)=1,P(D)=P(D,R)*P(R)+P(D,B)*P(B),P(B)=1-P(R)。

将上述条件代入贝叶斯公式,计算P(R,D)的值。

b)假设我们从盒子里随机取了一个球,结果是红色,然后再从盒子里取了一个球,结果也是红色,我们要计算从盒子里取到的两个球都是红色球的概率。

根据贝叶斯公式:P(R2,R1)=P(R1,R2)*P(R2)/P(R1)其中,P(R2,R1)代表在已知第一个球是红色球的条件下,第二个球是红色球的概率;P(R1,R2)代表在已知第二个球是红色球的条件下,第一个球是红色球的概率;P(R2)代表第二个球是红色球的概率;P(R1)代表第一个球是红色球的概率。

根据已知条件,P(R1,R2)=1,P(R1)=P(R1,R2)*P(R2)+P(R1,B2)*P(B2),P(B2)=1-P(R2)。

将上述条件代入贝叶斯公式,计算P(R2,R1)的值。

四、实验结果根据贝叶斯公式的计算,可以得到实验结果。

五、实验分析通过实验研究,我们可以发现贝叶斯推断在解决实际问题时能够有效地利用已知的先验概率和观测数据,从而对未知变量进行推断。

《模式识别》实验报告-贝叶斯分类

《模式识别》实验报告-贝叶斯分类

《模式识别》实验报告-贝叶斯分类一、实验目的通过使用贝叶斯分类算法,实现对数据集中的样本进行分类的准确率评估,熟悉并掌握贝叶斯分类算法的实现过程,以及对结果的解释。

二、实验原理1.先验概率先验概率指在不考虑其他变量的情况下,某个事件的概率分布。

在贝叶斯分类中,需要先知道每个类别的先验概率,例如:A类占总样本的40%,B类占总样本的60%。

2.条件概率后验概率指在已知先验概率和条件概率下,某个事件发生的概率分布。

在贝叶斯分类中,需要计算每个样本在各特征值下的后验概率,即属于某个类别的概率。

4.贝叶斯公式贝叶斯公式就是计算后验概率的公式,它是由条件概率和先验概率推导而来的。

5.贝叶斯分类器贝叶斯分类器是一种基于贝叶斯定理实现的分类器,可以用于在多个类别的情况下分类,是一种常用的分类方法。

具体实现过程为:首先,使用训练数据计算各个类别的先验概率和各特征值下的条件概率。

然后,将测试数据的各特征值代入条件概率公式中,计算出各个类别的后验概率。

最后,取后验概率最大的类别作为测试数据的分类结果。

三、实验步骤1.数据集准备本次实验使用的是Iris数据集,数据包含150个Iris鸢尾花的样本,分为三个类别:Setosa、Versicolour和Virginica,每个样本有四个特征值:花萼长度、花萼宽度、花瓣长度、花瓣宽度。

2.数据集划分将数据集按7:3的比例分为训练集和测试集,其中训练集共105个样本,测试集共45个样本。

计算三个类别的先验概率,即Setosa、Versicolour和Virginica类别在训练集中出现的频率。

对于每个特征值,根据训练集中每个类别所占的样本数量,计算每个类别在该特征值下出现的频率,作为条件概率。

5.测试数据分类将测试集中的每个样本的四个特征值代入条件概率公式中,计算出各个类别的后验概率,最后将后验概率最大的类别作为该测试样本的分类结果。

6.分类结果评估将测试集分类结果与实际类别进行比较,计算分类准确率和混淆矩阵。

贝叶斯实验报告

贝叶斯实验报告

贝叶斯实验报告Document serial number【UU89WT-UU98YT-UU8CB-UUUT-UUT108】HUNAN UNIVERSITY人工智能实验报告题目实验三:分类算法实验学生姓名匿名学生学号 02xx专业班级智能科学与技术1302班指导老师袁进一.实验目的1.了解朴素贝叶斯算法的基本原理;2.能够使用朴素贝叶斯算法对数据进行分类3.了解最小错误概率贝叶斯分类器和最小风险概率贝叶斯分类器4.学会对于分类器的性能评估方法二、实验的硬件、软件平台硬件:计算机软件:操作系统:WINDOWS10应用软件:C,Java或者Matlab相关知识点:贝叶斯定理:表示事件B已经发生的前提下,事件A发生的概率,叫做事件B发生下事件A 的条件概率,其基本求解公式为:贝叶斯定理打通了从P(A|B)获得P(B|A)的道路。

直接给出贝叶斯定理:朴素贝叶斯分类是一种十分简单的分类算法,叫它朴素贝叶斯分类是因为这种方法的思想真的很朴素,朴素贝叶斯的思想基础是这样的:对于给出的待分类项,求解在此项出现的条件下各个类别出现的概率,哪个最大,就认为此待分类项属于哪个类别。

朴素贝叶斯分类的正式定义如下:1、设为一个待分类项,而每个a为x的一个特征属性。

2、有类别集合。

3、计算。

4、如果,则。

那么现在的关键就是如何计算第3步中的各个条件概率。

我们可以这么做:1、找到一个已知分类的待分类项集合,这个集合叫做训练样本集。

2、统计得到在各类别下各个特征属性的条件概率估计。

即3、如果各个特征属性是条件独立的,则根据贝叶斯定理有如下推导:因为分母对于所有类别为常数,因为我们只要将分子最大化皆可。

又因为各特征属性是条件独立的,所以有:整个朴素贝叶斯分类分为三个阶段:第一阶段: 准备工作阶段,这个阶段的任务是为朴素贝叶斯分类做必要的准备,主要工作是根据具体情况确定特征属性,并对每个特征属性进行适当划分,然后由人工对一部分待分类项进行分类,形成训练样本集合。

贝叶斯分类仿真实验

贝叶斯分类仿真实验

贝叶斯分类仿真实验实验一贝叶斯分类仿真实验1.引言贝叶斯定理用数学家Thoms Bayes 命名的,他是18世纪概率论和决策论的早期研究者。

贝叶斯决策理论是主观贝叶斯派归纳理论的重要组成部分。

贝叶斯决策就是在不完全情报下,对部分未知的状态用主观概率估计,然后用贝叶斯公式对发生概率进行修正,最后再利用期望值和修正概率做出最优决策。

1.1 贝叶斯决策基本思想贝叶斯决策理论方法是统计模型决策中的一个基本方法,其基本思想:★已知类条件概率密度参数表达式和先验概率;★利用贝叶斯公式转换成后验概率;★根据后验概率大小进行决策分类。

1.2 贝叶斯公式设H1,H2,……,H M 为样本空间S 的一个划分,如果以P(Hj)表示事件Hi 发生的概率,且P(Hj)>0(j=1,2,…,n)。

对于任一事件X,P(X)>0,则贝叶斯公式如下:P(Hj|X)=P(X|Hj)P(Hj)/ ∑=Mj 1Hj)P(Hj)|P(X2.基于最小错误率贝的叶斯决策2.1 对于贝叶斯公式的深入理解对于引言中贝叶斯的公式,可能大家对P(H|X)与P(X|H)的区别是什么等问题存在疑问,下面我们就来深入理解该公式,X 是一个元组,假设其中可以分成M 类,M 的先验概率是P(H),而P(X|H)则被我们看成是概率密度函数对于待归类的样品,贝叶斯可以计算出属于M 类中各个类的概率大小,看X 属于那个类的可能性大,就把他归属为那一类。

★先验概率针对M 个出现的可能性而言的,不考虑任何其他的条件。

例如,有统计资料表明出产产品总数为N ,其中合格品为N1,不合格品为N2,P(H1)=N1/N ,P(H2)=N2/N 。

我们可以看到,这两者都可以事先计算出来。

但是如果我们只有先验概率是不够的,假设我们生产的产品是N1多于N2,那么我们得到的概率就是合格的可能性大于不合格的可能性,故我们只能把所有的产品都判断为合格,因为合格的概率大一些,但这样的结果并没有让我们把不合格的产品分离出来,这就表明我们仅从先验概率来进行分类识别是不够的,我们还需要更多的初始信息。

knime贝叶斯实验报告总结

knime贝叶斯实验报告总结

knime贝叶斯实验报告总结一、引言Knime是一款开源的数据分析平台,可以方便地进行数据处理、建模和可视化等操作。

贝叶斯分类器是其中一种常用的机器学习算法,可以用于分类问题。

本报告旨在介绍使用Knime进行贝叶斯分类器实验的过程和结果。

二、实验目的本次实验旨在探究使用Knime进行贝叶斯分类器的效果,并通过对比不同参数设置下的预测结果,寻找最优参数组合。

三、实验步骤1. 数据准备:选择适合贝叶斯分类器的数据集,并将其导入Knime中。

2. 数据预处理:对数据进行缺失值填充、特征选择、归一化等处理。

3. 模型训练:将处理后的数据集分为训练集和测试集,使用Naive Bayes Learner节点建立贝叶斯分类器模型,并通过Cross Validation节点进行交叉验证。

4. 模型评估:使用Scorer节点对模型进行评估,并根据评估结果调整参数。

5. 结果分析:通过比较不同参数组合下的预测准确率和其他指标,确定最优参数组合。

四、实验结果1. 数据集选择:本次实验选择了UCI Machine Learning Repository中的Iris数据集,该数据集包含150个样本,每个样本有4个特征和一个类别标签。

数据集中的三种不同花卉的类别标签分别为Iris Setosa、Iris Versicolour和Iris Virginica。

2. 数据预处理:对于缺失值填充,使用Missing Value节点将缺失值替换为平均值;对于特征选择,使用Correlation Filter节点选取相关性较弱的特征;对于归一化,使用Normalize节点将特征值缩放到0-1之间。

3. 模型训练:将处理后的数据集分为训练集(70%)和测试集(30%),使用Naive Bayes Learner节点建立贝叶斯分类器模型,并通过Cross Validation节点进行交叉验证。

交叉验证结果显示,在默认参数下,模型在测试集上的准确率为95%。

主观贝叶斯实验报告

主观贝叶斯实验报告

主观贝叶斯实验报告学生姓名 程战战专业/班级 计算机91学 号 09055006所在学院 电信学院指导教师 鲍军鹏提交日期 2012/4/26根据初始证据E 的概率P (E )及LS 、LN 的值,把H 的先验概率P (H )更新为后验概率P (H/E )或者P(H/!E)。

在证据不确定的情况下,用户观察到的证据具有不确定性,即0<P(E/S)<1.此时就不能再用上面的公式计算后验概率了。

要用杜达等人的公式解决。

2 实验原理运用贝叶斯公式进行不确定性推理,必然受到贝叶斯公式运用条件的限制。

事实上,事件之间彼此独立的要求很苛刻的,在现实中往往不能保证这个条件被严格满足。

而且在贝叶斯公式中还要求事先知道已知结论时前件的条件概率和结论的先验概率。

要获得这些概率,就必须做一些统计工作。

然而,在实践中未必能进行足够的重复实验来获得充分的观察数据。

再者,用贝叶斯公式得到的后验概率实际上是对先验概率的修正。

假如先验概率偏差比较大,那么必然会对后验概率造成不良影响。

所以在人工智能实践中,为了应用简便和省事,往往用主观决定代替客观观察,用主观指定的数值来代替统计概率。

主观贝叶斯方法就是这种思想的一种体现。

主观贝叶斯方法是由杜达等人于1976年在贝叶斯公式基础上进行改进而提出的一种不确定性推理模型。

通过下述插值函数(称EH 公式或UED 公式)求P(H/S)的值:当证据为初始证据时,用下述CP 公式计算:⎪⎪⎩⎪⎪⎨⎧≤≤---+<≤⌝-+⌝=1)S /E (P )E (P ))E (P )S /E (P (*)E (P 1)H (P )E /H (P )H (P )E (P )S /E (P 0)S /E (P *)E (P )E /H (P )H (P )E /H (P )S /H (P 当当⎪⎩⎪⎨⎧≤-+≤+⌝-+⌝=)S /E (C 0)S /E (C *5)H (P )E /H (P )H (P 0)S /E (C )15)S /E (C (*))E /H (P )H (P ()E /H (P )S /H (P 当当在用EH公式时执行结果在用CP公式时执行结果4 实验源代码import java.util.Scanner;public class Bayes {public float ph;public float pe;public float pes;public float ls;public float ln;public float ces;//该六项为领域专家给出的值public float peh;public float p_eh;public float phe;public float ph_e;//该四项为中间变量public float phs;//最终结果public Bayes() {//构造函数进行变量初始化ph = 0;pe = 0;pes = 0;ls = 0;ln = 0;ces = 0;peh = 0;p_eh = 0;phe = 0;ph_e = 0;phs = 0;}public void set() {peh = ls * (1 - ln) / (ls - ln);p_eh = 1 - peh;ph_e = p_eh * ph / (1 - pe);if (ph_e > 1) {ph_e = 1;}peh = ls * (1 - ln) / (ls - ln);phe = peh * ph / pe;if (phe > 1) {phe = 1;}}public int eh() {//采用eh方法计算bayes不确定性if (0 <= pes && pes <= pe) {phs = ph_e + (ph - ph_e) * pes / pe;return 1;}else if (pe <= pes && pes <= 1) {phs = ph + (phe - ph) * (pes - pe) / (1 - pe);return 1;}else {return -1;}}public int cp() {//采用cp方法计算bayes不确定性if (ces <= 0) {phs = ph_e + (ph - ph_e) * (ces / 5 + 1);return 1;}else if (ces > 0) {phs = ph + (phe - ph) * ces / 5;return 1;}else {return -1;}}public static void main(String[] args) {System.out.println("要使用bayes计算不确定性吗?输入1选择eh公式计算,输入2选择ces公式计算");System.out.println("注意:0<=P(H),P(E),P(E/S)<=1LS,LN>=0并且不能同时大于1或者小于1C(E/S)是取[-5,5]之间的整数");Scanner sc = new Scanner(System.in);int flag = sc.nextInt();Bayes baye = new Bayes();System.out.println("请输入ph");baye.ph = sc.nextFloat();System.out.println("请输入pe");baye.pe = sc.nextFloat();System.out.println("请输入ls");baye.ls = sc.nextFloat();System.out.println("请输入ln");baye.ln = sc.nextFloat();if (flag == 1) {System.out.println("请输入pes");baye.pes = sc.nextFloat();baye.set();baye.eh();}else {System.out.println("请输入ces");baye.ces = sc.nextFloat();baye.set();baye.cp();}System.out.println("结果是:");System.out.println("p(H/S)=" + baye.phs);}}。

模式识别贝叶斯方法报告

模式识别贝叶斯方法报告

模式识别贝叶斯方法实验报告姓名与学号:教师:唐柯目录模式识别贝叶斯方法实验报告 (1)目录 (2)1 原理 (3)1.1 基本思想 (3)1.2 工作过程 (3)2 实验记录 (4)2.1 matlab程序 (4)2.2 特殊情况 (4)2.3 实验结果 (4)2.4 实验人员任务分配 (4)附录 (5)1 原理1.1 基本思想①已知类条件概率密度参数表达式(如符合正态分布)和先验概率(有监督,可统计得到) ②利用贝叶斯公式转换成后验概率 ③根据后验概率大小进行决策分类1.2 工作过程1. 每个数据样本用一个n 维特征向量X = {x 1 , x 2 ,..., x n }表示,对应属性A 1, A 2, ..., A n 。

2. m 个类别C 1 ,C 2 ,...,C m (在本实验中只有两类)。

给定一个未知类别的数据样本X ,分类器将预测X 属于具有最高后验概率(条件X 下)的类。

即将未知的样本分配给类C i ,当且仅当:P(C i | X) > P(C j | X) 1 ≤ j ≤ m 且j ≠ i.求令P(C i | X)最大的类Ci 称为最大后验假设。

根据贝叶斯定理P(C i | X) = P(X | C i )*P(C i )/P(X)由于P(X) 对于所有类别为常数,只需要P(X |C i )*P(C i )最大。

类别的先验概率可以统计得到(有监督),所以最大化P(X | C i )P(C i )。

类别的先验概率P(C i ) = 类别C i 的训练样本数/训练样本总数3. 假定各类别样本之间的属性值相互独立,则P(X|C i ) = ΠP(x k |C i ) k=1...n而概率P(x k |C i )可由训练样本估值,按属性离散与否分为 ①离散属性,则P(x k |C i ) = S ik /S iS ik 为在属性A k 上具有值x k 的类别C i 的训练样本数,S i 是类别C i 的样本数。

模式识别实验报告

模式识别实验报告

实验一Bayes 分类器设计本实验旨在让同学对模式识别有一个初步的理解,能够根据自己的设计对贝叶斯决策理论算法有一个深刻地认识,理解二类分类器的设计原理。

1实验原理最小风险贝叶斯决策可按下列步骤进行:(1)在已知)(i P ω,)(i X P ω,i=1,…,c 及给出待识别的X 的情况下,根据贝叶斯公式计算出后验概率: ∑==cj iii i i P X P P X P X P 1)()()()()(ωωωωω j=1,…,x(2)利用计算出的后验概率及决策表,按下面的公式计算出采取i a ,i=1,…,a 的条件风险∑==cj j jii X P a X a R 1)(),()(ωωλ,i=1,2,…,a(3)对(2)中得到的a 个条件风险值)(X a R i ,i=1,…,a 进行比较,找出使其条件风险最小的决策k a ,即则k a 就是最小风险贝叶斯决策。

2实验内容假定某个局部区域细胞识别中正常(1ω)和非正常(2ω)两类先验概率分别为 正常状态:P (1ω)=0.9; 异常状态:P (2ω)=0.1。

现有一系列待观察的细胞,其观察值为x :-3.9847 -3.5549 -1.2401 -0.9780 -0.7932 -2.8531 -2.7605 -3.7287 -3.5414 -2.2692 -3.4549 -3.0752 -3.9934 2.8792 -0.9780 0.7932 1.1882 3.0682 -1.5799 -1.4885 -0.7431 -0.4221 -1.1186 4.2532 已知类条件概率密度曲线如下图:)|(1ωx p )|(2ωx p 类条件概率分布正态分布分别为(-2,0.25)(2,4)试对观察的结果进行分类。

3 实验要求1) 用matlab 完成分类器的设计,要求程序相应语句有说明文字。

2) 根据例子画出后验概率的分布曲线以及分类的结果示意图。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

HUNAN UNIVERSITY人工智能实验报告题目实验三:分类算法实验学生姓名匿名学生学号2013080702xx专业班级智能科学与技术1302班指导老师袁进一.实验目的1.了解朴素贝叶斯算法的基本原理;2.能够使用朴素贝叶斯算法对数据进行分类3.了解最小错误概率贝叶斯分类器和最小风险概率贝叶斯分类器4.学会对于分类器的性能评估方法二、实验的硬件、软件平台硬件:计算机软件:操作系统:WINDOWS 10应用软件:C,Java或者Matlab相关知识点:贝叶斯定理:表示事件B已经发生的前提下,事件A发生的概率,叫做事件B发生下事件A的条件概率,其基本求解公式为:贝叶斯定理打通了从P(A|B)获得P(B|A)的道路。

直接给出贝叶斯定理:朴素贝叶斯分类是一种十分简单的分类算法,叫它朴素贝叶斯分类是因为这种方法的思想真的很朴素,朴素贝叶斯的思想基础是这样的:对于给出的待分类项,求解在此项出现的条件下各个类别出现的概率,哪个最大,就认为此待分类项属于哪个类别。

朴素贝叶斯分类的正式定义如下:1、设为一个待分类项,而每个a为x的一个特征属性。

2、有类别集合。

3、计算。

4、如果,则。

那么现在的关键就是如何计算第3步中的各个条件概率。

我们可以这么做:1、找到一个已知分类的待分类项集合,这个集合叫做训练样本集。

2、统计得到在各类别下各个特征属性的条件概率估计。

即3、如果各个特征属性是条件独立的,则根据贝叶斯定理有如下推导:因为分母对于所有类别为常数,因为我们只要将分子最大化皆可。

又因为各特征属性是条件独立的,所以有:整个朴素贝叶斯分类分为三个阶段:第一阶段: 准备工作阶段,这个阶段的任务是为朴素贝叶斯分类做必要的准备,主要工作是根据具体情况确定特征属性,并对每个特征属性进行适当划分,然后由人工对一部分待分类项进行分类,形成训练样本集合。

这一阶段的输入是所有待分类数据,输出是特征属性和训练样本。

这一阶段是整个朴素贝叶斯分类中唯一需要人工完成的阶段,其质量对整个过程将有重要影响,分类器的质量很大程度上由特征属性、特征属性划分及训练样本质量决定。

第二阶段: 分类器训练阶段,这个阶段的任务就是生成分类器,主要工作是计算每个类别在训练样本中的出现频率及每个特征属性划分对每个类别的条件概率估计,并将结果记录。

其输入是特征属性和训练样本,输出是分类器。

这一阶段是机械性阶段,根据前面讨论的公式可以由程序自动计算完成。

第三阶段: 应用阶段。

这个阶段的任务是使用分类器对待分类项进行分类,其输入是分类器和待分类项,输出是待分类项与类别的映射关系。

这一阶段也是机械性阶段,由程序完成。

三、实验内容及步骤实验内容:A.利用贝叶斯算法进行数据分类操作,并统计其预测正确率,数据集:汽车评估数据集(learn作为学习集,test作为测试集合)B.随机产生10000组正样本和20000负样本高斯分布的数据集合(维数设为二维),要求正样本:均值为[1;3],方差为[2 0;0 2];负样本:均值为[10;20],方差为[10 0;0 10].先验概率按样本量设定为1/3和2/3.分别利用最小错误概率贝叶斯分类器和最小风险概率贝叶斯分类器对其分类。

(假设风险程度正样本分错风险系数为0.6,负样本分错风险为0.4,该设定仅用于最小风险分析)相关概念:贝叶斯法则,先验概率,后验概率,最大后验概率1.贝叶斯法则机器学习的任务:在给定训练数据D时,确定假设空间H中的最佳假设。

最佳假设:一种方法是把它定义为在给定数据D以及H中不同假设的先验概率的有关知识下的最可能假设。

贝叶斯理论提供了一种计算假设概率的方法,基于假设的先验概率、给定假设下观察到不同数据的概率以及观察到的数据本身。

2.先验概率和后验概率用P(h)表示在没有训练数据前假设h拥有的初始概率。

P(h)被称为h的先验概率。

先验概率反映了关于h是一正确假设的机会的背景知识如果没有这一先验知识,可以简单地将每一候选假设赋予相同的先验概率。

类似地,P(D)表示训练数据D的先验概率,P(D|h)表示假设h成立时D的概率。

机器学习中,我们关心的是P(h|D),即给定D时h的成立的概率,称为h的后验概率。

3.贝叶斯公式贝叶斯公式提供了从先验概率P(h)、P(D)和P(D|h)计算后验概率P(h|D)的方法p(h|D)=P(D|H)*P(H)/P(D)P(h|D)随着P(h)和P(D|h)的增长而增长,随着P(D)的增长而减少,即如果D独立于h 时被观察到的可能性越大,那么D对h的支持度越小。

4.极大后验假设学习器在候选假设集合H中寻找给定数据D时可能性最大的假设h,h被称为极大后验假设(MAP)确定MAP的方法是用贝叶斯公式计算每个候选假设的后验概率,计算式如下:h_map=argmax P(h|D)=argmax (P(D|h)*P(h))/P(D)=argmax P(D|h)*p(h) (h属于集合H)C.编写一个贝叶斯分类器。

输入为:均指向量、先验概率、协方差矩阵、输入四、实验步骤:1.仔细阅读并了解实验数据集;2.使用任何一种熟悉的计算机语言(比如C,Java或者matlab)实现朴素贝叶斯算法;3.利用朴素贝叶斯算法在训练数据上学习分类器,训练数据的大小分别设置为:前100个数据,前200个数据,前500个数据,前700个数据,前1000个数据,前1350个数据;4.利用测试数据对学习的分类器进行性能评估;5.统计分析实验结果并上交实验报告;A源代码:package Bayes;import java.io.BufferedReader;import java.io.;import java.io.;import java.io.;import java.io.IOException;import java.math.BigDecimal;import java.util.Vector;import Bayes.NaiveBayesTool.Property;public class NaiveBayesTool {/** 申明全局变量 // 前面是自己的属性,后面是value的属性* */int predictTotal = 0;// 测试样本的数据int predictSucess = 0;// 预测成功的数量//存储数量public int[][] buy=new int[4][4];//vhigh,high,med,lowpublic int[][] maint=new int[4][4];//vhigh,high,med,lowpublic int[][] door=new int[4][4];//2,3,4,5morepublic int[][] person=new int[3][4];//2,4,morepublic int[][] lug_boot=new int[3][4];//small ,med,bigpublic int[][] safe=new int[3][4];//low,med,highpublic int[] ClassValues=new int[4];//unacc,acc, good,vgoodString[] ClassValueName = { "unacc", "acc", "good", "vgood" };//存储概率float[] ClassValue_gl = new float[4];// unacc-0 acc-1 good-2 vgood-3 float[][] buy_Vlaue_gl = new float[4][4]; //前面是自己的属性,后面是value 的属性float[][] maint_Value_gl = new float[4][4];float[][] door_Value_gl = new float[4][4];float[][] person_Value_gl = new float[3][4];float[][] lugboot_Value_gl = new float[3][4];float[][] safe_Value_gl = new float[3][4];/*** 主函数*/NaiveBayesTool NBayes=new NaiveBayesTool();NBayes.ReadFile("learn.txt");//获取训练样本NBayes.Calculated_probability();//计算概率NBayes.TestData();//导入测试样本数据NBayes.show();//输出结果}/*汽车属性类* */public class Property{//汽车有6个属性,每个属性都有几种类别,根据这6个属性来判断汽车的性价比Classvalue如何,public String buying;//vhigh,high,med,lowpublic String maint;//vhigh,high,med,lowpublic String doors;//2,3,4,5morepublic String persons;//2,4,morepublic String lug_boot;//small ,med,bigpublic String safety;// low,med,highpublic String ClassValues;//unacc,acc, good,vgoodpublic String[] PredictResult = new String[5];// 记录预测结果public Property(String b,String m,String d,String p,String l,String s,String c){buying=b;maint=m;doors=d;persons=p;lug_boot=l;safety=s;ClassValues=c;};Vector<Property> Data=new Vector();//存储数据Vector<Property> DataTest=new Vector();//存储测试数据/** 文件读写获取训练样本* */public void Read ) throws IOException{BufferedReader br=new BufferedReader(new ());String temp=null;temp=br.readLine();String []str = null;Property TempClass = null;while(temp!=null){str=temp.split(",");TempClass=newProperty(str[0],str[1],str[2],str[3],str[4],str[5],str[6]); Statistics(TempClass);//统计个数testTotal++;temp=br.readLine();}br.close();}* 统计每一项的个数vhigh,vhigh,2,2,small,low,unacc* */public void Statistics(Property car){for(int i=0;i<4;i++){if(car.ClassValues.equals(ClassValueName[i])){ ClassValues[i]++;//vhigh,high,med,lowif(car.buying.equals("vhigh")) buy[0][i]++;else if(car.buying.equals("high")) buy[1][i]++;else if(car.buying.equals("med")) buy[2][i]++;else buy[3][i]++;//vhigh,high,med,lowif(car.maint.equals("vhigh")) maint[0][i]++;else if(car.maint.equals("high")) maint[1][i]++;else if(car.maint.equals("med")) maint[2][i]++;else maint[3][i]++;//2,3,4,5moreif(car.doors.equals("2")) door[0][i]++;else if(car.doors.equals("3")) door[1][i]++;else if(car.doors.equals("4")) door[2][i]++;else door[3][i]++;//2,4,moreif(car.persons.equals("2")) person[0][i]++;else person[2][i]++;//small ,med,bigif(car.lug_boot.equals("small")) lug_boot[0][i]++;else if(car.lug_boot.equals("med")) lug_boot[1][i]++;else lug_boot[2][i]++;// low,med,highif(car.safety.equals("low")) safe[0][i]++;else if(car.safety.equals("med")) safe[1][i]++;else safe[2][i]++;}}}/**计算概率*/public void Calculated_probability(){for(int i=0;i<ClassValues.length;i++)ClassValue_gl[i]=(float)ClassValues[i]/testTotal;for(int i=0;i<buy_Vlaue_gl.length;i++)for(int j=0;j<buy_Vlaue_gl[0].length;j++){buy_Vlaue_gl[i][j]=(float)buy[i][j]/ClassValues[j];maint_Value_gl[i][j]=(float)maint[i][j]/ClassValues[j];door_Value_gl[i][j]=(float)door[i][j]/ClassValues[j];}for(int i=0;i<person_Value_gl.length;i++)for(int j=0;j<person_Value_gl[0].length;j++){person_Value_gl[i][j]=(float)person[i][j]/ClassValues[j];lugboot_Value_gl[i][j]=(float)lug_boot[i][j]/ClassValues[j];safe_Value_gl[i][j]=(float)safe[i][j]/ClassValues[j];}}/** 获取测试数据* */public void TestData() throws IOException{BufferedReader br=new BufferedReader(new ("test.txt"));String temp;temp=br.readLine();String []str = null;Property Car = null;while(temp!=null){str=temp.split(",");Car=newProperty(str[0],str[1],str[2],str[3],str[4],str[5],str[6]);predictTotal++;Data.addElement(Car);calculate(Car);temp=br.readLine();}}/*** 对分类器进行性能测试,判断其成功率为多少* @param car*/public void calculate(Property car){// unacc,acc,good,vgood, P(yi)--ClassValueTotal_gl 、P(x|yi)=low,vhigh,4,2,small,low,unacc 第一条float itemGl;// 每一条的概率int b, m, d, p, l, s;b = m = d = p = l = s = -1;float MaxGl = 0;if (car.buying.equals("vhigh")) b = 0;else if (car.buying.equals("high")) b = 1;else if (car.buying.equals("med"))b = 2;else b = 3;if (car.maint.equals("vhigh")) m = 0;else if (car.maint.equals("high")) m = 1;else if (car.maint.equals("med"))m = 2;else m = 3;if (car.doors.equals("2")) d = 0;else if (car.doors.equals("3")) d = 1;else if (car.doors.equals("4"))d = 2;else d = 3;if (car.persons.equals("2")) p = 0;else if (car.persons.equals("4"))p = 1;else p = 2;if (car.lug_boot.equals("small")) l = 0;else if (car.lug_boot.equals("med")) l = 1;else l = 2;if (car.safety.equals("low")) s = 0;else if (car.safety.equals("med")) s= 1;else s = 2;int t = 0;// 记录最大概率的下标int i;for (i = 0; i < ClassValue_gl.length; i++) {// 计算在unacc,acc,good,vgood下的概率itemGl = 0;BigDecimal[] bigDecimal = {new BigDecimal(Float.toString(ClassValue_gl[i])),new BigDecimal(Float.toString(buy_Vlaue_gl[b][i])),new BigDecimal(Float.toString(maint_Value_gl[m][i])),new BigDecimal(Float.toString(door_Value_gl[d][i])),new BigDecimal(Float.toString(person_Value_gl[p][i])),new BigDecimal(Float.toString(lugboot_Value_gl[l][i])),new BigDecimal(Float.toString(safe_Value_gl[s][i])),};for (int j = 1; j < bigDecimal.length; j++) //加:a.add(b);除:a.divide(b,2);//2为精度取值bigDecimal[0] =bigDecimal[0].multiply(bigDecimal[j]);//multiply乘itemGl = bigDecimal[0].floatValue();car.PredictResult[i] = itemGl + "\t";if (MaxGl < itemGl) {MaxGl = itemGl;t = i;}}// 判断结果是否正确if (car.ClassValues.equals(ClassValueName[t])) {// 预测结果和开始给定的结果相等car.PredictResult[i] = "true";predictSucess++;} elsecar.PredictResult[i] = "false";}public void show(){for (int i =0; i < predictTotal; i++) {Property c = Data.get(i);for (int j = 0; j < c.PredictResult.length; j++)System.out.print(c.PredictResult[j] + "\t");System.out.println();}// 分类器的准确率float t = (float) predictSucess / predictTotal;t=t*10000/100;System.out.println("\n分类器的准确率为:" + t+ "%");}}四、思考题1.实验A中的分类器的优缺点。

相关文档
最新文档