作业二基于Fisher准则线性分类器设计

合集下载

线性分类器设计fisher准则

线性分类器设计fisher准则

线性分类器设计(fisher准则)一、数据来源参考文献:《车辆类型自动分类器的研究》农业装备与车辆工程,2007年9月,总第149期二、设计分析众所周知,最简单的判别函数是线性函数,最简单的分界面是超平面,采用线性判别函数所产生的错误率或风险虽然可能比贝叶斯分类器来得大。

不过,它简单,容易实现,而且需要的计算量和存储量小。

故在不要求太高精确度情况下,小样本时可采用此法。

采用上面文献中的数据集,利用fisher准则我们设计了一个线性的分类器。

因为线性分类器只能处理两类问题,所以把原问题做了初步的处理。

选取的特征:长高比( 汽车总长/汽车高度) : x1=L/H顶篷相对位置( ( 车头坐标- 顶篷中心坐标) /汽车总长) : x2=l1 /L顶长比( 顶蓬长度/汽车总长) : x3=l /L样本空间:sample=[2.6522,0.5021,0.8951;2.6240,0.4923,0.9823;%客车训练样本2.9825,0.1922,0.3217;3.0124,0.1596,0.1972;%货车训练样本3.3345,0.6896,0.4217;3.6532,0.6482,0.4576];%轿车训练样本三、程序见fisher.m文件四、结果分析原文章中采用的的改进的BP神经网络算法,能很好的实现分类的效果。

而在这里我们挑了6个训练集样本和3个测试集样本,也很好的实现了分类效果。

但是,若对于大样本来说,贝叶斯分类器的效果更好。

下图就是采用线性分类器的效果图。

客车样本和非客车样本1 1.2 1.4 1.6 1.82 2.2 2.4 2.6 2.83客车样本和非客车样本1 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.92。

机器学习实验1-Fisher线性分类器设计

机器学习实验1-Fisher线性分类器设计

一、实验意义及目的掌握Fisher分类原理,能够利用Matlab编程实现Fisher线性分类器设计,熟悉基于Matlab算法处理函数,并能够利用算法解决简单问题。

二、算法原理Fisher准则基本原理:找到一个最合适的投影周,使两类样本在该轴上投影之间的距离尽可能远,而每一类样本的投影尽可能紧凑,从而使分类效果为最佳。

内容:(1)尝试编写matlab程序,用Fisher线性判别方法对三维数据求最优方向w的通用函数(2)对下面表1-1样本数据中的类别w1和w2计算最优方向w(3)画出最优方向w 的直线,并标记出投影后的点在直线上的位置(4)选择决策边界,实现新样本xx1=(-0.7,0.58,0.089),xx2=(0.047,-0.4,1.04)的分类三、实验内容(1)尝试编写matlab程序,用Fisher线性判别方法对三维数据求最优方向w的通用函数程序清单:clcclear all%10*3样本数据w1=[-0.4,0.58,0.089;-0.31,0.27,-0.04;-0.38,0.055,-0.035;-0.15,0.53,0.011;-0.35,.47,0.034;0.17,0.69,0.1;-0.011,0.55,-0.18;-0.27,0.61,0.12;-0.065,0.49,0.0012;-0.12,0.054,-0.063];w2=[0.83,1.6,-0.014;1.1,1.6,0.48;-0.44,-0.41,0.32;0.047,-0.45,1.4;0.28,0.35,3.1;-0.39,-0.48,0.11;0.34,-0.079,0.14;-0.3,-0.22,2.2;1.1,1.2,-0.46;0.18,-0.11,-0.49];W1=w1';%转置下方便后面求s1W2=w2';m1=mean(w1);%对w1每一列取平均值结果为1*3矩阵m2=mean(w2);%对w1每一列取平均值结果为1*3矩阵S1=zeros(3);%有三个特征所以大小为3S2=zeros(3);for i=1:10%1到样本数量ns1=(W1(:,i)-m1)*(W1(:,i)-m1)';s2=(W2(:,i)-m2)*(W2(:,i)-m2)';S1=S1+s1;S2=S2+s2;endsw=S1+S2;w_new=transpose(inv(sw)*(m1'-m2'));%这里m1m2是行要转置下3*3 X 3*1 =3*1 这里提前转置了下跟老师ppt解法公式其实一样%绘制拟合结果数据画图用y1=w_new*W1y2=w_new*W2;m1_new=w_new*m1';%求各样本均值也就是上面y1的均值m2_new=w_new*m2';w0=(m1_new+m2_new)/2%取阈值%分类判断x=[-0.7 0.0470.58 -0.40.089 1.04 ];m=0; n=0;result1=[]; result2=[];for i=1:2%对待观测数据进行投影计算y(i)=w_new*x(:,i);if y(i)>w0m=m+1;result1(:,m)=x(:,i);elsen=n+1;result2(:,n)=x(:,i);endend%结果显示display('属于第一类的点')result1display('属于第二类的点')result2figure(1)scatter3(w1(1,:),w1(2,:),w1(3,:),'+r'),hold onscatter3(w2(1,:),w2(2,:),w2(3,:),'sg'),hold onscatter3(result1(1,:),result1(2,:),result1(3,:),'k'),hold onscatter3(result2(1,:),result2(2,:),result2(3,:),'bd')title('样本点及实验点的空间分布图')legend('样本点w1','样本点w2','属于第一类的实验点','属于第二类的实验点')figure(2)title('样本拟合结果')scatter3(y1*w_new(1),y1*w_new(2),y1*w_new(3),'b'),hold onscatter3(y2*w_new(1),y2*w_new(2),y2*w_new(3),'sr')(2)对下面表1-1样本数据中的类别w1和w2计算最优方向w(3)画出最优方向w 的直线,并标记出投影后的点在直线上的位置最优方向w 的直线投影后的位置(4)选择决策边界,实现新样本xx1=(-0.7,0.58,0.089),xx2=(0.047,-0.4,1.04)的分类决策边界取法:分类结果:四、实验感想通过这次实验,我学会了fisher线性判别相关的分类方法,对数据分类有了初步的认识,尽管在过程中有不少中间量不会算,通过查阅网络知识以及模式识别专业课ppt等课件帮助,我最终完成了实验,为今后继续深入学习打下良好基础。

6-线性分类器设计-第六章

6-线性分类器设计-第六章

k 此法可收敛于W值。W满足: XT(XW-b)=0
令 ρk =
ρ1
其中 ρ 1 为任意常数
因此下降算法不论XTX是否奇异,总能产生一个解。 若训练样本无限的重复出现,则简化为 W1任意 Wk+1=Wk+ρk(bk-WkTXk) Xk k+1
取 ρK
=
ρ1
k
ρk随迭代次数k而减少,以保证算法收敛于满意的W值
其中N/N1有N1个,N/N2有N2个
四 韦—霍氏法(LMS法)迭代法
上节得到MSE法的W解为:W=X+b
伪逆 X + =
(
XT X
)
−1
X
T
计算量很大
在计算X+时, 1. 要求XTX矩阵为非奇异 2 2. 由于计算量太大而引入比较大误差 所以要用迭代法来求 求J(W)的梯度 ▽J(W) =2XT(XW-b) 代入迭代公式 W1任意设定 Wk+1 = Wk-ρkXT(XWk-b)
H wk+1 ρk x
权值修正过程
例题:有两类样本 ω1=(x1,x2)={(1,0,1),(0,1,1)} ω2=(x3,x4)={(1,1,0),(0,1,0)} 解:先求四个样本的增值模式 x1=(1,0,1,1) x2=(0,1,1,1) x3=(1,1,0,1) x4=(0,1,0,1) 假设初始权向量 w1=(1,1,1,1) ρk=1 第一次迭代: w1Tx1=(1,1,1,1) (1,0,1,1)T=3>0 所以不修正 w1Tx2=(1,1,1,1) (0,1,1,1)T=3>0 所以不修正 w1Tx3=(1,1,1,1) (1,1,0,1)T=3>0 所以修正w1 w2=w1-x3=(0,0,1,0) w2Tx4=(0,0,1,0)T (0,1,0,1) =0 所以修正w2 w3=w2-x4=(0,-1,1,-1) 第一次迭代后,权向量w3=(0,-1,1,-1),再进行第2,3,…次迭代 如下表

基于Fisher判别分析的贝叶斯分类器

基于Fisher判别分析的贝叶斯分类器

类别的所何条件概率 中最大者为应 I属的类 ,这样做可以使 J ] 识别决策 的错误率最小 , 一 这一 准则称 为最夫 后验概率准则 。 利用著名的贝 叶斯公式 P∞ I) ( :
pk x)
,注意到分母
() 在比较表达式 中足一个常数 ,经过 一 系列的推 导,呵以 把决策 式() 1表述为 :
D :1 9 9 s . 0 4 82 1.00 5 OI 036 /i n1 03 2 . 1.5 js 0 01
1 概述
分类是机器 学 习、模 式识 别和人工智能 等相 关领 域广 泛 研究的问题。近年来 ,随着相 关领 域中新技 术的不断涌现 , 分类 疗法也得到 了新的发展 。针对不同的分 类问题 ,分类方 , 法多种多样 ,如决策树分类、支持向量机分类、神经 网络分 类。 在众多的分类方法中 , 贝叶斯分类器受 到了极大地重视 。 贝叶斯分类器是基于最大后验概率准则的 ,即利用某对 象的 先验概率计算其后验概率 ,并选择具有最大后验概率 的类作 为该对象所属 的类 I 。在贝叶斯模型 中,模型 分别模 拟每 一 个类的类条件联合概率分布 ,然后基于贝叶斯定理构建后验 概率分类器 J 而,经典的贝叶斯分类器 并未 利用类与类 。然 之 问的信息 ,而这种信息正是分类所需要 的。本文在分析贝 叶 斯模 型 结 构 特 点 以及 构造 分 类 器 方法 的基础 上 ,结 合 Fse i r线性 判别分析 ,给出一种基于 Fse h i r线性判别分析 h (i e ier i r n n A ayi F D 的贝叶斯分类器。 Fs r na s i at n ls , L A) h L D c mi s
i f r t n e e tv l I r e o s v hi p o e n o ma i f c i e y n o d r t ol e t s r bl m,a mp o e l o i m fBa e i n c a s f r c o n i r v d a g rt h o y sa ls ii omb n d wi ih r Li e r Dic i i a t e i e t F s e n a s rm n n h

5第五章 线性分类器(几何分类器)

5第五章 线性分类器(几何分类器)

研究目的和意义
5.1 几何分类器的基本概念
03
内容纲要
研究目的和意义
一个模式通过某种变换映射成一个特征向量后, 该特征向量可以理解为特征空间的一个点。
O { f1, f 2 ,, f n }
06
内容纲要
研究目的和意义
在特征空间中,属于一个类的点集,在某种程 度上总是与属于另一个类的点集相分离,各个类之 间是确定可分的,
10
内容纲要
研究目的和意义
几何分类法按照分界函数的形式可以分为
线性判别函数 和 非线性判别函数 两大类。
11
1.若已知类的所有特征向量都可以用线性分类器正确 研究目的和意义 分类,我们将研究其相应的线性函数的计算方法。
内容纲要
线性可分情况
12
内容纲要 2.对于不能将所有向量正确分类的线性分类器,我们 研究目的和意义 将通过采用相应的优化规则来寻找设计最优线性分类 器的方法。
有多个判别函数的值大于0,第一种情况下只有一个判
别函数的值大于0。
30
内容纲要
研究目的和意义
31
内容纲要 若可用以上几种情况中的任一种线性判别函数来进行分类, 则这些模式类称为线性可分的。总结如表所示。 研究目的和意义
32
内容纲要 第五章 几何分类器专题
研究目的和意义
5.3 线性判别函数的实现
02
内容纲要
研究目的和意义
还记得吗?
第二章到第四章在概率密度和概率函数的基础 上设计分类器。
04
内容纲要
研究目的和意义
直接使用Bayes决策首先需要知道有关样品总体 分布的知识,包括各类先验概率 P(1 ) 、
类条件概率密度函数和样品的后验概率 P(1 | X ) , 并以此作为产生判别函数的必要依据,设计出相应 的判别函数与决策面,这种方法称为参数判别方法。

FISHER分类

FISHER分类

Fisher 线性判别分类器成员姓名: 学号:莫文敏 201111921217 赵越 201111921229 顾瑞煌 201111921104一、实验目的1.实现基于FISHER 分类的算法程序;2.能够根据自己的设计加深对FISHER 分类的认识;3.掌握FISHER 分类的原理、特点。

二、实验设备1.手提电脑2.MATLAB三、FISHER 算法原理线性判别函数的一般形式可表示成0)(w X W X g T +=其中⎪⎪⎪⎭⎫ ⎝⎛=d x x X 1 ⎪⎪⎪⎪⎪⎭⎫ ⎝⎛=d w w w W 21但是,在应用统计方法解决模式识别的问题时,经常会遇到“维数风暴”的问题,因此压缩特征空间的维数在此时十分重要,FISHER 方法实际上是涉及维数压缩的问题。

把多为特征空间的点投影到一条直线上,就能把特征空间压缩成一维,这在数学上是很容易做到的。

但是在高维空间里很容易一分开的样品,把它们投射到任意一条直线上,有可能不同类别的样品就混在一起,无法区分了,如图5-16(a )所示,投影1x 或2x 轴无法区分。

若把直线绕原点转动一下,就有可能找到一个方向,样品投射到这个方向的直线上,各类样品就能很好地分开,如图5-16(b )所示。

因此直线方向的选择是很重要的。

一般来说总能找到一个最好的方向,使样品投射到这个方向的直线上很容易分开。

如何找到这个最好的直线方向以及如何实现向最好方向投影的变换,这正是FISHER 算法要解决的基本问题,这个投影变换正是我们寻求的解向量*W 。

样品训练集以及待测样品的特征总数目为n ,为找到最佳投影方向,需要计算出各类样品的均值、样品类内离散度矩阵i S 和总类间矩阵w S 、样品类间离散度矩阵b S ,根据FISHER 准则找到最佳投影向量,将训练集内所有样品进行投影,投影到一维Y 空间,由于Y 空间是一维的,则需要求出Y 空间的划分边界点,找到边界点后,就可以对待测样品进行一维Y 空间的投影,判断它的投影点与分界点的关系将其归类。

基于Fisher的线性判别回归分类算法

基于Fisher的线性判别回归分类算法

基于Fisher的线性判别回归分类算法曾贤灏;石全民【摘要】To improve the robustness of the linear regression classification (LRC) algorithm, a linear discrimi⁃nant regression classification algorithm based on Fisher criterion is proposed. The ratio of the between-classre⁃construction error over the within-class reconstruction error is maximized by Fisher criterion so as to find an opti⁃mal projection matrixfor the LRC. Then, all testing and training images are projected to each subspace by the op⁃timal projection matrix and Euclidean distances between testing image and all training images are computed. Fi⁃nally, K-nearest neighbor classifier is used to finish face recognition . Experimental results on AR face databases show that proposed method has better recognition effects than several other regression classification approaches.%为了提高线性回归分类(LRC)算法的鲁棒性,提出了一种基于Fisher准则的线性判别回归分类算法。

模式识别答案

模式识别答案

模式识别答案模式识别试题⼆答案问答第1题答:在模式识别学科中,就“模式”与“模式类”⽽⾔,模式类是⼀类事物的代表,概念或典型,⽽“模式”则是某⼀事物的具体体现,如“⽼头”是模式类,⽽王先⽣则是“模式”,是“⽼头”的具体化。

问答第2题答:Mahalanobis距离的平⽅定义为:其中x,u为两个数据,是⼀个正定对称矩阵(⼀般为协⽅差矩阵)。

根据定义,距某⼀点的Mahalanobis距离相等点的轨迹是超椭球,如果是单位矩阵Σ,则Mahalanobis距离就是通常的欧⽒距离。

问答第3题答:监督学习⽅法⽤来对数据实现分类,分类规则通过训练获得。

该训练集由带分类号的数据集组成,因此监督学习⽅法的训练过程是离线的。

⾮监督学习⽅法不需要单独的离线训练过程,也没有带分类号(标号)的训练数据集,⼀般⽤来对数据集进⾏分析,如聚类,确定其分布的主分量等。

就道路图像的分割⽽⾔,监督学习⽅法则先在训练⽤图像中获取道路象素与⾮道路象素集,进⾏分类器设计,然后⽤所设计的分类器对道路图像进⾏分割。

使⽤⾮监督学习⽅法,则依据道路路⾯象素与⾮道路象素之间的聚类分析进⾏聚类运算,以实现道路图像的分割。

问答第4题答:动态聚类是指对当前聚类通过迭代运算改善聚类;分级聚类则是将样本个体,按相似度标准合并,随着相似度要求的降低实现合并。

问答第5题答:在给定观察序列条件下分析它由某个状态序列S产⽣的概率似后验概率,写成P(S|O),⽽通过O求对状态序列的最⼤似然估计,与贝叶斯决策的最⼩错误率决策相当。

问答第6题答:协⽅差矩阵为,则1)对⾓元素是各分量的⽅差,⾮对⾓元素是各分量之间的协⽅差。

2)主分量,通过求协⽅差矩阵的特征值,⽤得,则,相应的特征向量为:,对应特征向量为,对应。

这两个特征向量即为主分量。

3) K-L变换的最佳准则为:对⼀组数据进⾏按⼀组正交基分解,在只取相同数量分量的条件下,以均⽅误差计算截尾误差最⼩。

4)在经主分量分解后,协⽅差矩阵成为对⾓矩阵,因⽽各主分量间相关消除。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

作业二 F i s h e r
线性判别分类器
一 实验目的 本实验旨在让同学进一步了解分类器的设计概念,能够根据自己的设计对线性分类器有更深刻地认识,理解Fisher 准则方法确定最佳线性分界面方法的原理,以及Lagrande 乘子求解的原理。

二 实验条件
Matlab 软件
三 实验原理
线性判别函数的一般形式可表示成
0)(w X W X g T
+= 其中
根据Fisher 选择投影方向W 的原则,即使原样本向量在该方向上的投影能兼顾类间分布尽可能分开,类内样本投影尽可能密集的要求,用以评价投影方向W 的函数为:
)(211*m m S W W -=- 上面的公式是使用Fisher 准则求最佳法线向量的解,该式比较重要。

另外,该式这种形式的运算,我们称为线性变换,其中21m m -式一个向量,1-W S 是W S 的逆矩阵,如21m m -是d 维,W S 和1
-W S 都
是d ×d 维,得到的*W 也是一个d 维的向量。

向量*W 就是使Fisher 准则函数)(W J F 达极大值的解,也就是按Fisher 准则将d 维X 空间投影到一维Y 空间的最佳投影方向,该向量*W 的各分量值是对原d 维特征向量求加权和的权值。

以上讨论了线性判别函数加权向量W 的确定方法,并讨论了使Fisher 准则函数极大的d 维向量*
W 的计算方法,但是判别函数中的另一项0W 尚未确定,一般可采用以下几种方法确定0W 如 或者 m N N m N m N W ~~~2
122110=++-= 或当1)(ωp 与2)(ωp 已知时可用
当W 0确定之后,则可按以下规则分类,
201
0ωω∈→-<∈→->X w X W X w X W T T
四 实验程序及结果分析
%w1中数据点的坐标
x1 =[
];
x2 =[
];
x3 =[
];
%将x1、x2、x3变为行向量
x1=x1(:);x2=x2(:);x3=x3(:);
%计算第一类的样本均值向量m1
m1(1)=mean(x1);m1(2)=mean(x2);m1(3)=mean(x3);
%计算第一类样本类内离散度矩阵S1
S1=zeros(3,3);
for i=1:36
S1=S1+[-m1(1)+x1(i) -m1(2)+x2(i) -m1(3)+x3(i)]'*[-m1(1)+x1(i) -m1(2)+x2(i)
-m1(3)+x3(i)];
end
%w2的数据点坐标
x4 =[
];
x5 =[
];
x6 =[
];
x4=x4(:);x5=x5(:);x6=x6(:);
%计算第二类的样本均值向量m2
m2(1)=mean(x4);m2(2)=mean(x5);m2(3)=mean(x6);
%计算第二类样本类内离散度矩阵S2
S2=zeros(3,3);
for i=1:36
S2=S2+[-m2(1)+x4(i) -m2(2)+x5(i) -m2(3)+x6(i)]'*[-m2(1)+x4(i) -m2(2)+x5(i) -m2(3)+x6(i)];
end
%总类内离散度矩阵Sw
Sw=zeros(3,3);
Sw=S1+S2;
%样本类间离散度矩阵Sb
Sb=zeros(3,3);
Sb=(m1-m2)'*(m1-m2);
%最优解W
W=Sw^-1*(m1-m2)'
%将W变为单位向量以方便计算投影
W=W/sqrt(sum(W.^2));
%计算一维Y空间中的各类样本均值M1及M2
for i=1:36
y(i)=W'*[x1(i) x2(i) x3(i)]';
end
M1=mean(y)
for i=1:36
y(i)=W'*[x4(i) x5(i) x6(i)]';
end
M2=mean(y)
%利用当P(w1)与P(w2)已知时的公式计算W0
p1=;p2=;
W0=-(M1+M2)/2+(log(p2/p1))/(36+36-2);
%计算将样本投影到最佳方向上以后的新坐标
X1=[x1*W(1)+x2*W(2)+x3*W(3)]';
X2=[x4*W(1)+x5*W(2)+x6*W(3)]';%得到投影长度
XX1=[W(1)*X1;W(2)*X1;W(3)*X1];
XX2=[W(1)*X2;W(2)*X2;W(3)*X2];%得到新坐标
%绘制样本点
figure(1)
plot3(x1,x2,x3,'r*') %第一类
hold on
plot3(x4,x5,x6,'bp') %第二类
legend('第一类点','第二类点')
title('Fisher 线性判别曲线')
W1=5*W;
%画出最佳方向
line([-W1(1),W1(1)],[-W1(2),W1(2)],[-W1(3),W1(3)],'color','b');
%判别已给点的分类
a1=[1,,]';a2=[,,]';a3=[,,]';a4=[,,]';a5=[,,]';
A=[a1 a2 a3 a4 a5]
n=size(A,2);
%下面代码在改变样本时都不必修改
%绘制待测数据投影到最佳方向上的点
for k=1:n
A1=A(:,k)'*W;
A11=W*A1;%得到待测数据投影
y=W'*A(:,k)+W0;%计算后与0相比以判断类别,大于0为第一类,小于0为第二类 if y>0 plot3(A(1,k),A(2,k),A(3,k),'go'); %点为"rp"对应第一类
plot3(A11(1),A11(2),A11(3),'go'); %投影为"r+"对应go 类
else
plot3(A(1,k),A(2,k),A(3,k),'m+'); %点为"bh"对应m+类
plot3(A11(1),A11(2),A11(3),'m+'); %投影为"b*"对应m+类
end
end
%画出最佳方向
line([-W1(1),W1(1)],[-W1(2),W1(2)],[-W1(3),W1(3)],'color','k');
view([,30]);
axis([-2,3,-1,3,,]);
grid on
hold off
实验结果和数据:
首先根据求出最佳投影方向,然后按照此方向,将待测数据进行投影 。

数据的样本点分布如下: 其中,红色的*是给出的第一类样本点,蓝色的五角星是第二类样本点。

下方的实直线是最佳投影方向。

待测数据投影在其上,圆圈是被分为第一类的样本点,十字是被分为第二类的样本点。

使)(w J F 取极大值的W =( , , )
实验分析:
W 的比例因子对于Fisher 判别函数没有影响的原因:
在本实验中,最需要的是W 的方向,或者说是在此方向上数据的投影,那么W 的比例因子,即它是单位向量的多少倍长就无关紧要了,不管比例因子有多大,在最后求投影时都会被消掉而起不到实际作用。

相关文档
最新文档