模式识别实验报告

合集下载

模式识别 实验报告一

模式识别 实验报告一
45
402
132
识别正确率
73.36
84.87
99.71
70.31
82.89
86.84
结果分析:
实验中图像3的识别率最高,图像1和图像2的识别率次之。图像1和图像2的分辨率相对图像3更低,同时图像2有折痕影响而图像1则有大量噪声。通过阈值处理能较好的处理掉图像1的噪声和图像2的折痕,从而使得图像1的识别率有所提升,而图像2的识别率变化不大。从而可以得出结论,图像3和图像2识别率不同的原因主要在于图像分辨率,而图像2和图像1识别率的不同则在于噪声干扰。
实验报告
题目
模式识别系列实验——实验一字符识别实验
内容:
1.利用OCR软件对文字图像进行识别,了解图像处理与模式识别的关系。
2.利用OCR软件对文字图像进行识别,理解正确率的概念。
实验要求:
1.利用photoshop等软件对效果不佳的图像进行预处理,以提高OCR识别的正确率。
2.用OCR软件对未经预处理和经过预处理的简体和繁体中文字符图像进行识别并比较正确率。
图像4内容既有简体又有繁体,从识别结果中可了解到错误基本处在繁体字。
遇到的问题及解决方案:
实验中自动旋转几乎没效果,所以都是采用手动旋转;在对图像4进行识别时若采用系统自己的版面分析,则几乎识别不出什么,所以实验中使用手动画框将诗的内容和标题及作者分开识别。
主要实验方法:
1.使用汉王OCR软件对所给简体和繁体测试文件进行识别;
2.理,再次识别;
实验结果:
不经过图像预处理
经过图像预处理
实验图像
图像1
图像2
图像3
图像4
图像1
图像2
字符总数
458

《模式识别》实验报告 K-L变换 特征提取

《模式识别》实验报告 K-L变换 特征提取

基于K-L 变换的iris 数据分类一、实验原理K-L 变换是一种基于目标统计特性的最佳正交变换。

它具有一些优良的性质:即变换后产生的新的分量正交或者不相关;以部分新的分量表示原矢量均方误差最小;变换后的矢量更趋确定,能量更集中。

这一方法的目的是寻找任意统计分布的数据集合之主要分量的子集。

设n 维矢量12,,,Tn x x x ⎡⎤⎣⎦=x ,其均值矢量E ⎡⎤⎣⎦=μx ,协方差阵()T x E ⎡⎤⎣⎦=--C x u)(x u ,此协方差阵为对称正定阵,则经过正交分解克表示为x =T C U ΛU ,其中12,,,[]n diag λλλ=Λ,12,,,n u u u ⎡⎤⎣⎦=U 为对应特征值的特征向量组成的变换阵,且满足1T -=U U 。

变换阵T U 为旋转矩阵,再此变换阵下x 变换为()T -=x u y U ,在新的正交基空间中,相应的协方差阵12[,,,]x n diag λλλ==x UC U C 。

通过略去对应于若干较小特征值的特征向量来给y 降维然后进行处理。

通常情况下特征值幅度差别很大,忽略一些较小的值并不会引起大的误差。

对经过K-L 变换后的特征向量按最小错误率bayes 决策和BP 神经网络方法进行分类。

二、实验步骤(1)计算样本向量的均值E ⎡⎤⎣⎦=μx 和协方差阵()T x E ⎡⎤⎣⎦=--C x u)(x u 5.8433 3.0573 3.7580 1.1993⎡⎤⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦=μ,0.68570.0424 1.27430.51630.04240.189980.32970.12161.27430.3297 3.1163 1.29560.51630.1216 1.29560.5810x ⎡⎤⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦----=--C (2)计算协方差阵x C 的特征值和特征向量,则4.2282 , 0.24267 , 0.07821 , 0.023835[]diag =Λ-0.3614 -0.6566 0.5820 0.3155 0.0845 -0.7302 -0.5979 -0.3197 -0.8567 0.1734 -0.0762 -0.4798 -0.3583 0.0755 -0.5458 0.7537⎡⎤⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦=U 从上面的计算可以看到协方差阵特征值0.023835和0.07821相对于0.24267和4.2282很小,并经计算个特征值对误差影响所占比重分别为92.462%、5.3066%、1.7103%和0.52122%,因此可以去掉k=1~2个最小的特征值,得到新的变换阵12,,,new n k u u u -⎡⎤⎣⎦=U 。

《模式识别》实验报告-贝叶斯分类

《模式识别》实验报告-贝叶斯分类

《模式识别》实验报告---最小错误率贝叶斯决策分类一、实验原理对于具有多个特征参数的样本(如本实验的iris 数据样本有4d =个参数),其正态分布的概率密度函数可定义为112211()exp ()()2(2)T d p π-⎧⎫=--∑-⎨⎬⎩⎭∑x x μx μ 式中,12,,,d x x x ⎡⎤⎣⎦=x 是d 维行向量,12,,,d μμμ⎡⎤⎣⎦=μ是d 维行向量,∑是d d ⨯维协方差矩阵,1-∑是∑的逆矩阵,∑是∑的行列式。

本实验我们采用最小错误率的贝叶斯决策,使用如下的函数作为判别函数()(|)(),1,2,3i i i g p P i ωω==x x (3个类别)其中()i P ω为类别i ω发生的先验概率,(|)i p ωx 为类别i ω的类条件概率密度函数。

由其判决规则,如果使()()i j g g >x x 对一切j i ≠成立,则将x 归为i ω类。

我们根据假设:类别i ω,i=1,2,……,N 的类条件概率密度函数(|)i p ωx ,i=1,2,……,N 服从正态分布,即有(|)i p ωx ~(,)i i N ∑μ,那么上式就可以写为1122()1()exp ()(),1,2,32(2)T i i dP g i ωπ-⎧⎫=-∑=⎨⎬⎩⎭∑x x -μx -μ对上式右端取对数,可得111()()()ln ()ln ln(2)222T i i i i dg P ωπ-=-∑+-∑-i i x x -μx -μ上式中的第二项与样本所属类别无关,将其从判别函数中消去,不会改变分类结果。

则判别函数()i g x 可简化为以下形式111()()()ln ()ln 22T i i i i g P ω-=-∑+-∑i i x x -μx -μ二、实验步骤(1)从Iris.txt 文件中读取估计参数用的样本,每一类样本抽出前40个,分别求其均值,公式如下11,2,3ii iii N ωωω∈==∑x μxclear% 原始数据导入iris = load('C:\MATLAB7\work\模式识别\iris.txt'); N=40;%每组取N=40个样本%求第一类样本均值 for i = 1:N for j = 1:4w1(i,j) = iris(i,j+1); end endsumx1 = sum(w1,1); for i=1:4meanx1(1,i)=sumx1(1,i)/N; end%求第二类样本均值 for i = 1:N for j = 1:4 w2(i,j) = iris(i+50,j+1);end endsumx2 = sum(w2,1); for i=1:4meanx2(1,i)=sumx2(1,i)/N; end%求第三类样本均值 for i = 1:N for j = 1:4w3(i,j) = iris(i+100,j+1); end endsumx3 = sum(w3,1); for i=1:4meanx3(1,i)=sumx3(1,i)/N; end(2)求每一类样本的协方差矩阵、逆矩阵1i -∑以及协方差矩阵的行列式i ∑, 协方差矩阵计算公式如下11()(),1,2,3,41i ii N i jklj j lk k l i x x j k N ωωσμμ==--=-∑其中lj x 代表i ω类的第l 个样本,第j 个特征值;ij ωμ代表i ω类的i N 个样品第j 个特征的平均值lk x 代表i ω类的第l 个样品,第k 个特征值;iw k μ代表i ω类的i N 个样品第k 个特征的平均值。

模式识别方PCA实验报告

模式识别方PCA实验报告

模式识别作业《模式识别》大作业人脸识别方法一 ---- 基于PCA 和欧几里得距离判据的模板匹配分类器一、 理论知识1、主成分分析主成分分析是把多个特征映射为少数几个综合特征的一种统计分析方法。

在多特征的研究中,往往由于特征个数太多,且彼此之间存在着一定的相关性,因而使得所观测的数据在一定程度上有信息的重叠。

当特征较多时,在高维空间中研究样本的分布规律就更麻烦。

主成分分析采取一种降维的方法,找出几个综合因子来代表原来众多的特征,使这些综合因子尽可能地反映原来变量的信息,而且彼此之间互不相关,从而达到简化的目的。

主成分的表示相当于把原来的特征进行坐标变换(乘以一个变换矩阵),得到相关性较小(严格来说是零)的综合因子。

1.1 问题的提出一般来说,如果N 个样品中的每个样品有n 个特征12,,n x x x ,经过主成分分析,将它们综合成n 综合变量,即11111221221122221122n nn n n n n nn ny c x c x c x y c x c x c x y c x c x c x =+++⎧⎪=+++⎪⎨⎪⎪=+++⎩ij c 由下列原则决定:1、i y 和j y (i j ≠,i,j = 1,2,...n )相互独立;2、y 的排序原则是方差从大到小。

这样的综合指标因子分别是原变量的第1、第2、……、第n 个主分量,它们的方差依次递减。

1.2 主成分的导出我们观察上述方程组,用我们熟知的矩阵表示,设12n x x X x ⎡⎤⎢⎥⎢⎥=⎢⎥⎢⎥⎣⎦是一个n 维随机向量,12n y y Y y ⎡⎤⎢⎥⎢⎥=⎢⎥⎢⎥⎣⎦是满足上式的新变量所构成的向量。

于是我们可以写成Y=CX,C 是一个正交矩阵,满足CC ’=I 。

坐标旋转是指新坐标轴相互正交,仍构成一个直角坐标系。

变换后的N 个点在1y 轴上有最大方差,而在n y 轴上有最小方差。

同时,注意上面第一条原则,由此我们要求i y 轴和j y 轴的协方差为零,那么要求T YY =Λ12n λλλ⎡⎤⎢⎥⎢⎥Λ=⎢⎥⎢⎥⎣⎦令T R XX =,则T T RC C =Λ经过上面式子的变换,我们得到以下n 个方程111111212112111221122111121211()0()0()0n n n n n n nn n r c r c r c r c r c r c r c r c r c λλλ-+++=+-++=+++-=1.3 主成分分析的结果我们要求解出C ,即解出上述齐次方程的非零解,要求ij c 的系数行列式为0。

模式识别实习报告

模式识别实习报告

实习报告一、实习背景及目的随着科技的飞速发展,模式识别技术在众多领域发挥着越来越重要的作用。

模式识别是指对数据进行分类、识别和解释的过程,其应用范围广泛,包括图像处理、语音识别、机器学习等。

为了更好地了解模式识别技术的原理及其在实际应用中的重要性,我参加了本次模式识别实习。

本次实习的主要目的是:1. 学习模式识别的基本原理和方法;2. 掌握模式识别技术在实际应用中的技巧;3. 提高自己的动手实践能力和团队协作能力。

二、实习内容及过程实习期间,我们团队共完成了四个模式识别项目,分别为:手写数字识别、图像分类、语音识别和机器学习。

下面我将分别介绍这四个项目的具体内容和过程。

1. 手写数字识别:手写数字识别是模式识别领域的一个经典项目。

我们使用了MNIST数据集,这是一个包含大量手写数字图片的数据集。

首先,我们对数据集进行预处理,包括归一化、数据清洗等。

然后,我们采用卷积神经网络(CNN)作为模型进行训练,并使用交叉验证法对模型进行评估。

最终,我们得到了一个识别准确率较高的模型。

2. 图像分类:图像分类是模式识别领域的另一个重要应用。

我们选择了CIFAR-10数据集,这是一个包含大量彩色图像的数据集。

与手写数字识别项目类似,我们先对数据集进行预处理,然后采用CNN进行训练。

在模型训练过程中,我们尝试了不同的优化算法和网络结构,以提高模型的性能。

最终,我们得到了一个识别准确率较高的模型。

3. 语音识别:语音识别是模式识别领域的又一项挑战。

我们使用了TIMIT数据集,这是一个包含大量语音样本的数据集。

首先,我们对语音样本进行预处理,包括特征提取、去噪等。

然后,我们采用循环神经网络(RNN)作为模型进行训练。

在模型训练过程中,我们尝试了不同的优化算法和网络结构。

最后,我们通过对模型进行评估,得到了一个较为可靠的语音识别系统。

4. 机器学习:机器学习是模式识别领域的基础。

我们使用了UCI数据集,这是一个包含多个数据集的数据集。

实验七基于神经网络的模式识别实验

实验七基于神经网络的模式识别实验

实验七基于神经网络的模式识别实验
一、实验背景
模式识别是机器学习领域中的一项重要研究领域,它可以被应用于多个领域,包括计算机视觉,图像处理,智能交通,自然语言处理和生物信息学等。

模式识别的目的是从观察到的数据中检测,理解和预测结果。

其中,神经网络(应用模式识别)是人工智能的关键部分,它模拟人类的神经元的工作方式,并且可以被用来识别,分类,计算和获取模式。

二、实验目标
本次实验的目的是,探讨神经网络在模式识别中的应用,并使用一个基于神经网络的模式识别系统来识别模式。

三、实验内容
(一)数据预处理
在进行本次实验之前,需要进行数据预处理,以便能够更好地使用神经网络。

数据预处理的目的是通过将原始数据处理成神经网络可以处理的格式,以便更好地提取特征。

(二)神经网络模型设计
(三)神经网络模型训练
在训练神经网络模型时,首先需要准备一组被识别的模式。

模式识别实验

模式识别实验

模式识别实验
一、实验任务
本次实验任务是模式识别,主要包括形式化的目标追踪、字符流分类和语音识别等。

二、所需软件
本实验所需软件包括MATLAB、Python等。

三、实验步骤
1. 首先需要安装MATLAB 和Python等软件,并建立实验环境。

2. 然后,通过MATLAB 进行基于向量量化(VQ) 的目标追踪实验,搭建端到端的系统,并使用Matlab编程实现实验内容。

3. 接着,使用Python进行字符流分类的实验,主要包括特征提取、建模和识别等,并使用Python编程实现实验内容。

4. 最后,使用MATLAB 进行语音识别的实验,主要是使用向量量化方法识别语音,并使用Matlab编程实现实验内容。

四、结果分析
1.在基于向量量化的目标追踪实验中,我们通过计算误差,确定了最优参数,最终获得了较高的准确率。

2.在字符流分类实验中,我们通过选择最佳分类器,得到了较高的准确率。

3.在语音识别实验中,我们使用向量量化方法,最终也获得了不错的准确率。

五、总结
本次实验研究了基于向量量化的目标追踪、字符流分类和语音识别等三项模式识别技术,经实验,探讨了不同方法之间的优劣,并获得了较高的准确率。

本次实验的结果为日常模式识别工作提供了有价值的参考。

中科大模式识别miniproject实验报告

中科大模式识别miniproject实验报告

模式识别miniproject实验报告一、算法介绍:本实验采用了SVM( Support Vector Machines)分类模型。

由于实际问题中很少线性可分,故本实验采用非线性SVM方法。

即通过一个适当的非线性映射ϕ(x) ,将数据由原始特征空间映射到一个新特征空间,然后在新空间中寻求最优(线性)判定面。

本实验选取的的核函数为RBF(径向基函数)中的高斯核函数,即k(x,y) = exp(-0.5*(norm(x-y)/s)^2)。

关于支持向量机的类型,本实验选取为二类分类算法,即svc_c。

算法方面,由于同时求解n个拉格朗日乘子涉及很多次迭代,计算开销太大,所以实验采用Sequential Minimal Optimization(SMO)算法,即每次只更新两个乘子,迭代获得最终解。

计算时,首先根据预先设定的规则,从所有样本中选出两个拉格朗日因子,然后保持其他拉格朗日乘子不变,更新所选样本对应的拉格朗日乘子,循环N次直到满足要求。

二、实验1、评价标准本实验采用正确率来作为评价指标,即。

2、整体试验方法及步骤(1)定义核函数的类型及相关参数;(2)构建两类训练样本:(考虑到实验程序运行时间问题,本实验只选用了testdata的第200至1200项共1000个作为训练样本)(3)训练支持向量机;(4)寻找支持向量;(5)测试输出;(6)计算评价指标,即正确率3、分类器训练算法的参数调整步骤(1)随机生成多个参数向量(解)(2)在目标函数上验证解的质量(3)根据解的质量由好到坏进行排序。

取出其中较好的一部分(例如一半)解,在这些解的每一个元素上加上一个随机数,从而得到一些新解(4)把新解和老解比较,取出最好的一部分,作为下一次迭代的初始解4、实验结果经实验,得到测试输出,将其第十一列,即样本类别与testdata 中的第十三列相比,即可得到正确率。

本实验将以上结果取于EXECL 中进行统计,部分结果截图如下。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

模式识别实验报告实验一、最近邻规则的聚类算法一、实验要求编写采用最近邻规则的聚类算法,距离采用欧式距离,阈值可设定。

采用二维特征空间中的10个样本对程序进行验证。

x1=(0,0),x2=(3,8),x3=(2,2),x4=(1,1),x5=(5,3),x6=(4,8),x7=(6,3),x8=(5,4),x9=(6,4),x10=(7,5)。

二、实验步骤○1、选取距离阈值T,并且任取一个样本作为第一个聚合中心Z1,如:Z1=x1;○2、计算样本x2到Z1的距离D21;若D21≤T,则x2∈Z1,否则令x2为第二个聚合中心,Z2=x2。

设Z2=x2,计算x3到Z1和Z2的距离D31和D32。

若D31>T和D32>T,则建立第三个聚合中心Z3;否则把x3归于最近邻的聚合中心。

依此类推,直到把所有的n个样本都进行分类。

○3、按照某种聚类准则考察聚类结果,若不满意,则重新选取距离阈值T、第一个聚合中心Z1,返回第二步②处,直到满意,算法结束。

三、程序设计详见附件1:test1.m。

四、仿真结果五、结果分析1、考虑阈值对聚类的影响:由上述仿真结果可知,阈值大小对于分类的影响非常大。

当阈值小于1的时候,样本(10个)共分为10类;而当阈值大于10的时候,样本全分为1类;当阈值在其中时,随着阈值的变化分类页多样化。

所以选取合适的阈值是正确分类的前提标准!2、考虑初始聚类中心对聚类的影响:在合适的阈值下,第一个聚类中心的选取对分类结果几乎没有什么影响;而相对的,阈值不合适的情况下,第一个聚类中心的选取对分类结果还是有一些影响,仿真结果会出现一些偏差。

3、实验小结:综上可知,只有预先分析过样本,对阈值进行范围估算,再通过实验验证,才能得到合适的阈值,对样本进行正确分类,而初始聚合中心对其没有影响。

实验二、k-均值聚类算法一、实验要求:编写k-均值聚类算法的程序,对下列数据进行聚类。

(0,0),(1,0),(0,1),(1,1),(2,1),(1,2),(2,2),(3,2),(6,6),(7,6),(8,6),(6,7),(7,7),(8,7),(9,7),(7,8),(8,8),(9,8),(8,9),(9,9).二、实验步骤○1、给出n个混合样本,令I=1,表示迭代运算次数,选取c 个初始聚合中心,j=1,2,…,c;○2、计算每个样本与聚合中心的距离,,。

若,则。

○3、计算c个新的聚合中心:,。

○4、判断:若,,则I=I+1,返回第二步b处,否则结束。

三、程序设计详见附件2:test2.m。

四、仿真结果1、类别数目一定时,初始聚类中心对聚类的影响:0123456789012345678901234567890123456789初始聚合中心为(0,0),(2,2),(5,5),(7,7),(9,9)初始聚合中心为(1,1),(3,3),(6,6),(7,7)(8,8)2、类别数目对聚类的影响:初始聚合中心为(0,0)初始聚合中心为(0,0),(9,9)初始聚合中心为(0,0),(5,5),(9,9)初始聚合中心为(0,0),(2,2),(7,7),(9,9)初始聚合中心为(0,0),(2,2),(5,5),(7,7),(9,9)五、结果分析1、类别数目一定时,考虑初始聚合中心对聚类的影响:由上述仿真结果可知,当类别数目为1和2时,初始聚合中心对聚类没有影响。

但当C=2时,该类别属于正确分类。

而类别数目大于2时,初始聚合中心对聚类的影响非常大,仿真结果多样化,不能作为分类标准。

2、考虑类别数目对聚类的影响:当类别数目变化时,结果也随之出现变化。

3、总结综上可知,只有预先分析过样本,确定合适的类别数目,才能对样本进行正确分类,而初始聚合中心对其没有影响。

实验三、感知器算法一、实验要求:使用感知器算法给出区分两类模式的判别函数。

ω1=(x1,x2)={(1,0,1),(0,1,1)}ω2=(x3,x4)={(1,1,0),(0,1,0)}二、实验步骤○1、初始化:给定一个训练模式集{x1,x2,…x N},其中每个类别已知,它们分属于ω1,ω2;x i=(x i1,x i2,…x in)T为n维向量,增广为(n+1)维向量:x i=(x i1, x i2,…x in,1);ω2类样本乘以-1;权向量w为(n+1)维向量。

○2、置步数k=1,令增量C为常数,且C>0,分别赋予初始增广权矢量w(1)的各分量较小的任意值。

○3、输入训练模式x k,计算判别函数值w T(k)x k○4、调整增广权矢量,规则是:如果w T(k)x k≤0,则w(k+1)=w(k)+Cx k;如果w T(k)x k>0,则w(k+1)=w(k);○5、如果k<N,令k=k+1,返至第二步。

如果k=N,则检验判别函数w T x对x1,x2,…,x N,是否都能正确分类。

若是,结束;若不是,令k=1,返至第二步。

三、程序设计详见附件3:test3.m。

四、仿真结果假设初始的权矢量为w=[1111]T。

1、输入步长c的值:1x=conj(x1) conj(x2) conj(x3)1w=-13y=3*conj(x3)-conj(x2) 2、输入步长c的值:0.5x=conj(x1) conj(x2) conj(x3)1w=-0.5000-0.50001.5000-0.5000y=(3*conj(x3))/2-conj(x2)/2-conj(x1)/2-1/2 3、输入步长c的值:0.1x=conj(x1)conj(x2) conj(x3)1 w=0.3000 -0.2000 1.0000 -0.2000y=(3*conj(x1))/10-conj(x2)/5+conj(x3)-1/5五、结果分析选取的步长(即增量)不同,其计算得到的权矢量和判别函数也不尽相同。

但是,无论步长为何,该算法总能使样本正确分类。

实验四、感知器算法一、实验要求:实验所用样本数据如表给出,编制程序实现ω1、ω2、ω3、ω4类的分类。

二、实验步骤前提条件:只考虑第三种情况:如果d i(x)>d j(x)任意j≠i,则判x∈ωi。

○1、赋初值,分别给c个权矢量w i(1)(i=1,2,…c)赋任意的初值,选择正常数ρ,置步数k=1;○2、输入符号未规范化的增广训练模式xk,xk∈{x1,x2…xN},计算c个判别函数:di(xk)=wi’(k)xk(i=1,2,…c);○3、调整增广权矢量,规则是:a、如果xk∈ωi和di(xk)>dj(xk)(任意j≠i),则:w i(k+1)=w i(k)(i=1,2,…c)b、如果x k∈ωi和d l(x k)≥d i(x k)(l≠i)则:w i(k+1)=w i(k)+ρx kw l(k+1)=w l(k)-ρx kw j(k+1)=w j(k)(任意j≠l,i)○4、如果k<N,令k=k+1,返至○2。

如果k=N,则检验判别函数w i’x对x1,x2…x N,是否都能正确分类。

若是,结束;若不是,令k=1,返至○2。

三、程序设计详见附件4:test4.m。

四、仿真结果假设初始的权矢量皆为w1=w2=w3=w4=[1111]T。

1、输入步长c的值:1w(:,:,1,1)=4.0000-0.9000-4.60001.0000 w(:,:,1,2)=8.0000-7.20009.00001.0000 w(:,:,1,3)=-3.70004.600012.70000 w(:,:,1,4)= -11.6000-4.7000 -10.6000-1.0000D=11.3800-78.6600-13.5400 2.980017.8700-78.2200-23.4800-3.67009.9600108.380024.4400-124.480021.670065.5600-35.3200-29.5100-24.7900-0.500050.23000.7100-28.0900-65.940077.4200-30.510020.330011.2800-86.8800108.55002.6400-136.9400-65.7900177.1200000 1.0000 2、输入步长c的值:0.5w(:,:,1,1)=2.50000.0500-1.80001.0000 w(:,:,1,2)=4.5000-3.10005.00001.0000 w(:,:,1,3)=-1.35002.80006.85000.5000 w(:,:,1,4)=-5.3000-1.8500-4.8000D=7.8900-37.1300-4.5700 3.690011.4850-36.5600-9.19000.715010.580059.790017.8200-56.640011.285033.2300-17.2100-14.3050-11.69500.450025.8150 1.0550-9.5950-28.520043.1600-10.80503.1150-1.4100-50.490047.2250-6.1300-75.9200-40.345081.1100000 1.0000 3、输入步长c的值:0.1w(:,:,1,1)=1.30000.81000.44001.0000 w(:,:,1,2)=1.70000.18001.80001.0000 w(:,:,1,3)=0.53001.36002.17000.9000 w(:,:,1,4)=-0.26000.4300-0.16000.8000D=5.0980-3.9060 2.6060 4.25806.3770-3.2320 2.2420 4.223011.076020.918012.5240-2.36802.97707.3660-2.7220-2.1410-1.2190 1.2100 6.2830 1.33105.2010 1.416015.7520 4.9590-10.6570-11.5620-21.3780-1.8350-13.1460-27.1040-19.9890 4.3020000 1.0000五、结果分析虽然选取的步长(即增量)不同,其计算得到的权矢量和判别函数也不尽相同。

但是,通过对判别函数值得检验,发现所有分类都是正确的。

相关文档
最新文档