模式识别导论习题参考-齐敏-第7章-模糊模式识别

合集下载

模式识别复习题分解

模式识别复习题分解

模式识别复习题分解《模式识别》试题库⼀、基本概念题1.1 模式识别的三⼤核⼼问题是:、、。

1.2、模式分布为团状时,选⽤聚类算法较好。

1.3 欧式距离具有。

马式距离具有。

(1)平移不变性(2)旋转不变性(3)尺度缩放不变性(4)不受量纲影响的特性1.4 描述模式相似的测度有:。

(1)距离测度(2)模糊测度(3)相似测度(4)匹配测度1.5 利⽤两类⽅法处理多类问题的技术途径有:(1);(2);(3)。

其中最常⽤的是第个技术途径。

1.6 判别函数的正负和数值⼤⼩在分类中的意义是:,。

1.7 感知器算法。

(1)只适⽤于线性可分的情况;(2)线性可分、不可分都适⽤。

1.8 积累位势函数法的判别界⾯⼀般为。

(1)线性界⾯;(2)⾮线性界⾯。

1.9 基于距离的类别可分性判据有:。

(1)1[]w BTr S S-(2)BWSS(3)BW B+1.10 作为统计判别问题的模式分类,在()情况下,可使⽤聂曼-⽪尔逊判决准则。

1.11 确定性模式⾮线形分类的势函数法中,位势函数K(x,x k)与积累位势函数K(x)的关系为()。

1.12 ⽤作确定性模式⾮线形分类的势函数法,通常,两个n维向量x和x k的函数K(x,x k)若同时满⾜下列三个条件,都可作为势函数。

①();②();③ K(x,x k )是光滑函数,且是x 和x k 之间距离的单调下降函数。

1.13 散度J ij 越⼤,说明ωi 类模式与ωj 类模式的分布()。

当ωi 类模式与ωj 类模式的分布相同时,J ij =()。

1.14 若⽤Parzen 窗法估计模式的类概率密度函数,窗⼝尺⼨h1过⼩可能产⽣的问题是(),h1过⼤可能产⽣的问题是()。

1.15 信息熵可以作为⼀种可分性判据的原因是:。

1.16作为统计判别问题的模式分类,在()条件下,最⼩损失判决规则与最⼩错误判决规则是等价的。

1.17 随机变量l(x ρ)=p( x ρ|ω1)/p( x ρ|ω2),l( x ρ)⼜称似然⽐,则E {l( x ρ)|ω2}=()。

模式识别习题参考1齐敏-教材第7章

模式识别习题参考1齐敏-教材第7章

第6章 模糊模式识别法习题解答7.1 试分别说明近似性、随机性和含混性与模糊性在概念上的相同处与不同处。

解:(1) 近似性与模糊性的异同① 共同点:描述上的不精确性。

② 区别:不精确性的根源和表现形式不同。

a) 近似性:问题本身有精确解,描述时的不精确性源于认识条件的局限性和认识过程发展的不充分性。

b) 模糊性:问题本身无精确解,描述的不精确性来源于对象自身固有的性态上的不确定性。

(2) 随机性与模糊性的异同 ① 共同点:不确定性。

② 区别:模糊性和随机性所表现出的不确定性的性质不同。

a) 模糊性:表现在质的不确定性。

是由于概念外延的模糊性而呈现出的不确定性。

b) 随机性:是外在的不确定性。

是由于条件不充分,导致条件与事件之间不能出现确定的因果关系,事物本身的性态(性质、状态、特征等)和类属是确定的。

c) 排中律:即事件的发生和不发生必居且仅居其一,不存在第三种现象。

随机性遵守排中律,模糊性不遵守,它存在着多种,甚至无数种中间现象。

(3) 含混性与模糊性的异同 ① 共同点:不确定性。

② 区别:a) 含混性:由信息不充分(二义性)引起,一个含混的命题即是模糊的,又是二义的。

一个命题是否带有含混性与其应用对象或上下文有关。

b) 模糊性:是质的不确定性。

7.2 已知论域}3,2,1,0{=X ,~A 和~B 为X 中的模糊集合,分别为()()()(){}3,5.0,2,4.0,1,3.0,0,2.0~=A()()()(){}3,0,2,3.0,1,4.0,0,5.0~=B(1)求~~B A ,~~B A ,~A 和~B ;(2)求()~~~A B A 。

解:(1)由()()()⎪⎭⎫⎝⎛=x x x B A B A ~~~,max μμμ 有~~B A =()()()(){}3,5.0,2,4.0,1,4.0,0,5.0由()()()⎪⎭⎫⎝⎛=x x x B A B A ~~~,min μμμ 有~~B A ()()()(){}3,0,2,3.0,1,3.0,0,2.0=由()()x x A A ~~1μμ-=有~A ()()()(){}3,5.0,2,6.0,1,7.0,0,8.0= ~B ()()()(){}3,1,2,7.0,1,6.0,0,5.0=(2)()~~~A B A=()()()(){}3,5.0,2,4.0,1,4.0,0,5.0()()()(){}3,5.0,2,6.0,1,7.0,0,8.0()()()(){}3,5.0,2,4.0,1,4.0,0,5.0=7.3 已知两个模糊集合()(){}b a A ,8.0,,5.0~=,()(){}b a B ,2.0,,9.0~=试验证截集的两个性质:1)λλλB A B A =)~~(;2)λλλB A B A =)~~(。

第八章模糊模式识别

第八章模糊模式识别

A⊙ B (0.6 0.4) (0.8 0.6) (1 0.8)
~
~
(0.8 1) (0.6 0.8) (0.4 0.6)=0.6
贴近度( A• B) 1 [0.8 (1 0.6)] 0.6
~~
2
❖2、设:E上有n个模糊子集 A1, A2 ,......, An 及另一
❖α =0.3水平集:A=0.3/ A40 + 0.3/ A35 + 0.3/ A30 +0.3 / A25
❖α =0.5水平集:A=0.5/ A35 + 0.5/ A30 +0.5 / A25
❖∴不同的α有不同的模糊集
❖A0.1 ={A45, A40 ,A35, A30, A25} ❖A0.3 ={A40 ,A35, A30, A25} ❖A0.5 ={A35, A30, A25} ❖A0.9 ={A30, A25}
❖1、定义:两个模糊子集间的贴近度
❖设:A,B为E上的两个模糊集。则它的贴近
度为:
(A• B) 1 [A B(1 A⊙B)]
~ ~ 2~ ~
~~
式中, A B ( A(x) B(x)), A⊙B (A(x) B(x))
~ ~ xE ~
~
~ ~ xE ~
~
分别称为A与 B的内积和外积。
~
~
~
~
~
R2 为模糊关系。 ~

R
~
2为
R
~
2
矩阵内的元素
作为隶属函数
取 R2 的水平集。 ~
R
~
2
=( x,
y)
R2
~
(x,
y)
,
x,

人工智能之模式识别_北京理工大学中国大学mooc课后章节答案期末考试题库2023年

人工智能之模式识别_北京理工大学中国大学mooc课后章节答案期末考试题库2023年

人工智能之模式识别_北京理工大学中国大学mooc课后章节答案期末考试题库2023年1.采用非线性激活函数可以实现感知器解决非线性分类问题。

参考答案:错误2.下列关于最大池化的说法中错误的是?参考答案:LeNet采用的是最大池化方法3.填充树法由顶向底的方法和由底向顶填充相反。

参考答案:正确4.语言可以是无限的但是句子必须是有限的。

参考答案:正确5.文法是由下列哪些参数构成的?参考答案:起始符S_终止符V_T_非终止符V_N_产生式P6.感知器算法应用什么方法求解准则函数的最优值?参考答案:梯度下降法7.下列关于对比散度算法的说法中错误的是?参考答案:深度信念网中多层受限玻尔兹曼机同时通过对比散度算法完成预训练8.下列选项中,属于模式识别系统的环节是?参考答案:分类器训练_模式采集_分类决策_预处理与特征生成9.分类器函数的VC维h越大,将使下列选项中的哪些数据发生变化?参考答案:置信风险越大_结构风险越大_分类器泛化能力越差10.利用SVM将低维空间中的非线性问题映射到高维空间,存在哪些问题?参考答案:不确定需要映射到多少维的空间上,非线性问题才会转化为线性问题_如何找到合适的映射函数φ_增加计算量,可能会因为维数灾难无法解决11.本课程中介绍的与句法模式识别相关的基本概念有?参考答案:字母表_句子(链)_文法_语言12.下列选项中属于贝叶斯分类器的特点的是?参考答案:分类决策存在错误率_先验概率已知,以新获得的信息对先验概率进行修正13.贝叶斯分类器的训练,是从样本集数据中估计出____。

参考答案:类条件概率_先验概率14.下列选项中属于特征降维的优点的是?参考答案:降低模式识别任务的复杂度_提升分类决策的正确率_用更少的代价设计出更加优秀的模式识别系统15.下列说法中正确的是?参考答案:聚类结果受特征选取和聚类准则的影响_数据聚类没有预先分好类的样本集_聚类结果受各特征量纲标尺的影响_数据聚类没有已知的分类决策规则16.设计一个组合分类器需要满足什么要求?参考答案:每个基分类器的训练集和训练结果要有差异_组合分类器需要重点考虑方差和偏差_基分类器的分类正确率大于50%17.下列选项中属于决策树分类器的特点的是?参考答案:需选择分支后两个子节点纯度最高的特征作为一个节点的测试特征_速度快,分类决策规则明确_未考虑特征间的相关性_有监督学习方法18.下列选项中属于Adaboost算法的特点的是?参考答案:异常数据(离群点)影响大_不易实现并行化训练_只能解决二分类问题_算法的组合过程能减小偏差19.下列选项中属于反馈型神经网络的是?参考答案:Hopfield网络_受限玻尔兹曼机20.调节以下哪些部分可以对神经网络的性能造成影响?参考答案:权值_激活函数_隐层单元_阈值21.下列选项中关于前馈网络和反馈网络的说法中正确的是?参考答案:前馈网络输出不作用在网络的输入中_前馈网络为静态网络_反馈网络下一时刻的输出与上一时刻的输出有关_反馈网络为动态网络22.下列选项中属于BP网络的不足的是?参考答案:容易陷入局部极小值_全连接网络计算大_隐层神经元数量难以确定_无法做到深度很深,会产生梯度消失23.下列选项中属于深度学习的特点的是?参考答案:需要大量样本进行训练_逐层抽象,发现数据集的特征_是层数较多的大规模神经网络_需要大规模并行计算能力的支持24.利用链式求导法则需要哪些信息?参考答案:损失函数与网络输出向量之间的函数关系_激活函数输出对净激励的导数25.深度信念网不能用于图像识别的原因是?参考答案:深度信念网为一维向量输入,不能直接用于二位图像_需要进行认知-重构的双向计算,学习速度不够快_受限玻尔兹曼机的层间全连接,权值数量太多26.Jp作为类内、类间可分性的概率距离度量时应该满足下列选项中哪些条件?参考答案:当两类完全不可分时,Jp等于0_当两类完全可分时,Jp取得最大值27.特征选择的算法包括以下哪些?参考答案:分支定界法_顺序后退法_穷举法_顺序前进法28.特征降维的方法包括特征选择和特征提取。

模式识别导论习题集

模式识别导论习题集

模式识别导论习题集1、设一幅256×256大小的图像,如表示成向量,其维数是多少?如按行串接成一维,则第3行第4个象素在向量表示中的序号。

解:其维数为2;序号为256×2+4=5162、如标准数字1在5×7的方格中表示成如图所示的黑白图像,黑为1,白为0,现若有一数字1在5×7网格中向左错了一列。

试用分别计算要与标准模板之间的欧氏距离、绝对值偏差、偏差的夹角表示,异己用“异或”计算两者差异。

解:把该图像的特征向量为5×7=35维,其中标准模版的特征向量为: x =[0 0 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 0 0]T 待测样本的特征向量为:y =[0 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 0 0 0]T因此欧氏距离为3521()14i i i x y =-=∑ ,绝对值偏差为351|()|14i i i x y =-=∑,夹角余弦为cos 0||||||||Tx y x y θ==⋅,因此夹角为90度。

3、哈明距离常用来计算二进制之间的相似度,如011与010的哈明距离为1,010与100距离为3。

现用来计算7位LED 编码表示的个数字之间的相似度,试计算3与其它数字中的哪个数字的哈明距离最小。

解:是“9”,距离为14、对一个染色体分别用一下两种方法描述:(1)计算其面积、周长、面积/周长、面积与其外接矩形面积之比可以得到一些特征描述,如何利用这四个值?属于特征向量法,还是结构表示法?(2)按其轮廓线的形状分成几种类型,表示成a 、b 、c 等如图表示,如何利用这些量?属哪种描述方法? (3)设想其他结构描述方法。

解:(1)这是一种特征描述方法,其中面积周长可以体现染色体大小,面积周长比值越小,说明染色体越粗,面积占外接矩形的比例也体现了染色体的粗细。

模式识别习题及答案

模式识别习题及答案

模式识别习题及答案模式识别习题及答案【篇一:模式识别题目及答案】p> t,方差?1?(2,0)-1/2??11/2??1t,第二类均值为,方差,先验概率??(2,2)?122???1??1/21??-1/2p(?1)?p(?2),试求基于最小错误率的贝叶斯决策分界面。

解根据后验概率公式p(?ix)?p(x?i)p(?i)p(x),(2’)及正态密度函数p(x?i)?t(x??)?i(x??i)/2] ,i?1,2。

(2’) i?1基于最小错误率的分界面为p(x?1)p(?1)?p(x?2)p(?2),(2’) 两边去对数,并代入密度函数,得(x??1)t?1(x??1)/2?ln?1??(x??2)t?2(x??2)/2?ln?2(1) (2’)1?14/3-2/3??4/32/3??1由已知条件可得?1??2,?1,?2??2/34/3?,(2’)-2/34/31设x?(x1,x2)t,把已知条件代入式(1),经整理得x1x2?4x2?x1?4?0,(5’)二、(15分)设两类样本的类内离散矩阵分别为s1??11/2?, ?1/21?-1/2??1tt,各类样本均值分别为?1?,?2?,试用fisher准(1,0)(3,2)s2-1/21??(2,2)的类别。

则求其决策面方程,并判断样本x?解:s?s1?s2??t20?(2’) ??02?1/20??-2??-1?*?1w?s()?投影方向为12?01/22?1? (6’) ???阈值为y0?w(?1??2)/2??-1-13 (4’)*t2?1?给定样本的投影为y?w*tx??2-1?24?y0,属于第二类(3’) ??1?三、(15分)给定如下的训练样例实例 x0 x1 x2 t(真实输出) 1 1 1 1 1 2 1 2 0 1 3 1 0 1 -1 4 1 1 2 -1用感知器训练法则求感知器的权值,设初始化权值为w0?w1?w2?0;1 第1次迭代2 第2次迭代(4’)(2’)3 第3和4次迭代四、(15分)i. 推导正态分布下的最大似然估计;ii. 根据上步的结论,假设给出如下正态分布下的样本,估计该部分的均值和方差两个参数。

模式识别习题集

模式识别习题集

2.6 简述最小张树算法的优点。
2.7 证明马氏距离是平移不变的、非奇异线性变换不变的。 2.8 设,类 有
p 、 q 的重心分别为 x p 、 xq ,它们分别有样本 n p 、 n q 个。将和 q 合并为 l ,则 l
个样本。另一类
2 Dkl


nl n p nq
k 的重心为 x k 。试证明 k 与 l 的距离平方是
,JH 越(
),说明模式的

)(i=1,2,…,c)时,JH 取极大值。
1.20 Kn 近邻元法较之于 Parzen 窗法的优势在于 ( 上述两种算法的共同弱点主要是( )。 )。
1.21 已知有限状态自动机 Af=(,Q,,q0,F),={0,1};Q={q0,q1}; :(q0,0)= q1,(q0,1)= q1,(q1,0)=q0,(q1,1)=q0;q0=q0;F={q0}。现有输入字符串:(a) 00011101011,(b) 1100110011,(c) 101100111000,(d)0010011,试问,用 Af 对上述字符串进行分类 的结果为( 1.22 句法模式识别中模式描述方法有: (1)符号串 (2)树 (3)图 (4)特征向量 )。 。
《模式识别》习题集
一、基本概念题 1.1 是: 1.2、模式分布为团状时,选用 1.3 欧式距离具有 。 马式距离具有 模 式 识 、 别 的 三 大 、 聚类算法较好。 。 核 心 问 。 题
(1)平移不变性 (2)旋转不变性 (3)尺度缩放不变性 (4)不受量纲影响的特性 1.4 描述模式相似的测度有: (1)距离测度 (2)模糊测度 (3)相似测度 (4)匹配测度 ;(2) 个技术途径。 ; 。
(1)

《模式识别》试题库

《模式识别》试题库

《模式识别》试题库一、基本概念题1.1 模式识别的三大核心问题是: 、。

1.2、模式分布为团状时,选用 聚类算法较好。

1.3 欧式距离具有 。

马式距离具有 。

(1)平移不变性 (2)旋转不变性 (3)尺度缩放不变性 (4)不受量纲影响的特性 1.4 描述模式相似的测度有: 。

(1)距离测度 (2)模糊测度 (3)相似测度 (4)匹配测度1.5 利用两类方法处理多类问题的技术途径有:(1) ;(2) ;(3) 。

其中最常用的是第 个技术途径。

1.6 判别函数的正负和数值大小在分类中的意义是: , 。

1.7 感知器算法 。

(1)只适用于线性可分的情况;(2)线性可分、不可分都适用。

1.8 积累位势函数法的判别界面一般为 。

(1)线性界面;(2)非线性界面。

1.9 基于距离的类别可分性判据有: 。

(1)1[]wB Tr S S - (2)B W S S (3)BW BS S S + 1.10 作为统计判别问题的模式分类,在( )情况下,可使用聂曼-皮尔逊判决准则。

1.11 确定性模式非线形分类的势函数法中,位势函数K(x,x k )与积累位势函数K(x)的关系为( )。

1.12 用作确定性模式非线形分类的势函数法,通常,两个n 维向量x 和x k 的函数K(x,x k )若同时满足下列三个条件,都可作为势函数。

①( ); ②( ); ③ K(x,x k )是光滑函数,且是x 和x k 之间距离的单调下降函数。

1.13 散度J ij 越大,说明ωi 类模式与ωj 类模式的分布( )。

当ωi 类模式与ωj 类模式的分布相同时,J ij =( )。

1.14 若用Parzen 窗法估计模式的类概率密度函数,窗口尺寸h1过小可能产生的问题是( ),h1过大可能产生的问题是( )。

1.15 信息熵可以作为一种可分性判据的原因是: 。

1.16作为统计判别问题的模式分类,在( )条件下,最小损失判决规则与最小错误判决规则是等价的。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

第7章 模糊模式识别法习题解答7.1 试分别说明近似性、随机性和含混性与模糊性在概念上的相同处与不同处。

解:(1) 近似性与模糊性的异同① 共同点:描述上的不精确性。

② 区别:不精确性的根源和表现形式不同。

a) 近似性:问题本身有精确解,描述时的不精确性源于认识条件的局限性和认识过程发展的不充分性。

b) 模糊性:问题本身无精确解,描述的不精确性来源于对象自身固有的性态上的不确定性。

(2) 随机性与模糊性的异同 ① 共同点:不确定性。

② 区别:模糊性和随机性所表现出的不确定性的性质不同。

a) 模糊性:表现在质的不确定性。

是由于概念外延的模糊性而呈现出的不确定性。

b) 随机性:是外在的不确定性。

是由于条件不充分,导致条件与事件之间不能出现确定的因果关系,事物本身的性态(性质、状态、特征等)和类属是确定的。

c) 排中律:即事件的发生和不发生必居且仅居其一,不存在第三种现象。

随机性遵守排中律,模糊性不遵守,它存在着多种,甚至无数种中间现象。

(3) 含混性与模糊性的异同 ① 共同点:不确定性。

② 区别:a) 含混性:由信息不充分(二义性)引起,一个含混的命题即是模糊的,又是二义的。

一个命题是否带有含混性与其应用对象或上下文有关。

b) 模糊性:是质的不确定性。

7.2 已知论域}3,2,1,0{=X ,~A 和~B 为X 中的模糊集合,分别为()()()(){}3,5.0,2,4.0,1,3.0,0,2.0~=A()()()(){}3,0,2,3.0,1,4.0,0,5.0~=B(1)求~~B A ,~~B A ,~A 和~B ;(2)求()~~~A B A 。

解:(1)由()()()⎪⎭⎫⎝⎛=x x x B A B A ~~~,max μμμ 有~~B A =()()()(){}3,5.0,2,4.0,1,4.0,0,5.0由()()()⎪⎭⎫⎝⎛=x x x B A B A ~~~,min μμμ 有~~B A ()()()(){}3,0,2,3.0,1,3.0,0,2.0=由()()x x A A ~~1μμ-=有~A ()()()(){}3,5.0,2,6.0,1,7.0,0,8.0= ~B ()()()(){}3,1,2,7.0,1,6.0,0,5.0=(2)()~~~A B A=()()()(){}3,5.0,2,4.0,1,4.0,0,5.0()()()(){}3,5.0,2,6.0,1,7.0,0,8.0()()()(){}3,5.0,2,4.0,1,4.0,0,5.0=7.3 已知两个模糊集合()(){}b a A ,8.0,,5.0~=,()(){}b a B ,2.0,,9.0~=试验证截集的两个性质:1)λλλB A B A =)~~(;2)λλλB A B A =)~~(。

解:(1)验证λλλB A B A =)~~(左边:()(){}b a B A ,2.08.0,,9.05.0~~∨∨= ()(){}b a ,8.0,,9.0={}b a B A ,)~~(5.0=右边:{}b a A ,5.0=,{}a B =5.0,有{}b a B A ,5.05.0= 所以:左边 = 右边。

(2)验证λλλB A B A =)~~(左边:()(){}b a B A ,2.08.0,,9.05.0~~∧∧= ()(){}b a ,2.0,,5.0={}a B A =3.0)~~(右边:{}b a A ,3.0=,{}a B =3.0,有{}a B A =3.03.0 所以:左边 = 右边。

7.4 判断模糊矩阵⎪⎪⎪⎪⎪⎭⎫ ⎝⎛=13.03.01.02.012.03.01.03.012.02.01.03.01R 是否是传递模糊矩阵。

解:⎪⎪⎪⎪⎪⎭⎫⎝⎛⎪⎪⎪⎪⎪⎭⎫ ⎝⎛=13.03.01.02.012.03.01.03.012.02.01.03.0113.03.01.02.012.03.01.03.012.02.01.03.01R R ⎪⎪⎪⎪⎪⎭⎫⎝⎛∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨= 1.03.02.02.02.01.01.02.02.01.03.01.03.01.03.03.01.01.02.01⎪⎪⎪⎪⎪⎭⎫ ⎝⎛=13.03.03.02.013.03.02.03.013.02.03.03.01 由计算结果可见R R R ⊆ 不成立,故R 不是传递模糊矩阵。

7.5 证明7.5节定理1:对n n ⨯阶模糊等价矩阵R ,当且仅当[]1,0∈∀λ时,λR 都是等价的布尔矩阵。

证明:设()ij r =R ,()λλij r =R(1)证明自反性,即证明由1=ii r 可导出1=λii r 。

∴≤≤,10λ 结论显然成立。

(2)证明对称性,即证明由ji ij r r =可导出λλji ij r r =。

采用反证法:设由ji ij r r =可导出λλji ij r r ≠,则对[]1,0∈∀λ,由λλji ij r r ≠必有ji ij r r ≠,与题设矛盾,得证。

(3)证明传递性(R R R ⊇),即证明由()jk ij n j ik r r r ∧∨≥=1可导出()λλλjk ij nj ik r r r ∧∨≥=1。

布尔矩阵中元素只有0和1,故考虑两种情况。

a) 当1=λik r 时,因为“1”是布尔矩阵中的最大值,故不等式()λλλjkij nj ik r r r ∧∨≥=1必然成立。

b) 当0=λikr 时,有λ<ik r ,即: 由()jk ij nj ik r r r ∧∨≥=1,有(){}n j r r r r r jk ij jk ij nj ik ,,1,max 1=∧>⇒∧∨>⇒>=λλλ()n j r r jk ij ,,1,=∧>∴λ不失一般性,设ij r 为较小者,则()0001=∧∨⇒=∧⇒=⇒>=λλλλλλjk ij nj jk ij ij ij r r r r r r ()λλλjkij nj ik r r r ∧∨≥=1仍成立,即传递性成立。

λR 满足自反性、对称性、传递性, λR ∴是等价的布尔矩阵。

7.6 证明7.5节定理2:若10≤≤≤μλ,则μR 所分出的每一类必是λR 所分出的某一类的子类。

证明:11=⇒≥==⇒≥⇒=≥λλμμλμij ij ij ij r r r r亦即:由1=μij r 可导出1=λij r ,所以μR 所分出的每一类必是λR 所分出的某一类的子类。

7.7 设论域{}321,,x x x X =,在X 中有模糊集合()()(){}321,0.1,,8.0,,6.0~x x x A = ()()(){}321,8.0,,6.0,,4.0~x x x B =求格贴近度。

解:()()⎥⎦⎤⎢⎣⎡∧∨=∈∙i B i A X x x x B A ~~~~μμ 8.08.06.04.0)8.00.1()6.08.0()4.06.0(=∨∨=∧∨∧∨∧=()()⎥⎦⎤⎢⎣⎡∨∧=∈i B i A X x x x B A ~~~~μμ⊙ 6.00.18.06.0)8.00.1()6.08.0()4.06.0(=∧∧=∨∧∨∧∨= ()()[]~~1~~21~,~B A B A B A ⊙-+=∴∙σ()[]6.06.018.021=-+=7.8 设论域为{}4321,,,x x x x X =,~A 和~B 是论域X 上的两个模糊集,X 上每个元素隶属于~A 和~B 的隶属度分别表示为{}43213.0,4.0,7.0,5.0~x x x x A = {}43215.0,7.0,8.0,7.0~x x x x B = 下式为采用内积、外积函数表示的一种贴近度())~~~~()(1~,~B A B A A A B A ⊙-+--=∙σ其中A ,A 分别为模糊集~A 中隶属度的最大值和最小值,求贴近度()~,~B A σ。

解:()()⎥⎦⎤⎢⎣⎡∧∨=∈∙i B i A X x x x B A ~~~~μμ 7.03.04.07.05.0)5.03.0()7.04.0()8.07.0()7.05.0(=∨∨∨=∧∨∧∨∧∨∧=()()⎥⎦⎤⎢⎣⎡∨∧=∈i B i A X x x x B A ~~~~μμ⊙ 5.05.07.08.07.0)5.03.0()7.04.0()8.07.0()7.05.0(=∧∧∧=∨∧∨∧∨∧∨=())~~~~()(1~,~B A B A A A B A ⊙-+--=∙σ8.0)5.07.0()3.07.0(1=-+--=7.9已知三个模糊集合分别为()()()(){}4321,1.0,,5.0,,4.0,,2.0~x x x x A =()()(){}4321,1.0,,3.0,,6.0~x x x B = ()()(){}3212,5.0,,3.0,,2.0~x x x B =(1) 用海明距离和海明贴近度判别~1B ,~2B 哪个与~A 最相近;(2) 用格贴近度判别~1B ,~2B 哪个与~A 最相近。

解:(1) ① 用海明距离判断∑=-=411)()()~,~(~~1i i B i A H x x B A d μμ6.01.01.03.05.06.04.002.0=-+-+-+-=∑=-=412)()()~,~(~~2i i B i A H x x B A d μμ 2.001.05.05.03.04.02.02.0=-+-+-+-=)~,~()~,~(12B A d B A d H H < ∴~2B 与~A 最相近。

② 利用海明贴近度判断⎪⎭⎫ ⎝⎛~,~1B A H σ()()∑=--=41~~1411i i B i A x x μμ85.0)02.02.02.0(411=+++-=⎪⎭⎫ ⎝⎛~,~2B A H σ()()∑=--=41~~2411i i B i A x x μμ 95.0)1.001.00(411=+++-=⎪⎭⎫ ⎝⎛>⎪⎭⎫ ⎝⎛~,~~,~12B A B A H H σσ∴ ~2B 与~A 最相近。

(2) 用格贴近度()()[]~~1~~21~,~B A B A B A ⊙-+=∙σ判断()()⎥⎦⎤⎢⎣⎡∧∨=∈∙i B i A X x x x B A ~~1~~1μμ 4.01.03.04.00)1.01.0()3.05.0()6.04.0()02.0(=∨∨∨=∧∨∧∨∧∨∧=()()⎥⎦⎤⎢⎣⎡∨∧=∈i B i A X x x x B A ~~1~~1μμ⊙ 1.01.05.06.02.0)1.01.0()3.05.0()6.04.0()02.0(=∧∧∧=∨∧∨∧∨∧∨=⎥⎦⎤⎢⎣⎡⎪⎭⎫ ⎝⎛-+=⎪⎭⎫ ⎝⎛∴∙~~1~~21~,~111B A B A B A ⊙σ()[]65.01.014.021=-+=()()⎥⎦⎤⎢⎣⎡∧∨=∈∙i B i A X x x x B A ~~2~~2μμ 5.005.03.02.0)01.0()5.05.0()3.04.0()2.02.0(=∨∨∨=∧∨∧∨∧∨∧=()()⎥⎦⎤⎢⎣⎡∨∧=∈i B i A X x x x B A ~~2~~2μμ⊙ 1.01.05.04.02.0)01.0()5.05.0()3.04.0()2.02.0(=∧∧∧=∨∧∨∧∨∧∨=⎥⎦⎤⎢⎣⎡⎪⎭⎫ ⎝⎛-+=⎪⎭⎫ ⎝⎛∴∙~~1~~21~,~222B A B A B A ⊙σ()[]7.01.015.021=-+= ⎪⎭⎫ ⎝⎛>⎪⎭⎫ ⎝⎛~,~~,~12B A B A σσ ∴ ~2B 与~A 最相近。

相关文档
最新文档