图像特征提取

图像特征提取
图像特征提取

图像特征提取

摘要

特征提取是计算机视觉和图像处理中的一个概念。它指的是使用计算机提取图像信息,决定每个图像的点是否属于一个图像特征。特征提取的结果是把图像上的点分为不同的子集,这些子集往往属于孤立的点、连续的曲线或者连续的区域。

至今为止特征没有万能和精确的图像特征定义。特征的精确定义往往由问题或者应用类型决定。特征是一个数字图像中“有趣”的部分,它是许多计算机图像分析算法的起点。因此一个算法是否成功往往由它使用和定义的特征决定。因此特征提取最重要的一个特性是“可重复性”:同一场景的不同图像所提取的特征应该是相同的。

特征提取是图象处理中的一个初级运算,也就是说它是对一个图像进行的第一个运算处理。它检查每个像素来确定该像素是否代表一个特征。假如它是一个更大的算法的一部分,那么这个算法一般只检查图像的特征区域。作为特征提取的一个前提运算,输入图像一般通过高斯模糊核在尺度空间中被平滑。此后通过局部导数运算来计算图像的一个或多个特征。

常用的图像特征有颜色特征、纹理特征、形状特征、空间关系特征。当光差图像时,常

常看到的是连续的纹理与灰度级相似的区域,他们相结合形成物体。但如果物体的尺寸很小

或者对比度不高,通常要采用较高的分辨率观察:如果物体的尺寸很大或对比度很强,只需

要降低分辨率。如果物体尺寸有大有小,或对比有强有弱的情况下同事存在,这时提取图像

的特征对进行图像研究有优势。

常用的特征提取方法有:Fourier变换法、窗口Fourier变换(Gabor)、小波变换法、最

小二乘法、边界方向直方图法、基于Tamura纹理特征的纹理特征提取等。

设计内容

课程设计的内容与要求(包括原始数据、技术参数、条件、设计要求等):一、课程设计的内容

本设计采用边界方向直方图法、基于PCA的图像数据特征提取、基于Tamura纹理特征的纹理特征提取、颜色直方图提取颜色特征等等四种方法设计。

(1)边界方向直方图法

由于单一特征不足以准确地描述图像特征,提出了一种结合颜色特征和边界方向特征的图像检索方法.针对传统颜色直方图中图像对所有像素具有相同重要性的问题进行了改进,提出了像素加权的改进颜色直方图方法;然后采用非分割图像的边界方向直方图方法提取图像的形状特征,该方法相对分割方法具有简单、有效等特点,并对图像的缩放、旋转以及视角具有不变性.为进一步提高图像检索的质量引入相关反馈机制,动态调整两幅图像相似度中颜色特征和方向特征的权值系数,并给出了相应的权值调整算法.实验结果表明,上述方法明显地优于其它方法.小波理论和几个其他课题相关。所有小波变换可以视为时域频域的形式,所以和调和分析相关。所有实际有用的离散小波变换使用包含有限脉冲响应滤波器的滤波器段(filterbank)。构成CWT的小波受海森堡的测不准原理制约,或者说,离散小波基可以在测不准原理的其他形式的上下文中考虑。

通过边缘检测,把图像分为边缘区域和非边缘区域,然后在边缘区域内进行边缘定位.根据局部区域内边缘的直线特性,求得小邻域内直线段的高精度位置;再根据边缘区域内边缘的全局直线特性,用线段的中点来拟合整个直线边缘,得到亚像素精度的图像边缘.在拟合的过程中,根据直线段转角的变化剔除了噪声点,提高了定位精度.并且,根据角度和距离区分出不同直线和它们的交点,给出了图像精确的矢量化结果

图像的边界是指其周围像素灰度有阶跃变化或屋顶变化的那些像素的集合,边界广泛的存在于物体和背

景之间、物体和物体之间,它是图像分割所依赖的重要特征.边界方向直方图具有尺度不变性,能够比较好的

描述图像的大体形状.边界直方图一般是通过边界算子提取边界,得到边界信息后,需要表征这些图像的边

界,对于每一个边界点,根据图像中该点的梯度方向计算出该边界点处法向量的方向角,将空间量化为M级,

计算每个边界点处法向量的方向角落在M级中的频率,这样便得到了边界方向直方图.

图像中像素的梯度向量可以表示为[ ( ,),),( ,),)] ,其中Gx( ,),),G ( ,),)可以用下面的

Sobel算子[8]:

( ,Y)=,( 一1,Y+1)+2×,( ,Y+1)+,( +1,Y+1)一,( 一1,Y一1)一2

×,( ,Y一1)一,( +1,Y一1)

( ,Y)=,( +1,Y一1)+2×,( +1,Y)+,( +1,Y+1)一,( 一1,Y一1)一2

×,( 一1,Y)一,( 一1,Y+1) (4)

I(x,y)表示在图像的(x,y)点像素的亮度。为了减少由于数字化过程中产生的噪声的影响,边界方向直方图是

基于局部像素梯度向量的平均值.因为相反方向的梯度可能会相互抵消,所以并不能直接对局部邻居像素点的梯度向量平均.解决这个问题的一个方法就是在计算平均值前,先对用复数表示的向量进行平方运算,等价于把梯度向量的角度增加一倍.角度增加一倍的相反方向的两个梯度向量分别指向它们的对立梯度向量,从而互相得到增强;而处于正交的两个梯度将会互相抵消,经过平均运算后变回到它们的单一角度的表示。平方的向量可以表示为:

(G +_,G ) =G 一G +2_,G G (5)

梯度平方的平均值可以通过对局部邻居(利用非均匀窗口w)的平均计算得到,

DFx:Σ(G +G;),DFy:Σ(2GxGr) (6)

W W

现在,平均梯度方向∈[0,180]可以由下面的公式得到:

r l80,DFx=0 and DFx=0

o(x,Y)={[l80 DF .(7) ——丽,m№M

因此,边界方向直方图可以定义为:

H(k):H(k)+1,/f ( ,Y):k and k∈[0,180] (8)

= 180是一个特例.它并不意味着像素的边界方向是水平方向且与=0的相同.它表示在这个像素的周。

围没有亮度变化.边界方向直方图之间距离D 的计算采用与上面颜色直方图距离之间的相同的计算公式(3)而得到。

(2)基于PCA的图像数据特征提取

主成分分析(Principal Component Analysis ,PCA )是一种掌握事物主要矛盾的统计分析方法,它可以从多元事物中解析出主要影响因素,揭示事物的本质,简化复杂的问题。计算主成分的目的是将高维数据投影到较低维空间。给定n 个变量的m 个观察值,形成一个n ′ m 的数据矩阵,n 通常比较大。对于一个由多个变量描述的复杂事物,人们难以认识,那么是否可以抓住事物主要方面进行重点分析呢?如果事物的主要方面刚好体现在几个主要变量上,我们只需要将这几个变量分离出来,进行详细分析。但是,在一般情况下,并不能直接找出这样的关键变量。这时我们可以用原有变量的线性组合来表示事物的主要方面,PCA 就是这样一种分析方法。

图像的有效检索手段逐渐引起人们的重视,传统的采用基于关键字或描述性文本的数据库检索方式,已远远不能满足人们的需要,近年来,国际上广泛开展了基于内容的图像检索(CBIR) 的研究,CBIR 是指根据图像的颜色、形状、纹理等特征以及这些特征的组合来查询图像,是计算机图像处理和数据库技术的有效结合。颜色是彩色图像的最显著特征之一。因此,基于颜色的查询是基于内容的图像检索中最基本的方法。这种查询可针对任何类型的彩色图像。目前,人们已提出了许多种借助于颜色特征对图像进行检索的方法。这些方法常用的彩色空间有RGB 和HSV ,提取的主要特征是颜色直方图。常用的计算直方图之间距离的

方法有直方图相交法、距离法等,以直方图作为图像的颜色特征进行图像检索,需存储大量的冗余特征信息,不能精确而简洁地描述图像。本文提出了一种基于HSV 颜色模型,利用主元分析法(PCA) 对图像的颜色进行特征提取的方法,大大降低了特征向量的维数,减小了特征数据库的规模。

图像的颜色有多种表示方式,其中HSV 颜色模型是一种适合肉眼分辨的模型,它把彩色信息表示为三种属性: 色调h 、饱和度s 和亮度v 。HSV 模型的色调h 是由颜色名称来辨别的,如红、橙、绿,它用角度0°~360°度量;亮度v 是颜色的明暗程度, 通常用百分比度量, 从黑0 到白100 %;饱和度s 指颜色的深浅,用百分比来度量,为从0 到完全饱和的100 %·这种颜色模型用Munsell 三维空间坐标系统表示,因坐标之间的心理感知独立性,因此,可以独立感知各颜色分量的变化;且这种颜色模型具有线性伸缩性,可感知的颜色差是与颜色分量的相应样值上的欧氏距离成比例的·在CBIR 中应用这种模型更适合用户的

主元分析法(PCA) 对L 的降维处理由节1. 2 可得到L 矩阵, L 为一m ×n 矩阵, m 、n 由图像尺寸决定。主元分析法( PCA) 是一种线性降维技术,其基本思想是通过对数据协方差矩阵的分解,在其n 个特征值中取前a 个特征值, ( n - a) 个特征值被滤出。a 远小于n ,而a个特征值对应的特征向量构成负荷矩阵P ∈R n ×a , L 到低维空间的投影就包含在得分矩阵中T = L P (3)由T 返回到n 维空间的投影为L = TPT (4)由^L 张成的子空间称为得分空间,其所包含的信息量近似原空间L 中所包含的信息量[9 ]。由矩阵L 可求出其协方差矩阵S 的特征值分解S = 1/ ( n - 1) L T L = VΛV T (5)Λ包含幅值递减的非负实特征值(λ1 ≥λ2 ≥?≥λn ≥0) ·为了最优地获取数据的变化量,这里a =6 ,即取前6 个特征值。

利用主元分析法(PCA) 对彩色图像颜色特征进行提取,可将原图像从m ×n ×3 降低至m ×a ( a 远小于n) ,大大降低了特征向量的维数,减小了特征数据库的规模,为图像的检索建立了良好的基础·将提取的颜色特征与纹理特征相结合作为支持向量机(SVM) 的输入,同时引入相关反馈来对图像进行分类与检索,以便近一步提高检索效率是有待进一步研究的内容。

(3)基于Tamura纹理特征的纹理特征提取

随着多媒体信息的广泛应用,并在数据库系统和计算机视觉两大研究领域的共同推动下,图像检索技术己逐渐成为一个非常活跃的研究领域。如何有效地对这些图像进行分析、存储和检索是一个亟待解决的问题。基于内容的图像检索技术能有效的解决这一问题,成为研究的热点。基于内容的图像检索(CBIR)不同于传统的基于文本的图像检索,它实际上是一种模糊查询技术,通过对图像提取一定的特征,找出在特征空间中与查询要求接近的图像,从而实现在图像数据库中自动地、智能地检索、查询和管理图像。在CBIR系统中,特征的提取和匹配算法是决定图像检索结果的关键。在已经存在的颜色特征,纹理特征,形状特征等几种特征提取方法中,由于纹理特征能够描述图像的平滑,稀疏,规则性等特性,因此本文决定采用纹理特征作为图像检索的依据。首先,介绍了国内外基于内容的图像检索系统的研究现状,从基于内容的图像检索系统的基本原理入手,论述了基于内容的图像检索系统的通用框架、关键技术、检索特点以及应用领域。其次,描述了纹理和纹理特征,介绍了几种常用的纹理分析方法,有灰度直方图、边缘方向直方图、空间灰度共生矩阵、Tamura纹理特征、Gabor滤波器和Gabor小波以及图像纹理谱分析方法,本文在传统的纹理特征提取方法的基础上,利用Gabor小波变换在数字图像中局部区域的频率,方向信息的优异性能,和共生矩阵对图像的整体区域有着较好的处理效果的特点,尝试了结合灰度共生矩阵和Gabor滤波器来提取纹理特

征的方法,并对提取的特征进行高斯归一化处理。另外,在图像相似性度量方面,阐述了几何矩阵模型和集合理论模型,给出了两种多特征组合的相似性度量结构,以及相似性度量的方法。同时介绍了在基于内容的图像检索技术中相关性反馈技术。最后,本文设计了一个基于纹理特征的图像检索原型系统,并对系统的各个模块及其功能进行了介绍,对本文提出的检索技术进行了仿真实验,给出了实验结果,并用排序平价法和平均检索率对算法进行了评价。

Tamura纹理特征表示方法,并对其相似性度量方法进行了改进,使用直方图表示了最重

要的粗糙度、对比度、方向度特征。本文还将粗糙度直方图改进为能够适应图片尺寸变化的方式,另外使用对数非均匀量化方式将对比度特征形成直方图,该处理方法能够更适应人眼的认知特点。同时,对每种纹理特征都给出了相似性度量仿真实例,证实该方法具有较好效果。最后使用三种特征的加权距离对图像的纹理特征相似性进行度量,并给出了图像检索的结果和性能评价。3)兴趣点特征提取:本文综合了Harris兴趣点标定方法和区域矩不变特性对图像兴趣点特征进行表达。该特征能够适应光照、视角、缩放等场景的变化,文中给出图片实例对这一特点进行了验证。本文根据实验提出了图像的兴趣点相似性度量方法,并给出了图像检索的结果和性能评价。本文第二部分研究了区域相似性评价和图片共性特征归纳方法。区域分割是该过程的基础,本文介绍了一种简单的基于颜色和纹理的区域分割法,并提出了图像空间结构相似性度量方法。在对具有相似内容的图片进行共性特征提取过程中,根据不同的应用场景选取了不同的特征子集以降低复杂度。本文还通过实例,阐明了共性特征提取方法、步骤及概念表达的方法,最后在给出的共性特征标示图中验证了该方法的效果和可行性。

(4)颜色直方图提取颜色特征

颜色直方图是在许多图像检索系统中被广泛采用的颜色特征,具有特征提取和相似计算简便的优点。Swain 和Ballard 首先把直方图应用于图像检索[1],Smith J.R.提出了在HSV (Hue,Saturation,Value)空间的166 色量化方法[2].但在对彩色图像进行检索时,颜色直方图还存在两个问题:(1)计算颜色直方图需要将颜色空间划分成若干个小的颜色区间,当区间的数目很大的时候不但会增加计算负担,也不利于在图像库中建立索引;(2)颜色直方图丢弃了图像的空间信息,对于两幅颜色分布相同,内容并不一样的图像缺乏区分度。

首先,根据HSV 颜色空间的色彩(Hue)、饱和度(Saturation)和亮度(Value)的值将图像的颜色划分为9 个区间,计算出每一种颜色区间所占的比重作为直方图信息。然后计算出每一颜色区间所包含象素的空间分布信息。在图像检索时,综合考虑颜色直方图和空间信息的相似度。

颜色直方图特征,HSV 颜色空间有三个属性:色彩(Hue),又称为色调,是指色彩的相貌,与色彩明暗无关;饱和度(Saturation),是色彩纯与不纯的分别;亮度(Value),是指色彩的明暗程度,光度的高低,越接近白色亮度越高,越接近灰色或黑色亮度越低。根据对HSV 空间的研究,人们能够分辨出来的颜色大体上包括:红、黄、绿、青、蓝、紫,他们在色彩上的分布并非是均匀的,于是可以把色彩分为不等间隔的六份 {Red,Yellow,Green,Cyan,Blue,Magenta},而亮度则可以划分为不等间隔的黑灰白三份{Black,Gray,White}。这样,HSV 颜色空间就划分为9 个不同的空间区域。

对于图像中的一个象素,可以根据其Saturation 值的判定函数阈值将其划分到相应颜

色区间。[3]中采用了一个线性函数 1-0.8*Value 作为阈值,但是HSV 是一个不均匀的颜色空间,线性判别函数不能准确地划分彩色和非彩色的子空间。可以采用一种更有效的非线性

函数:

作为阈值。

定义阈值:

对于图像中的任一象素X(H,S,V),判断其属于哪一个颜色区间的公式由表1 所示:

统计出每种颜色在图像中占的比重就可以得到图像的颜色直方图信息。设图像的颜色直

方图特征为His, 可由式(1)表示:

颜色直方图没有表达出颜色空间分布的信息,也没有反映出图像中物体的形状。因此,可以结合颜色区间的空间分布信息。颜色量化的结果也把图像分为了9 个颜色区间,可以计算各个颜色区间所含象素的分布状态作为其空间信息。

设图像颜色区间C 的空间信息为h(c),它可以由公式(2)计算:

颜色直方图相似性计算:

常用的基于颜色直方图的相似性度量方法包括直方图相交、绝对值距离、欧式距离、加权距离等。本文采用直方图相交作为图像间的相似性度量标准。直方图的相交是指两个直方图在每个颜色区间中共有的象素数量,度量方法如下:

给定查询图像Q 和图像库中的图像T,提取的图像颜色直方图特征分别为:[ q1 c , …, qN c c ]和[ t1 c , …,tN c c ],它们之间的相交距离由式(4)表示:

空间信息的相似性计算:

UFM[4]模糊匹配方法可以用来计算图像的空间信息相似度,定义图像颜色区间的平均距

离为f d ,计算f d 的公式是(6):

其中, c N 为颜色区域数目。

对于输入图像q P 和目标图像t P ,它们的空间信息相似向量设为(P q ,P t ) M ,其计算公式:

其中,i h 和j h 分别为输入图像和目标图像的空间信息。

设图像颜色区间在图像中的大小权重向量为w 。有多种选择权重的方法,一种方法是每一个区间都赋予相同的权重;另一种方法是以区间的面积在整个图像中的比重作为其权重,即面积越大的区间越重要;还有一种方法是对位于图像边缘或者中心部分的区间赋予较大的权重。本文采用第二种方法。

输入图像q P 和目标图像t P 的空间信息相似度为k δ,k δ由公式(8)计算。

综合颜色直方图和空间信息的图像相似度:

颜色直方图虽然有计算简单、对平移和旋转不敏感的优点,但无法捕捉颜色组成之间的

空间关系,这无疑是不够准确的。颜色直方图量化本身就是一种粗略的划分方法,单独采用基于颜色直方图量化划分的空间信息,检索结果也不理想。本文采用综合两种特征的方法,对颜色直方图和空间信息的相似度以不同的权重累加,检索效果更加理想。

设输入图像q P 和目标图像t P 的相似度为δ,δ由公式(9)计算:

二、程序源代码:

2.1、边界方向直方图法提取形状特征

originailimage=imread('1.jpg');

image_I=rgb2gray(originailimage);

% [image_x,image_y]=size(image_I);

% if image_x

% image_I=image_I';

figure(1),subplot(121),title('灰度图'),

imshow(image_I);

% 找到边缘

I=image_I;

image_bw=edge(I,'canny');

subplot(122),title('边界检测图')

imshow(image_bw);

[L,NUM]=bwlabeln(image_bw,8); % 连通性

%~~~~~~~将图像边缘量化为101份(1-100 101) 画出边缘直方图,量化份数因情况不同而定

num_line=zeros(1,101);

for i=1:NUM

number=length(find(L==i));

for j=1:100

if number==j

num_line(j)=num_line(j)+1;

end

end

if number>100

num_line(101)=num_line(101)+1;

end

end

EH_1=[];

for i=1:101

EH_1=[EH_1 num_line(i)];

end

x1=1:101;

y1=EH_1;

figure(2),title('plot曲线直方图'),

plot(x1,y1);

%~~~~亦可将图像量化为13份(1-10 11 12 13)画出bar投影图像num=zeros(1,13);

for i=1:NUM

number=length(find(L==i));

for j=1:10

if number==j

num(j)=num(j)+1;

end

end

if number>10 & number<=20

num(11)=num(11)+1;

end

if number>20 & number<=100

num(12)=num(12)+1;

end

if number>100

num(13)=num(13)+1;

end

end

EH=[];

for i=1:13

EH=[EH num(i)];

end

x=1:13;

y=EH;

figure(3),title('bar投影直方图'),

bar(x,y);

2.2、基于PCA的图像数据特征提取

clear all

% Define database

x=imread('3.jpg');

figure(1)

plot(x(:,1),x(:,2),'ko')

xlabel('Valve Position (%)')

ylabel('Fermenter Temperature (C)')

% Calculate the covariance of dataset x (relationship between Valve and

% Temperature)

covariance=cov(x);

% Singular Value Decomposition x=T*E*P

% E is the eignvalue of x; U is orthnormal; V=U'.

%[U E V]=svd(covariance);

%U=U'; V=V';

[U E] = eig(covariance);

E = diag([E(2,2),E(1,1)]); % arrange the Eignvalue in a decending order

U = [U(:,2),U(:,1)]; % arrange the Eignvector to make it compatable with Eignvalue.

% Mean center the raw data

Valvebar=x(:,1)-mean(x(:,1));

Tempbar=x(:,2)-mean(x(:,2));

xbar=[Valvebar,Tempbar];

% Principal axis rotation of the covariance matrix.

z=U'*xbar';

z=z';

%covz is the covariance matrix of principal components which is equal to E

%matrix. The variance of transformed variable (z1 & z2) will have variance

%0.2283 and 0.0123 respectively.

covz=U'*covariance*U;

% The first column of U factor is - and + with nearly equal value which % means the first principal component is related to variability which both

% measurements have difference. The second column is both positive

which

% means the 2nd PC is concentrate on the varaiability of the common between

% the two.

% scaling of PCS.

for i=1:2

Vs(:,i)=sqrt(E(i,i))*U(:,i);

Ws(:,i)=U(:,i)/sqrt(E(i,i));

end

% after rescale: Vs'*Vs=E; V'*COV*Vs=E^2; Ws'*Ws=inv(E); Ws'*COV*Ws=I y=Ws'*xbar';

%define T2

T2=diag(y'*y);

% find the control limit of T2

p=2; %PC number

n=10; % sample number

T2Upper=p*(n-1)/(n-p)*finv(0.95,p,n-p);

% draw the T2 control charts

figure(2)

plot(T2,'ko')

hold on

plot(T2Upper*ones(1,13),'k')

xlabel('Sample Number')

ylabel('T2 Score')

hold off

% Draw the control ellipse

%

s1^2*s2^2/(s1^2*s2^2-s12^2)*[(x1-x1mean)^2/s1^2+(x2-x2mean)^2/s2^

2-2*s12(

% x1-x1mean)(x2-x2mean)/s1^2/s2^2]=T2^2(upper control limit)

% S=covariance;

% a=S(1)*S(4)/(S(1)*S(4)-S(2)^2);

%

b=xbar(:,1).^2/S(1)+xbar(:,2).^2/S(4)-2*S(2)*xbar(:,1).*xbar(:,2) ./S(1)/S(4);

% error detection

% two new points is added to be detected which are [10.1,25.2];[9.9;24];

% plot two values with the original 10.

Valve2=[10.2,9.9];Temp2=[25.1,25.5];

figure(1)

hold on

plot(Valve2,Temp2,'k*')

hold off

% plot the control charts for valve and temperature separately. figure(3)

hold on

plot(1:10,Valve,'ko')

plot(11:12,Valve2,'k*')

plot(0:13, mean(Valve)*ones(1,14),'k')

plot(0:13, (mean(Valve)-std(Valve)*2)*ones(1,14),'k')

plot(0:13, (mean(Valve)+std(Valve)*2)*ones(1,14),'k')

xlabel('Sample Number')

ylabel('Valve Position (%)')

hold off

figure(4)

hold on

plot(1:10,Temp,'ko')

plot(11:12,Temp2,'k*')

plot(0:13, mean(Temp)*ones(1,14),'k')

plot(0:13, (mean(Temp)+std(Temp)*2)*ones(1,14),'k')

plot(0:13, (mean(Temp)-std(Temp)*2)*ones(1,14),'k')

xlabel('Sample Number')

ylabel('Temperature (C)')

hold off

% transform new observations to PC axis

y2=Ws'*([Valve2-mean(Valve);Temp2-mean(Temp)]);

% plot the control charts for principal components

figure(5)

hold on

plot(1:10,y(1,:),'ko')

plot(11:12,y2(1,:),'k*')

plot(0:13, mean(y(1,:))*ones(1,14),'k')

plot(0:13, -2*ones(1,14),'k')

plot(0:13, 2*ones(1,14),'k')

xlabel ('Sample Number')

ylabel ('Principal Component 1')

hold off

figure(6)

hold on

plot(1:10,y(2,:),'ko')

plot(11:12,y2(2,:),'k*')

plot(0:13,mean(y(2,:))*ones(1,14),'k')

plot(0:13, -2*ones(1,14),'k')

plot(0:13, 2*ones(1,14),'k')

xlabel ('Sample Number')

ylabel ('Principal Component 2')

hold off

% plot the T2 chart for the two new points figure(2)

T22=diag(y2'*y2);

hold on

plot([11,12],T22,'k*')

hold off

% draw the control ellipse

ra = sqrt(T2Upper*E(1,1));

rb = sqrt(T2Upper*E(2,2));

V=[sqrt(E(1,1))*U(:,1),sqrt(E(2,2))*-U(:,2)]; k1 = V(2,1)/V(1,1);

k2 = V(2,2)/V(1,2);

ang = atan(k1); %atan(k1);

x0 = mean(x(:,1));

y0 = mean(x(:,2));

% i = 9.5:0.01:10.5;

% s = 9.72:0.01:10.3;

% j = k1*i + 42.6303;

% l = k2*s + 19.3279;

figure (7)

h=ellipse(ra,rb,ang,x0,y0,'k',1000);

hold on

plot(x(:,1),x(:,2),'ko')

plot(Valve2, Temp2,'k*')

% plot(i,j)

% plot(s,l)

xlabel ('Valve Position')

ylabel ('Temperature')

hold off

2.3、基于Tamura纹理特征的纹理特征提取

%计算Tamura纹理特征

close all

clear all

clc

t0=cputime;

I = imread('F-18.bmp');

[Nx,Ny] = size(I);

Ng=256;

G=double(I);

%计算粗糙度(coarseness)

Sbest=zeros(Nx,Ny);

E0h=zeros(Nx,Ny);

E0v=zeros(Nx,Ny);

E1h=zeros(Nx,Ny);

E1v=zeros(Nx,Ny);

E2h=zeros(Nx,Ny);

E2v=zeros(Nx,Ny);

E3h=zeros(Nx,Ny);

E3v=zeros(Nx,Ny);

E4h=zeros(Nx,Ny);

E4v=zeros(Nx,Ny);

E5h=zeros(Nx,Ny);

E5v=zeros(Nx,Ny);

flag=0;

for i=1:Nx

for j=2:Ny

E0h(i,j)=G(i,j)-G(i,j-1); end

end

E0h=E0h/2;

for i=1:Nx-1

for j=1:Ny

E0v(i,j)=G(i,j)-G(i+1,j); end

end

E0v=E0v/2;

%图片大小必须大于4*4才能计算E1h、E1v if (Nx<4||Ny<4)

flag=1;

end

if(flag==0)

for j=3:Ny-1

E1h(i,j)=sum(sum(G(i:i+1,j:j+1)))-sum(sum(G(i:i+1,j-2:j-1)));

end

end

for i=2:Nx-2

for j=2:Ny

E1v(i,j)=sum(sum(G(i-1:i,j-1:j)))-sum(sum(G(i+1:i+2,j-1:j)));

end

end

E1h=E1h/4;

E1v=E1v/4;

end

%图片大小必须大于8*8才能计算E2h、E2v

if (Nx<8||Ny<8)

flag=1;

end

if(flag==0)

for i=2:Nx-2

for j=5:Ny-3

E2h(i,j)=sum(sum(G(i-1:i+2,j:j+3)))-sum(sum(G(i-1:i+2,j-4:j-1))); end

end

for i=4:Nx-4

for j=3:Ny-1

E2v(i,j)=sum(sum(G(i-3:i,j-2:j+1)))-sum(sum(G(i+1:i+4,j-2:j+1))); end

end

E2h=E2h/16;

E2v=E2v/16;

end

%图片大小必须大于16*16才能计算E3h、E3v

if (Nx<16||Ny<16)

flag=1

end

if(flag==0)

for j=9:Ny-7

E3h(i,j)=sum(sum(G(i-3:i+4,j:j+7)))-sum(sum(G(i-3:i+4,j-8:j-1))); end

end

for i=8:Nx-8

for j=5:Ny-3

E3v(i,j)=sum(sum(G(i-7:i,j-4:j+3)))-sum(sum(G(i+1:i+8,j-4:j+3))); end

end

E3h=E3h/64;

E3v=E3v/64;

end

%图片大小必须大于32*32才能计算E4h、E4v

if (Nx<32||Ny<32)

flag=1;

end

if(flag==0)

for i=8:Nx-8

for j=17:Ny-15

E4h(i,j)=sum(sum(G(i-7:i+8,j:j+15)))-sum(sum(G(i-7:i+8,j-16:j-1)) );

end

end

for i=16:Nx-16

for j=9:Ny-7

E4v(i,j)=sum(sum(G(i-15:i,j-8:j+7)))-sum(sum(G(i+1:i+16,j-8:j+7)) );

end

end

E4h=E4h/256;

E4v=E4v/256;

end

%图片大小必须大于64*64才能计算E5h、E5v

if (Nx<64||Ny<64)

flag=1;

end

if(flag==0)

for i=16:Nx-16

for j=33:Ny-31

E5h(i,j)=sum(sum(G(i-15:i+16,j:j+31)))-sum(sum(G(i-15:i+16,j-32:j -31)));

end

end

for i=32:Nx-32

for j=17:Ny-15

E5v(i,j)=sum(sum(G(i-31:i,j-16:j+15)))-sum(sum(G(i+1:i+32,j-16:j+ 15)));

end

end

E5h=E5h/1024;

E5v=E5v/1024;

end

for i=1:Nx

for j=1:Ny

[maxv,index]=max([E0h(i,j),E0v(i,j),E1h(i,j),E1v(i,j),E2h(i,j),E2 v(i,j),E3h(i,j),E3v(i,j),E4h(i,j),E4v(i,j),E5h(i,j),E5v(i,j)]); k=floor((index+1)/2);

Sbest(i,j)=2.^k;

end

end

Fcoarseness=sum(sum(Sbest))/(Nx*Ny);

%计算对比度

[counts,graylevels]=imhist(I);

PI=counts/(Nx*Ny);

averagevalue=sum(graylevels.*PI);

u4=sum((graylevels-repmat(averagevalue,[256,1])).^4.*PI); standarddeviation=sum((graylevels-repmat(averagevalue,[256,1])).^ 2.*PI);

alpha4=u4/standarddeviation^2;

Fcontrast=sqrt(standarddeviation)/alpha4.^(1/4);

%计算方向度

PrewittH=[-1 0 1;-1 0 1;-1 0 1];

PrewittV=[1 1 1;0 0 0;-1 -1 -1];

%计算横向梯度

deltaH=zeros(Nx,Ny);

for i=2:Nx-1

for j=2:Ny-1

deltaH(i,j)=sum(sum(G(i-1:i+1,j-1:j+1).*PrewittH)); end

end

for j=2:Ny-1

deltaH(1,j)=G(1,j+1)-G(1,j);

deltaH(Nx,j)=G(Nx,j+1)-G(Nx,j);

end

for i=1:Nx

deltaH(i,1)=G(i,2)-G(i,1);

deltaH(i,Ny)=G(i,Ny)-G(i,Ny-1);

end

%计算竖向梯度

deltaV=zeros(Nx,Ny);

for i=2:Nx-1

for j=2:Ny-1

deltaV(i,j)=sum(sum(G(i-1:i+1,j-1:j+1).*PrewittV)); end

end

for j=1:Ny

deltaV(1,j)=G(2,j)-G(1,j);

deltaV(Nx,j)=G(Nx,j)-G(Nx-1,j);

end

for i=2:Nx-1

deltaV(i,1)=G(i+1,1)-G(i,1);

deltaV(i,Ny)=G(i+1,Ny)-G(i,Ny);

end

%梯度向量模

deltaG=(abs(deltaH)+abs(deltaV))/2;

%梯度向量方向

theta=zeros(Nx,Ny);

for i=1:Nx

for j=1:Ny

if (deltaH(i,j)==0)&&(deltaV(i,j)==0)

elseif deltaH(i,j)==0

theta(i,j)=pi;

else

theta(i,j)=atan(deltaV(i,j)/deltaH(i,j))+pi/2; end

end

end

theta1=reshape(theta,1,[]);

phai=0:0.0001:pi;

HD1=hist(theta1,phai);

HD1=HD1/(Nx*Ny);

HD2=zeros(size(HD1));

%定义一个阈值THRESHOLD

THRESHOLD=0.01;

for m=1:length(HD2)

if HD1(m)>=THRESHOLD

HD2(m)=HD1(m);

end

end

[c,index]=max(HD2);

phaiP=index*0.0001;

Fdirection=0;

for m=1:length(HD2)

if HD2(m)~=0

Fdirection=Fdirection+(phai(m)-phaiP)^2*HD2(m);

end

end

disp('粗糙度:');display(Fcoarseness)

disp('对比度:');display(Fcontrast)

disp('方向度:');display(Fdirection)

deltaT=cputime-t0;

display(deltaT);

2.4、颜色直方图提取颜色特征

originailimage=imread('1.jpg');

image_I=rgb2gray(originailimage);

% [image_x,image_y]=size(image_I);

% if image_x

% image_I=image_I';

figure(1),subplot(121),title('灰度图'),

imshow(image_I);

% 找到边缘

I=image_I;

image_bw=edge(I,'canny');

subplot(122),title('边界检测图')

imshow(image_bw);

[L,NUM]=bwlabeln(image_bw,8); % 连通性

%~~~~~~~将图像边缘量化为101份(1-100 101) 画出边缘直方图,量化份数因情况

不同而定

num_line=zeros(1,101);

for i=1:NUM

number=length(find(L==i));

for j=1:100

if number==j

num_line(j)=num_line(j)+1;

end

end

if number>100

num_line(101)=num_line(101)+1;

end

end

EH_1=[];

for i=1:101

EH_1=[EH_1 num_line(i)];

end

x1=1:101;

y1=EH_1;

figure(2),title('plot曲线直方图'),

plot(x1,y1);

%~~~~亦可将图像量化为13份(1-10 11 12 13)画出bar投影图像 num=zeros(1,13);

for i=1:NUM

number=length(find(L==i));

for j=1:10

if number==j

num(j)=num(j)+1;

end

end

if number>10 & number<=20

num(11)=num(11)+1;

end

if number>20 & number<=100

num(12)=num(12)+1;

end

if number>100

num(13)=num(13)+1;

end

end

EH=[];

for i=1:13

EH=[EH num(i)];

关于图像特征提取

关于图像特征提取 特征提取是计算机视觉和图像处理中的一个概念。它指的是使用计算机提取图像信息,决定每个图像的点是否属于一个图像特征。特征提取的结果是把图像上的点分为不同的子集,这些子集往往属于孤立的点、连续的曲线或者连续的区域。 特征的定义 至今为止特征没有万能和精确的定义。特征的精确定义往往由问题或者应用类型决定。特征是一个数字图像中“有趣”的部分,它是许多计算机图像分析算法的起点。因此一个算法是否成功往往由它使用和定义的特征决定。因此特征提取最重要的一个特性是“可重复性”:同一场景的不同图像所提取的特征应该是相同的。 特征提取是图象处理中的一个初级运算,也就是说它是对一个图像进行的第一个运算处理。它检查每个像素来确定该像素是否代表一个特征。假如它是一个更大的算法的一部分,那么这个算法一般只检查图像的特征区域。作为特征提取的一个前提运算,输入图像一般通过高斯模糊核在尺度空间中被平滑。此后通过局部导数运算来计算图像的一个或多个特征。 有时,假如特征提取需要许多的计算时间,而可以使用的时间有限制,一个高层次算法可以用来控制特征提取阶层,这样仅图像的部分被用来寻找特征。 由于许多计算机图像算法使用特征提取作为其初级计算步骤,因此有大量特征提取算法被发展,其提取的特征各种各样,它们的计算复杂性和可重复性也非常不同。 边缘 边缘是组成两个图像区域之间边界(或边缘)的像素。一般一个边缘的形状可以是任意的,还可能包括交叉点。在实践中边缘一般被定义为图像中拥有大的梯度的点组成的子集。一些常用的算法还会把梯度高的点联系起来来构成一个更完善的边缘的描写。这些算法也可能对边缘提出一些限制。 局部地看边缘是一维结构。 角 角是图像中点似的特征,在局部它有两维结构。早期的算法首先进行边缘检测,然后分析边缘的走向来寻找边缘突然转向(角)。后来发展的算法不再需要边缘检测这个步骤,而是可以直接在图像梯度中寻找高度曲率。后来发现这样有时可以在图像中本来没有角的地方发现具有同角一样的特征的区域。 区域 与角不同的是区域描写一个图像中的一个区域性的结构,但是区域也可能仅由一个像素组成,因此许多区域检测也可以用来监测角。一个区域监测器检测图像中一个对于角监测器来说太平滑的区域。区域检测可以被想象为把一张图像缩小,然后在缩小的图像上进行角检测。 脊 长条形的物体被称为脊。在实践中脊可以被看作是代表对称轴的一维曲线,此外局部针对于每个脊像素有一个脊宽度。从灰梯度图像中提取脊要比提取边缘、角和区域困难。在空中摄影中往往使用脊检测来分辨道路,在医学图像中它被用来分辨血管。 特征抽取 特征被检测后它可以从图像中被抽取出来。这个过程可能需要许多图像处理的计算机。其结果被称为特征描述或者特征向量。 常用的图像特征有颜色特征、纹理特征、形状特征、空间关系特征。 一颜色特征 (一)特点:颜色特征是一种全局特征,描述了图像或图像区域所对应的景物的表面性质。一般颜色特征是基于像素点的特征,此时所有属于图像或图像区域的像素都有各自的贡献。由于颜色对图像或图像区域的方向、大小等变化不敏感,所以颜色特征不能很好地捕捉图像中对象的局部特征。另外,仅使用颜色特

图像颜色特征提取原理

一、颜色特征 1 颜色空间 1.1 RGB 颜色空间 是一种根据人眼对不同波长的红、绿、蓝光做出锥状体细胞的敏感度描述的基础彩色模式,R、 G、B 分别为图像红、绿、蓝的亮度值,大小限定在 0~1 或者在 0~255。 1.2 HIS 颜色空间 是指颜色的色调、亮度和饱和度,H表示色调,描述颜色的属性,如黄、红、绿,用角度 0~360度来表示;S 是饱和度,即纯色程度的量度,反映彩色的浓淡,如深红、浅红,大小限定在 0~1;I 是亮度,反映可见光对人眼刺激的程度,它表征彩色各波长的总能量,大小限定在 0~1。 1.3 HSV 颜色模型 HSV 颜色模型依据人类对于色泽、明暗和色调的直观感觉来定义颜色, 其中H (Hue)代表色度, S (Saturat i on)代表色饱和度,V (V alue)代表亮度, 该颜色系统比RGB 系统更接近于人们的经验和对彩色的感知, 因而被广泛应用于计算机视觉领域。 已知RGB 颜色模型, 令M A X = max {R , G, B },M IN =m in{R , G,B }, 分别为RGB 颜色模型中R、 G、 B 三分量的最大和最小值, RGB 颜色模型到HSV 颜色模型的转换公式为: S =(M A X - M IN)/M A X H = 60*(G- B)/(M A X - M IN) R = M A X 120+ 60*(B – R)/(M A X - M IN) G= M A X 240+ 60*(R – G)/(M A X - M IN) B = M A X V = M A X 2 颜色特征提取算法 2.1 一般直方图法 颜色直方图是最基本的颜色特征表示方法,它反映的是图像中颜色的组成分布,即出现了哪些颜色以及各种颜色出现的概率。其函数表达式如下: H(k)= n k/N (k=0,1,…,L-1) (1) 其中,k 代表图像的特征取值,L 是特征可取值的个数,n k是图像中具有特征值为 k 的象素的个数,N 是图像象素的总数。由上式可见,颜色直方图所描述的是不同色彩在整幅图像中所占的比例,无法描述图像中的对象或物体,但是由于直方图相对于图像以观察轴为轴心的旋转以及幅度不大的平移和缩放等几何变换是不敏感的,而且对于图像质量的变化也不甚敏感,所以它特别适合描述那些难以进行自动分割的图像和不需要考虑物体空间位置的图像。 由于计算机本身固有的量化缺陷,这种直方图法忽略了颜色的相似性,人们对这种算法进行改进,产生了全局累加直方图法和局部累加直方图法。 2.2 全局累加直方图法 全局累加直方图是以颜色值作为横坐标,纵坐标为颜色累加出现的频数,因此图像的累加直方空间 H 定义为:

图象视觉特征的提取与表示

第1章图像视觉特征的提取和表示 1.1引言 图像视觉特征的提取和表示是将图像的视觉信息转化成计算机能够识别和处理的定量形式的过程,是基于视觉内容的图像分类与检索的关键技术,因此,图像视觉特征的提取和表示一直是图像内容分析领域中一个非常活跃的课题。 图像底层视觉特征一定程度上能够反映图像的内容,可以描述图像所表达的意义,因此,研究图像底层视觉特征是实现图像分类与检索的第一步。一般来说,随着具体应用的不同,选用的底层特征也应有所不同,在特定的具体应用中,不同底层视觉特征的选取及不同的描述方式,对图像分类与检索的性能有很大的影响。通常认为,一种良好的图像视觉特征的提取和表示应满足以下几个要求: (1)提取简单,时间和空间复杂度低。 (2)区分能力强,对图像视觉内容相似的图像其特征描述之间也应相近,反之,对于视觉内容不相似的图像其特征描述之间应有一定的差别。 (3)与人的视觉感知相近,对人的视觉感觉相近的图像其特征描述之间也相近,对人的视觉感知有差别的图像其特征描述之间也有一定的差别。 (4)抗干扰能力强,鲁棒性好,对图像大小,方向不敏感,具有几何平移,旋转不变性。 本章重点讨论当前比较成熟的特征提取方法,在此基础上选取合适的特征提取方法,用于图像分类与检索系统的特征提取模块。接下来,将依次介绍颜色,纹理,形状等特征的提取和表示方法,最后对各种特征的特点加以比较。 1.2颜色特征的提取和表示 颜色是图像视觉信息的一个重要特征,是图像分类与检索中最为广泛应用的特征之一。一般来说同一类别的图像之间颜色信息具有一定的相似性,不同类别的图像,其颜色信息具有一定的差异。相对几何特征而言,颜色特征稳定性好,有对大小、方向不敏感等特点。因此,颜色特征的提取受到极大重视并得到深入研究。本章首先介绍几种常用的颜色空间模型,然后介绍各种颜色特征提取和表示方法。 1.2.1颜色空间模型 为了正确地使用颜色这一特征,需要建立颜色空间模型,通常的颜色空间模型可用三个基本量来描述,所以建立颜色空间模型就是建立一个3-D坐标系,其中每个空间点都代表某一种颜色。通常来说,对于不同的应用,应该选取不同的颜色空间模型。常用的颜色空间模型主要有:RGB、HIS、HSV、YUV、YIQ、Munsell、Lu*v*和La*b*等。颜色空间模型的选取需要符合一定的标准,下面就这一标准和最常用的颜色空间模型作一些介绍。 文献[错误!未找到引用源。]中介绍了选择颜色空间模型的标准主要有以下几个: (1)观察角度的鲁棒性

图像特征提取总结

图像常见特征提取方法简介 常用的图像特征有颜色特征、纹理特征、形状特征、空间关系特征。 一、颜色特征 (一)特点:颜色特征是一种全局特征,描述了图像或图像区域所对应的景物的表面性质。一般颜色特征是基于像素点的特征,此时所有属于图像或图像区域的像素都有各自的贡献。由于颜色对图像或图像区域的方向、大小等变化不敏感,所以颜色特征不能很好地捕捉图像中对象的局部特征。另外,仅使用颜色特征查询时,如果数据库很大,常会将许多不需要的图像也检索出来。颜色直方图是最常用的表达颜色特征的方法,其优点是不受图像旋转和平移变化的影响,进一步借助归一化还可不受图像尺度变化的影响,基缺点是没有表达出颜色空间分布的信息。 (二)常用的特征提取与匹配方法 (1)颜色直方图 其优点在于:它能简单描述一幅图像中颜色的全局分布,即不同色彩在整幅图像中所占的比例,特别适用于描述那些难以自动分割的图像和不需要考虑物体空间位置的图像。其缺点在于:它无法描述图像中颜色的局部分布及每种色彩所处的空间位置,即无法描述图像中的某一具体的对象或物体。 最常用的颜色空间:RGB颜色空间、HSV颜色空间。 颜色直方图特征匹配方法:直方图相交法、距离法、中心距法、参考颜色表法、累加颜色直方图法。 (2)颜色集 颜色直方图法是一种全局颜色特征提取与匹配方法,无法区分局部颜色信息。颜色集是对颜色直方图的一种近似首先将图像从RGB颜色空间转化成视觉均衡的颜色空间(如HSV 空间),并将颜色空间量化成若干个柄。然后,用色彩自动分割技术将图像分为若干区域,每个区域用量化颜色空间的某个颜色分量来索引,从而将图像表达为一个二进制的颜色索引集。在图像匹配中,比较不同图像颜色集之间的距离和色彩区域的空间关系 (3)颜色矩 这种方法的数学基础在于:图像中任何的颜色分布均可以用它的矩来表示。此外,由于颜色分布信息主要集中在低阶矩中,因此,仅采用颜色的一阶矩(mean)、二阶矩(variance)和三阶矩(skewness)就足以表达图像的颜色分布。 (4)颜色聚合向量 其核心思想是:将属于直方图每一个柄的像素分成两部分,如果该柄内的某些像素所占据的连续区域的面积大于给定的阈值,则该区域内的像素作为聚合像素,否则作为非聚合像素。(5)颜色相关图 二纹理特征 (一)特点:纹理特征也是一种全局特征,它也描述了图像或图像区域所对应景物的表面性质。但由于纹理只是一种物体表面的特性,并不能完全反映出物体的本质属性,所以仅仅利用纹理特征是无法获得高层次图像内容的。与颜色特征不同,纹理特征不是基于像素点的特征,它需要在包含多个像素点的区域中进行统计计算。在模式匹配中,这种区域性的特征具有较大的优越性,不会由于局部的偏差而无法匹配成功。作为一种统计特征,纹理特征常具有旋转不变性,并且对于噪声有较强的抵抗能力。但是,纹理特征也有其缺点,一个很明显的缺点是当图像的分辨率变化的时候,所计算出来的纹理可能会有较大偏差。另外,由于有可能受到光照、反射情况的影响,从2-D图像中反映出来的纹理不一定是3-D物体表面真实

图像特征提取方法

图像特征提取方法 摘要 特征提取是计算机视觉和图像处理中的一个概念。它指的是使用计算机提取图像信息,决定每个图像的点是否属于一个图像特征。特征提取的结果是把图像上的点分为不同的子集,这些子集往往属于孤立的点、连续的曲线或者连续的区域。 至今为止特征没有万能和精确的图像特征定义。特征的精确定义往往由问题或者应用类型决定。特征是一个数字图像中“有趣”的部分,它是许多计算机图像分析算法的起点。因此一个算法是否成功往往由它使用和定义的特征决定。因此特征提取最重要的一个特性是“可重复性”:同一场景的不同图像所提取的特征应该是相同的。 特征提取是图象处理中的一个初级运算,也就是说它是对一个图像进行的第一个运算处理。它检查每个像素来确定该像素是否代表一个特征。假如它是一个更大的算法的一部分,那么这个算法一般只检查图像的特征区域。作为特征提取的一个前提运算,输入图像一般通过高斯模糊核在尺度空间中被平滑。此后通过局部导数运算来计算图像的一个或多个特征。 常用的图像特征有颜色特征、纹理特征、形状特征、空间关系特征。当光差图像时,常 常看到的是连续的纹理与灰度级相似的区域,他们相结合形成物体。但如果物体的尺寸很小 或者对比度不高,通常要采用较高的分辨率观察:如果物体的尺寸很大或对比度很强,只需 要降低分辨率。如果物体尺寸有大有小,或对比有强有弱的情况下同事存在,这时提取图像 的特征对进行图像研究有优势。 常用的特征提取方法有:Fourier变换法、窗口Fourier变换(Gabor)、小波变换法、最 小二乘法、边界方向直方图法、基于Tamura纹理特征的纹理特征提取等。

设计内容 课程设计的内容与要求(包括原始数据、技术参数、条件、设计要求等):一、课程设计的内容 本设计采用边界方向直方图法、基于PCA的图像数据特征提取、基于Tamura纹理特征的纹理特征提取、颜色直方图提取颜色特征等等四种方法设计。 (1)边界方向直方图法 由于单一特征不足以准确地描述图像特征,提出了一种结合颜色特征和边界方向特征的图像检索方法.针对传统颜色直方图中图像对所有像素具有相同重要性的问题进行了改进,提出了像素加权的改进颜色直方图方法;然后采用非分割图像的边界方向直方图方法提取图像的形状特征,该方法相对分割方法具有简单、有效等特点,并对图像的缩放、旋转以及视角具有不变性.为进一步提高图像检索的质量引入相关反馈机制,动态调整两幅图像相似度中颜色特征和方向特征的权值系数,并给出了相应的权值调整算法.实验结果表明,上述方法明显地优于其它方法.小波理论和几个其他课题相关。所有小波变换可以视为时域频域的形式,所以和调和分析相关。所有实际有用的离散小波变换使用包含有限脉冲响应滤波器的滤波器段(filterbank)。构成CWT的小波受海森堡的测不准原理制约,或者说,离散小波基可以在测不准原理的其他形式的上下文中考虑。 通过边缘检测,把图像分为边缘区域和非边缘区域,然后在边缘区域内进行边缘定位.根据局部区域内边缘的直线特性,求得小邻域内直线段的高精度位置;再根据边缘区域内边缘的全局直线特性,用线段的中点来拟合整个直线边缘,得到亚像素精度的图像边缘.在拟合的过程中,根据直线段转角的变化剔除了噪声点,提高了定位精度.并且,根据角度和距离区分出不同直线和它们的交点,给出了图像精确的矢量化结果 图像的边界是指其周围像素灰度有阶跃变化或屋顶变化的那些像素的集合,边界广泛的存在于物体和背 景之间、物体和物体之间,它是图像分割所依赖的重要特征.边界方向直方图具有尺度不变性,能够比较好的 描述图像的大体形状.边界直方图一般是通过边界算子提取边界,得到边界信息后,需要表征这些图像的边 界,对于每一个边界点,根据图像中该点的梯度方向计算出该边界点处法向量的方向角,将空间量化为M级, 计算每个边界点处法向量的方向角落在M级中的频率,这样便得到了边界方向直方图. 图像中像素的梯度向量可以表示为[ ( ,),),( ,),)] ,其中Gx( ,),),G ( ,),)可以用下面的

图像中角点(特征点)提取与匹配算法

角点提取与匹配算法实验报告 1 说明 本文实验的目标是对于两幅相似的图像,通过角点检测算法,进而找出这两幅图像的共同点,从而可以把这两幅图像合并成一幅图像。 下面描述该实验的基本步骤: 1.本文所采用的角点检测算法是Harris 角点检测算法,该算法的基本原理是取以目标像素点为中心的一个小窗口,计算窗口沿任何方向移动后的灰度变化,并用解析形式表达。设以像素点(x,y)为中心的小窗口在X 方向上移动u ,y 方向上移动v ,Harris 给出了灰度变化度量的解析表达式: 2 ,,|,|,,()(x y x y x u y v x y x y I I E w I I w u v o X Y ??= -=++??∑∑ (1) 其中,,x y E 为窗口内的灰度变化度量;,x y w 为窗口函数,一般定义为2 2 2 ()/,x y x y w e σ +=; I 为图像灰度函数,略去无穷小项有: 222222 ,,[()()2]2x y x y x y x y E w u I v I uvI I Au Cuv Bv = ++=++∑ (2) 将,x y E 化为二次型有: ,[]x y u E u v M v ?? =???? (3) M 为实对称矩阵: 2 ,2 x y x x y x y y I I I M w I I I ???= ???????∑ (4) 通过对角化处理得到: 11 ,200x y E R R λλ-??= ??? (5) 其中,R 为旋转因子,对角化处理后并不改变以u,v 为坐标参数的空间曲面的形状,其特征值反应了两个主轴方向的图像表面曲率。当两个特征值均较小时,表明目标点附近区域为“平坦区域”;特征值一大一小时,表明特征点位于“边缘”上;只有当两个特征值均比较大时,沿任何方向的移动均将导致灰度的剧烈变化。Harris 的角点响应函数(CRF)表达式由此而得到: 2 (,)det()(())C RF x y M k trace M =- (6)

图像特征提取综述

图像特征提取的定位是计算机视觉和图像处理里的一个概念,表征图像的特性。输入是一张图像(二维的数据矩阵),输出是一个值、一个向量、一个分布、一个函数或者是信号。提取特征的方法千差万别,下面是图像特征的一些特性: 边缘 边缘是两个区域边界的像素集合,本质上是图像像素的子集,能将区域分开。边缘形状是任意的,实践中定义为大的梯度的像素点的集合,同时为了平滑,还需要一些算法进行处理。角 顾名思义,有个突然较大的弧度。早起算法是在边缘检测的基础上,分析边缘的走向,如果突然转向则被认为是角。后来的算法不再需要边缘检测,直接计算图像梯度的高度曲率(合情合理)。但会出现没有角的地方也检测到角的存在。 区域 区域性的结构,很多区域检测用来检测角。区域检测可以看作是图像缩小后的角检测。 脊 长形的物体,例如道路、血管。脊可以看成是代表对称轴的一维曲线,每个脊像素都有脊宽度,从灰梯度图像中提取要比边缘、角和区域都难。 特征提取 检测到特征后提取出来,表示成特征描述或者特征向量。 常用的图像特征:颜色特征、 纹理特征 形状特征 空间关系特征。 1.颜色特征 1.1特点:颜色特征是全局特征,对区域的方向、大小不敏感,但是不能很好捕捉局部特征。 优点:不受旋转和平移变化的影响,如果归一化不受尺度变化的影响。 缺点:不能表达颜色空间分布的信息。 1.2特征提取与匹配方法 (1)颜色直方图 适用于难以自动分割的图像,最常用的颜色空间:RGB和HSV。 匹配方法:直方图相交法(相交即交集)、距离法、中心距法、参考颜色表法、累加颜色直方图法。 对颜色特征的表达方式有许多种,我们采用直方图进行特征描述。常见的直方图有两种:统计直方图,累积直方图。我们将分别实验两种直方图在图像聚类和检索中的性能。 统计直方图 为利用图像的特征描述图像,可借助特征的统计直方图。图像特征的统计直方图实际是一个1-D的离散函数,即: 上式中k代表图像的特征取值,L是特征可取值个数,是图像中具有特征值为k的像素的个数,N是图像像素的总数,一个示例如下图:其中有8个直方条,对应图像中的8种灰度像素在总像素中的比例。

图像特征提取及识别过程

纹理特征是一种重要的视觉线索,是图像中普遍存在而又难以描述的特征。纹理分类与分割是图像处理领域一个经久不衰的热点研究领域,纹理特征提取作为纹理分类与分割的首要问题,一直是人们关注的焦点,各种纹理特征提取方法层出不穷。 本文在广泛文献调研的基础上,回顾了纹理特征提取方法的发展历程,分析了其研究现状,对纹理特征提取方法进行了较为全面的综述和分类,最后重点研究了基于灰度共生矩阵的图像纹理提取方法,研究如何有效地提取图像纹理特征来对图像进行描述,通过特征值来对图像进行识别。 灰度共生矩阵是一种简单有效的图像纹理特征描述方法,该方法的优势在于:它能利用了图像中像素相对位置的空间信息更加准确地描述图像的纹理,本 文就是利用图像灰度共生矩阵的这一特性,从该矩阵中提取相应的统计参量作为纹理特征来实现对图像的识别。 关键字:灰度共生矩阵,纹理特征提取,图像识别

ABSTRACT Texture is a kind of importa nt visual clues in images , it is widespread but cannot easy to be described . Texture classification and segmentation is a enduring popular research field in image process ing area. Texture feature extract ion has bee n the focus of attention,due to its priority to texture classification and image segmentation. all sorts of texture feature extracti on methods has bee n emerged in en dlessly. On the basis of exte nsive literature inv estigati on, we review the texture feature extract ion methods, an alyze the developme nt of the research status of the texture feature extracti on methods and make a comprehe nsive review of its classificati on . Fin ally ,based on gray symbiotic matrix image problem extracti on methods,we research how to effectively extract image texture feature described by the image characteristic value to image recog niti on. Graylevel co-occurre nee matrix is a simple and effective image texture descripti on method.This method's advantage is: it can use the image pixels relative positions of the spatial in formatio n more to accurately describe the texture image.This paper use the graylevel co-occurre nee matrix of the properties to extract statistics from the matrix corresp onding as texture feature parameters to realize image recog niti on. KEY WORDS : graylevel co-occurrenee matrix, texture feature extraction, image recog niti on

图像特征提取matlab程序

%直接帧间差分,计算阈值并进行二值化处理(效果不好) clc; clear; Im1 = double(imread('lena.TIF')); %读取背景图片 Im2 = double(imread('lena.TIF'); %读取当前图片 [X Y Z] = size(Im2); %当前图片的各维度值 DIma = zeros(X,Y); for i = 1:X for j = 1:Y DIma(i,j) =Im1(i,j) - Im2(i,j); %计算过帧间差分值 end end figure,imshow(uint8(DIma)) %显示差分图像 title('DIma') med = median(DIma); %计算二值化阈值:差值图像中值 mad = abs(mean(DIma) - med); %中值绝对差 T = mean(med + 3*1.4826*mad) %初始阈值 Th =5*T; %调整阈值 BW = DIma <= Th; %根据阈值对图像进行二值化处理 figure,imshow(BW) %se = strel('disk',2); %膨胀处理 %BW = imopen(BW,se); %figure,imshow(BW) %title('BW') [XX YY] = find(BW==0); %寻找有效像素点的最大边框 handle = rectangle('Position',[min(YY),min(XX) ,max(YY)-min(YY),max(XX)-min(XX)]); set(handle,'EdgeColor',[0 0 0]); hei = max(XX)-min(XX); %边框高度 mark = min(YY)+1; while mark < max(YY)-1 %从边框左边开始到右边物质循环,寻找各个人体边缘 left = 0;right = 0; for j = mark:max(YY)-1 ynum = 0; for i = min(XX)+1 : max(XX)-1 if BW(i,j) == 0; ynum = ynum + 1;

图像纹理检测与特征提取技术研究综述

龙源期刊网 https://www.360docs.net/doc/d215109060.html, 图像纹理检测与特征提取技术研究综述 作者:李秀怡 来源:《中国管理信息化》2017年第23期 [摘要] 图像纹理作为图像数据的重要信息,是符合人类视觉特征的重要信息之一。纹理 检测与特征提取是纹理分类与分割的基础前提,可以应用到医疗、工业、农业、天文等多个领域,也是近几十年来一个经久不衰的热点研究。随着图像处理领域各种技术的发展,纹理特征分析提取方法也得到不断创新。文章在对相关文献进行调研的基础上,叙述了纹理特征提取方法的发展历程及研究现状,并重点对近十年纹理特征提取方法进行了论述,最后指出了该领域的发展趋势及问题。 [关键词] 图像纹理;特征提取;小波;支持向量机 doi : 10 . 3969 / j . issn . 1673 - 0194 . 2017. 23. 088 [中图分类号] TP311 [文献标识码] A [文章编号] 1673 - 0194(2017)23- 0175- 04 1 引言 随着大数据时代的到来,相对于一般数据,图像信息作为一种更直观更形象的数据表现形式,其应用已经深入到医学、工业、航空、农业等各行业领域中。而纹理作为图像的重要特征之一,可以充分反映图像的整体特征,因此也成为了诸多图像后处理技术所必备的研究条件。但是,纹理的复杂多样性使得研究者们对其分析和准确识别是非常困难。而解决这个困难的方法之一是对图像提取纹理,然后对提取的纹理进行分析研究。这也是模式识别、图像检索、和计算机视觉等研究的基础。在纹理研究的每个阶段内,随着国内外学者研究对图像纹理提取模型及算法的不断创新,以及纹理提取的广泛的应用价值,促使着大家对这一领域进行更深入的研究。 2 纹理的基本定义及特性 目前,人们对纹理的精确定义还没有完全统一,当前几个类别的定义基本上按不同的应用类型形成相对的定义。一般认为,纹理是图像色彩或者灰度在空间上的重复或变化形成纹理。通常,人们将组成纹理的基本单元称为纹理基元或纹元(texture element)。 尽管关于纹理的定义尚未统一,但人们对纹理信息所具有的如下特性达成共识: (1)纹理基元是纹理存在的基本元素,并一定是按照某种规律排列组合形成纹理;(2)纹理信息具有局部显著性,通常可以表现为纹理基元序列在一定的局部空间重复出现;(3)纹理有周期性、方向性、密度、强度和粗糙程度等基本特征,而与人类视觉特征相一致的周期

(完整版)图像特征特点及常用的特征提取与匹配方法

图像特征特点及常用的特征提取与匹配方法 常用的图像特征有颜色特征、纹理特征、形状特征、空间关系特征。 一颜色特征 (一)特点:颜色特征是一种全局特征,描述了图像或图像区域所对应的景物的表面性质。一般颜色特征是基于像素点的特征,此时所有属于图像或图像区域的像素都有各自的贡献。由于颜色对图像或图像区域的方向、大小等变化不敏感,所以颜色特征不能很好地捕捉图像中对象的局部特征。另外,仅使用颜色特征查询时,如果数据库很大,常会将许多不需要的图像也检索出来。颜色直方图是最常用的表达颜色特征的方法,其优点是不受图像旋转和平移变化的影响,进一步借助归一化还可不受图像尺度变化的影响,基缺点是没有表达出颜色空间分布的信息。 (二)常用的特征提取与匹配方法 (1) 颜色直方图 其优点在于:它能简单描述一幅图像中颜色的全局分布,即不同色彩在整幅图像中所占的比例,特别适用于描述那些难以自动分割的图像和不需要考虑物体空间位置的图像。其缺点在于:它无法描述图像中颜色的局部分布及每种色彩所处的空间位置,即无法描述图像中的某一具体的对象或物体。 最常用的颜色空间:RGB颜色空间、HSV颜色空间。 颜色直方图特征匹配方法:直方图相交法、距离法、中心距法、参考颜色表法、累加颜色直方图法。 (2) 颜色集 颜色直方图法是一种全局颜色特征提取与匹配方法,无法区分局部颜色信息。颜色集是对颜色直方图的一种近似首先将图像从RGB颜色空间转化成视觉均衡 的颜色空间(如HSV 空间),并将颜色空间量化成若干个柄。然后,用色彩自动分割技术将图像分为若干区域,每个区域用量化颜色空间的某个颜色分量来索引,从而将图像表达为一个二进制的颜色索引集。在图像匹配中,比较不同图像颜色集之间的距离和色彩区域的空间关系 (3) 颜色矩

图像局部特征点检测算法综述

图像局部特征点检测算法综述 研究图像特征检测已经有一段时间了,图像特征检测的方法很多,又加上各种算法的变形,所以难以在短时间内全面的了解,只是对主流的特征检测算法的原理进行了学习。总体来说,图像特征可以包括颜色特征、纹理特等、形状特征以及局部特征点等。其中局部特点具有很好的稳定性,不容易受外界环境的干扰,本篇文章也是对这方面知识的一个总结。 本篇文章现在(2015/1/30)只是以初稿的形式,列出了主体的框架,后面还有许多地方需要增加与修改,例如2013年新出现的基于非线性尺度空间的KAZE特征提取方法以及它的改进AKATE等。在应用方面,后面会增一些具有实际代码的例子,尤其是基于特征点的搜索与运动目标跟踪方面。 1. 局部特征点 图像特征提取是图像分析与图像识别的前提,它是将高维的图像数据进行简化表达最有效的方式,从一幅图像的M×N×3的数据矩阵中,我们看不出任何信息,所以我们必须根据这些数据提取出图像中的关键信息,一些基本元件以及它们的关系。 局部特征点是图像特征的局部表达,它只能反正图像上具有的局部特殊性,所以它只适合于对图像进行匹配,检索等应用。对于图像理解则不太适合。而后者更关心一些全局特征,如颜色分布,纹理特征,主要物体的形状等。全局特征容易受到环境的干扰,光照,旋转,噪声等不利因素都会影响全局特征。相比而言,局部特征点,往往对应着图像中的一些线条交叉,明暗变化的结构中,受到的干扰也少。 而斑点与角点是两类局部特征点。斑点通常是指与周围有着颜色和灰度差别的区域,如草原上的一棵树或一栋房子。它是一个区域,所以它比角点的噪能力要强,稳定性要好。而角点则是图像中一边物体的拐角或者线条之间的交叉部分。 2. 斑点检测原理与举例 2.1 LoG与DoH 斑点检测的方法主要包括利用高斯拉普拉斯算子检测的方法(LOG),以及利用像素点Hessian矩阵(二阶微分)及其行列式值的方法(DOH)。 LoG的方法已经在斑点检测这入篇文章里作了详细的描述。因为二维高斯函数的拉普拉斯核很像一个斑点,所以可以利用卷积来求出图像中的斑点状的结构。 DoH方法就是利用图像点二阶微分Hessian矩阵:

图像特征特点及其常用的特征提取与匹配方法

图像特征特点及其常用的特征提取与匹配方法 [ 2006-9-22 15:53:00 | By: 天若有情 ] 常用的图像特征有颜色特征、纹理特征、形状特征、空间关系特征。 一颜色特征 (一)特点:颜色特征是一种全局特征,描述了图像或图像区域所对应的景物的表面性质。一般颜色特征是基于像素点的特征,此时所有属于图像或图像区域的像素都有各自的贡献。由于颜色对图像或图像区域的方向、大小等变化不敏感,所以颜色特征不能很好地捕捉图像中对象的局部特征。另外,仅使用颜色特征查询时,如果数据库很大,常会将许多不需要的图像也检索出来。颜色直方图是最常用的表达颜色特征的方法,其优点是不受图像旋转和平移变化的影响,进一步借助归一化还可不受图像尺度变化的影响,基缺点是没有表达出颜色空间分布的信息。 (二)常用的特征提取与匹配方法 (1)颜色直方图 其优点在于:它能简单描述一幅图像中颜色的全局分布,即不同色彩在整幅图像中所占的比例,特别适用于描述那些难以自动分割的图像和不需要考虑物体空间位置的图像。其缺点在于:它无法描述图像中颜色的局部分布及每种色彩所处的空间位置,即无法描述图像中的某一具体的对象或物体。 最常用的颜色空间:RGB颜色空间、HSV颜色空间。 颜色直方图特征匹配方法:直方图相交法、距离法、中心距法、参考颜色表法、累加颜色直方图法。 (2)颜色集 颜色直方图法是一种全局颜色特征提取与匹配方法,无法区分局部颜色信息。颜色集是对颜色直方图的一种近似首先将图像从RGB颜色空间转化成视觉均衡的颜色空间(如HSV 空间),并将颜色空间量化成若干个柄。然后,用色彩自动分割技术将图像分为若干区域,每个区域用量化颜色空间的某个颜色分量来索引,从而将图像表达为一个二进制的颜色索引集。在图像匹配中,比较不同图像颜色集之间的距离和色彩区域的空间关系 (3)颜色矩 这种方法的数学基础在于:图像中任何的颜色分布均可以用它的矩来表示。此外,由于颜色分布信息主要集中在低阶矩中,因此,仅采用颜色的一阶矩(m ean)、二阶矩(variance)和三阶矩(skewness)就足以表达图像的颜色分布。(4)颜色聚合向量 其核心思想是:将属于直方图每一个柄的像素分成两部分,如果该柄内的某些像素所占据的连续区域的面积大于给定的阈值,则该区域内的像素作为聚合像素,否则作为非聚合像素。 (5)颜色相关图 二纹理特征 (一)特点:纹理特征也是一种全局特征,它也描述了图像或图像区域所对应景物的表面性质。但由于纹理只是一种物体表面的特性,并不能完全反映出物体的本质属性,所以仅仅利用纹理特征是无法获得高层次图像内容的。与颜色特征不同,纹理特征不是基于像素点的特征,它需要在包含多个像素点的区域中进行统计计算。在模式匹配中,这种区域性的特征具有较大的优越性,不会由于局

forstner算子提取特征点

Forstner算子提取特征点(原创) ;------------------------------ ;Forstner算子 ;; image:输入原始图像 ; vwsize:窗口宽度 ; ithresh:初选差分阈值 ; qthresh:兴趣值阈值 function Forstner,image,vwsize=vwsize,ithresh=ithresh,Tq=Tq IF N_Elements(vwsize) eq 0 THEN vwsize=5 IF N_Elements(ithresh) eq 0 THEN ithresh=50 IF N_Elements(Tq) eq 0 THEN Tq=0.5 image=float(image) imgSize = Size(image, /Dimensions) xsize=imgSize[0] ysize=imgSize[1] ;灰度的协方差矩阵 result=fltarr(xsize,ysize) ;第一步:利用差分算子提取初选点

for i=1,xsize-2 do begin for j=1,ysize-2 do begin dg1=abs(image[i,j]-image[i+1,j]) dg2=abs(image[i,j]-image[i,j+1]) dg3=abs(image[i,j]-image[i-1,j]) dg4=abs(image[i,j]-image[i,j-1]) dg=[dg1,dg2,dg3,dg4] temp=dg[sort(dg)] if temp[2] gt ithresh then begin result[i,j]=255 endif else begin result[i,j]=0 endelse endfor endfor ;第二步:在以初选点为中心的3*3的窗口中计算协方差矩阵与圆度 ;此处可用where提高循环效率 ;权重矩阵 wMatrix=fltarr(xsize,ysize) for i=1,xsize-2 do begin for j=1,ysize-2 do begin ;是初选点 if result[i,j] eq 255 then begin gu2=0.0 & gv2=0.0 & guv=0.0 for ii=-1,1 do begin for jj=-1,1 do begin gu2=gu2+(image[i+1,j+1]-image[i,j])^2 gv2=gv2+(image[i,j+1]-image[i+1,j])^2 guv=guv+(image[i+1,j+1]-image[i,j])*(image[i,j+1]-image[i+1,j]) endfor endfor DetN=gu2*gv2-guv trN=gu2+gv2 q=4*DetN/(trN*trN) ;第三步:设定阈值Tq,若满足则计算权值 if q gt Tq then wMatrix[i,j]=DetN/trN endif

图像特征提取总结

图像常见xx方法简介 常用的图像特征有颜色特征、纹理特征、形状特征、空间关系特征。 一、颜色特征 (一)特点: 颜色特征是一种全局特征,描述了图像或图像区域所对应的景物的表面性质。 一般颜色特征是基于像素点的特征,此时所有属于图像或图像区域的像素都有各自的贡献。 由于颜色对图像或图像区域的方向、大小等变化不敏感,所以颜色特征不能很好地捕捉图像中对象的局部特征。另外,仅使用颜色特征查询时,如果数据库很大,常会将许多不需要的图像也检索出来。颜色直方图是最常用的表达颜色特征的方法,其优点是不受图像旋转和平移变化的影响,进一步借助归一化还可不受图像尺度变化的影响,基缺点是没有表达出颜色空间分布的信息。 (二)常用的xx与匹配方法 (1)颜色直方图 其优点在于: 它能简单描述一幅图像中颜色的全局分布,即不同色彩在整幅图像中所占的比例,特别适用于描述那些难以自动分割的图像和不需要考虑物体空间位置的图像。其缺点在于: 它无法描述图像中颜色的局部分布及每种色彩所处的空间位置,即无法描述图像中的某一具体的对象或物体。 最常用的颜色空间: RGB颜色空间、HSV颜色空间。 颜色直方图特征匹配方法:

直方图相交法、距离法、中心距法、参考颜色表法、累加颜色直方图法。 (2)颜色集 颜色直方图法是一种全局颜色特征提取与匹配方法,无法区分局部颜色信息。颜色集是对颜色直方图的一种近似首先将图像从RGB颜色空间转化成视觉均衡的颜色空间(如HSV空间),并将颜色空间量化成若干个柄。然后,用色彩自动分割技术将图像分为若干区域,每个区域用量化颜色空间的某个颜色分量来索引,从而将图像表达为一个二进制的颜色索引集。 在图像匹配中,比较不同图像颜色集之间的距离和色彩区域的空间关系 (3)颜色矩 这种方法的数学基础在于: 图像中任何的颜色分布均可以用它的矩来表示。此外,由于颜色分布信息主要集中在低阶矩中,因此,仅采用颜色的一阶矩(mean)、二阶矩(variance)和三阶矩(skewness)就足以表达图像的颜色分布。 (4)颜色聚合向量 其核心思想是: 将属于直方图每一个柄的像素分成两部分,如果该柄内的某些像素所占据的连续区域的面积大于给定的阈值,则该区域内的像素作为聚合像素,否则作为非聚合像素。 (5)颜色相关图 二纹理特征 (一)特点: 纹理特征也是一种全局特征,它也描述了图像或图像区域所对应景物的表面性质。但由于纹理只是一种物体表面的特性,并不能完全反映出物体的本质属性,所以仅仅利用纹理特征是无法获得高层次图像内容的。与颜色特征不同,纹理特征不是基于像素点的特征,它需要在包含多个像素点的区域中进行

图像特征提取及识别过程

摘要 纹理特征是一种重要的视觉线索,是图像中普遍存在而又难以描述的特征。纹理分类与分割是图像处理领域一个经久不衰的热点研究领域,纹理特征提取作为纹理分类与分割的首要问题,一直是人们关注的焦点,各种纹理特征提取方法层出不穷。 本文在广泛文献调研的基础上,回顾了纹理特征提取方法的发展历程,分析了其研究现状,对纹理特征提取方法进行了较为全面的综述和分类,最后重点研究了基于灰度共生矩阵的图像纹理提取方法,研究如何有效地提取图像纹理特征来对图像进行描述,通过特征值来对图像进行识别。 灰度共生矩阵是一种简单有效的图像纹理特征描述方法,该方法的优势在于:它能利用了图像中像素相对位置的空间信息更加准确地描述图像的纹理,本文就是利用图像灰度共生矩阵的这一特性,从该矩阵中提取相应的统计参量作为纹理特征来实现对图像的识别。 关键字:灰度共生矩阵,纹理特征提取,图像识别

ABSTRACT Texture is a kind of important visual clues in images , it is widespread but cannot easy to be described . Texture classification and segmentation is a enduring popular research field in image processing area. Texture feature extraction has been the focus of attention,due to its priority to texture classification and image segmentation. all sorts of texture feature extraction methods has been emerged in endlessly. On the basis of extensive literature investigation, we review the texture feature extraction methods, analyze the development of the research status of the texture feature extraction methods and make a comprehensive review of its classification . Finally ,based on gray symbiotic matrix image problem extraction methods,we research how to effectively extract image texture feature described by the image characteristic value to image recognition. Graylevel co-occurrence matrix is a simple and effective image texture description method.This method's advantage is: it can use the image pixels relative positions of the spatial information more to accurately describe the texture image.This paper use the graylevel co-occurrence matrix of the properties to extract statistics from the matrix corresponding as texture feature parameters to realize image recognition. KEY WORDS: graylevel co-occurrence matrix, texture feature extraction, image recognition

相关文档
最新文档