数字图像处理课程设计

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

摘要

图像是信息的一种重要来源,对数字图像的处理已经成为国内外研究的一项重点。图像分割作为图像处理中的重要环节,已经引起大量研究者的关注。由于图像分割无统一的分割标准,传统的图像分割仅适用于特定的应用。而利用支持向量机算法进行图像分割,可以利用图像的多种特征,理论应该能够得到比较的分割效果。

本文首先对传统的图像分割方法进行研究,并利用Matlab实现了图像分割算法,对分割的结果进行分析和比较。然后将图像分割看做像素分类,将支持向量机用于图像的分割,包括样本的选择、特征的提取,训练支持向量机,最终实现了基于支持向量机的图像分割算法,结果表明,支持向量机能够很好的将图像目标从源图像中分割出来。

关键词:图像分割;支持向量机;样本选择;特征提取

摘要 ............................................. I

1 支持向量机与图像分割的关系 (2)

2 基于支持向量机在图像分割算法设计 (2)

2.1 算法设计及流程 (3)

2.2 样本选择 (4)

2.3 特征提取 (6)

2.4 核函数选择 (7)

2.5 分割结果及其分析 (7)

3 MATLAB程序设计 (8)

3.1Matlab图像编程概要 (8)

3.2 SVM的Matlab工具箱使用指南 (9)

附录 (12)

附录A 程序源代码 (12)

1 支持向量机与图像分割的关系

对一幅图像而言,像素是基本组成,从图像分割定义来说,对图像的分割实际就是对像素进行分类,SVM就是通过对每一个像素进行分类来完成图像分割的,根据支持向量机原理,样本特征到最优分类面的距离大于零为+1类,样本特征到最优面的距离小于零为-1类,因此它是一种全局门限分割方法,全局门限T=0,只是这时的图像由图像是由图像的多种特征组成的SVM的图像[12]。

支持向量机是一种有监督的分类方法,因此实现基于支持向量机图像分割就是要完成训练样本的选择、特征提取、核函数及其参数确定。首先分别选择代表两类的像素作为训练样本,提取两类的特征,作为支持向量机的输入:然后选取合适的核函数及其参数,训练分类器。获得支持向量模型:最后提取测试样本特征,产生待分类样本集,用支持向量机进行分类,将像素点归入所属类,从而完成图像分割。

2 基于支持向量机在图像分割算法设计

传统图像的分割方法,大多是基于图像的部分特征来进行分割的。因此,目前尚未有对所有的图像都有合适的方法。而分类的算法是一种重要的图像分割方法。本章主要介绍如何使用支持向量机,来对图像进行分割。基于支持向量机的图像分割,主要有三个问题:样本的选择、特征的提取、核函数及其参数确定。本文采用SVM-1.5工具箱,针对这三个问题进行讨论。

2.1 算法设计及流程

此处进入SVM的训练阶段,一般来说,SVM的训练分为5个阶段,分别为:输入训练样本。训练样本选择、提取训练样本、确定核函数及其参数和训练样本。根据结果是否理想,来决定是否调整参数,重新进行训练。整个过程如图3-2-1:

开始

训练样本选择

特征提取

确定核函数参数

训练样本

图像分割

结束

图3-2-1 基于支持向量机分割流程图

首先对训练样本进行选择,选定对训练样本采用3×3区域的灰度值、均值和方差作为基本特征,然后确定利用高斯核函数为本次设计的函数,最后训练样本,对图像进行分割,最终得到分割图像。

2.2 样本选择

根据对支持向量机图像分割研究,选取尺度为 256×256的大米粒图像作为分割样本,图4-2为分割样本图。之所以选择此图,在于大多基于支持向量机的图像分割都在此样本图像上进行,便于进行分割方法的比较[13]。

支持向量机是一种有监督的分类方法,需要预先确定训练样本分类,训练样本的正确与否决定了支持向量机分类的效果。本文通过两种方式训练样本,手动选择训练样本和自动选择训练样本。

(1)手动选择训练样本:

对于未知样本分类的情况下,样本选择最直接的方法就是手动选择训练样本,通过人为的判断目标和背景区域,随即选择目标和背景的样本点。本文尝试采用随机选点和随机选择区域两种方式。随机选点方式点与点之间没有固定的位置关系,利用手动选点方式来选择训练样本,需浪费大量的时间和精力,因此尝试采用手动选择区域和方式来选择训练样本,可以减少重复选点的麻烦,可以减少重复选点的麻烦。随即选择样本区域,点与点之间在空间上是连通的。

(2)自动选择训练样本:

为了克服手动选择样本的盲目性,本文引入模糊C 均值聚类的方法来选择训练样本。

常用的均值聚类方法有硬C 均值聚类的算法和模糊C 均值聚类的方式来选择训练样本[14],对于图像分类来说,两者的不同在于像素对聚类子集的隶属关系即隶属度函数不同。在硬C 均值聚类中,样本像素和聚类子集的隶属度函数为:

{j j ij j x 1==0,x i

i i X x x X μμ∈∉,() (3-2-1)

即样本是绝对的非此即彼的属于某一类。对于模糊C 均值来说,样本对子集的隶属度函数不是定值,而是[0,1]之间的一个数。它表明样本对某一类的相似程度,隶属度越大,表明跟某一类越相似。相比硬C 均值聚类来说,模糊C 均值聚类更符合图像分割的特点。

模糊C 均值聚类算法是通过最小化以下的目标函数:

211min (,=(,)c n m

m ij j i i j J U V d x v μ==∑∑) (3-2-2)

来实现同性质像素聚类的。目标函数越小,表明同类间像素的相似性越大。C 为聚类数目,n 为样本数,m ∈[1,+∞]为加权指数,是为了加强图像之间的对比度。μij 表示第j 像素点对第i 类的隶属度,d (xj ,vi )表示第j 个像素点距离第i 个聚类的距离。根据拉格朗日乘数法优化目标函数得:

1

1

21121111,2,m ij ij c m ij k d d i μ--=⎛⎫ ⎪⎝⎭=

⎛⎫ ⎪⎝⎭=∑…,N:j=1,2,…,c

(3)

模糊C 均值聚类后,每个像素产生了对背景和目标的隶属度,隶属度的大小代表了像素与类的相似程度,因此设计了一种选择训练样本的方法。

首先将各个像素对目标类的隶属度按照从大到小的顺序排列,选择前隶属度对应的像素作为训练样本的+1类;然后将各个像素对背景类按照从小到大排列。这样做的目的是保证了样本的正确性,可以减少模糊像素对支持向量机的影响。通过此处选择的聚类样本为:

图2 聚类样本

由以上前提条件便对其进行训练样本,对其用仿真实现运行结果如下:

相关文档
最新文档