基于SVM的车牌识别算法研究

第1章绪论 (2)

1.1课题背景和研究意义 (2)

1.2车牌自动识别系统的组成 (3)

1.3车牌识别系统的研究现状 (3)

1.3.1车牌定位 (4)

1.3.2字符切分 (5)

1.3.3字符识别 (5)

1.4作者的主要工作 (6)

1.5论文的结构 (7)

第2章统计学习理论和支持向量机 (8)

2.1统计学习理论 (8)

2.1.1机器学习问题的基本方法 (8)

2.1.2 VC维理论 (9)

2.1.3 推广性的界 (10)

2.1.4结构风险最小(SRM) (11)

2.2 支持向量机 (12)

2.2.1 支持向量机的基本原理 (12)

2.2.2 核函数 (15)

2.3 本章小结 (16)

第3章复杂背景下的车牌定位 (17)

3.1汽车牌照的规格 (17)

3.2基于形态学和边缘检测的定位方法 (17)

3.3车牌图像二值化方法的研究 (23)

3.3.1 Otsu算法在车牌识别的图像二值化中的应用 (24)

3.3.2 Bernsen算法在车牌识别的图像二值化中的应用 (26)

3.3.3本文方法 (27)

3.3.4实验结果分析 (29)

3.4本章小结 (30)

第4章基于第二个字符的字符切分方法 (31)

4.1字符切分的难点 (31)

4.2确定牌照字符区域的上下边界 (31)

4.3垂直投影切分法 (33)

4.4实验及结果分析 (35)

4.5本章小结 (36)

第5章SVM中的参数确定及多类分类 (37)

5.1特征提取 (37)

5.1.1外围轮廓特征 (37)

5.1.2粗网格特征 (39)

5.1.3两种特征提取方法的比较 (39)

5.2参数选择 (40)

5.2.1交叉验证的方法 (40)

5.2.2 核函数的选择 (41)

5.2.3 模型参数的影响 (41)

5.2.4 核参数的选择 (42)

5.2.5 实验及结果分析 (42)

5.3常见多类分类方法简介 (44)

5.3.1 一对一方法 (44)

5.3.2 一对多方法 (45)

5.3.3 DAG方法 (46)

5.4一对多方法的改进 (47)

5.5实验结果分析 (48)

5.6本章小结 (49)

第6章基于SVM的车牌字符识别 (50)

6.1车牌字符分类器的构造 (51)

6.2字符归一化 (54)

6.3分类器的训练 (54)

6.4相似字符的二次识别 (56)

6.5实验结果 (59)

6.6本章小结 (60)

第7章总结和展望 (61)

第1章绪论

1.1课题背景和研究意义

随着社会经济的快速发展,各种机动车辆不断增加,对交通智能化管理的要求也日益提高,交通智能化已经成为一种趋势。智能交通系统(ITS Intelligent Transportation System)成为当前交通智能化管理的一个重要方向,它将先进的信息技术、数据传输技术、控制技术及计算机技术等集成起来,运用于整个交通运输管理体系。

车牌自动识别在(LPR License Plate Recognition)是计算机视觉、图像处理和模式识别在ITS领域的应用,是ITS的一个重要组成部分。车牌自动识别系统有着广泛的应用,它的主要应用有:①高速公路自动收费;②城市交通监控;③公共停车场防盗管理;④机场、港口等出入口车辆管理;⑤闯红灯等车辆违章管理。

实际工程应用中,由于环境的复杂性,晚上或雨天拍摄的汽车图像可能受光不均、对比度不高;摄像机的架设角度会使拍摄的车牌图像发生倾斜;车型的大小会使拍摄的图像大小不一;车牌本身脏或者有污损;这些因素都会给车牌识别带来困难。一个车牌自动识别系统要求有很高的识别率,只有拒识,没有误识;能够在公路环境中全天候工作;能处理模糊、污损、倾斜的车牌图像;具有实时处理数据的能力。尽管很多科研工

作者在车牌自动识别技术上作出了很多贡献,但是车牌自动识别技术还尚未完全成熟。

1.2车牌自动识别系统的组成

常见的车牌识别系统由两个大模块组成(如图1.1)1,分别是数据采集模块和车牌识别软件模块,后者又可再细分为图像预处理、车牌定位、车牌字符切分和车牌字符识别4个小模块。

图1.1 车牌识别系统

车牌自动识别系统的基本工作原理是:当车辆通过关卡时,经过车辆位置传感器的敏感区域时,传感器发送一个信号给图像采集控制部分,采集控制部分的控制摄像机采集一幅汽车图像存到图像采集卡,车牌识别软件模块从采集卡中读取汽车图像。车牌识别软件模块首先对汽车图像进行图像增强、去噪等预处理,接着对车牌进行定位,然后进行字符切分,最后进行字符识别。

车牌定位模块的功能是从整个汽车图像中找出车牌并将其提取出来,其输入是整幅汽车图像,输出是车牌图像。字符切分模块的功能是先对车牌图像进行二值化,然后从车牌二值图像中把字符一个个切分出来,其输入是车牌图像,输出是字符图像。字符识别的功能是对字符进行识别,并输出识别结果。

1.3车牌识别系统的研究现状

国内外都有大量关于车牌识别方面的研究。国外这方面的研究工作开展得比较早。国外已开发出的一些典型的产品是:以色列hi-Tech公司的See/Car System系列产品,该系列产品中开发了几个不同国家的车牌识别系统,针对中国格式车牌的而言,它不能

识别汉字。新加波的Optasia公司的VLPRS产品。国内技术条件比较成熟的公司主要有中国自动化研究所的汉王科技的“汉王眼”。四川大学的川大智胜,香港地区的亚洲视觉科技有限公司(ASIA Vision Technology LTD)等,这些公司的产品都报道在图像质量好的情况下,识别率都大于95%,但是大多数是在简单受限的场景下取得的,而在实际可能的较复杂的背景环境下,车牌识别系统的识别率很难超过90%。

1.3.1车牌定位

车牌定位算法的优劣直接影响到车牌识别的准确率,近几年车牌定位的主要方法有:

1、基于形态学和边缘检测相结合的方法2345

这种方法首先计算图像的梯度,因为一般情况下,车牌区域比非车牌区域的亮度变化更剧烈,因此把边缘变化剧烈的区域作为车牌的候选区域。因为基于边缘的方法的缺点是车的前灯或者缓冲器的亮度变化也很剧烈,所以利用形态学的方法把伪区域去掉。

2、基于彩色信息的车牌定位算法6

这种方法利用车牌的底色以及字符的颜色来定位,优点是计算量小,对白天的质量好的图像进行车牌定位效果不错,缺点是对晚上的车牌比较难定位,因为晚上汽车的车灯是开着的,车牌会受到车灯的照射,从而难以判断车牌的真实颜色。对于质量差的褪色的车牌也难定位,一般都是用彩色信息和纹理信息相结合来定位车牌,文献7用以纹理特征为主要手段,以彩色特征为辅助手段的方法来定位出车牌。

3、基于纹理特征的车牌定位算法

Harrlike特征可以用来分析图像的纹理特征,文献8910用基于Harrlike特征集的Adaboost分类器车牌定位算法。利用大量的分类能力一般的简单分类器通过一定的方法叠加起来 ,构成一个分类能力很强的强分类器,再将若干个强分类器串联成为分级分类器完成图像搜索检测。

近几年还出现了用小波变换11、遗传算法12、Gabor滤波器13等来进行车牌定位。基于遗传算法的车牌定位方法首先对车牌图像进行二值化,然后利用遗传算法对全图进行特征匹配搜索,结合区域特征矢量构造的适应度函数,寻找到牌照区域的最佳定位参数。

1.3.2字符切分

由于实际环境的复杂性以及车牌本身的污迹等原因,车牌的字符切分也是一个难点。当前主要有两种车牌字符的切分方法,一种是基于垂直投影的字符切分方法,另一种是基于连通域的字符切分方法。

1、基于垂直投影的字符切分方法

垂直投影的基本思想是对车牌二值图进行垂直投影,也就是对车牌每列的白像素进行累加。因为字符的白色像素多,而字符之间空隙的黑色像素多,垂直投影的时候字符间的空隙就会成波谷,找到波谷的位置就找到了字符的切分位置。但实际中,由于车牌受光不均匀或有污渍等,二值化后字符会出现粘连或者断裂的情况,当字符粘连时就很难找到波谷,此时可以用其他的方法来处理粘连和断裂的字符。文献1415运用了车牌的先验知识来判断是否要合并或分裂字符。文献16利用Hough变换和先验知识的车牌字符切分算法。该方法是先对车牌进行垂直投影,粗略求出垂直切分线,将车牌划分为子块;然后分析各个子块的水平投影,求出分段水平切分, 以各段水平切分线的中点为输入,采用Hough变换的方法求解直线,这样就得到了要求的水平切分线,这样做能有效去除铆钉的影响;得到水平切分线之后,利用垂直投影和车牌先验知识相结合的方法找出垂直切分位置。文献17数学形态学的方法来处理粘连或者断裂的字符,用细化算法来处理粘连的字符,用粗化算法和剪枝算法来处理断裂的字符。

2、基于连通域的字符切分方法

文献18用连通域分析和hough变换相结合的方法。首先通过连通域分析,去除高宽比不满足条件的连通域,然后利用hough变换来对齐,最后利用车牌的先验知识,对字符断裂和字符粘连进行处理。文献19提出了一种基于聚类的字符切分方法,即按照属于同一个字符的象素构成一个连通域的原则,再结合牌照的先验知识,较好地解决了汽车牌照在复杂背景下的字符切分问题,基于聚类的方法可以对双行车牌进行字符切分20。

字符切分方法还有基于轮廓的字符切分方法21、基于隐马尔科夫的字符切分方法22、基于模板匹配的方法23等。

1.3.3字符识别

字符识别的方法主要有模板匹配,神经网络,以及统计分类器等。

1、基于模板匹配的字符识别方法242526

模板匹配是字符识别的方法之一,该方法是先为每个字符建立一个模板,然后将要识别的字符与建立好的模板进行比对,根据与模板的相似度大小来确定最终识别结果。模板匹配的关键在于模板设计,在设计模板时,必须使每种模板都和它对应的字符图像相吻合,但和其它字符则有一定的失配量,根据所取特征的不同,模版匹配的方法有图形匹配、笔划匹配、几何特征匹配等。

2、基于神经网络的字符识别方法

用神经网络进行字符识别有两种方法,一种方法是充分利用神经网络的特点直接把整幅图像送入网络,由网络自动实现特征提取直至识别,该方法的待处理信息量大。另一种方法是先进行字符特征抽取,然后用所得的特征来训练神经网络分类器。该方法要先抽取特征然后再训练网络,所以能会需要很长的时间,不过训练好的网络可以很方便的直接用于识别。用神经网络方法进行车牌识别的有Kohonen自组织网络,概率神经网络2728, BP神经网络2930,自组织特征映射网络31,模糊神经网络。

3、基于统计分类器字符识别方法

基于统计分类器的字符识别方法主要有基于支持向量机的字符识别方法32333435。支持向量机是一种新的机器学习方法,由于其出色的学习性能,该技术已成为当前国际机器学习界的研究热点,支持向量机在解决小样本、非线性及高维模式识别问题中表现出许多特有的优势,并能够推广应用到函数拟合等其他机器学习问题中。

该方法先对车牌切分后得到的字符样本作预处理,然后提取特征,送入支持向量机分类器进行训练,得到支持向量并且存储参数。对于待识别的样本,利用训练得到的结果进行决策计算,判决属于哪一类,最后输出结果。

1.4作者的主要工作

一般来讲车牌识别系统有三个主要的部分组成:车牌定位、字符切分、字符识别。车牌定位是从视频序列中或者静止图像中提取出车牌。字符切分是从定位出的车牌中把字符一个一个切分出来。字符识别是对切分出的字符进行识别。由于系统的涉及面广,作者主要研究国内外的车牌字符切分和字符识别算法,研究一种适合中国车牌的字符切分和字符识别系统。

在论文中作者的主要工作包括以下几个方面:

1、针对不均匀光照下的车牌图像二值化问题,设计一种基于车牌特征的自适应二

值化方法。

2、针对多类分类方法中一对多方法存在的速度慢和拒识问题,对传统的多类分类

方法进行了改进。

1.5论文的结构

本文对图像拼接中用到的算法进行了深入的研究,各章节主要内容安排如下:

第1章介绍本课题的背景、研究意义和研究现状。

第2章介绍统计学习理论和支持向量机的理论知识。

第3章介绍了车牌定位算法和车牌二值化算法。对车牌图像二值化算法进行研究,比较了现有的几种经典的车牌二值化算法,并针对不均匀光照下的车牌图像二值化问题,设计一种基于车牌特征的自适应二值化方法。

第4章阐述了基于车牌第二个的字符切分方法。首先对车牌的字符区域进行精确定位,然后用垂直投影的方法进行字符切分。

第5章研究了支持向量机的参数选择和多类分类问题,比较了几种多类分类算法,并对现有的一对多的分类算法进行改进。

第6章对车牌字符识别的整个流程和分类器的设计进行阐述。

第7章对本文进行了总结并展望了一些未来较有潜力的研究方向。

第2章 统计学习理论和支持向量机

2.1统计学习理论

传统的统计学是研究当样本趋于无穷多时的统计性质。在实际应用中,样本的数目

通常是有限的,这时很多方法都难以取得理想效果。而统计学习理论是研究有限样本情

况下如何建立具有学习能力并具有推广能力的机器的理论。由于它为有限样本情况下机

器学习问题提供了有利的理论基础,表现出许多优良特性,因此目前引起人们的广泛关

注。

2.1.1机器学习问题的基本方法

机器学习的目的是根据给定的已知训练样本求取对系统输入输出之间依赖关系的

估计,使它能对未知输出作出尽可能准确的预测36。表示成数学形式即为:己知变量y 与

输入x 之间存在一定的未知依赖关系,即存在一个未知的联合概率(,)F x y ,机器学习就

是根据n 个独立同分布观测样本

1122(,),(,),...(,),n n x y x y x y

(2-1) 在一组函数{(,)}f x w 中求一个最优函数0{(,)}f x w ,使预测的期望风险R(w)

()(,(,))(,)R w L y f x w dF x y =? (2-2)

最小。其中,{(,)}f x w 称为预测函数集,w ∈Ω为函数的广义参数; (,(,))L x f x w 为由于

用{(,)}f x w 对y 进行预测造成的损失。对于模式识别问题,系统输出就是类别标号。在

两类情况下,{0,1}y =或{1,1}-是二值函数,这时预测函数称作指示函数,其损失函数

的基本定义可以是

{01(,(,))L y f x w = (,)(,)y f x w y f x w =≠ (2-3)

这时(,(,))L y f x w 也称为(01)-损失函数。使它最小的模式识别方法就是贝叶斯决策。

显然,要使式(2-2)定义的期望风险最小化,必须依赖关于联合概率(,)F x y 的信息,在

模式识别问题中就是必须先知道类先验概率和类条件概率密度。但在实际的机器学习问

题中,我们只能利用已知样本式(2-1)的信息,因此期望风险并无法直接计算和最小化。根据概率论中大数定理的思想,人们自然想到用算术平均代替式(2-2)中的数学期望,

于是定义了

11()(,(,))n

emp i i R w L y f x w n ==∑ (2-4)

来逼近式(2-2)的期望风险。由于()emp R w 是用己知训练样本(即经验数据)定义的,因此

称为经验风险。用对参数w 求经验风险()emp R w 的最小值代替期望风险()R w 的最小值,

就是所谓的经验风险最小化(ERM)原则。包括模式识别、神经网络在内的许多传统机器

学习方法都是在ERM 准则下提出的。在ERM 准则下,对于式(2-2),经验风险就是训练

样本错误率。

从期望风险最小化到经验风险最小化并没有可靠的理论依据,只是直观上的近似处

理办法。无法保证使()emp R w 和使()R w 最小的*w 是同一个点,更不能保证()emp R w 能够趋

近于*()R w 。其次,当样本数目有限时,更不能保证经验风险最小化方法的效果。

大量的研究事实证明,在有限样本情况下:

1、经验风险最小并不一定意味着期望风险最小;

2、学习机器的复杂性不但与所研究的系统有关,而且要和有限的学习样本相适应。

2.1.2 VC 维理论

虽然学习理论关键定理给出了经验风险最小化原则成立的充要条件,但并未指

明什么样的学习方法能满足这些条件。为此,统计学习理论定义了一些指标来衡量

函数集的性能,其中最重要的是VC 维(Vapnik-Chervonenkis Dimension )37。

设预测函数集{(,)}f x w 和一组n 个训练样本的样本集

{(,),1,2,...,}n i i i Z z x y i n ===。考虑函数集的分散性,看函数集中的函数能对这组样

本实现多少种不同的分类,记这个数目为()n N Z ,定义函数集的生长函数()G n 为所

有可能的样本集上的最大随机熵,即:

()ln max ()n n Z G n N Z = (2-5)

生长函数反映了函数集把n 个样本分成两类的最大可能的分法数目。因此,

()ln 2G n n ≤。由于它在所有可能的样本集中取最大,因此与样本分布无关。通过进一

步的研究,Vapnik 和Chervonenkis 在1968年发现了下面的定理:

定理2.2所有函数集的生长函数或者与样本数成正比,即:

()ln 2G n n = (2-6)

或者以下列样本数的某个对数函数为上界,即:

()(ln 1),n G n h n h h ≤+> (2-7)

其中h 是一个整数,它是从生长函数满足式(2-6)到满足式(2-7)的转折点,即当n h

=时,有()ln 2G h h =,而(1)(1)ln 2G h h +<+。

VC 维对于一个预测函数集,如果其生长函数是线性的,则它的VC 维无穷大;而如

果生长函数以参数为h 的对数函数为上界,则函数集的VC 维是有限的且等于h 。经验风

险最小化学习过程一致的充分必要条件是函数集的VC 维有限,且这时收敛速度是最快

的。

VC 维是目前为止对函数集学习性能的最好描述指标。但目前尚没有通用的计算任意

函数集的VC 维的理论,只有一些特殊的函数集的VC 维可以准确知道,而对于一些复杂

的学习机器,其VC 维除了与函数集选择有关,还要受学习算法等的影响。目前,计算

给定函数集的VC 维,仍然是统计学习理论中有待研究的问题。

2.1.3 推广性的界

得出基于经验风险最小化原理的学习算法缺乏理论依据仅仅解决了机器学习问题

的一个方面,为了提出理论己经更可靠的学习算法,Vapnik 和Chevroneknis 深入研究

了()emp R w 和()R w 的关系,得出如下结论:对指示函数集中的所有函数(包括是经验风险

最小的函数),经验风险()emp R w 和实际风险()R w 之间至少以概率1η-。满足如下关系:

log()()()(,)emp h R w R w n n ηφ≤+ (2-8)

其中,log()(,)h n n ηφ=,log()(,)h n n ηφ称为置信范围,h 是函数集的VC 维,n 是样本数。它给出了经验风险和真实风险之间差距的上界,反映了根据ERM 准

则得到的学习机器的推广能力,因此称为推广性的界38。由前面分析可得出:

1、从理论上说明了学习机器的实际风险是由两部分组成:一是经验风险,二是置信范围。置信范围与学习机器的VC 维及训练样本数有关。

2、样本数较少或VC 维较大时,/h n 较大,置信范围较大,用经验风险近似真实风险就

有较大的误差,用经验风险最小化取得的最优解可能就有较差的推广性;反之,当样本

数较多或VC 维较小时,/h n 较小,置信范围较小,用经验风险最小化的最优解就接近

实际的最优解。

3、对于特定问题,其样本数是固定的,此时学习机器的VC维越高,则置信范围就越大,导致真实风险与经验风险之间的差就越大。

至此不难理解神经网络的过学习问题。由于在有限样本情况下,如果神经网络模型或学习算法设计不合理,就会导致较高的VC维,这时即使经验风险较小,但由于置信范围较大,导致推广能力下降。

2.1.4结构风险最小(SRM)

图2.1 有序风险最小化示意图

由上面的分析可看出,ERM原则在样本有限时是不合理的,我们需要同时最小化经验风险和置信范围。其实,在传统方法中,选择学习模型和算法的过程就是调整置信范围的过程,如果模型比较适合现有的训练样本(相当于ln n值适当),则可以取得比较好的效果。但因为缺乏理论指导,这种选择只能依赖先验知识和经验,造成了如神经网络等方法对使用者“技巧”的过分依赖。统计学习理论提出了一种新的策略,即把函数集构造为一个函数子集序列,使各个子集按照VC维的大小排序,在每个子集中寻找最小经验风险,在子集间折衷考虑经验风险和置信范围,取得实际风险的最小,如图2.1所示。这种思想称为结构风险最小化即SRM准则39。统计学习理论还给出了合理的函数子集结构应满足的条件及在SRM准则下实际风险收敛的性质。

实现SRM原则可以有两种思路,一是在每个子集中求最小经验风险,然后选择使最小经验风险和置信范围之和最小的子集。显然这种方法很费时,当子集数很大甚至无穷

时是不可行的。因此有第二种思路,即设计函数集的某种结构使每个子集中都能取得最

小的经验风险(如使训练误差为0),然后只需选择适当的子集使置信范围最小,则这个

子集中使经验风险最小的函数就是最优函数。支持向量机方法实际就是这种思想的具体

体现。

2.2 支持向量机

2.2.1 支持向量机的基本原理

支持向量机(Support Vector Machine,SVM )是Vapnik 等人于20世纪60年代提

出的一种新的通用学习方法,它是建立在统计学的VC 维(Vapnik Chervonenks Dimension )理论和结构风险最小化原则(Structural Risk Minimization, SRM )基础

上的,具有很强的学习和泛化能力,能较好地解决小样本、非线性、高维数和局部极小

点等实际问题,且能较好地防止过学习40。

其基本思想可以简单描述为:在给定样本点完全可分或者近似可分的情况下,寻找

一个满足分类要求的分割平面,并使所给样本点距离分割平面尽可能地远。即在保证分

类精度的同时,最大化分割平面两侧的空白区域,因为空白区域越大意味着泛化性能越

好,如图2.2所示。

图2.2二维空间中的最优分类线示意图

1、线性分类

线性SVM 是基于超平面分类或者线性分离的思想41。

假设有N 个训练样本点1122{(,),(,),...(,)}N N x y x y x y ,其中d i x R ∈,{1}i y ∈±。我们

将训练一个线性分离超平面分类器:

()sgn()f x x b ω=?+

(2-9)

而且,我们要使这个超平面对于这两类问题有最大的分类间隔。我们要找出超平面 :0H y x b ω=?+=和两个平行于H 并且与H 的距离相等的超平面,

1:1H y x b ω=?+=+

(2-10) 2:1H y x b ω=?+=- (2-11)

1H 和2H 之间没有数据点,并且1H 和2H 之间的距离最大化。

对于所有的分离平面H 以及相应的1H 、2H ,我们经常归一化系数向量ω,所以

1:1H y x b ω=?+=+

2:1H y x b ω=?+=-

我们要最大化1H 和2H 之间的距离。有些正样本落在1H 上,有些负样本落在2H 上,

这些样本称为支持向量,因为它们参与超平面的定义,还有些样本不过1H 、2H 平面。

在1H 上的点到

:0H y x b ω=?+= (2-12) 的距离是1x b ωωω

?+=,1H 和2H 的距离是2ω。所以,为了最大化这个距离,我们必须在满足1H 和2H 之间没有数据点的条件下最小化T ωωω=。

1x b ω?+≥+ ,对于正样本1y =+ (2-13)

1x b ω?+≤-,对于负样本1y =-

(2-14) 以上两个条件可以组合成以下一个式子

()1i i y x b ω?+≥

(2-15) 我们的问题变成

,1min 2

T b ωωω subject to ()1i i y x b ω?+≥ (2-16)

对于上述约束规划问题的求解,引入拉格朗日乘子12,,...,0N ααα≥,我们有以下拉

格朗日函数

111(,,)()2N N T i i i i i i L b y x b ωαωωαωα===-?++∑∑ (2-17)

1(,,)0N i i i i L b y x ωαωαω=?=-=?∑ (2-18)

1(,,)0N

i i i L b y b ωαα=?==?∑ (2-19)

我们通过解决对偶问题Max (,,)L b ωα来解决原问题。对相应的ω和b 求偏导,可以找

到相应的对偶形式:

代入原拉格朗日函数得:

1,1(,,)2N i i j i j i j i i j

L b y y x x ωαααα==-

?∑∑ (2-20)

当我们求出了i α以后,就可以求出ω,1

N i i i i y x ωα==∑,并计算出b ,当一个新的样本来

的时候,我们可以用以下函数进行分类。

11()sgn()

sgn(())sgn(())

N i i i i N

i i i i f x x b y x x b y x x b ωαα===?+=?+=?+∑∑

(2-21)

上述理论推导的前提是数据集完全线性可分,但在实际应用中,数据集往往不是线

性可分,而是近似线性可分的。我们允许1H 和2H 之间有数据点,但是我们要惩罚这些

数据点。惩罚因子C 是有界的,当12,αα时,就是完全线性可分的情况了。

我们引入非负的松弛变量0i ξ≥,此时问题变成:

1i x b ωξ?+≥+-,对于正样本1i y =+,0,i i ξ≥?

(2-22) 1i x b ωξ?+≥--,对于负样本1i y =-,0,i i ξ≥?

(2-23) 我们在目标函数中加入惩罚因子:

令1m =,得

,1min ()2T m i b i

C ωωωξ+∑ Subject to ()10,1i i i y x b i N ωξ?++-≥≤≤ 0,1i i N ξ≥≤≤

(2-24)

引入拉格朗日因子,αμ,拉格朗日函数为:

1111(,,,)[()1]2N N N T T i i i i i i i i i i L b C y x b ωαμωωξαωξμξ====+--+--∑∑∑ (2-25)

求偏导,并令偏导为0,简化(,,,)L b ωαμ函数得: Max 1,1(,,)2N i i j i j i j i i j

L b y y x x ωαααα==-

?∑∑ Subject to 0i C α≤≤

0i

i i i y x α=∑

(2-26)

线性可分和不完全可分的区别在于线性可分的时候i α的上界是∞,不完全线性可分

的时候i α的上界是C 。

解是1N i i i

i y x ωα==∑ (2-27)

2.2.2 核函数

核函数,映射函数以及特征空间是一一对应的,确定了核函数K(x,y),就隐含地确

定了映射函数和特征空间F 42。对于线性不可分的情形,通常的做法是采用一个非线性映

射把输入向量映射到一个高维的特征空间,然后在高维的特征空间构造最优分界面,进

行线性分类,见图。高维空间中直接运用公式计算内积计算复杂度高,可能产生维数灾

难,核函数的作用就是接受两个低维空间里的向量,能够计算出经过某个变换后在高维

空间里的向量内积值。

图2.4 输入空间到特征空间的映射

目前最常用的核函数主要有以下四种。

线性核函数

(,)T i j i j K x x x x = 多项式核函数

(,)(),0T i j i j K x x x x r γγ=+> Sigmoid 核函数

(,)tanh()T i j i j K x x x x r γ=+ RBF 核函数 2

(,)exp(),0i j i j K x x x x γγ=--> 2.3 本章小结

本章主要介绍了与本文工作密切相关的基础理论及方法,包括统计学习理论、SVM

的基本原理以及核函数。

SVM 采用结构风险最小化代替经验风险最小化,较好地解决了小样本的学习问题。

对于线性不可分的情形,将低维原始空间映射到高维特征空间。引入核函数方法,巧妙

避开了高维空间中的复杂运算,使算法实现成为可能。

原输入空间数据点线性不可分 特征空间数据点线性可分

第3章复杂背景下的车牌定位

3.1汽车牌照的规格

根据中华人民共和国公安部2007年发布的《GA36-2007中国人民共和国机动车号牌》43可知,我国的车牌有四种类型:蓝底白字,黄底黑字,白底黑字或红字,黑底白字。黑底车牌用于使、领馆汽车、境外汽车和外籍汽车,除海关和关口城市外并不常见。车牌字符的颜色为黑色、白色或红色。同样红色字符的车牌也是不常见的。边框分为黑色和白色两种。我国的车牌种类比较多,但是车牌的尺寸、字间距统一。

车牌的字符排列如图3.1所示,车牌的外围轮廓是440140

?。车牌包括7个

mm mm

字符和1个点符号,一般第一个字符是汉字,第二个是英文字母,其他是数字或者字母。字符区域的总长度是409mm,每个字符是45mm,第二个字符和第三个字符的间距是34mm,其他字符的间距是12mm。

图3.1 车牌样式

3.2基于形态学和边缘检测的定位方法

车牌定位的目的就是从所拍摄的汽车图像中确定车牌区域的位置,从而便于后继的字符切分和字符识别工作。车牌定位是整个识别系统的首要步骤,正确而又可靠的检测出车牌区域是提高系统识别率的关键。在标准的576768

?的视频图象中,当车牌处于图象中间位置时,其所占像素为150个像素点是最佳视场大小44。

基于形态学和边缘检测的车牌定位算法包括5个主要步骤。其具体的算法流程图如图3.2所示。

图3.2 车牌定位算法流程

1、垂直边缘增强

边缘提取的方法有多种,常见的有Robert ,Sobel ,Laplace ,Prewit 和Susan 算

子等。考虑到车牌字符区域有很剧烈的垂直边缘,且Sobel 算子对垂直边缘检测有比较

好的效果,因此,本文选取Sobel 竖直边缘算子进行垂直边缘增强,Sobel 垂直边缘算

子如下:

101202

101

-????-????-?? (3-1)

原始图像和Sobel 算子进行卷积后,得到垂直边缘增强后的图像。增强前后效果如图3.3

所示:

图3.3 (a )原始汽车图像灰度图 (b )用Sobel 算子增强后的图像 我们可以看出,车牌字符区域突出了垂直边缘,这有利于车牌的提取。但是由于车

灯和汽车缓冲器部分也有明显的垂直边缘,这会干扰车牌的准确定位。

2、数学形态学处理

灰度形态学的主要应用有形态学图像平滑处理、形态学图像梯度、高帽变换、低帽变

换、纹理分割和粒度测定等。

下面分别介绍数学形态学中的膨胀运算、腐蚀运算、开运算、闭运算、高帽变换和低

帽变换。

设灰度图像为(,)f x y ,结构元素是(,)b x y ,f D 和b D 分别为f 和b 的定义域。用b 对

图像f 进行的灰度膨胀,表示为f b ⊕,定义为:

()max{(,)(,)|(),();(,)}f b f b f s x t y b x y s x t y D x y D ⊕=--+--∈∈ (3-2)

(1)通常对灰度图像进行膨胀的结果是45:

① 如果所有结构元素都为正,则输出的图像会趋向于比输入图像更亮。

② 暗的细节减少了还是被消除了,取决于膨胀所用的结构元素的值和形状。

用b 对图像f 进行的灰度腐蚀,表示为f b Θ,定义为:

()min{(,)(,)|(),();(,)}f b f b f s t t y b x y s x t y D x y D Θ=-----∈∈ (3-3)

(2)通常对灰度图像进行腐蚀的结果是:

① 如果所有结构元素都为正,则输出的图像会趋向于比输入图像更暗。

② 在输入图像中亮的细节的面积如果是比结构元素的面积小,则亮的效果将被削

弱,削弱的程度取决于环绕于亮细节周围的灰度值和结构元素自身的形状与幅

值。

用b 对图像f 进行的开运算表示为f b ,定义为:

()f b f b b =Θ⊕ (3-4)

用b 对图像f 进行的闭运算表示为f b ?,定义为:

()f b f b b ?=⊕Θ (3-5)

在实际应用中,开运算经常用于去除较小的(相对于结构元素的大小)的亮细节,

同时相对地保持整体的灰度级和较大的亮区域不变。开运算是先腐蚀后膨胀,先进行腐

蚀操作可以去除小的亮细节,但这样会使图像变暗;然后进行膨胀运算又会增强图像的

整体亮度,但不会将腐蚀操作去除的部分重新引入图像。闭运算是先膨胀后腐蚀,它常用于去除图像中的暗细节部分,而相对地保持亮区域部分不受影响。

top f b表示,高帽变换定义在形态开运算之上。高帽变换为原图像与开运算之差,用(,)

定义为:

=- (3-6)

top f b f f b

(,)()

低帽变换定义在形态闭运算之上。低帽变换为原始图像与闭运算之差,用bottom f b示:

(,)

=-?(3-7)

bottom f b f f b

(,)

高帽变换是原图减去开操作的图像。运用高帽运算后结果如图3.4所示。

图3.4 经过高帽运算后的汽车图像

可以看出采用高帽运算后,车牌部分仍能能够清晰保留,而大部分背景已经被抑制。可见采用高帽运算对图像进行预处理具有良好的适应性,取得了较好地抑制背景的效果。做完高帽运算后,图像中有一些小亮点,要去除这些小亮点,可以用使用腐蚀运算。腐蚀运算后的效果如图3.5所示。

相关文档
最新文档