计算机视觉各种方法

计算机视觉各种方法
计算机视觉各种方法

第33卷第1期自动化学报Vol.33,No.1 2007年1月ACTA AUTOMATICA SINICA January,2007

车辆辅助驾驶系统中基于计算机视觉的

行人检测研究综述

贾慧星1章毓晋1

摘要基于计算机视觉的行人检测由于其在车辆辅助驾驶系统中的重要应用价值成为当前计算机视觉和智能车辆领域最为活跃的研究课题之一.其核心是利用安装在运动车辆上的摄像机检测行人,从而估计出潜在的危险以便采取策略保护行人.本文在对这一问题存在的困难进行分析的基础上,对相关文献进行综述.基于视觉的行人检测系统一般包括两个模块:感兴趣区分割和目标识别,本文介绍了这两个模块所采用的一些典型方法,分析了每种方法的原理和优缺点.最后对性能评估和未来的研究方向等一系列关键问题给予了介绍.

关键词行人检测,车辆辅助驾驶系统,感兴趣区分割,目标识别

中图分类号TP391.41

A Survey of Computer Vision Based Pedestrian Detection

for Driver Assistance Systems

JIA Hui-Xing ZHANG Yu-Jin

Abstract Computer vision based pedestrian detection has become one of the hottest topics in the domain of computer vision and intelligent vehicle because of its potential applications in driver assistance systems.It aims at detecting pedestrians appearing ahead of the vehicle using a vehicle-mounted camera,so as to assess the danger and take actions to protect pedestrians in case of danger.In this paper,we give detailed analysis of the di?culties lying in the problem and review most of the literature.A typical pedestrian detection system includes two modules:regions of interest(ROIs) segmentation and object recognition.This paper introduces the principle of typical methods of the two modules and analyzes their respective pros and cons.Finally,we give detailed analysis of performance evaluation and propose some research directions.

Key words Pedestrian detection,driver assistance system,ROIs segmentation,object recognition

1引言

车辆辅助驾驶系统中基于计算机视觉的行人检测是指利用安装在运动车辆上的摄像机获取车辆前面的视频信息,然后从视频序列中检测出行人的位置.由于它在行人安全方面的巨大应用前景,成为智能车辆、计算机视觉和模式识别领域的前沿研究课题.欧盟从2000年到2005年连续资助了PROTECTOR[1]和SAVE-U[2]项目,开发了两个以计算机视觉为核心的行人检测系统;意大利Parma[3]大学开发的ARGO智能车也包括一个行人检测模块;以色列的MobilEye[4]公司开发了芯

收稿日期2006-3-14收修改稿日期2006-6-17

Received March14,2006;in revised form June17,2006

国家自然科学基金(60573148),教育部高等学校博士学科点专项科研基金(20060003102)资助

Supported by National Natural Science Foundation of P.R.China(60573148),Specialized Research Fund for the Doc-toral Program of Higher Education(20060003102)

1.清华大学电子工程系北京100084

1.Department of Electronic Engineering,Tsinghua University, Beijing100084

DOI:10.1360/aas-007-0084片级的行人检测系统;日本本田汽车公司[5]开发了基于红外摄像机的行人检测系统;国外的大学如CMU[6]、MIT[7,8]和国内的西安交通大学[9]、清华大学[10]也在该领域做了许多研究工作.

车辆辅助驾驶系统中基于计算机视觉的行人检测属于计算机视觉中人体运动分析的研究范畴,其主要任务是在运动摄像机下快速准确地检测行人.本文主要针对这一特定领域对相关的文献进行综述,重点分析常用方法的原理和优缺点,以期对相关的科技人员起到指导作用.对监控系统和体育运动分析领域中人体检测感兴趣的读者可以参考综述文献[11~14].

行人检测除了具有一般人体检测具有的服饰变化、姿态变化等难点外,由于其特定的应用领域还具有以下难点:摄像机是运动的,这样广泛应用于智能监控领域中检测动态目标的方法便不能直接使用;行人检测面临的是一个开放的环境,要考虑不同的路况、天气和光线变化,对算法的鲁棒性提出了很高的要求;实时性是系统必须满足的要求,这

c 2007by Acta Automatica Sinica.All rights reserved.

1期车辆辅助驾驶系统中基于计算机视觉的行人检测研究综述85

表1感兴趣区分割方法

Table1Methods for ROIs segmentation

原理优点缺点典型文献

基于运动的方法通过检测运动区域进行分

受行人姿态的影响较小检测不到静止行人[15]

基于距离的方法通过测量目标到汽车的距

离进行分割受行人姿态、颜色和光照

的影响较小

需要额外的测距设备,增

加了系统的造价和复杂性

雷达[2],立体视觉[1,6,

16,17]

基于图像特征的方法通过分析图像上的一些典

型的行人特征进行分割可以对得到的图像数据直

接操作

很难定义出比较鲁棒且易

于检测的特征

边缘[3]、熵[18]、纹理

[4]、“热点”[5,19]

基于摄像机参数的方法通过摄像机的几何关系确

定搜索区域可以只对感兴趣的区域处

需要对系统参数进行标

定,受车辆振动的影响

[3,4,19]

就要求采用的图像处理算法不能太复杂.

由上面的论述可以知道,系统的鲁棒性和实时性构成了一个矛盾,为了解决这种矛盾,现有的行人检测系统一般包括两个模块:感兴趣区(Regions of Interest,ROIs)分割和目标识别.ROIs分割的目的是从图像中提取可能包含行人的窗口区域作进一步验证,以避免穷尽搜索,提高系统的速度.目标识别是行人检测系统的核心,它对得到的ROIs进行验证,以判断其中是否包含行人,它的性能决定了整个系统可以达到的精度和鲁棒性.本文首先讨论这两个模块可以采用的方法和各种方法的优缺点,最后介绍一些现有的行人检测系统的性能并对未来的发展趋势做出详细的阐述.

2ROIs分割

根据分割所用的信息,可将ROIs分割的方法分为基于运动、基于距离、基于图像特征和基于摄像机参数四种方法.各种方法的基本原理和优缺点见表1.在实际系统中,各种方法通常结合在一起使用,彼此互补.

2.1基于运动的方法

基于运动的方法通过检测场景中的运动区域来得到ROIs.由于摄像机是运动的,所以要想应用该方法,必须首先补偿车辆自身的运动.例如Stein[15]等首先利用光流法估计车的运动,补偿车辆的运动后利用时间差分从而得到运动物体.基于运动的方法的优点是不受姿态的影响,比较鲁棒.缺点是只能检测运动的行人.所以目前主要应用在智能监控领域,在车辆辅助驾驶系统中往往只作为一个辅助的手段[4].

2.2基于距离的方法

基于距离的方法通过测量目标到汽车的距离来得到ROIs.可以用来测距的传感器主要包括雷达[2]和立体视觉[1,6,16,17].当雷达与摄像机结合时,必须要考虑各个传感器间的时间同步和空间同步问题.而立体视觉本身就是图像,便于后期的图像处理算法直接进行处理,所以目前大多数基于视觉的检测系统都采用立体视觉来分割出ROIs.基于距离的方法的优点是比较鲁棒,受光照和行人外貌的影响较小.缺点是需要额外的测距设备,从而增加了系统的造价和复杂度.

2.3基于图像特征的方法

基于图像特征的方法指通过检测与行人相关的图像特征从而得到ROIs.对于可见光图像来说,常用的特征包括竖直边缘[3]、局部区域的熵[18]和纹理[4]等.对于红外图像来说,主要根据人体尤其是人脸的温度比周围环境温度较高这一特征,通过检测一些“热点”[5,19](Hot spot)来得到ROIs.基于图像特征的方法的优点是直接利用了图像信息,不需要额外的传感器.缺点是由于环境的复杂多变,很难定义出对每种场景都适用的特征.对这种方法的要求是特征检测算法不能太复杂,整个系统的速度不应该低于对所有窗口进行穷尽识别的速度.目前采用这种方法进行分割的算法通常和后面的目标识别算法结合在一起,从而形成了一个单步检测算法.例如Viola[20,21]等设计的级联分类器的前几级就可以视为一个ROIs分割算法,后面的几个分类器被视为识别算法.

2.4基于摄像机参数的方法

摄像机的安装位置和摄像机参数也是一个很重要的考虑因素.它对行人在图像上出现的位置和每个位置上目标的大小给出了很多限制,合理利用这些限制可以大大地缩小搜索空间[3,4,19].该方法的优点是只需要处理可能发生危险的区域.缺点是需要对摄像机参数进行标定,并且受车辆振动的影响.

3目标识别

根据利用的信息的不同,目标识别可以分为基于运动的识别和基于形状的识别两种方法[22],各种方法的优缺点和相关文献可以参考表2.在一个实

86学报33卷

表2行人目标识别方法

Table2Methods for pedestrian recognition

基于运动的方法基于形状的方法

基于明确人体模型的方法基于模板匹配的方法基于统计分类的方法

原理通过分析行人步态(Gait)

的周期性来识别行人构造明确的人体参数模型

来表示行人

通过模板表示行人通过分类器对行人进行识

优点受颜色、光照的影响较小,

比较鲁棒具有明确的模型,方便处

理姿态和遮挡问题

计算方法简单不需要人工设置大量参

数、比较鲁棒

缺点只能识别运动行人,需要

多帧,影响实时性建模和求解比较复杂需要很多模板对付姿态问

题,匹配比较耗时间

需要大量的训练数据

典型

文献[18,23~25][10,19,26~28][1,3,29~31]NN[6,32~34]、SVM

[7~9,36~39]、Adaboost

[4,40,42]

际应用系统中,这两种方法通常结合在一起使用[4].

3.1基于运动的方法

基于运动的识别方法指通过分析人运动时的步态(Gait)特征来识别行人.人体的步态具有特定的周期性,通过分析图像序列的周期性,然后与行人步态的周期性的模式相比较,就可以识别出行人.基于运动的识别的好处是避免了人的纹理和光线变化的影响,缺点是只能识别运动的行人,并且要分析很多帧才能给出判决结果,影响系统的实时性.周期性的检测方法包括傅立叶变换和神经网络两种方法.Cutler和Davis[23]首先计算不同时间间隔图像之间的相关性,然后对得到的相关信号利用短时傅立叶变换进行分析,进而识别出行人.W¨o hler[24]等通过一个自适应时间延迟神经网络(Adaptive time delay neutral network)对图像序列进行分析,从而判断出该序列是否是人体的运动序列.以上两篇文献都是对行人的全身进行分析,由于行走的时候双腿的周期性更加明显,所以还可以通过分析双腿的周期性来识别行人[18,25].

3.2基于形状的方法

基于形状的识别方法指通过分析目标的灰度、边缘和纹理信息来对目标进行识别.基于形状的方法的优点是可以检测出静止的行人,缺点是容易产生大量的“虚警”(False positives).如表2所示,可将基于形状的行人识别方法分为基于明确人体模型(Explicit human model)的方法、基于模板匹配(Template matching)的方法和基于统计分类(Statistical classi?cation)的方法.

3.2.1基于明确人体模型的方法

基于明确人体模型的方法指根据人体结构的知识,构造一个明确的2D或3D参数模型,通过提取图像的底层特征来求解模型,从而识别行人.这种方法的优点是具有明确的模型,可以处理遮挡问题,并且可以推断出人体的姿态.缺点是模型比较难构建,模型求解也比较复杂.该种方法能否成功依赖于ROIs分割的准确度.Zhao[26]针对正面和侧面人体分别建立了一个2D的平移–旋转–尺度不变的人体概率模型,该模型不但包括人体的整体形状和各个部件的形状,而且包括各个部件的大小和空间位置等信息,这些信息为算法的求解提供了限制条件,可以根据这个模型推断出被遮挡或者漏掉的部分.采用2D模型的还有Sun[10]和Yasuno[27]等人,Sun等将人体分成头部、躯干和左右腿四个部分,而Yasuno等将人体分为头部和躯干两个部分.相对于2D模型,3D模型在处理姿态、视角变化和遮挡问题上有比较大的优势.在Bertozzi[19,28]等人开发的利用红外图像检测行人的系统中,针对不同的姿态和行人的衣着,建立了一系列3D人体模型来对红外图像中的行人进行识别.

3.2.2基于模板匹配的方法

基于模板匹配的方法通过存储一些灰度或者轮廓模板来表示行人,识别的时候只需要度量模板与输入窗口的距离就可以识别行人.基于模板匹配的算法的优点是计算简单,缺点是由于行人姿态的复杂性,很难构造出足够的模板以处理不同的姿态.基于模板匹配的最典型的算法是由Gavrila[29]提出的基于轮廓的分层匹配算法,该算法已经应用于PROTECTOR[1]项目.为了解决行人姿态的问题,Gavrila构造了将近2500个轮廓模板对行人进行匹配,从而识别出行人.为了解决众多模板引起的速度下降问题,Gavrila采用了由粗到细的分层搜索策略以加快搜索速度.匹配的时候通过计算模板与待检测窗口的距离变换(Distance transform,DT)图像之间的Chamfer[30]距离来度量两者之间的距离.采用DT图像而不是原始图像计算距离的好处是,得到的距离测度是模板变换参数的平滑函数,方便了快速搜索.基于轮廓的Chamfer距离的识别方法还被成功地应用于[31].除了对人的全身通过模板匹

1期车辆辅助驾驶系统中基于计算机视觉的行人检测研究综述87

配进行识别外,对于人体的局部部件同样也可以采用模板匹配的方法进行识别.例如,Broggi[3]等人利用不同大小的二值图像模板来对人头和肩部进行建模,通过将输入图像的边缘图像与该二值模板进行比较从而识别行人,该方法被用到意大利Parma 大学开发的ARGO智能车中.

3.2.3基于统计分类的方法

基于统计分类的方法通过机器学习从一系列训练数据中学习得到一个分类器,用该分类器来表示行人,然后利用该分类器对输入窗口进行识别.基于统计分类的方法的优点是比较鲁棒,缺点是需要很多训练数据,并且很难解决姿态和遮挡的问题.基于统计模型的方法主要包括两个步骤:特征提取和分类器设计.特征提取的目的是降低数据的维数,得到能反映模式本质属性的特征,方便后面的分类;分类器设计属于机器学习领域的范畴,其目的是得到一个计算复杂度较低,并且推广性较好的分类器.针对行人识别问题,可根据分类器的设计方法将现有的基于统计分类的方法分为基于神经网络(NN)的方法,基于支持向量机(SVM)的方法和基于Adaboost的方法.

神经网络通过学习的方法将模式的特征隐含在一系列的网络参数之中,可以描述极为复杂的模式,已经成功地应用在模式识别领域中的光栅字符识别和人脸检测上,它在行人的检测上也有广泛的应用[6,32~34].Zhao[6]采用图像梯度的幅值作为特征,采用三层的前馈神经网络作为分类器来识别行人,采用梯度而不是原始灰度图象或者二值图像的原因是为了消除光照的影响,同时避免二值化时阈值的选择问题.Szarvas[33]利用卷积神经网络(Convolutional neutral network,CNN)来识别行人,CNN直接利用原始图像灰度值作为输入,将特征的提取过程作为隐含节点包含在网络的结构中,通过学习算法自动选取最佳的分类特征.Franke[34]等人直接利用原始图像灰度作为神经网络的输入特征.

SVM是Vapnik[35]提出的基于结构风险最小化原理(Structural risk minimization principle, SRM)的统计学习理论,比基于经验风险最小化(Empirical risk minimization principle,ERM)的神经网络方法具有更好的泛化能力.最早提出利用SVM进行行人检测的是Oren[7]等人,Oren利用Haar小波特征,结合SVM算法构造了一个静态图片上的行人检测系统.该检测算法首先将原始图像灰度空间转换到过完备(Over-complete)的Haar小波系数空间,相对于原始灰度特征空间,Haar小波系数空间可以更有效地表征行人,从而为利用SVM 分类器进行分类打下良好的基础.基于Haar小波特征和SVM分类的行人识别方法引起了广大学者的兴趣,出现了许多改进的算法[8,36,37].Mohan[8]等人提出了基于部件(Component-based)的识别策略来解决人体的姿态问题.Grubb[36]设计了两个SVM分类器,一个针对正面和背面图像,另外一个针对侧面图像,然后将这两个分类器的判决结果进行融合.Oren的方法同样可以直接应用到红外图像里行人的识别上[37].对于红外图像,由于人体和背景的灰度差别比较明显,图像灰度值也可以直接作为SVM算法的输入[5,16].除此之外,形状描述符特征[38]、Gabor[9]特征、梯度方向的直方图特征[39]与SVM的结合也广泛地应用于现有的行人检测系统中.

Adaboost是一种分类器组合的策略,它的目的是将一些弱分类器组合成一个强分类器.Adaboost 得到的分类器具有较好的推广性能,现在广泛地应用于模式识别和计算机视觉领域.最早将Adaboost 应用到计算机视觉领域的是Viola等人,利用矩形特征、Adaboost算法和级联分类器成功地实现了第一个实时人脸检测系统[20].近几年的人脸检测算法几乎都是这一检测方法的改进.Viola同样将该方法应用到了监控系统中行人的检测上[21],该方法同时利用两帧的信息,利用一系列矩形模板提取外貌和运动信息,从而实现了监控系统中的低分辨率的行人的检测.Abramson[40]将Viola的方法直接应用到了汽车辅助系统中的行人识别上.除了方便快速计算的矩形特征外,SIFT[41](Scale invariant feature transform)特征由于其尺度不变的良好特性,它与Adaboost的结合也越来越受到学者的重视.Shashua[4]等给出了车辆辅助驾驶系统中的一个系统的行人检测方案,它将识别阶段分成两个部分,在单帧识别阶段利用Adaboost训练得到的分类器对行人进行识别,在多帧识别阶段通过分析行人的运动信息来进行综合的判决.在使用Adaboost 训练分类器时,利用了类似SIFT特征的梯度方向的直方图特征,为了解决行人的姿态问题,该方法根据姿态的不同,手工地将训练集分成了不同的子集,从而大大降低了类内的变化.基于Adaboost的检测方法同样可以结合分块检测策略以降低类内变化,Mikolajczyk[42]等人将人体分成七个部分,针对每一个部件利用类SIFT特征和Adaboost建立起一个检测器,然后将检测结果利用概率图模型进行融合从而识别站立的行人.

4现有的系统和性能

4.1评价方法

基于计算机视觉的行人检测的最难的问题是不

88学报33卷

表3典型行人检测系统的实验结果

Table3Experiments results of typical existing pedestrian detection systems

作者ROIs分割目标识别实验结果

Broggi[3]利用摄像机参数和竖

直边缘的对称性

利用人头的模板匹配仅仅给出了几张图片作例子,无详细测试结果

Gavrila[29]无分层模板匹配和RBF分类器基于检测的评价方法:用900张彼此无遮挡的图片做测

试,正确检测率为45%~75%,虚警率不详

Zhao[6]立体视觉利用梯度图像的神经网络分类器基于分类的评价方法:用8400个窗口作评价,正确率为

85.2%,虚警率为3.1%

Shashua[4]利用纹理特征基于SIFT特征的Adaboost分类器对于向马路内运动的行人的检测率为96%,在5个小时

的驾驶过程中只出现一个虚警.

Oren[7]无基于Haar特征的SVM基于分类的评价方法:检测率为69.6%,虚警率为

1:15000

Mohan[8]无基于Haar特征的SVM,将行人分块基于分类的评价方法:检测率为90%,虚警率为1:10000

同的算法的性能评价,由于评价数据和评价方法的不同,很难比较出不同算法的优劣.目前文献中的评价方法主要分为两类,基于分类器的评价和基于检测的评价.

基于分类器的评价针对“目标识别”这一步骤中采用的分类器的性能进行评价,正面测试样本是一系列和训练样本同样大小的包含行人的窗口,正确率一般用正确分类的窗口数量和总的窗口数量的比值来表示;负面测试样本是一系列不包含行人的窗口,虚警率用错误分类的窗口数量和总的窗口数量的比值来表示.基于分类器的评价方法的优点是简单、直接.缺点是这不是针对行人检测问题本身的评价,很难评价出一个行人检测系统的整体性能.

基于检测的评价是对行人检测问题本身的评价.测试数据一般是一个图片集或者视频序列,人工对行人在图像或视频中的位置进行标注.评价时将检测到的行人的位置和标注的位置进行比较,如果误差小于一个阈值,则判决为正确的检测结果,否则视为一个虚警.正确率被定义为正确检测到的目标个数和手工标注的目标个数的比值;虚警率被定义为一个数据集上出现的总的虚警的个数或者平均出现一个虚警个数的帧数.该评价方法的优点是是对检测问题本身的评价,直接评价了ROIs分割和目标识别两者结合在一起的性能;缺点是由于手工标注的主观性和判决正确检测结果阈值设置的不同,使得很难比较各个系统的优劣.

以上评价的方法仅仅是从模式识别的角度进行的评价,如果从行人检测的目的即防撞报警的角度出发,性能的评价更加复杂.例如,针对不同的行人对安全的影响,Shashua[4]等人将行人分为横穿马路的行人、静止的行人和沿着马路走的行人,针对这三种情况分别给出检测结果.Gavrila[1]在PROTECTOR项目的最终测试中为建立一个系统级的测试评价方法作出了尝试.

除了评价方法的不同外,各种算法用来做测试的数据集也不完全相同,使得算法的评价十分困难,建立一个公共的训练和测试数据库是该领域必须解决的一个问题.

4.2典型系统的性能

虽然行人检测的文献很多,但给出详细实验结果的并不太多,并且彼此采用的数据集和评价方法的差别很大,使得很难进行公平的比较.但为了对目前的系统的性能有一个直观的认识,表3给出了一些典型系统的实验结果和所采用的方法.其中的大部分结果仅仅还停留在PC上的仿真阶段,已经在汽车上做过测试的主要包括Broggi[3]等人的基于竖直边缘和简单人头模板验证的系统,Gavrila[29]等人的基于分层模板匹配的系统,Zhao[6]等人的基于神经网络的系统和Shashua[4]等人的基于Adaboost 的系统.

5总结与展望

本文介绍了车辆辅助驾驶系统中基于计算机视觉的行人检测研究的最新进展.在分析基于计算机视觉的行人检测难点的基础上,介绍了行人检测系统的组成和常用方法.基于计算机视觉的行人检测系统一般包括ROIs分割和目标识别两个模块. ROIs分割的目的是快速确定行人可能出现的区域,缩小搜索空间,目前常用的方法是采用立体摄像机或雷达的基于距离的方法,其优点在于速度比较快、比较鲁棒.目标识别的目的是在ROIs中精确检测行人的位置,目前常用的方法是基于统计分类的形状识别方法,其优点在于比较鲁棒.目前这一领域的最大问题是缺乏标准的测试数据库和测试方法.随着技术的进展,我们认为以下几个方面将有望成为未来的研究热点:

1)数据库和测试方法的标准化

目前,行人检测的最大的问题是没有一个统一

1期车辆辅助驾驶系统中基于计算机视觉的行人检测研究综述89

的测试数据和测试标准,研究还处于探索阶段,建立一个公共的数据库和标准的测试方法是该领域的一个首要任务.

2)多传感器融合

我们应当看到基于视觉的方法有其难以克服的弱点,首先是受光照和天气的影响较大,很难开发出对各种环境都鲁棒的算法,目前最成功的系统也仅仅是针对天气良好情况的结果[4].其次是立体视觉的测距的精度很差,很难估算出行人的精确位置,从而很难估计对行人造成的危险.第三,目前的行人检测算法仅仅处理站立的行人,而对于其它姿态的行人和自行车、摩托车等情况缺乏相应的处理.问题的解决依赖于多种传感器的融合.超声传感器可以测量近距离内的目标,可以应用于停车和倒车等情况;23GHz的微波雷达可以用来检测20米内的目标;77GHz的激光雷达可以检测120米内的目标;红外图像可以用来在夜间检测目标.将这些传感器有机地融合起来就可以构成一个覆盖所有空间和时间的检测系统,保证系统在任何条件下正常地工作,所以基于多传感器融合的行人检测系统是目前的研究热点,也是将来一段时间的研究方向.

References

1Gavrila D M,Giebel J,Munder S.Vision-based pedestrian detection:the protector system.In:Proceedings of IEEE Intelligent Vehicles Symposium.Parma,Italy.IEEE,2004.

13~18

2Tons M,Doer?er R,Meinecke M M,Obojski M A.Radar sensors and sensor platform used for pedestrian protection in the EC-funded project SAVE-U.In:Proceedings of IEEE Intelligent Vehicles Symposium.Parma,Italy.IEEE,2004.

813~818

3Broggi A,Bertozzi M,Fascioli A,Sechi M.Shape-based pedestrian detection.In:Proceedings of IEEE Intelligent Vehicles Symposium.Dearborn,USA.IEEE,2000.215~220 4Shashua A,Gdalyahu Y,Hayun G.Pedestrian detection for driving assistance systems:single-frame classi?cation and system level performance.In:Proceedings of IEEE Intelli-gent Vehicles Symposium.Parma,Italy.IEEE,2004.1~6

5Xu Feng-Liang,Liu Xia,Fujimura K.Pedestrian detection and tracking with night vision.IEEE Transactions on Intel-ligent Transportation Systems,2005,6(1):63~71

6Zhao Liang,Thorpe C.Stereo and neural network-based pedestrian detection.IEEE Transactions on Intelligent Transportation Systems,2000,1(3):148~154

7Oren M,Papageorgiou C,Sinha P,Osuna E,Poggio T.

Pedestrian detection using wavelet templates.In:Proceed-ings of IEEE Conference on Computer Vision and Pattern Recognition.San Juan,Puerto Rico.IEEE,1997.193~199 8Mohan A,Papageorgiou C,Poggio T.Example-based ob-ject detection in images by components.IEEE Transactions on Pattern Analysis and Machine Intelligence,2001,23(4): 349~361

9Cheng Hong,Zheng Nan-Ning,Qin Jun-Jie.Pedestrian de-tection using sparse Gabor?lter and support vector ma-chine.In:Proceedings of IEEE Intelligent Vehicles Sympo-sium.Vienna,Austria.IEEE,2005.583~58710Sun Hui,Hua Cheng-Ying,Luo Yu-Pin.A multi-stage clas-si?er based algorithm of pedestrian detection in night with

a near infrared camera in a moving car.In:Proceedings of

3rd IEEE International Conference on Image and Graphics.

Hong Kong,China.IEEE,2004.120~123

11Aggarwal J K,Cai Q.Human motion analysis:a review.

Computer Vision and Image Understanding,1999,73(3): 428~440

12Gavrila D M.The visual analysis of human movement:a https://www.360docs.net/doc/581207645.html,puter Vision and Image Understanding,1999, 73(1):82~98

13Pentland A.Looking at people:sensing for ubiquitous and wearable computing.IEEE Transactions on Pattern Analy-sis and Machine Intelligence,2000,22(1):107~119

14Wang Liang,Hu Wei-Ming,Tan Tie-Niu.Recent develop-ments in human motion analysis.Pattern Recognition,2003, 36(3):585~601

15Stein G P,Mano O,Shshua A.A robust method for comput-ing vehicle ego-motion.In:Proceedings of IEEE Intelligent Vehicles Symposium.Detroit,USA.IEEE,2000.362~368 16Liu Xia,Fujimura K.Pedestrian detection using stereo night vision.IEEE Transactions on Vehicular Technology,2004, 53(6):1657~1665

17Bertozzi M,Binelli E,Broggi A,Rose M D.Stereo vision-based approaches for pedestrian detection.In:Proceedings of2005IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Universita di Parma,Italy.

San Diego,CA,USA:IEEE,2005.3:16

18Curio C,Edelbrunner J,Kalinke T,Tzomakas C,Werner von Seelen.Walking pedestrian recognition.IEEE Trans-actions on Intelligent Transportation Systems,2000,1(3): 155~163

19Bertozzi M,Broggi A,Fascioli A,Graf T,Meinecke M M.

Pedestrian detection for driver assistance using multiresolu-tion infrared vision.IEEE Transactions on Vehicular Tech-nology,2004,53(6):1666~1678

20Viola P,Jones M.Rapid object detection using a boosted cascade of simple features.In:Proceedings of IEEE Con-ference on Computer Vision and Pattern Recognition.Mar-riott,Hawaii.IEEE,2001.1:511~518

21Viola P,Jones M,Snow D.Detecting pedestrians using pat-terns of motion and appearance.In:Proceedings of9th IEEE International Conference on Computer Vision.Paris, France.IEEE,2003.2:734~741

22Bertozzi M,Broggi A,Cellario M,Fascioli A,Lombardi P, Porta M.Arti?cial vision in road vehicles.Proceedings of the IEEE,2002,90(7):1258~1271

23Cutler R,Davis L S.Robust real-time periodic motion de-tection,analysis and applications.IEEE Transactions on Pattern Analysis and Machine Intelligence,2000,22(8): 781~796

24W¨o hler C,Kressler U,Anlauf J K.Pedestrian recognition by classi?cation of image sequences:global approaches vs.

local spatio-temporal processing.In:Proceedings of15th In-ternational Conference on Pattern Recognition.Barcelona, Spain.IEEE,2000.2:540~544

25Ran Yang,Zheng Qin-Fen,Weiss I,Davis L S,Abd-Almageed W,Zhao Liang.Pedestrian classi?cation from moving platforms using cyclic motion pattern.In:Pro-ceedings of International Conference on Image Processing.

Genoa,Italy.IEEE,2005.2:854~857

26Zhao Liang.Dressed Human Modeling,Detection,and Parts Localization[Ph.D.dissertation],CMU-RI-TR-01-19, Robotics Institute,Carnegie Mellon University,2001

90学报33卷

27Yasuno M,Yasuda N,Aoki M.Pedestrian detection and tracking in far infrared images.In:Proceedings of IEEE Conference on Computer Vision and Pattern Recogni-tion Workshop.Washington,DC,USA:IEEE Press,2004.

125~125

28Broggi A,Fascioli A,Grisleri P,Graf T,Meinecke M.Model-based validation approaches and matching techniques for automotive vision based pedestrian detection.In:Procee-dings of2005IEEE Computer Society Conference on Com-puter Vision and Pattern Recognition.Universita di Parma, Italy.San Diego,CA,USA:IEEE,2005.3:1

29Gavrila D M.Pedestrian detection from a moving vehicle.In: Proceedings of the6th European Conference on Computer Vision-Part II.London,UK:Springer-Verlag,2000.37~49 30Barrow H G,Tenenbaum J M,Bolles R C,Wolf H C.Para-metric correspondence and Chamfer matching:two new techniques for image matching.In:Proceedings of5th In-ternational Joint Conference on Arti?cial Intelligence.MIT, Cambridge,Massachusetts:MIT Press,1977.659~663

31Leibe B,Seemann E Schiele B.Pedestrian detection in crowded scenes.In:Proceedings of IEEE Conference on Computer Vision and Pattern Recognition.San Diego,CA.

IEEE,2005.1:878~885

32Tate S,Takefuji Y.Video-based human shape detection by deformable templates and neural network.In:Proceed-ings of6th International Conference on Knowledge-Based Intelligent Information&Engineering Systems.Podere

d Ombriano,Crema,Italy:IOS Press,2002.280~285

33Szaras M,Yoshizawa A,Yamamoto M,Ogata J.Pedestrian detection with convolutional neural networks.In:Proceed-ings of IEEE Intelligent Vehicles https://www.360docs.net/doc/581207645.html,s Vegas, Nevada.IEEE,2005.224~229

34Franke U,Joos A.Real-time stereo vision for urban tra?c scene understanding.In:Proceedings of IEEE Intelligent Vehicles Symposium.Dearborn,MI.IEEE,2000.273~278 35Vapnik V.The Nature of Statistical Learning Theory.

Berlin:Springer-Verlag,1999

36Grubb G,Zelinsky A,Nilsson L,Rilebe M.3D vision sens-ing for improved pedestrian safety.In:Proceedings of IEEE Intelligent Vehicles Symposium.Parma.IEEE,2004.19~24 37Andreone A,Bellotti F,Gloria A D,Lauletta R.SVM-based pedestrian recognition on near-infrared images.In:Proceed-ings of4th International Symposium on Image and Signal Processing and Analysis.Zagreb.IEEE,2005.274~278

38Dai Cong-Xia,Zheng Yun-Fei,Li https://www.360docs.net/doc/581207645.html,yered represen-tation for pedestrian detection and tracking in infrared im-agery.In:Proceedings of IEEE Conference on Computer Vi-sion and Pattern Recognition.San Diego,CA.IEEE,2005.

3:13~13

39Dalai N,Triggs B.Histograms of oriented gradients for human detection.In:Proceedings of IEEE Conference on Computer Vision and Pattern Recognition.San Diego.

IEEE,2005.1:886~893

40Abramson Y,Steux B.Hardware-friendly pedestrian detec-tion and impact prediction.In:Proceedings of IEEE In-telligent Vehicles Symposium.Parma,Italy.IEEE,2004.

590~595

41Lowe D G.Distinctive image features from scale-invariant keypoints.International Journal of Computer Vision,2004, 60(2):91~110

42Mikolajczyk K,Schmid C,Zisserman A.Human detection based on a probabilistic assembly of robust part detectors.

In:Proceedings of European Conference on Computer Vi-sion.Prague,Czech Republic.Springer,2004.69~82

贾慧星清华大学电子工程系博士生.

2003年获得北京交通大学电子信息工程

学院学士学位.研究领域为模式识别,

计算机视觉,智能车辆.本文通信作者.

Email:jiahx03@https://www.360docs.net/doc/581207645.html,

(JIA Hui-Xing Ph.D.candidate in

Department of Electronic Engineering

at Tsinghua University.He received his B.S.degree from Beijing Jiaotong University in2003.His research interests include pattern recognition,computer vi-sion,and intelligent vehicle.Corresponding author of this paper.)

章毓晋清华大学电子工程系教

授.主要科学研究领域为其积极倡

导的图象工程(图象处理、图象分

析、图象理解及其技术应用)和相

关学科.已在国内外发表了250多

篇图象工程研究论文,出版了专

著《图象分割》和《基于内容的视

觉信息检索》(科学出版社).主页:https://www.360docs.net/doc/581207645.html,/~zhangyujin/. (ZHANG Yu-Jin Professor of Department of Electronic Engineering,Tsinghua University.His research inter-ests include image processing,image analysis,and im-age understanding,as well as their applications.He has published extensively on image engineering and re-lated areas,with more than250research papers,and two monographs Image Segmentation and Content-based Visual Information Retrieval(Science Press).Home-page:https://www.360docs.net/doc/581207645.html,/~zhangyujin/.)

计算机视觉第八次作业

计算机视觉第八次作业 Standardization of sany group #QS8QHH-HHGX8Q8-GNHHJ8-HHMHGN#

第十一章 立体视觉 习题 证明:对于校正过的图像对,在第一个摄像机的归一化坐标系内,P 点深度可 以表示为B z d =-,其中B 是基线,d 是视差。 图 11-1 一个校正图像对 证明:为了证明B z d =-,有必要根据图11-1对题目背景及符号进行说明。 符号说明: 1) ∏、'∏分别为物体平面(d ∏)对应的两个像平面; 2) O 、O '分别为第一、二个摄像机的光心,且基线长度为B OO '=; 3) p 、p '分别为物体平面d ∏中点P 在两个像平面中的投影点; 4) q 、q '分别为物体平面d ∏中点Q 在两个像平面中的投影点; 5) 0C 、0 C '分别为过光心O 、O '与基线垂直相交的点(垂足); 6) H 为过Q 点与线段O O '垂直相交的点(垂足); 7) u 、u '的方向分别表示第一、二个摄像机坐标系的横轴x 的正方向,且 彼此相互平行; 8) v 、v '的方向分别表示第一、二个摄像机坐标系的纵轴y 的正方向,且 彼此相互平行; 9) 向量0OC 、0 O C ''的方向分别表示第一、二个摄像机坐标系的z 轴正方向,且彼此相互平行; 显然,p 点和p '点位于同一条扫描线上,不妨设p 点和p '的在各自坐标系中的坐标分别为(),u v 和(),u v ',则它们的横坐标之差为视差d u u '=-。 在图11-1中,根据上述符号描述以及相似三角形性质,有

0~QHO OC q ?? ? 00OH qC QH OC = (1) ~QHO O C q ''''?? ? 0 O H q C QH O C '''= '' (2) (1)式与(2)相加得 000 OO qC q C QH OC O C '''= + '' (3) 又因为在第一个摄像机位于归一化坐标系中,即 00 1OC O C ''==; 基线B OO '=,QH z =-,0qC u =-,0q C u '''=,代入(3)式得 证毕。 证明当两个窗口的图像亮度可以用一个仿射变换I I λμ'=+相联系时,相关函 数达到最大值1,其中λ和μ为某个常数,0λ>。 证明:考虑两幅图像I 和I ',分别用向量()12,, ,T p w w w w =和 ()1 2,,,T p w w w w ''''=表示。其中,w 、p w R '∈,()()2121p m n =+?+,m 和n 为正整数。则归一化相关函数可以表示为 显然,为使()max 1C d =,则当且仅当向量w w -与向量w w ''-之间的夹角 为零时,即() ,0w w w w λλ''-=->则 或 w w λμ'=+,,0w w μλλ'=-> 所以当两个窗口的图像亮度可以用一个仿射变换I I λμ'=+相联系时,相关函数达到最大值1,其中λ和μ为某个常数,0λ>。 证毕。

计算机视觉课程设计1

燕山大学 课程设计说明书题目:基于矩形物体的旋转角度测量 学院(系)电气工程学院 年级专业: 学号: 1301030200 1301030200 学生姓名: 指导教师: 教师职称:讲师 燕山大学课程设计(论文)任务书

院(系):电气工程学院基层教学单位:仪器科学与工程系 说明:此表一式四份,学生、指导教师、基层教学单位、系部各一份。 2016年 12 月 22 日燕山大学课程设计评审意见表

摘要 本文主要研究对矩形物体旋转角度的测量,并且比较每种方法的处理速度。通过对图像的滤波、二值化、边框的识别等等操作,完成对矩形物体的角度测量。本文采用五种方法分别对同一个矩形物体进行旋转角度测量,并比较其处理时间。五种方式分别为,边缘直线角度测量、对角线角度测量、矩形内部标准角度测量、角点边缘角度测量、垂线角度测量。 关键词:图像处理二值化旋转角测量定位识别

目录 第一章矩形物体的识别 (1) 1、图像滤波 (1) 2、图像的边缘检测 (2) 3、图像的二值化处理 (3) 4、图像的区域选择及处理 (4) 第二章旋转角度的测量 (6) 1、边缘直线角度测量 (6) 2、对角线角度测量 (8) 3、矩形内部标准角度测量 (9) 4、角点边缘角度测量 (10) 5、垂线角度测量 (11) 第三章算法时间的比较 (15) 参考文献 (16) 附录一 (17) 1、边缘直线角度测量程序 (17) 2、对角线角度测量程序 (17) 3、矩形内部标准角度测量程序 (18) 4、角点边缘角度测量程序 (19) 5、二值化-垂线角度测量程序 (23) 6、Soble-垂线角度测量程序 (24) 附录二 (26)

西电计算机视觉大作业

数字水印技术 一、引言 随着互联网广泛普及的应用,各种各样的数据资源包括文本、图片、音频、视频等放在网络服务器上供用户访问。但是这种网络资源的幵放也带了许多弊端,比如一些用户非法下载、非法拷贝、恶意篡改等,因此数字媒体内容的安全和因特网上的侵权问题成为一个急需解决的问题。数字水印作为一项很有潜力的解决手段,正是在这种情况下应运而生。 数字水印(技术是将一些代表性的标识信息,一般需要经过某种适合的变换,变换后的秘密信息(即数字水印),通过某种方式嵌入数字载体(包括文档、音频、软件等)当中,但不影响原载体的使用价值,也不容易被人的知觉系统(如视觉或听觉系统)觉察或注意到。通过这些隐藏在载体中的信息,可以达到确认内容创建者、购买者、传送隐秘信息或者判断载体是否被篡改等目的。在发生产权和内容纠纷时,通过相应的算法可以提取该早已潜入的数字水印,从而验证版权的归属和内容的真伪。 二.算法原理 2.1、灰度图像水印 2.1.1基本原理 处理灰度图像数字水印,采用了LSB(最低有效位)、DCT变换域、DWT变换域三种算法来处理数字水印。在此过程中,处理水印首先将其预处理转化为二值图像,简化算法。 (1)LSB算法原理:最低有效位算法(Least Sig nificant Bit , LSB)是很常见的空间域信息隐藏算法, 该算法就是通过改变图像像素最不重要位来达到嵌入隐秘信息的效果, 该方法隐藏的信息在人的肉眼不能发现的情况下, 其嵌入方法简单、隐藏信息量大、提取方法简单等而获得广泛应用。LSB 信息嵌入过程如下: S′=S+f S ,M 其中,S 和S′分别代表载体信息和嵌入秘密信息后的载密信息;M为待嵌入的秘密信息, 而隐写分析则是从S′中检测出M以至提取M 。 (2)DCT算法原理:DCT 变换在图像压缩中有很多应用,它是JPEG,MPEG 等数据

数字图像处理教学大纲(2014新版)

数字图像处理 课程编码:3073009223 课程名称:数字图像处理 总学分: 2 总学时:32 (讲课28,实验4) 课程英文名称:Digital Image Processing 先修课程:概率论与数理统计、线性代数、C++程序设计 适用专业:自动化专业等 一、课程性质、地位和任务 数字图像处理课程是自动化专业的专业选修课。本课程着重于培养学生解决智能化检测与控制中应用问题的初步能力,为在计算机视觉、模式识别等领域从事研究与开发打下坚实的理论基础。主要任务是学习数字图像处理的基本概念、基本原理、实现方法和实用技术,并能应用这些基本方法开发数字图像处理系统,为学习图像处理新方法奠定理论基础。 二、教学目标及要求 1.了解图像处理的概念及图像处理系统组成。 2.掌握数字图像处理中的灰度变换和空间滤波的各种方法。 3.了解图像变换,主要是离散和快速傅里叶变换等的原理及性质。 4.理解图像复原与重建技术中空间域和频域滤波的各种方法。 5. 理解解彩色图像的基础概念、模型和处理方法。 6. 了解形态学图像处理技术。 7. 了解图像分割的基本概念和方法。 三、教学内容及安排 第一章:绪论(2学时) 教学目标:了解数字图像处理的基本概念,发展历史,应用领域和研究内容。通过大量的实例讲解数字图像处理的应用领域;了解数字图像处理的基本步骤;了解图像处理系统的组成。 重点难点:数字图像处理基本步骤和图像处理系统的各组成部分构成。 1.1 什么是数字图像处理 1.2 数字图像处理的起源

1.3.1 伽马射线成像 1.3.2 X射线成像 1.3.3 紫外波段成像 1.3.4 可见光及红外波段成像 1.3.5 微波波段成像 1.3.6 无线电波成像 1.3.7 使用其他成像方式的例子 1.4 数字图像处理的基本步骤 1.5 图像处理系统的组成 第二章:数字图像基础(4学时) 教学目标:了解视觉感知要素;了解几种常用的图像获取方法;掌握图像的数字化过程及其图像分辨率之间的关系;掌握像素间的联系的概念;了解数字图像处理中的常用数学工具。 重点难点:要求重点掌握图像数字化过程及图像中像素的联系。 2.1 视觉感知要素(1学时) 2.1.1 人眼的构造 2.1.2 眼镜中图像的形成 2.1.3 亮度适应和辨别 2.2 光和电磁波谱 2.3 图像感知和获取(1学时) 2.3.1 用单个传感器获取图像 2.3.2 用条带传感器获取图像 2.3.3 用传感器阵列获取图像 2.3.4 简单的图像形成模型 2.4 图像取样和量化(1学时) 2.4.1 取样和量化的基本概念 2.4.2 数字图像表示 2.4.3 空间和灰度级分辨率 2.4.4 图像内插 2.5 像素间的一些基本关系(1学时) 2.5.1 相邻像素 2.5.2 临接性、连通性、区域和边界 2.5.3 距离度量 2.6 数字图像处理中所用数学工具的介绍 2.6.1 阵列与矩阵操作

图像处理课程设计报告

图像处理课程设计报告 导语:设计是把一种设想通过合理的规划周密的计划通过各种感觉形式传达出来的过程。以下是XX整理图像处理课程设计报告的资料,欢迎阅读参考。 图像处理课程设计报告1 摘要:图像处理技术从其功能上可以分为两大类:模拟图像处理技术、和数字图像处理技术。数字图像处理技术指的是将图像信号直接转换成为数字信号,并利用计算机进行处理的过程,其主要的特点在于处理的精度高、处理的内容丰富、可以进行复杂、难度较高的处理内容。当其不在于处理的速度比较缓慢。当前图像处理技术主要的是体现在数字处理技术上,本文说阐述的图像处理技术也是以数字图像处理技术为主要介绍对象。数字图像处理又称为计算机图像处理,它是指将图像信号转换成数字信号并利用计算机对其进行处理的过程。近年来, 图像处理技术得到了快速发展, 呈现出较为明显的发展趋势, 了解和掌握这些发展趋势对于做好目前的图像处理工作具有前瞻性的指导意义。本文总结了现代图像处理技术的三点发展趋势。 对图像进行处理(或加工、分析)的主要目的有三个方面: (1)提高图像的视感质量,如进行图像的亮度、彩色变换,增强、抑制某些成分,对图像进行几何变换等,以改善图像的质量。(2)提取图像中所包含的某些特征或特殊信息,这些被提

取的特征或信息往往为计算机分析图像提供便利。提取特征或信息的过程是计算机或计算机视觉的预处理。提取的特征可以包括很多方面,如频域特征、灰度或颜色特征、边界特征、区域特征、纹理特征、形状特征、拓扑特征和关系结构等。 (3)图像数据的变换、编码和压缩,以便于图像的存储和传输。不管是 何种目的的图像处理,都需要由计算机和图像专用设备组成的图像处理系统对图像数据进行输入、加工和输出。 数字图像处理主要研究的内容有以下几个方面: 图像变换由于图像阵列很大,直接在空间域中进行处理,涉及计算量很大。因此,往往采用各种图像变换的方法,如傅里叶变换、沃尔什变换、离散余弦变换等间接处理技术,将空间域的处理转换为变换域处理,不仅可减少计算量,而且可获得更有效的处理。目前新兴研究的小波变换在时域和频域中都具有良好的局部化特性,它在图像处理中也有着广泛而有效的应用。 图像编码压缩图像编码压缩技术可减少描述图像的数据量,以便节省图像传输、处理时间和减少所占用的存储器容量。压缩可以在不失真的前提下获得,也可以在允许的失真条件下进行。编码是压缩技术中最重要的方法,它在图像处理技术中是发展最早且比较成熟的技术。

计算机视觉应用专题报告

二、技术应用场景及典型厂商分析 1.计算机视觉技术已应用于传统行业和前沿创新,安全/娱乐/营销成最抢先落地的商业化领域 计算机视觉技术已经步入应用早期阶段,不仅渗透到传统领域的升级过程中,还作为最重要的基础人工智能技术参与到前沿创新的研究中。 本报告将重点关注技术对传统行业的影响。其中,计算机对静态内容的识别应用主要体现在搜索变革和照片管理等基础服务层面,意在提升产品体验;伴随内容形式的变迁(文字→图片→视频),动态内容识别的需求愈加旺盛,安全、娱乐、营销成为最先落地的商业化领域。 Analysys易观认为,这三类领域均有一定的产业痛点,且均是视频内容产出的重地,数据体量巨大,适合利用深度学习的方式予以改进。与此同时,行业潜在的商业变现空间也是吸引创业者参与的重要原因。 另一方面,当前计算机视觉主要应用于二维信息的识别,研究者们还在积极探索计算机对三维空间的感知能力,以提高识别深度。

2.计算机视觉的应用从软硬件两个层面优化安防人员的作业效率和深度 安防是环境最为复杂的应用领域,通常的应用场景以识别犯罪嫌疑人、目标车辆(含套牌车/假牌车)以及真实环境中的异常为主。 传统安防产品主要功能在于录像收录,只能为安防人员在事后取证的环节提供可能的线索,且需要人工进行反复地逐帧排查,耗时耗力;智能安防则是将视频内容结构化处理,通过大数据分析平台进行智能识别搜索,大大简化了工作难度,提高工作效率。 除此之外,在硬件层面上,传统安防产品超过4-5米的监控内容通常无法达到图像识别的像素要求,并容易受复杂环境中光影变化和移动

遮挡的影响而产生信息丢失,因此计算机会出现大量的误报漏报,这些局限为治安工作造成了一定的阻碍。 安防技术厂商在此基础上进行了创新,以格灵深瞳为例,目前已将摄像头的有效识别距离稳定至70-80米,同时开创了三维计算机视觉的应用,通过整合各类传感器达到类人眼的效果,减弱了环境对信息采集的负面影响,提高复杂环境下的识别准确度。 Analysys易观认为,计算机视觉的应用从行业痛点出发,以软硬件的方式大大优化了安防人员的作业效率与参考深度,是顺应行业升级的利好。不过,在实际应用过程中,对公安、交警、金融等常见安防需求方而言,更强的视觉识别效果往往意味着更多基础成本(存储、带宽等)的投入,安防厂商的未来将不只以技术高低作为唯一衡量标准,产品的实用性能与性价比的平衡才是进行突围、实现量产的根本,因此市场除了有巨大的应用空间外,还会引发一定的底层创新。

中国海洋大学计算机视觉课程大纲(理论课程)-中国海洋大学信息科学与

中国海洋大学计算机视觉课程大纲(理论课程) 英文名称:Computer Vision 【开课单位】信息学院计算机系【课程模块】工作技能 【课程编号】080504301305 【课程类别】选修 【学时数】68 (理论51 实践17 )【学分数】3.5 一、课程描述 (一)教学对象 计算机相关专业学生。 (二)教学目标及修读要求 1、教学目标 了解计算机视觉的应用领域,掌握基本的图像分割、特征检测、聚类及分类算法,理解相机模型以及相机标定方法,学会利用已有相关算法,使用OpenCV进行相关视觉应用的开发。 2、修读要求 计算机视觉属于计算机专业的一门新课,和研究前沿结合的比较紧密,需要学生具有数字图像处理、计算机图形学以及线性代和概率论方面的基础。 (三)先修课程 数字图像处理。 二、教学内容 (一)绪论 1、主要内容:介绍计算机视觉的基本概念,应用领域,发展历史等相关内容。 2、教学要求:了解计算机视觉的应用领域及学习的内容。 (二)第二章图像形成 1、主要内容:几何基元和变换,光度测定学的图像形成,数字摄像机。 2、教学要求:理解图像形成的物理过程,包括相机镜头的物理特性对图像形成过程的影响,掌握3D到2D的投影变换,掌握相机内参和外参的概念。 3、重点、难点:相机内参和外参的标定。 (三)第三章图像处理 1、主要内容:点算子,线性滤波器,其他邻域算子,傅里叶变换,几何变换等。 2、教学要求:掌握数字图像处理课程相关的基本内容,包括空间域的图像处理及频率域的图像处理基本方法。 3、重点、难点:傅里叶变换。 (四)第四章特征检测与匹配 1、主要内容:图像的点与块,图像的边缘,直线。 2、教学要求:理解图像特征的概念,掌握几种特征(点、块、边缘、直线)的检测方法,了解特征匹配的在图像拼接及相机标定等方面的应用。 3、重点、难点:几种特征描述子的生成过程。 (五)第五章图像分割 1、主要内容:活动轮廓,基于区域的分割。 2、教学要求:掌握几种流行的图像分割方法,包括基本的阈值方法,活动轮廓方法,基于聚类的方法。 (六)第六章基于特征的配准 1、主要内容:基于2D和3D特征的配准,姿态估计,几何内参标定。

人脸识别课程设计论文(完美版)

前言 在人类社会的发展进入到21世纪的今天,安全问题已经成为困扰人们日常生活的重要问题之一。社会的发展促进了人的流动性,进而也增加了社会的不稳定性,使得安全方面的需求成为21世纪引起广泛关注的问题。不论是享受各项服务如网上冲浪、还是居家、办公等都涉及到安全,以往这些行为基本上是通过符号密码来进行安全保护,但是随着服务数量的不断增加,密码越来越多以致无法全部记住,而且密码有时也会被他人所窃取,各种密码被破解的概率越来越高,因为通常由于记忆的原因,人们经常会选用自己或亲人的生日、家庭地址、电话号码等作为密码并长期使用,这些很容易被一些不法分子获取。可见在现代社会中,身份识别已经成为人们日常生活中经常遇到的一个基本问题。人们乎时时刻刻都需要鉴别别人的身份和证明自己的身份,以获得对特定资源的使用权或者制权,同时防止这些权限被他人随意的取得。传统的身份识别方法主要基于身份标识物(如证件、卡片)和身份标识知识(如用户名、密码)来识别身份,这在很长一段时期是非常可靠和方便的识别方法,得到了广泛的应用。但是,随着网络、通信、交通等技的飞速发展,人们活动的现实空间和虚拟空间不断扩大,需要身份认证的场合也变得无不在。人们需要携带的身份标识物品越来越多,身份标识知识也变得越来越复杂和冗长在这种情况下,传统身份识别方式的弊端日益彰显。身份标识物品容易被丢失和伪造,份标识知识容易被遗忘、窃取和破解,而身份标识的重要性又使得一旦失去了身份标识会给标识的所有者甚至整个社会带来重大的甚至难以弥补的损失。在美国,每年约有上百万的福利款被人以假冒的身份领取;每年发生的信用卡、ATM、移动电话和冒领支票等成的损失达数百亿美元[2]。面临着这样的状况,人们对身份识别的安全性、可靠性、准确和实用性提出了更高的要求,必须寻求身份识别的新途径。 于是,近年来人类生物特征越来越广泛地用于身份识别,而且生物特征可以更好的进行安全控制,世界各国政府都在大力推进生物识别技术的发展及应用。与原有的人类身分识别技术(如:个人密码、磁卡、智能卡等)相比,基于人类生物特征的识别技术具有安全可靠、特征唯一、不易伪造、不可窃取等优点。人类本身具有很多相对独特的特征,如DNA、指纹、虹膜、语音、人脸等。基于这些相对独特的人类特征,结合计算机技术,发展起众多的基于人类生物特征的人类身份识别技术,如DNA识别技术、指纹识别技术、虹膜识别技术、语音识别技术、人脸识别技术。 人脸识别和其他的生物识别比起来有以下几个优点:1、其他的生物特征识别方法都需要一些人为的行为配合,而人脸识别不需要。2、人脸识别可应用在远距离监控中。3、针一对现在的第一、二代身份证,每个身份证都有人脸的正面照片,也就是人脸库将是最完善的,包括人最多的,我们可以利用这个库来更直观、更方便的核查该人的身份。 4、相对于其他基于生物特征识别技术,人脸识别技术具有特征录入方一便,信息丰富,使用面广等优点,同时人脸识别系统更加直接友好。人脸识别技术作为生物识别技术的

计算机图形学课程设计书

计算机图形学课程设计 书 文档编制序号:[KKIDT-LLE0828-LLETD298-POI08]

课程设计(论文)任务书 理学院信息与计算科学专业2015-1班 一、课程设计(论文)题目:图像融合的程序设计 二、课程设计(论文)工作: 自2018 年1 月10 日起至2018 年1 月12日止 三、课程设计(论文) 地点: 2-201 四、课程设计(论文)内容要求: 1.本课程设计的目的 (1)熟悉Delphi7的使用,理论与实际应用相结合,养成良好的程序设计技能;(2)了解并掌握图像融合的各种实现方法,具备初步的独立分析和设计能力;(3)初步掌握开发过程中的问题分析,程序设计,代码编写、测试等基本方法;(4)提高综合运用所学的理论知识和方法独立分析和解决问题的能力; (5)在实践中认识、学习计算机图形学相关知识。 2.课程设计的任务及要求 1)基本要求: (1)研究课程设计任务,并进行程序需求分析; (2)对程序进行总体设计,分解系统功能模块,进行任务分配,以实现分工合作;(3)实现各功能模块代码; (4)程序组装,测试、完善系统。 2)创新要求: 在基本要求达到后,可进行创新设计,如改进界面、增加功能或进行代码优化。

3)课程设计论文编写要求 (1)要按照书稿的规格打印誊写课程设计论文 (2)论文包括封面、设计任务书(含评语)、摘要、目录、设计内容、设计小结(3)论文装订按学校的统一要求完成 4)参考文献: (1)David ,《计算机图形学的算法基础》,机械工业出版社 (2)Steve Cunningham,《计算机图形学》,机械工业出版社 (3) 5)课程设计进度安排 内容天数地点 程序总体设计 1 实验室 软件设计及调试 1 实验室 答辩及撰写报告 1 实验室、图书馆 学生签名: 2018年1月12日 摘要 图像融合是图像处理中重要部分,能够协同利用同一场景的多种传感器图像信息,输出一幅更适合于人类视觉感知或计算机进一步处理与分析的融合图像。它可明显的改善单一传感器的不足,提高结果图像的清晰度及信息包含量,有利于更为准确、更为可靠、更为全面地获取目标或场景的信息。图像融合主要应用于军事国防上、遥感方面、医学图像处理、机器人、安全和监控、生物监测等领域。用于较多也较成熟的是红外和可见光的融合,在一副图像上显示多种信息,突出目标。一般情况下,图像融合由

计算机视觉系统及其应用

课程设计 课程名称工业自动化专题 题目名称_计算机视觉系统及其应用学生学院_____自动化________ 专业班级______ 学号 学生姓名____ 指导教师___________ 2013 年 6月 25日

机器视觉系统及其应用 摘要:主要介绍机器视觉系统的概要,简要分析机器视觉的特点、优越性和应用,具体介绍了机器视觉技术在印刷行业、农业、工业、医学中的实际应用,并且分别举例说明。机器视觉的诞生和应用在理论和实际中均具有重要意义。 关键词:机器视觉;标签检测;药物检测;水果品质检测;硬币检测。 1. 机器视觉系统 1.1 机器视觉系统简介 机器视觉系统是指利用机器替代人眼做出各种测量和判断。机器视觉是工程领域和科学领域中的一个非常重要的研究领域,它是一门涉及光学、机械、计算机、模式识别、图像处理、人工智能、信号处理以及光电一体化等多个领域的综合性学科。 机器视觉系统通过图像摄取装置将被摄取目标转换成图像信号,传送给专用的图像处理系统,根据像素分布和亮度、颜色等信息,转变成数字化信号。机器视觉系统可以快速获取大量信息,而且易于自动处理,也易于同设计信息以及加工控制信息集成。 机器视觉系统的优点有:1.非接触测量,对于被检测对象不会产生任何损伤,而且提高了系统能够的可靠性;2.较宽的光谱响应范围,例如使用人眼看不见的红外测量,扩展人眼的视觉范围;3.长时间稳定工作,人类难以长时间对同一对象进行观察,而机器视觉系统则可以长时间地作测量、分析和识别任务。 现在,机器视觉系统在工业、农业、国防、交通、医疗、金融甚至体育、娱乐等等行业都获得了广泛的应用,可以说已经深入到我们的生活、生产和工作的方方面面。 1.2 基本原理 图 1 是机器视觉系统的基本结构,在一定的光照(包括可见光,红外线甚至超声波等各种成象手段)条件下,成象设备(摄象机,图像采集板等)把三维场景的图像采集到计算机内部,形成强度的二维阵列——原始图象;然后,运用图像处理技术对采集到的原始图像进行预处理以得到质量改善了的图像;其次,运用机器视觉技术从图像中提取感兴趣的特征分类整理;,构成对图像的进一步,运用模式识别技术对抽取到的特征进行描述;最后,运用人工智能得到更高层次的抽象描述。完成视觉系统的任务。 图1机器视觉的基本结构

简单好上手的图像分类教程!

简单好上手的图像分类教程! 今天,Google AI再次放出大招,推出一个专注于机器学习实践的“交互式课程”,第一门是图像分类机器学习实践,已有超过10000名谷歌员工使用这个教程构建了自己的图像分类器。内容简明易上手,不妨来试。 几个月前,Google AI教育项目放出大福利,将内部机器学习速成课程(MLCC)免费开放给所有人,以帮助更多开发人员学习和使用机器学习。 今天,Google AI再次放出大招,推出一个专注于机器学习实践的“交互式课程”。公开的第一门课程是谷歌AI团队与图像模型方面的专家合作开发的图像分类机器学习实践。 这个动手实践课程包含视频、文档和交互式编程练习,分步讲解谷歌最先进的图像分类模型是如何开发出来的。这一图像分类模型已经在Google相册的搜索功能中应用。迄今为止,已经有超过10000名谷歌员工使用这个实践指南来训练自己的图像分类器,识别照片上的猫和狗。 在这个交互式课程中,首先,你将了解图像分类是如何工作的,学习卷积神经网络的构建模块。然后,你将从头开始构建一个CNN,了解如何防止过拟合,并利用预训练的模型进行特征提取和微调。 机器学习实践:图像分类 学习本课程,你将了解谷歌state-of-the-art的图像分类模型是如何开发出来的,该模型被用于在Google Photos中进行搜索。这是一个关于卷积神经网络(CNN)的速成课程,在学习过程中,你将自己构建一个图像分类器来区分猫的照片和狗的照片。 预计完成时间:90~120 分钟 先修要求 已学完谷歌机器学习速成课程,或有机器学习基本原理相关的经验。 精通编程基础知识,并有一些Python编程的经验 在2013年5月,谷歌发布了对个人照片进行搜索的功能,用户能够根据照片中的对象在

计算机视觉第二次作业实验报告

大学计算机视觉实验报告 摄像机标定 :振强 学号:451 时间:2016.11.23

一、实验目的 学习使用OpenCV并利用OpenCV进行摄像机标定,编程实现,给出实验结果和分析。 二、实验原理 2.1摄像机标定的作用 在计算机视觉应用问题中,有时需要利用二位图像还原三维空间中的物体,从二维图像信息出发计算三维空间物体的几何信息的过程中,三维空间中某点的位置与二维图像中对应点之间的相互关系是由摄像机的几何模型决定的,这些几何模型的参数就是摄像机参数,而这些参数通常是未知的,摄像机标定实验的作用就是通过计算确定摄像机的几何、光学参数,摄像机相对于世界坐标系的方位。 2.2摄像机标定的基本原理 2.2.1摄像机成像模型 摄像机成像模型是摄像机标定的基础,确定了成像模型才能确定摄像机外参数的个数和求解的方法。计算机视觉研究中,三维空间中的物体到像平面的投影关系即为成像模型,理想的投影成像模型是光学中的中心投影,也称为针孔模型。实际摄像系统由透镜和透镜组组成,可以由针孔模型近似模拟摄像机成像模型。 图2.1 针孔成像 2.2.2坐标变换 在实际摄像机的使用过程中,为方便计算人们常常设置多个坐标系,因此空间点的成像过程必然涉及到许多坐标系之间的相互转化,下面主要阐述几个重要坐标系之间的转换关系。

2.2.2.1世界坐标系--摄像机坐标系 图2.2 世界坐标系与摄像机坐标系空间关系 世界坐标系与摄像机坐标系之间的转换关系为: ????? ? ????????????=???? ????????111w w w T c c c Z Y X O T R Z Y X R 和T 分别是从世界坐标系到摄像机坐标系的旋转变换和平移变换系数,反映的是世界坐标系和摄像机坐标系之间的关系,因此称为外参数。 2.2.2.2物理坐标系--像素坐标系 图2.3 像素坐标系

《人工智能》课程教学大纲.doc

《人工智能》课程教学大纲 课程代码:H0404X 课程名称:人工智能 适用专业:计算机科学与技术专业及有关专业 课程性质:本科生专业基础课﹙学位课﹚ 主讲教师:中南大学信息科学与工程学院智能系统与智能软件研究所蔡自兴教授 总学时:40学时﹙课堂讲授36学时,实验教学4学时﹚ 课程学分:2学分 预修课程:离散数学,数据结构 一.教学目的和要求: 通过本课程学习,使学生对人工智能的发展概况、基本原理和应用领域有初步了解,对主要技术及应用有一定掌握,启发学生对人工智能的兴趣,培养知识创新和技术创新能力。 人工智能涉及自主智能系统的设计和分析,与软件系统、物理机器、传感器和驱动器有关,常以机器人或自主飞行器作为例子加以介绍。一个智能系统必须感知它的环境,与其它Agent和人类交互作用,并作用于环境,以完成指定的任务。 人工智能的研究论题包括计算机视觉、规划与行动、多Agent系统、语音识别、自动语言理解、专家系统和机器学习等。这些研究论题的基础是通用和专用的知识表示和推理机制、问题求解和搜索算法,以及计算智能技术等。 此外,人工智能还提供一套工具以解决那些用其它方法难以解决甚至无法解决的问题。这些工具包括启发式搜索和规划算法,知识表示和推理形式,机器学习技术,语音和语言理解方法,计算机视觉和机器人学等。通过学习,学生能够知道什么时候需要某种合适的人工智能方法用于给定的问题,并能够选择适当的实现方法。 二.课程内容简介 人工智能的主要讲授内容如下: 1.叙述人工智能和智能系统的概况,列举出人工智能的研究与应用领域。 2.研究传统人工智能的知识表示方法和搜索推理技术,包括状态空间法、问题归约法谓词逻辑法、语义网络法、盲目搜索、启发式搜索、规则演绎算法和产生式系统等。 3.讨论高级知识推理,涉及非单调推理、时序推理、和各种不确定推理方法。 4.探讨人工智能的新研究领域,初步阐述计算智能的基本知识,包含神经计算、模糊计算、进化计算和人工生命诸内容。 5.比较详细地讨论了人工智能的主要应用,包括专家系统、机器学习、自动规划、Agent、自然语言理解、机器视觉和智能控制等。对于应用内容,根据学时,有选择地进行讲授。 6.评述近年来人工智能的争论,讨论人工智能对人类经济、社会和文化的影响,展望人工智能的发展。 以上内容反映了人工智能的最新进展,理论联系实际,具有很好的针对性。 三.教学内容和学时安排

MATLAB课程设计报告图像处理

一.课程设计相关知识综述...................................................................... 1.1 研究目的及意义 (3) 1.2 数字图像处理研究的内容........................................................... 1.3 MATLAB 软件的介绍.................................................................. 1.3.1 MATLAB 语言的特点......................................................... 1.3.2 MATLAB 图像文件格式.................................................... 1.3.3 MATLAB 图像处理工具箱简介........................................ 1.3.4 MATLAB 中的图像类型.................................................... 1.3.5 MATLAB 的主要应用........................................................ 1.4 函数介绍........................................................................................ 二.课程设计内容和要求........................................................................... 2.1 主要研究内容................................................................................ 2.2 具体要求....................................................................................... 2.3 预期达到的目标........................................................................... 三.设计过程............................................................................................... 3.1 设计方案及步骤............................................................................ 3.2 程序清单及注释........................................................................... 3.3 实验结果........................................................................................ 四.团队情况................................................................................................ 五.总结....................................................................................................... 六.参考文献............................................................................................... 一.课程设计相关知识综述. 1.1研究目的及意义

《数字图像处理》课程教学大纲

《数字图像处理》课程教学大纲 (Digital Image Processing) 课程编号:1223523 课程性质:专业课 适用专业:计算机科学与技术 先修课程:高等数学、线性代数、概率论与数理统计、数据结构、程序设计 后续课程:模式识别 总学分:2.5学分(其中实验学分0.5) 一、教学目的与要求 1.教学目的 数字图像处理是模式识别、计算机视觉、图像通讯、多媒体技术等学科的基础,是一门涉及多领域的交叉学科。通过对本课程的学习,使学生能够较深入地理解数字图像处理的基本概念、基础理论以及解决问题的基本思想方法,掌握基本的处理技术,了解与各个处理技术相关的应用领域。 2.教学要求 根据我院计算机专业的实际情况和教学条件采用讲授实验与学生自学相结合的方法进行教学。教学过程中力求做到重点突出、概念明确、线索清晰,注意适当介绍本学科前沿及当前应用领域中有关的热门问题。 实验是本课程中重要的教学内容,要求学生自己完成规定的实验并认真观察教师的实验演示。 二、课时安排 三、教学内容 1 概论(2学时) (1)教学基本要求

了解:数字图像处理的研究内容,图像处理的发展历史、现状。 掌握:图像处理系统的基本概念、特点和主要内容;数字图像处理系统的硬件组成及其相关应用 (2)教学内容 ①数字图像处理及其特点。(重点) ②数字图像处理的目的和主要内容。 ③数字图像处理系统 ④数字图像处理的应用 2数字图像处理基础(4学时) (1)教学基本要求 了解:图像数字化设备,色度学基础 掌握:图像数字化技术(采样、量化);数字图像的类型和文件格式;数字图像的颜色模型(RGB模型和HIS模型) (2)教学内容 ①图像数字化技术。 ②数字图像类型和文件格式。 ③色度学基础与颜色模型。(重点、难点) 3Matlab图像编程基础(3学时) (1)教学的基本要求 了解:数字图像程序设计的各种方法。 掌握:Matlab中各种图像处理的函数。 (2)教学内容 ①Matlab 概述。 ②Matlab图像的代数运算函数。 ③Matlab 图像处理工具箱函数。(重点) ④Matlab图像程序设计。(难点、重点)

《人工智能导论》教学大纲.

《人工智能导论》教学大纲 大纲说明 课程代码:3235042 总学时:32学时(讲课32学时) 总学分:2学分 课程类别:限制性选修 适用专业:计算机科学与技术,以及有关专业 预修要求:C程序设计语言,数据结构 课程的性质、目的、任务: 人工智能是计算机科学中涉及研究、设计和应用智能机器的一个分支。本课程是计算机科学与技术,以及有关专业重要的专业方向与特色模块课程之一。通过本课程的开设,使学生对人工智能的发展概况、基本原理和应用领域有初步了解,对主要技术及应用有一定掌握,启发学生对人工智能的兴趣,培养知识创新和技术创新能力。 课程教学的基本要求: 人工智能的研究论题包括计算机视觉、规划与行动、多Agent系统、语音识别、自动语言理解、专家系统和机器学习等。这些研究论题的基础是通用和专用的知识表示和推理机制、问题求解和搜索算法,以及计算智能技术等。要求学生掌握这些研究论题的基础知识。 人工智能还提供一套工具以解决那些用其它方法难以解决,甚至无法解决的问题。这些工具包括启发式搜索和规划算法,知识表示和推理形式,机器学习技术,语音和语言理解方法,计算机视觉和机器人学等。要求学生掌握利用其中的重要工具解决给定问题的基本方法。大纲的使用说明: 通过适当调节教学内容和学时安排,减少有关章节学时和增加专家系统这一章的学时,本大纲亦可作为《人工智能与专家系统》的课程教学大纲。 大纲正文 第一章绪论学时:2学时(讲课2学时)了解人类智能与人工智能的含义,人工智能的发展和应用领域;理解人工智能的内涵。 本章讲授要点:在介绍人工智能概念的基础上,使学生了解本课程所涉知识的重要意义,以及人工智能的应用现状和应用前景。

数字图像课程设计 监控视频中道路车流量检测系统设计

山东建筑大学 课程设计说明书 题目:监控视频中道路车流量检测系统设计课程:数字图像处理课程设计 院(部):信息与电气工程学院 专业:电子信息工程 班级:电信 学生姓名: 学号: 指导教师: 完成日期:2013年6月

目录 摘要································································································II 1 设计目的 (1) 2 设计要求 (1) 3 设计内容 (2) 3.1运动车辆检测算法比较 (2) 3.2形态学滤波 (5) 3.3车辆检测 (6) 3.4车辆计数 (9) 3.5软件设计 (9) 总结与致谢 (10) 参考文献 (11) 附录 (12)

摘要 获得实时的交通信息是当前各种检测方式的前提,但是现有的信息采集方式并不能满足交通管理与控制的需求。随着计算机技术的快速发展,基于视频的检测技术在交通中得到了广泛的应用,同其它检测方式相比,它具有检测范围大、设置灵活、安装维护方便、检测参数多等优点。基于图像处理的视频检测方式近年来发展很快,已成为当今智能交通系统的一个研究热点。本论文对视频交通流运动车辆检测的内容进行了深入地研究。结合视频图像详细的介绍了视频检测中的背景更新、阴影去除、车辆分割等关键技术和算法,介绍了视频检测的方法。最后在MATLAB的平台上进行了系统实现设计。实验结果表明,该算法具有一定的可行性,能够快速的将目标参数检测出来关键词:MATLAB;帧间差法;车辆检测

随着经济的发展,人民生活水平的提高,汽车保有量大幅增加,怎样安全高效地对交通进行管理,就显得非常重要.解决这一问题的关键是建立智能交通系统(ITS),其中车辆检测系统是智能交通系统的基础.它为智能控制提供重要的数据来源 作为ITS的基础部分,车辆检测系统在ITS中占有很重要的地位,目前基于视频的检测法是最有前途的一种方法,它是通过图像数字的方法获得交通流量信息,主要有以下优点:(1)能够提供高质量的图像信息,能高效、准确、安全可靠地完成道路交通的监视和控制工作.(2)安装视频摄像机破坏性低、方便、经济.现在我国许多城市已经安装了视频摄像机,用于交通监视和控制.(3)由计算机视觉得到的交通信息便于联网工作,有利于实现道路交通网的监视和控制.(4)随着计算机技术和图像处理技术的发展,满足了系统实时性、安全性和可靠性的要求 2 设计要求 通过对视频流中的车辆进行检测和跟踪,准确地统计每个车道流量、平均车速、平均车道占有率、车队长度、平均车间距等信息为交通规划,交通疏导和车辆动态导航领域提供一系列指导。 设计车辆检测与识别方法和车流量统计方法,实现监控视频中道路车流量检测。通过实验验证检测精度。

计算机视觉作业

计算机视觉作业 -标准化文件发布号:(9456-EUATWK-MWUB-WUNN-INNUL-DDQTY-KII

不同尺度下LOG和CANNY边缘提取算子性能分析 电子23 李晓焕 2120906014 1.实验与结果分析 在实验中使用了MATLAB 5.3软件对三副图像进行了边缘检测(注:一开始使用的MATLAB R2010b软件在使用edge函数时出现闪退问题无法解决),分别是棋盘格(Tessella.bmp)、Lena (Lena.bmp) 和自己选择的一幅自然场景图像(使用Photoshop软件将其转换成8bit灰度,256×256大小的Bmp格式图像)Nature (Nature.bmp)。 实验中选择的参数如下:对图像施加的高斯白噪声水平分别为σ=0.0001和 σ=0.0005;选择的LOG边缘提取算子的参数分别为阈值=0.25,σ=0.6和阈值 =0.001,σ=3.0;选择的Canny边缘提取算子的参数分别为阈值 =[0.02,0.25],σ=0.6和阈值=[0.001,0.25],σ=3.0。 MATLAB程序代码示例如下: i=imread('d:\Tessella.bmp'); j=imnoise(i,'gaussian',0,0.0001); k1=edge(j,'log',0.25,0.6); k2=edge(j,'canny',[0.02,0.25],0.6); subplot(1,2,1);imshow(k1);title('log,th=0.25,sigma=0.6') subplot(1,2,2);imshow(k2);title('canny,th=[0.02,0.25],sigma=0.6') 1.1 对lena以及chess图像的边缘检测结果 (1)噪声水平为σ=0.0001

相关文档
最新文档