计算机视觉课程设计报告

计算机视觉课程设计报告
计算机视觉课程设计报告

计算机视觉课程设计实验报告

1.题目: 图像变形

2.组员:曹英(E03640201) 叶超(E03640124) 李淑珍(E03640104)

3.实验目的:掌握图像几何运算中变形算法

4.实验原理:对两幅图分别进行卷绕、插值,每幅图得到一序列图片,然后

对这些序列图片进行加权求和,得到一序列帧,再将其显示出来,就得到了由一幅图到另一幅图的变形。

5.实验步骤:对一幅图分别选4行4列的16个控制点,在每条边上进行五

等分,每条边形成六个点,加上原来的16个就是36个控制点,这样就把它分成了不规则的25小块,对每小块进行卷绕、插值,本实验我们用的是最近邻插值,目标控制点就是将图片分成标准并且相同大小的25小块的36个点。这样会得到一幅不规则图片,让它作为新的原图进行如前所述一样的处理,控制点都是这样自动产生的:一开始所选每个控制点到相应标准控制点等距离(本实验我们是分成9等分)产生一序列的36个控制点。这样每产生一幅图都对它进行相类似的处理,控制点的产生方法就是上面所说的那样。得到的一序列图片越来越接近原图,最后一幅与原图一样。这样我们就可以得到这样的一序列图片:原图,手工选控制点进行处理后得到的不规则图,循环产生控制点得到的越来越接近原图的9幅图(最后一幅与原图一样)。为了描述的方便,这里我把它编号为1_1到1_11。对目标图进行与原图一样的处理。编号也类似,即2_1到2_11。

最后进行加权求和,第一帧是原图,第二帧是1_10与2_2加权求和,其中1_10的权值是0.9,2_2的权值是0.1,第三帧是1_9与2_3加权求和,其中1_9的权值是0.8,2_3的权值是0.2,……,第十帧是1_2与2_10加权求和,其中1_10的权值是0.1,2_2的权值是0.9,第十一帧是目标图。这样就得到了所要的结果。这里需要说明的是两幅手工选择的控制点最好是那些有代表性的特征点,这样的话结果会更好。

6.实验结果图:

第一帧到最后一帧的结果分别是:

6.实验心得体会:

1.通过这个实验,最大的感受就是学的东西必须去用才能真正的理解,不动手的时候根本不知道种种问题的存在,找资料也很重要,通过找资料,才能产生一些想法,知道该如何下手,用各种算法去实现它,最后得到一个最满意的算法。编程也很重要,如果不会编程,有再好的算法也没有用。还有就是复杂度,不过本实验由于时间的关系,我们没有过多的考虑对程序代码进行优化,使它的运行时间最短。

2.本实验可以采用的原理有多种,这也让我们知道了做题之前理解原理才是最重要的,不能盲目的还没完全明白原理之前就开始动手编程,这样出来的效果不是我们要的效果,而且还会浪费很多时间!

就象刚开始我们采用的是10个控制点卷绕实现变形,但由于10个控制点的随即性,卷绕过程产生的图象扭曲地比较厉害,完全不是我们所要的效果。这就是我们没有透彻理解原理造成的!

之后我们又结合了同学的意见,采用了如上的原理方法,处理过程中固定了边框,使之边框不会变形,变的只是中间图形的扭曲,再叠加产生最后帧图象,事实证明这种方法可行的,而且效果比较好。

因此通过这次实验,让我们明白了选择一个比较有效的算法原理,然后研究实现过程,这才是以后我们做题的关键所在!

人工智能与计算机视觉

过去几年,全球的互联网公司包括谷歌、微软、Facebook以及中国的百度、阿里巴巴都在加强人工智能领域的投资,设立自己的人工智能研究院。vivo是第一家设立专攻人工智能方向研究院的中国手机公司。此举是vivo内部已经确立的一份3-5年的中长期发展的战略规划,未来对人工智能的发展研究是必然趋势,vivo公司创始人兼CEO沈炜曾表示“人工智能和5G的结合将会是5G时代手机发展的趋势”。 今年我们看到vivo在产品上不少创新,比如AI拍照、商用屏下指纹技术等等,这些都是基于生物特征(biometrics)的鉴别技术,除此之外还有对人脸、虹膜、指纹、声音等特征上的识别,这些大多涉及到视觉信息,正是体现了计算机视觉的应用性,那什么是计算机视觉呢? 计算机视觉技术的概念 正像其它学科一样,一个大量人员研究了多年的学科,却很难给出一个严格的定义,模式识别如此,目前火热的人工智能如此,计算机视觉亦如此。与计算机视觉密切相关的概念有视觉感知(visual perception),视觉认知(visual cognition),图像和视频理解( image and video understanding)。这些概念有一些共性之处,也有本质不同。 从广义上说,计算机视觉就是“赋予机器自然视觉能力”的学科。自然视觉能力,就是指生物视觉系统体现的视觉能力。一则生物自然视觉无法严格定义,在加上这种广义视觉定义又“包罗万象”,同时也不太符合40多年来计算机视觉的研究状况,所以这种“广义计算机视觉定义”,虽无可挑剔,但也缺乏实质性内容,不过是一种“循环式游戏定义”而已。 实际上,计算机视觉本质上就是研究视觉感知问题。视觉感知,根据维科百基(Wikipedia)的定义, 是指对“环境表达和理解中,对视觉信息的组织、识别和解释的过程”。根据这种定

计算机视觉课程设计1

燕山大学 课程设计说明书题目:基于矩形物体的旋转角度测量 学院(系)电气工程学院 年级专业: 学号: 1301030200 1301030200 学生姓名: 指导教师: 教师职称:讲师 燕山大学课程设计(论文)任务书

院(系):电气工程学院基层教学单位:仪器科学与工程系 说明:此表一式四份,学生、指导教师、基层教学单位、系部各一份。 2016年 12 月 22 日燕山大学课程设计评审意见表

摘要 本文主要研究对矩形物体旋转角度的测量,并且比较每种方法的处理速度。通过对图像的滤波、二值化、边框的识别等等操作,完成对矩形物体的角度测量。本文采用五种方法分别对同一个矩形物体进行旋转角度测量,并比较其处理时间。五种方式分别为,边缘直线角度测量、对角线角度测量、矩形内部标准角度测量、角点边缘角度测量、垂线角度测量。 关键词:图像处理二值化旋转角测量定位识别

目录 第一章矩形物体的识别 (1) 1、图像滤波 (1) 2、图像的边缘检测 (2) 3、图像的二值化处理 (3) 4、图像的区域选择及处理 (4) 第二章旋转角度的测量 (6) 1、边缘直线角度测量 (6) 2、对角线角度测量 (8) 3、矩形内部标准角度测量 (9) 4、角点边缘角度测量 (10) 5、垂线角度测量 (11) 第三章算法时间的比较 (15) 参考文献 (16) 附录一 (17) 1、边缘直线角度测量程序 (17) 2、对角线角度测量程序 (17) 3、矩形内部标准角度测量程序 (18) 4、角点边缘角度测量程序 (19) 5、二值化-垂线角度测量程序 (23) 6、Soble-垂线角度测量程序 (24) 附录二 (26)

计算机视觉第二次作业实验报告

大学计算机视觉实验报告 摄像机标定 :振强 学号:451 时间:2016.11.23

一、实验目的 学习使用OpenCV并利用OpenCV进行摄像机标定,编程实现,给出实验结果和分析。 二、实验原理 2.1摄像机标定的作用 在计算机视觉应用问题中,有时需要利用二位图像还原三维空间中的物体,从二维图像信息出发计算三维空间物体的几何信息的过程中,三维空间中某点的位置与二维图像中对应点之间的相互关系是由摄像机的几何模型决定的,这些几何模型的参数就是摄像机参数,而这些参数通常是未知的,摄像机标定实验的作用就是通过计算确定摄像机的几何、光学参数,摄像机相对于世界坐标系的方位。 2.2摄像机标定的基本原理 2.2.1摄像机成像模型 摄像机成像模型是摄像机标定的基础,确定了成像模型才能确定摄像机外参数的个数和求解的方法。计算机视觉研究中,三维空间中的物体到像平面的投影关系即为成像模型,理想的投影成像模型是光学中的中心投影,也称为针孔模型。实际摄像系统由透镜和透镜组组成,可以由针孔模型近似模拟摄像机成像模型。 图2.1 针孔成像 2.2.2坐标变换 在实际摄像机的使用过程中,为方便计算人们常常设置多个坐标系,因此空间点的成像过程必然涉及到许多坐标系之间的相互转化,下面主要阐述几个重要坐标系之间的转换关系。

2.2.2.1世界坐标系--摄像机坐标系 图2.2 世界坐标系与摄像机坐标系空间关系 世界坐标系与摄像机坐标系之间的转换关系为: ????? ? ????????????=???? ????????111w w w T c c c Z Y X O T R Z Y X R 和T 分别是从世界坐标系到摄像机坐标系的旋转变换和平移变换系数,反映的是世界坐标系和摄像机坐标系之间的关系,因此称为外参数。 2.2.2.2物理坐标系--像素坐标系 图2.3 像素坐标系

计算机视觉技术

目录 1立体视觉 (1) 1.1计算机视觉技术 (1) 2立体视觉技术 (3) 2.1双目立体视觉技术 (3) 致谢 (8) 附录: (9)

立体视觉 我的毕业论文排版样文 1立体视觉 1.1计算机视觉技术 计算机视觉既是工程领域也是科学领域中的一个富有挑战性的重要研究领域。计算机视觉是一门综合性的学科,它已经吸引了来自各个学科的研究者参加到对它的研究之中,其中包括计算机科学和工程、信号处理、物理学、应用数学和统计学、神经生理学和认知科学等[18]。 视觉是各个应用领域,如制造业、检验、文档分析、医疗诊断和军事等领域中各种智能自主系统中不可分割的一部分。由于它的重要性,一些先进国家,例如美国把对计算机视觉的研究列为对经济和科学有广泛影响的科学和工程中的重大基本问题,即所谓的重大挑战。“计算机视觉的挑战是要为计算机和机器人开发具有与人类水平相当的视觉能力。机器视觉需要图像信号,纹理和颜色建模,几何处理和推理,以及物体建模。一个有能力的视觉系统应该把所有这些处理都紧密地集成在一起[19]。”作为一门学科,计算机视觉开始于60 年代初,但在计算机视觉的基本研究中的许多重要进展是在80 年代取得的。现在计算机视觉已成为一门不同于人工智能、图象处理、模式识别等相关领域的成熟学科[20]。 不少学科的研究目标与计算机视觉相近。这些学科包括图像处理、图像识别、景物分析、图像理解等。由于历史发展或领域本身的特点这些学科互有差别,但又有某种程度的相互重叠。为了清晰起见,把这些与计算机视觉有关的学科从研究目标和方法角度加以归纳[21]。 (1)图像处理 图像处理技术把输入图像转换成具有所希望特性的另一幅图像。例如,可通过处理使输出图像有较高的信噪比,或通过增强处理突出图像的细节,以便于操作员的检验。在计算机视觉研究中经常利用图像处理技术进行预处理和特征抽取。 (2)图像识别 图像识别技术根据从图像抽取的统计特性或结构信息,把图像分成预定的类别。在计算机视觉中图像识别技术经常用于对图像中的某些部分(例如分割区域)的识别和分类。 第 1 页(共9页)

图像处理课程设计报告

图像处理课程设计报告 导语:设计是把一种设想通过合理的规划周密的计划通过各种感觉形式传达出来的过程。以下是XX整理图像处理课程设计报告的资料,欢迎阅读参考。 图像处理课程设计报告1 摘要:图像处理技术从其功能上可以分为两大类:模拟图像处理技术、和数字图像处理技术。数字图像处理技术指的是将图像信号直接转换成为数字信号,并利用计算机进行处理的过程,其主要的特点在于处理的精度高、处理的内容丰富、可以进行复杂、难度较高的处理内容。当其不在于处理的速度比较缓慢。当前图像处理技术主要的是体现在数字处理技术上,本文说阐述的图像处理技术也是以数字图像处理技术为主要介绍对象。数字图像处理又称为计算机图像处理,它是指将图像信号转换成数字信号并利用计算机对其进行处理的过程。近年来, 图像处理技术得到了快速发展, 呈现出较为明显的发展趋势, 了解和掌握这些发展趋势对于做好目前的图像处理工作具有前瞻性的指导意义。本文总结了现代图像处理技术的三点发展趋势。 对图像进行处理(或加工、分析)的主要目的有三个方面: (1)提高图像的视感质量,如进行图像的亮度、彩色变换,增强、抑制某些成分,对图像进行几何变换等,以改善图像的质量。(2)提取图像中所包含的某些特征或特殊信息,这些被提

取的特征或信息往往为计算机分析图像提供便利。提取特征或信息的过程是计算机或计算机视觉的预处理。提取的特征可以包括很多方面,如频域特征、灰度或颜色特征、边界特征、区域特征、纹理特征、形状特征、拓扑特征和关系结构等。 (3)图像数据的变换、编码和压缩,以便于图像的存储和传输。不管是 何种目的的图像处理,都需要由计算机和图像专用设备组成的图像处理系统对图像数据进行输入、加工和输出。 数字图像处理主要研究的内容有以下几个方面: 图像变换由于图像阵列很大,直接在空间域中进行处理,涉及计算量很大。因此,往往采用各种图像变换的方法,如傅里叶变换、沃尔什变换、离散余弦变换等间接处理技术,将空间域的处理转换为变换域处理,不仅可减少计算量,而且可获得更有效的处理。目前新兴研究的小波变换在时域和频域中都具有良好的局部化特性,它在图像处理中也有着广泛而有效的应用。 图像编码压缩图像编码压缩技术可减少描述图像的数据量,以便节省图像传输、处理时间和减少所占用的存储器容量。压缩可以在不失真的前提下获得,也可以在允许的失真条件下进行。编码是压缩技术中最重要的方法,它在图像处理技术中是发展最早且比较成熟的技术。

人机交互中的计算机视觉技术.

人机交互中的计算机视觉技术 基于视觉的接口概念 计算机视觉是一门试图通过图像处理或视频处理而使计算机具备“ 看” 的能力的计算学科。通过理解图像形成的几何和辐射线测定, 接受器(相机的属性和物理世界的属性, 就有可能 (至少在某些情况下从图像中推断出关于事物的有用信息, 例如一块织物的颜色、一圈染了色的痕迹的宽度、火星上一个移动机器人面前的障碍物的大小、监防系统中一张人脸的身份、海底植物的类型或者是 MRI 扫描图中的肿瘤位置。计算机视觉研究的就是如何能健壮、有效地完成这类的任务。最初计算机视觉被看作是人工智能的一个子方向, 现在已成为一个活跃的研究领域并长达 40年了。 基于视觉的接口任务 至今,计算机视觉技术应用到人机交互中已取得了显著的成功,并在其它领域中也显示其前景。人脸检测和人脸识别获得了最多的关注, 也取得了最多的进展。第一批用于人脸识别的计算机程序出现在 60年代末和 70年代初,但直到 90年代初,计算机运算才足够快,以支持这些实时任务。人脸识别的问题产生了许多基于特征位置、人脸形状、人脸纹理以及它们间组合的计算模型, 包括主成分分析、线性判别式分析、 Gabor 小波网络和 .Active Appearance Model(AAM . 许多公司,例如Identix,Viisage Technology和 Cognitec System,正在为出入、安全和监防等应用开发和出售人脸识别技术。这些系统已经被部署到公共场所, 例如机场、城市广场以及私人的出入受限的环境。要想对人脸识别研究有一个全面的认识,见。 基于视觉的接口技术进展 尽管在一些个别应用中取得了成功,但纵使在几十年的研究之后,计算机视觉还没有在商业上被广泛使用。几种趋势似乎表明了这种情形即将会发生改变。硬件界的摩尔定律的发展, 相机技术的进步, 数码视频安装的快速增长以及软件工具的可获取性(例如 intel 的 OpenCV libraray使视觉系统能够变得小巧、灵

人脸识别课程设计论文(完美版)

前言 在人类社会的发展进入到21世纪的今天,安全问题已经成为困扰人们日常生活的重要问题之一。社会的发展促进了人的流动性,进而也增加了社会的不稳定性,使得安全方面的需求成为21世纪引起广泛关注的问题。不论是享受各项服务如网上冲浪、还是居家、办公等都涉及到安全,以往这些行为基本上是通过符号密码来进行安全保护,但是随着服务数量的不断增加,密码越来越多以致无法全部记住,而且密码有时也会被他人所窃取,各种密码被破解的概率越来越高,因为通常由于记忆的原因,人们经常会选用自己或亲人的生日、家庭地址、电话号码等作为密码并长期使用,这些很容易被一些不法分子获取。可见在现代社会中,身份识别已经成为人们日常生活中经常遇到的一个基本问题。人们乎时时刻刻都需要鉴别别人的身份和证明自己的身份,以获得对特定资源的使用权或者制权,同时防止这些权限被他人随意的取得。传统的身份识别方法主要基于身份标识物(如证件、卡片)和身份标识知识(如用户名、密码)来识别身份,这在很长一段时期是非常可靠和方便的识别方法,得到了广泛的应用。但是,随着网络、通信、交通等技的飞速发展,人们活动的现实空间和虚拟空间不断扩大,需要身份认证的场合也变得无不在。人们需要携带的身份标识物品越来越多,身份标识知识也变得越来越复杂和冗长在这种情况下,传统身份识别方式的弊端日益彰显。身份标识物品容易被丢失和伪造,份标识知识容易被遗忘、窃取和破解,而身份标识的重要性又使得一旦失去了身份标识会给标识的所有者甚至整个社会带来重大的甚至难以弥补的损失。在美国,每年约有上百万的福利款被人以假冒的身份领取;每年发生的信用卡、ATM、移动电话和冒领支票等成的损失达数百亿美元[2]。面临着这样的状况,人们对身份识别的安全性、可靠性、准确和实用性提出了更高的要求,必须寻求身份识别的新途径。 于是,近年来人类生物特征越来越广泛地用于身份识别,而且生物特征可以更好的进行安全控制,世界各国政府都在大力推进生物识别技术的发展及应用。与原有的人类身分识别技术(如:个人密码、磁卡、智能卡等)相比,基于人类生物特征的识别技术具有安全可靠、特征唯一、不易伪造、不可窃取等优点。人类本身具有很多相对独特的特征,如DNA、指纹、虹膜、语音、人脸等。基于这些相对独特的人类特征,结合计算机技术,发展起众多的基于人类生物特征的人类身份识别技术,如DNA识别技术、指纹识别技术、虹膜识别技术、语音识别技术、人脸识别技术。 人脸识别和其他的生物识别比起来有以下几个优点:1、其他的生物特征识别方法都需要一些人为的行为配合,而人脸识别不需要。2、人脸识别可应用在远距离监控中。3、针一对现在的第一、二代身份证,每个身份证都有人脸的正面照片,也就是人脸库将是最完善的,包括人最多的,我们可以利用这个库来更直观、更方便的核查该人的身份。 4、相对于其他基于生物特征识别技术,人脸识别技术具有特征录入方一便,信息丰富,使用面广等优点,同时人脸识别系统更加直接友好。人脸识别技术作为生物识别技术的

计算机视觉测量与导航_张正友法相机标定 _结课实验报告

H a r b i n I n s t i t u t e o f T e c h n o l o g y 计算机视觉测量与导航 实验报告 院系:航天学院 学科:控制科学与工程 姓名:TSX 学号: 任课教师:张永安卢鸿谦 日期:2014.05.13

摘要 人类视觉过程可看成是一个复杂的从感觉到知觉的过程,也就是指三维世界投影得到二维图像,再由二维图像认知三维世界的内容和含义的过程。信号处理理论与计算机出现以后,人们用摄像机等获取环境图像并转换成数字信号,完成对视觉信息的获取和传输过程,用计算机实现对视觉信息的处理、存储和理解等过程,形成了计算机视觉这门新兴学科。其中从二维图像恢复三维物体可见表面的几何结构的工作就叫做三维重建。随着计算机硬件、软件、图像采集、处理技术的迅速发展,三维重建的理论和技术已被广泛应用于航空航天、机器人技术、文字识别、工业检测、军事侦察、地理勘察、现场测量和虚拟植物可视化等领域。相机标定是三维重建必不可少的步骤,它包括对诸如主点坐标、焦距等与相机内部结构有关的内部参数的确定和对相机的旋转、平移这些外部参数的确定。价格低廉的实验器材、简单的实验环境、快捷的标定速度和较高的标定精度是现在相机标定研究追求的几大方向。数码相机的标定就是研究的热点之一。本次报告介绍了基于棋盘格模板标定的基本原理和算法,利用MATLAB的相机标定工具箱,使用张征友算法对相机进行了标定,记录了标定的过程,并给出结果,最后对影响标定精度的因素进行了分析。 关键词:相机标定张正友角点提取内外参

1基于棋盘格标定的基本原理和算法 1.1基础知识 1.1.1射影几何 当描述一张相机拍摄的图像时,由于其长度、角度、平行关系都可能发生变化,因此无法完全用欧氏几何来处理图像,而射影几何却可以,因为在射影几何中,允许存在包括透视投影的更大一类变换,而不仅仅是欧氏几何的平移和旋转。实际上,欧氏几何是射影几何的一个子集。 1.1.2齐次坐标 设欧氏直线上点p的笛卡尔坐标为(x,y)T,如果x1,x2,x3满足x=x1/x2,y =x2/x3,x3≠0,则称三维向量(x1,x2,x3)T为点P的齐次坐标。当x3= 0时,(x1,x2,0)T规定直线上的无穷远点的齐次坐标。 实际上,齐次坐标是用一个n+ 1维向量来表示原本n维的向量。应用齐次坐标的目的是用矩阵运算把二维、三维甚至高维空间中的一个点集从一个坐标系变换到另一个坐标系。形的几何变换主要包括平移、旋转、缩放等。以矩阵表达式来计算这些变换时,平移是矩阵相加,旋转和缩放则是矩阵相乘,综合起来可以表示为P’=R*P+T(R为旋转缩放矩阵,T为平移矩阵,P为原向量,P′为变换后的向量)。当n+1维的齐次坐标中第n+1维为0,则表示n维空间的一个无穷远点。

计算机图形学课程设计书

计算机图形学课程设计 书 文档编制序号:[KKIDT-LLE0828-LLETD298-POI08]

课程设计(论文)任务书 理学院信息与计算科学专业2015-1班 一、课程设计(论文)题目:图像融合的程序设计 二、课程设计(论文)工作: 自2018 年1 月10 日起至2018 年1 月12日止 三、课程设计(论文) 地点: 2-201 四、课程设计(论文)内容要求: 1.本课程设计的目的 (1)熟悉Delphi7的使用,理论与实际应用相结合,养成良好的程序设计技能;(2)了解并掌握图像融合的各种实现方法,具备初步的独立分析和设计能力;(3)初步掌握开发过程中的问题分析,程序设计,代码编写、测试等基本方法;(4)提高综合运用所学的理论知识和方法独立分析和解决问题的能力; (5)在实践中认识、学习计算机图形学相关知识。 2.课程设计的任务及要求 1)基本要求: (1)研究课程设计任务,并进行程序需求分析; (2)对程序进行总体设计,分解系统功能模块,进行任务分配,以实现分工合作;(3)实现各功能模块代码; (4)程序组装,测试、完善系统。 2)创新要求: 在基本要求达到后,可进行创新设计,如改进界面、增加功能或进行代码优化。

3)课程设计论文编写要求 (1)要按照书稿的规格打印誊写课程设计论文 (2)论文包括封面、设计任务书(含评语)、摘要、目录、设计内容、设计小结(3)论文装订按学校的统一要求完成 4)参考文献: (1)David ,《计算机图形学的算法基础》,机械工业出版社 (2)Steve Cunningham,《计算机图形学》,机械工业出版社 (3) 5)课程设计进度安排 内容天数地点 程序总体设计 1 实验室 软件设计及调试 1 实验室 答辩及撰写报告 1 实验室、图书馆 学生签名: 2018年1月12日 摘要 图像融合是图像处理中重要部分,能够协同利用同一场景的多种传感器图像信息,输出一幅更适合于人类视觉感知或计算机进一步处理与分析的融合图像。它可明显的改善单一传感器的不足,提高结果图像的清晰度及信息包含量,有利于更为准确、更为可靠、更为全面地获取目标或场景的信息。图像融合主要应用于军事国防上、遥感方面、医学图像处理、机器人、安全和监控、生物监测等领域。用于较多也较成熟的是红外和可见光的融合,在一副图像上显示多种信息,突出目标。一般情况下,图像融合由

中国海洋大学计算机视觉课程大纲(理论课程)-中国海洋大学信息科学与

中国海洋大学计算机视觉课程大纲(理论课程) 英文名称:Computer Vision 【开课单位】信息学院计算机系【课程模块】工作技能 【课程编号】080504301305 【课程类别】选修 【学时数】68 (理论51 实践17 )【学分数】3.5 一、课程描述 (一)教学对象 计算机相关专业学生。 (二)教学目标及修读要求 1、教学目标 了解计算机视觉的应用领域,掌握基本的图像分割、特征检测、聚类及分类算法,理解相机模型以及相机标定方法,学会利用已有相关算法,使用OpenCV进行相关视觉应用的开发。 2、修读要求 计算机视觉属于计算机专业的一门新课,和研究前沿结合的比较紧密,需要学生具有数字图像处理、计算机图形学以及线性代和概率论方面的基础。 (三)先修课程 数字图像处理。 二、教学内容 (一)绪论 1、主要内容:介绍计算机视觉的基本概念,应用领域,发展历史等相关内容。 2、教学要求:了解计算机视觉的应用领域及学习的内容。 (二)第二章图像形成 1、主要内容:几何基元和变换,光度测定学的图像形成,数字摄像机。 2、教学要求:理解图像形成的物理过程,包括相机镜头的物理特性对图像形成过程的影响,掌握3D到2D的投影变换,掌握相机内参和外参的概念。 3、重点、难点:相机内参和外参的标定。 (三)第三章图像处理 1、主要内容:点算子,线性滤波器,其他邻域算子,傅里叶变换,几何变换等。 2、教学要求:掌握数字图像处理课程相关的基本内容,包括空间域的图像处理及频率域的图像处理基本方法。 3、重点、难点:傅里叶变换。 (四)第四章特征检测与匹配 1、主要内容:图像的点与块,图像的边缘,直线。 2、教学要求:理解图像特征的概念,掌握几种特征(点、块、边缘、直线)的检测方法,了解特征匹配的在图像拼接及相机标定等方面的应用。 3、重点、难点:几种特征描述子的生成过程。 (五)第五章图像分割 1、主要内容:活动轮廓,基于区域的分割。 2、教学要求:掌握几种流行的图像分割方法,包括基本的阈值方法,活动轮廓方法,基于聚类的方法。 (六)第六章基于特征的配准 1、主要内容:基于2D和3D特征的配准,姿态估计,几何内参标定。

计算机视觉实验报告Experiment3

Experiment 3:Edge Detection Class: 电子1203班Student ID: 1210910322 Name: 王影 Ⅰ. Aim The aim of this laboratory session is to learn to deal with image data by Matlab. By the end of this session, you should be able to perform image preprocessing of edge detection in spatial domain and frequency domain. Ⅱ. Knowledge required in the Experiment ⅰ.You are supposed to have learned the basic skills of using Matlab; ⅱ.You need to review Matlab programming language and M-file format. ⅲ. You should have studied edge detection methods. Ⅲ.Experiment Contents Demand: Please show the figure on the left and list the codes on the right respectively bellow each question.(请将运行结果(图片)和程序代码贴在每题下方) ⅰ.Read “car.jpg” file (to do this by imread function), convert the color image into grayscale image, and then perform edge detection using Roterts, Prewitt, Sobel operator separately in spatial domain and display the results in a Matlab window. 程序: clear; im=imread('car.jpg'); I=rgb2gray(im); subplot(3,2,1);imshow(I); title('Gray image'); [Y,X]=size(I); im_edge=zeros(Y,X); T=30; for k=2:Y-1 for kk=2:X-1 im_edge(k,kk)=abs(I(k+1,kk+1)-I(k,kk))+abs(I(k,kk+1)-I(k+1,kk)); if (im_edge(k,kk)>T)

计算机视觉系统及其应用

课程设计 课程名称工业自动化专题 题目名称_计算机视觉系统及其应用学生学院_____自动化________ 专业班级______ 学号 学生姓名____ 指导教师___________ 2013 年 6月 25日

机器视觉系统及其应用 摘要:主要介绍机器视觉系统的概要,简要分析机器视觉的特点、优越性和应用,具体介绍了机器视觉技术在印刷行业、农业、工业、医学中的实际应用,并且分别举例说明。机器视觉的诞生和应用在理论和实际中均具有重要意义。 关键词:机器视觉;标签检测;药物检测;水果品质检测;硬币检测。 1. 机器视觉系统 1.1 机器视觉系统简介 机器视觉系统是指利用机器替代人眼做出各种测量和判断。机器视觉是工程领域和科学领域中的一个非常重要的研究领域,它是一门涉及光学、机械、计算机、模式识别、图像处理、人工智能、信号处理以及光电一体化等多个领域的综合性学科。 机器视觉系统通过图像摄取装置将被摄取目标转换成图像信号,传送给专用的图像处理系统,根据像素分布和亮度、颜色等信息,转变成数字化信号。机器视觉系统可以快速获取大量信息,而且易于自动处理,也易于同设计信息以及加工控制信息集成。 机器视觉系统的优点有:1.非接触测量,对于被检测对象不会产生任何损伤,而且提高了系统能够的可靠性;2.较宽的光谱响应范围,例如使用人眼看不见的红外测量,扩展人眼的视觉范围;3.长时间稳定工作,人类难以长时间对同一对象进行观察,而机器视觉系统则可以长时间地作测量、分析和识别任务。 现在,机器视觉系统在工业、农业、国防、交通、医疗、金融甚至体育、娱乐等等行业都获得了广泛的应用,可以说已经深入到我们的生活、生产和工作的方方面面。 1.2 基本原理 图 1 是机器视觉系统的基本结构,在一定的光照(包括可见光,红外线甚至超声波等各种成象手段)条件下,成象设备(摄象机,图像采集板等)把三维场景的图像采集到计算机内部,形成强度的二维阵列——原始图象;然后,运用图像处理技术对采集到的原始图像进行预处理以得到质量改善了的图像;其次,运用机器视觉技术从图像中提取感兴趣的特征分类整理;,构成对图像的进一步,运用模式识别技术对抽取到的特征进行描述;最后,运用人工智能得到更高层次的抽象描述。完成视觉系统的任务。 图1机器视觉的基本结构

机器视觉实验报告

机器视觉实验报告

目录 一实验名称 (2) 二试验设备 (2) 三实验目的 (2) 四实验内容及工作原理 (2) (一)kinect for windows (2) (二)手持式自定位三维激光扫描仪 (3) (三)柔性三坐标测量仪 (9) (四)双面结构光 (10) 总结与展望 (14) 参考文献 (16)

《机器视觉》实验报告 一、实验名称 对kinect for windows、三维激光扫描仪、柔性三坐标测量仪和双面结构光等设备结构功能的认识。 二、实验设备 kinect for windows、三维激光扫描仪、柔性三坐标测量仪、双面结构光。 三、实验目的 让同学们对机器视觉平时所使用的仪器设备以及机器视觉在实际运用中的具体实现过程有一定的了解。熟悉各种设备的结构功能和操作方法,以便于进行二次开发。其次,深化同学们对机器视觉系统的认识,拓宽同学们的知识面,以便于同学们后续的学习。 四、实验内容及工作原理 (一)kinect for windows 1.Kinect简介 Kinectfor Xbox 360,简称Kinect,是由微软开发,应用于Xbox 360 主机的周边设备。它让玩家不需要手持或踩踏控制器,而是使用语音指令或手势来操作Xbox360 的系统界面。它也能捕捉玩家全身上下的动作,用身体来进行游戏,带给玩家“免控制器的游戏与娱乐体验”。2012年2月1日,微软正式发布面向Windows系统的Kinect版本“Kinect for Windows”。 2.硬件组成 Kinect有三个镜头[1],如图1-1所示。中间的镜头是RGB 彩色摄影机,用来采集彩色图像。左右两边镜头则分别为红外线发射器和红外线CMOS 摄影机所构成的3D结构光深度感应器,用来采集深度数据(场景中物体到摄像头的距离)。彩色摄像头最大支持1280*960分辨率成像,红外摄像头最大支持640*480成像。Kinect还搭配了追焦技术,底座马达会随着对焦物体移动跟着转动。Kinect也内建阵列式麦克风,由四个麦克风同时收音,比对后消除杂音,并通过其采集声音进行语音识别和声源定位[2][3]。

MATLAB课程设计报告图像处理

一.课程设计相关知识综述...................................................................... 1.1 研究目的及意义 (3) 1.2 数字图像处理研究的内容........................................................... 1.3 MATLAB 软件的介绍.................................................................. 1.3.1 MATLAB 语言的特点......................................................... 1.3.2 MATLAB 图像文件格式.................................................... 1.3.3 MATLAB 图像处理工具箱简介........................................ 1.3.4 MATLAB 中的图像类型.................................................... 1.3.5 MATLAB 的主要应用........................................................ 1.4 函数介绍........................................................................................ 二.课程设计内容和要求........................................................................... 2.1 主要研究内容................................................................................ 2.2 具体要求....................................................................................... 2.3 预期达到的目标........................................................................... 三.设计过程............................................................................................... 3.1 设计方案及步骤............................................................................ 3.2 程序清单及注释........................................................................... 3.3 实验结果........................................................................................ 四.团队情况................................................................................................ 五.总结....................................................................................................... 六.参考文献............................................................................................... 一.课程设计相关知识综述. 1.1研究目的及意义

车牌识别综合实验报告大作业

数字图像处理综合实验报告 车牌识别技术(LPR) 组长:__ ******_____ 组员:___ _****** _ ___ _******_____ ____ _*******___ 指导老师:___ *******_____ *****学院****学院 2010年6月10日

实验五车牌识别技术(LPR) 一、实验目的 1、了解车牌识别系统的实现,及车牌识别系统的应用; 2、了解并掌握车牌识别系统如何实现。 二、实验容 1、车牌识别系统的图像预处理、 2、车牌定位、 3、字符分割 4、字符识别 三、实验原理 车辆牌照识别(LPR)系统是一个专用的计算机视觉系统,它能够自动地摄取车辆图像和识别车牌,可应用在公路自动收费、停车场管理、失窃车辆侦察、门卫系统、智能交通系统等不同场合。LPR系统的广泛应用将有助于加快我国交通管理自动化的进程。 1、预处理 摄像时的光照条件,牌照的整洁程度,摄像机的状态(焦距,角度和镜头的光学畸变),以及车速的不稳定等因素都会不同程度的影响图像效果,出现图像模糊,歪斜或缺损,车牌字符边界模糊不清,细节不清,笔画断开,粗细不均等现象,从而影响车牌区域的分割与字符识别的工作,所以识别之前要进行预处理。预处理的包括: 1)消除模糊—— 用逆滤波处理消除匀速运动造成的图像运动模糊 2)图像去噪。 通常得到的汽车图像会有一些污点,椒盐噪声,应用中值滤波 3)图像增强 自然光照度的昼夜变化会引起图像对比度的不足,所以必须图像增强,可以采用灰度拉伸,直方图均衡等 通过以上处理,提高了图像的质量,强化了图像区域。

2、车牌定位 自然环境下,汽车图像背景复杂、光照不均匀,如何在自然背景中准确地确定牌照区域是整个识别过程的关键。首先对采集到的视频图像进行大围相关搜索,找到符合汽车牌照特征的若干区域作为候选区,然后对这些侯选区域做进一步分析、评判,最后选定一个最佳的区域作为牌照区域,并将其从图象中分割出来。 ? 图像的灰度化 ? 图像灰度拉伸 ? 对图像进行边缘检测 采用Sobel 算子经行边缘检测 该算子包含两组3*3的矩阵,分别为横向及纵向,将之与图像作平面卷积,即可分别得出横向及纵向的亮度差分近似值。如果以A 代表原始图像,Gx 及Gy 分别代表经横向及纵向边缘检测的图像,其公式如下: A Gx *]101202101?????+-+-+-?????= and A *121000121Gy ???? ?---+++?????= 图像的每一个像素的横向及纵向梯度近似值可用以下的公式结合,来计算梯度的大小。 2 y 2x G G G += 然后可用以下公式计算梯度方向。 ??? ? ??=x y G G arctan θ 在以上例子中,如果以上的角度θ等于零,即代表图像该处拥有纵向边缘,左方较右方暗。 ? 对其进行二值化 ? 纹理分析法 行扫描行法是利用了车牌的连续特性。车牌区域有连续7个字符,而且字符与字符之间的距离在一定围。定义从目标到背景或者从背景到目标为一个跳变。牌照区域相对于其它非车牌区域跳变多,而且间距在定围和跳变次数大于一定次数,并且连续满足上述要求的行要达到一定的数目。 从下到上的顺序扫描,对图像的每一行进行从左向右的扫描,碰到跳变点记录下当前位置,如果某行连续20个跳变点以上,并且前一个跳变点和后一个跳变点的距离在30个像素,就记录下起始点和终止点位置,如果连续有10行以上这样的跳变点,我们就认为该区域就是车牌预选区域。 3、字符分割: 完成牌照区域的定位后,再将牌照区域分割成单个字符,然后进行识别。字符分割一般采用垂直投影法。由于字符在垂直方向上的投影必然在字符间或字符的间隙处取得局部最小值的附近,并且这个位置应满足牌照的字符书写格式、字符、尺寸限制和一些其他条件。利用垂直投影法对复杂环境下的汽车图像中的字符分割有较好的效果。 ? 车牌区域灰度二值化

人工智能YOLO V2 图像识别实验报告

第一章前言部分 1.1课程项目背景与意义 1.1.1课程项目背景 视觉是各个应用领域,如制造业、检验、文档分析、医疗诊断,和军事等领域中各种智能/自主系统中不可分割的一部分。由于它的重要性,一些先进国家,例如美国把对计算机视觉的研究列为对经济和科学有广泛影响的科学和工程中的重大基本问题,即所谓的重大挑战。计算机视觉的挑战是要为计算机和机器人开发具有与人类水平相当的视觉能力。机器视觉需要图象信号,纹理和颜色建模,几何处理和推理,以及物体建模。一个有能力的视觉系统应该把所有这些处理都紧密地集成在一起。作为一门学科,计算机视觉开始于60年代初,但在计算机视觉的基本研究中的许多重要进展是在80年代取得的。计算机视觉与人类视觉密切相关,对人类视觉有一个正确的认识将对计算机视觉的研究非常有益。 计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取‘信息’的人工智能系统。这里所指的信息指Shannon定义的,可以用来帮助做一个“决定”的信息。因为感知可以看作是从感官信号中提取信息,所以计算机视觉也可以看作是研究如何使人工系统从图像或多维数据中“感知”的科学。 科学技术的发展是推动人类社会进步的主要原因之一,未来社会进一步地朝着科技化、信息化、智能化的方向前进。在信息大爆炸的今天,充分利用这些信息将有助于社会的现代化建设,这其中图像信息是目前人们生活中最常见的信息。利用这些图像信息的一种重要方法就是图像目标定位识别技术。不管是视频监控领域还是虚拟现实技术等都对图像的识别有着极大的需求。一般的图像目标定位识别系统包括图像分割、目标关键特征提取、目标类别分类三个步骤。 深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。深度学习的概念由Hinton等人于2006年提出。基于深度置信网络提出非监督贪心逐层训练算法,为解决深层结构相关的优化难题带来希望,随后提出多层自动编码器深层结构。此外Lecun等人提出的卷积神经网络是第一个真正多层结构学习算法,它利用空间相对关系减少参数数目以提高训练性能。 深度学习是机器学习中的一个新的研究领域,通过深度学习的方法构建深度网络来抽取特征是目前目标和行为识别中得到关注的研究方向,引起更多计算机视觉领域研究者对深度学习进行探索和讨论,并推动了目标和行为识别的研究,推动了深度学习及其在目标和行为识别中的新进展。基于这个发展趋势,我们小组选择了基于回归方法的深度学习目标识别算法YOLO的研究。 1.1.2课程项目研究的意义 众所周知,当前是信息时代,信息的获得、加工、处理以及应用都有了飞跃

数字图像课程设计 监控视频中道路车流量检测系统设计

山东建筑大学 课程设计说明书 题目:监控视频中道路车流量检测系统设计课程:数字图像处理课程设计 院(部):信息与电气工程学院 专业:电子信息工程 班级:电信 学生姓名: 学号: 指导教师: 完成日期:2013年6月

目录 摘要································································································II 1 设计目的 (1) 2 设计要求 (1) 3 设计内容 (2) 3.1运动车辆检测算法比较 (2) 3.2形态学滤波 (5) 3.3车辆检测 (6) 3.4车辆计数 (9) 3.5软件设计 (9) 总结与致谢 (10) 参考文献 (11) 附录 (12)

摘要 获得实时的交通信息是当前各种检测方式的前提,但是现有的信息采集方式并不能满足交通管理与控制的需求。随着计算机技术的快速发展,基于视频的检测技术在交通中得到了广泛的应用,同其它检测方式相比,它具有检测范围大、设置灵活、安装维护方便、检测参数多等优点。基于图像处理的视频检测方式近年来发展很快,已成为当今智能交通系统的一个研究热点。本论文对视频交通流运动车辆检测的内容进行了深入地研究。结合视频图像详细的介绍了视频检测中的背景更新、阴影去除、车辆分割等关键技术和算法,介绍了视频检测的方法。最后在MATLAB的平台上进行了系统实现设计。实验结果表明,该算法具有一定的可行性,能够快速的将目标参数检测出来关键词:MATLAB;帧间差法;车辆检测

随着经济的发展,人民生活水平的提高,汽车保有量大幅增加,怎样安全高效地对交通进行管理,就显得非常重要.解决这一问题的关键是建立智能交通系统(ITS),其中车辆检测系统是智能交通系统的基础.它为智能控制提供重要的数据来源 作为ITS的基础部分,车辆检测系统在ITS中占有很重要的地位,目前基于视频的检测法是最有前途的一种方法,它是通过图像数字的方法获得交通流量信息,主要有以下优点:(1)能够提供高质量的图像信息,能高效、准确、安全可靠地完成道路交通的监视和控制工作.(2)安装视频摄像机破坏性低、方便、经济.现在我国许多城市已经安装了视频摄像机,用于交通监视和控制.(3)由计算机视觉得到的交通信息便于联网工作,有利于实现道路交通网的监视和控制.(4)随着计算机技术和图像处理技术的发展,满足了系统实时性、安全性和可靠性的要求 2 设计要求 通过对视频流中的车辆进行检测和跟踪,准确地统计每个车道流量、平均车速、平均车道占有率、车队长度、平均车间距等信息为交通规划,交通疏导和车辆动态导航领域提供一系列指导。 设计车辆检测与识别方法和车流量统计方法,实现监控视频中道路车流量检测。通过实验验证检测精度。

相关文档
最新文档