基于双目立体视觉的距离测量

合集下载

双目立体视觉测距流程

双目立体视觉测距流程

双目立体视觉测距流程下载温馨提示:该文档是我店铺精心编制而成,希望大家下载以后,能够帮助大家解决实际的问题。

文档下载后可定制随意修改,请根据实际需要进行相应的调整和使用,谢谢!并且,本店铺为大家提供各种各样类型的实用资料,如教育随笔、日记赏析、句子摘抄、古诗大全、经典美文、话题作文、工作总结、词语解析、文案摘录、其他资料等等,如想了解不同资料格式和写法,敬请关注!Download tips: This document is carefully compiled by theeditor. I hope that after you download them,they can help yousolve practical problems. The document can be customized andmodified after downloading,please adjust and use it according toactual needs, thank you!In addition, our shop provides you with various types ofpractical materials,such as educational essays, diaryappreciation,sentence excerpts,ancient poems,classic articles,topic composition,work summary,word parsing,copy excerpts,other materials and so on,want to know different data formats andwriting methods,please pay attention!双目立体视觉测距是一种通过两个摄像头获取物体的三维信息,从而计算出物体距离的技术。

基于双目视觉的识别测距系统设计

基于双目视觉的识别测距系统设计

第12期2023年6月无线互联科技Wireless Internet TechnologyNo.12June,2023作者简介:张润豪(1997 ),男,浙江温州人,硕士研究生;研究方向:图像处理,控制工程㊂基于双目视觉的识别测距系统设计张润豪,杨㊀瑞,管㊀艳(西京学院计算机学院,陕西西安710123)摘要:双目视觉的识别测距主要通过双目视觉系统模拟人的 双眼 ,从而获得物体的形状和距离的远近㊂文章提出一种目标识别测距系统,构建卷积神经网络模型,利用图像处理技术识别目标以及三角相似原理计算目标距离,最后达到识别和检测的目的㊂实验结果表明,所设计的目标识别测距系统能够同时保证特定目标的检测和测距,具有一定的研究意义㊂关键词:双目视觉;识别测距;神经网络中图分类号:TP391.41㊀㊀文献标志码:A 0㊀引言㊀㊀随着农业自动化的发展,水果的自动化与智能化采摘技术研究已成为当今的研究热点㊂然而,水果的采摘方式与其他作物不同,需要进行准确的采摘㊂因此,依靠双目视觉实现对目标物的准确识别和定位十分重要㊂双目视觉对于危险生产场所的检测㊁非接触产品的质量检测以及位置随机移动物体的实时检测具有重要的研究意义和应用价值[1]㊂双目视觉技术还可应用于机械臂㊁智能家居㊁智能制造㊁工业等具有巨大潜力的领域[2]㊂其他测距方法测距误差较大,测量范围受限,而双目视觉技术可以在不接触目标物的情况下识别和定位目标物,还可以估计目标物的深度信息㊂因此,本文选择双目测距法㊂然而,同时具备目标物识别和测距的系统比较少,不能满足指定工作的需求[3-5]㊂针对上述存在的问题,结合双目视觉和机器学习等技术[6-9],本文提出了基于双目视觉的目标检测测距方法,设计了一个基于双目视觉的目标检测测距系统㊂该系统能够实现对目标物的识别和定位,使人们可以利用计算机技术模拟人眼,方便后期的操作㊂该系统利用卷积神经网络对物体进行识别,再根据双目相机测距原理,最后得到目标与摄像头之间的距离,从而最终实现定位㊂1㊀双目视觉系统㊀㊀双目系统主要由两款相同的摄像头组成,保持在同一个水平面上,并共享一个共同的观察区㊂距离测量是用三角数学方法进行的㊂测距的原理如图1所示㊂O 1和O 2分别为两个摄像头的光圈中心,它们之间的长度为B ㊂点P 为空间中的待测目标物,P 1(x 1,y 1)和P 2(x 2,y 2)为点P 在双目相机成像平面所成的点㊂当焦距为f 时,根据三角形原理可得:图1㊀测距原理B -x 1+x 2Z -f =B Z(1)Z =fB x 1-x 2(2)根据公式(1)和(2),设P 为空间中的一点,在空间坐标系和相机坐标系中的坐标点为(X ,Y ,Z ),(Xᶄ,Yᶄ,Zᶄ)㊂图像坐标系和像素坐标系表示为(x ,y )和(u ,v )㊂空间坐标系经变化到相机坐标系,有:XᶄY ᶄZ ᶄéëêêêùûúúú=R X Y Z éëêêêùûúúú+T (3)根据投影原理,把空间上的点投影到平面上,可得到相机坐标系到图像坐标系的转换关系,即:x y éëêêùûúú=f X ᶄZ ᶄf Y ᶄz ᶄéëêêêêùûúúúú(4)图像坐标系的起点是相机光轴和图像平面的交点,像素坐标系起点从像素阵列中的第一个点开始,图像坐标系转换到像素坐标系:u v éëêêùûúú=x dx +u 0y dy +v 0éëêêêêùûúúúú(5)由以上式可得:Z ᶄu v 1éëêêêùûúúú=1dx 0u 001dy v 0001éëêêêêêêùûúúúúúúf 0000f 000010éëêêêùûúúúR T 01éëêêùûúúX Y Z 1éëêêêêùûúúúú=f xu 000f y v 000010éëêêêùûúúúR T 01éëêêùûúúX Y Z 1éëêêêêùûúúúú(6)公式(6)中的矩阵代表着相机的内外参数,通过相机的标定获得具体参数㊂双目视觉测距是采用双目视觉技术来测量物体距离的原理,通过两台摄像机拍摄同一场景生成图像视差,并根据该视差建立物距测量模型,实现场景距㊀㊀离的实时计算㊂O l 和O r 为光圈中心,T ,f 为相机基线距离和焦距,P l 和P r 为图像坐标系的点,Z 为垂直距离㊂根据三角形相似:T -(X l -X r )T =Z -fZ(7)推出点P 与相机距离Z 的表达式为:Z =fT X l -X r =fTd(8)公式(8)式中,左右相机视差d =X l -X r双目测距系统的流程如图2所示,各个坐标系之间的转换关系如图3所示㊂图2㊀双目系统流程图3㊀各个坐标系转换2 双目相机标定2.1㊀相机标定㊀㊀双目相机中内部和外部参数和畸变参数的精度直接影响后续测量的精度㊂因此,文章选用了具有精度高㊁操作方便的张正友标定法㊂本文自制一个黑白棋盘,并将其固定在一个纸板上,如图4所示㊂首先,使用双目相机在不同的位置和角度拍摄大约30幅棋盘图像㊂其次,将图像分别导入MATLAB 进行检测校正㊂最后,经过计算和分析,利用棋盘校准板获得左右相机内部和外部参数及其位置的三维视图㊂标定结果如图5所示㊂2.2㊀立体校正㊀㊀把实际中非共面行对准的两幅图像,校正成共面行对准,提高匹配搜索的效率㊂将消除畸变后的两幅图像严格地对应,利用极线约束使得两幅图像的对极线恰好在同一水平线上,这样一幅图像上任意一点与其在另一幅图像上的对应点就必然具有相同的行号,只需在该行进行一维搜索即可匹配到对应点㊂根据摄像头标定后获得的双目相对位置对左右视图进行消除畸变和行对准,如图6所示㊂图4㊀标定板角点图5㊀标定板平面位置和标定误差图6㊀校正后图像2.3㊀立体匹配㊀㊀立体匹配主要计算视差㊂基于双目测距原理的分析使得可以通过计算由左右摄像机拍摄的每个图像相应点的视差来获得关于图像深度的信息㊂双目立体视觉的三维重建过程中,需要通过立体匹配算法进行视差图的计算得到左右两幅图像的视差值,进而计算深度以恢复场景的三维信息㊂要计算左右视图中三维场景中目标点生成的视差,左右视图中的两个对应像点必须与该点匹配㊂然而,协调二维空间中的对应点需要很长时间才能缩小适当的搜索范围,需要进行双目相机的立体校正,将二维上的匹配搜索降低到一维㊂立体匹配后,得到的视差图如图7所示㊂图7㊀视差3 图像识别定位测距3.1㊀数据标注和图片训练㊀㊀数据标注是处理原始语音㊁图像㊁文本㊁视频和其他数据并将其转换为机器可读信息的过程㊂机器无法识别和研究未标记的原始数据㊂原始数据只有经过标注处理成为结构化数据后才能被算法训练所使用㊂整个数据标注的过程如下:首先,将要标注的物体制作成数据集,并且图片越多越好,如果样本过少,模型训练和预测都会受到影响,非常容易欠拟合;其次,通过Labelme 工具进行标注,如图8所示;最后,将数据集分为训练集㊁验证集和测试集㊂数据标注完成后,需要对标注的数据集图片进行训练,图片训练完成后,可以看到训练好的模型的权重和PR Curve 曲线㊁Confusion Matrix (混淆矩阵)等训练过程数据㊂然后可以用训练的模型进行测试,配合双目摄像头,可以实现对特定物体的实时识别,如图9所示㊂3.2㊀双目识别测距㊀㊀双目相机的工作方式与人眼相同㊂人眼感知物体距离的能力基于两只眼睛在同一物体上呈现的图像差异,也称为视差㊂把物体识别和双目测距结合在一起,融合了卷积神经网络,不仅能够对物体进行识别,还能够进行测距㊂本文通过深度学习技术与传统算法的结合,利用双目相机实现了物体的精准测距㊂通过网络框的置信度确定识别的准确度,计算表达式为:图8㊀标注图9㊀灰度图和识别信度Pr (object )ˑIOU truth pred(9)IOU truth pred=area (BB dt ɘBB gt )area (BB dt ɣBB gt )(10)Pr (object )为训练样本的概率;BB gt 为物体标签的可行度,BB dt 分为网络预测的可信度;area 为面积函数㊂测距效果如图10所示㊂图10㊀双目测距4 结语㊀㊀在目标识别的基础上,建立双目系统,开发并实㊀㊀施基于双目视觉和机器学习的识别和定位系统㊂该系统已被证明具有一定的精度和稳定性㊂通过对双目距离原理的研究,本文开发了一种基于双目视觉的目标测距和检测系统,通过收集图像㊁校准相机㊁处理图像并进行比较,最后进行目标测试㊂实验表明,目标测距和检测系统具有良好的精度和可行性㊂下一步,笔者将继续深入研究㊁分析和提高双目视觉,消除系统测量的准确性和可靠性,研究双目视觉在智能制造设备和相关智能场景中的应用㊂参考文献[1]任慧娟,金守峰,程云飞,等.面向分拣机器人的多目标视觉识别定位方法[J ].机械与电子,2019(12):64-68.[2]赵刚,郭晓康,刘德政,等.随机工件的点云场景CAD 模型的快速识别与定位[J ].激光与红外,2019(12):1490-1496.[3]柴钰,许继科.基于机器视觉的目标识别与定位系统[J ].计算机工程与设计,2019(12):3557-3562.[4]连黎明.基于多信息融合的移动机器人定位算法[J ].西南师范大学学报(自然科学版),2019(9):89-95.[5]蒋萌,王尧尧,陈柏.基于双目视觉的目标识别与定位研究[J ].机电工程,2018(4):414-419.[6]王德海,洪伟,程群哲.基于双目立体视觉的目标识别与定位[J ].吉林大学学报(信息科学版),2016(2):289-295.[7]高如新,王俊孟.基于双目视觉的目标识别与定位[J ].河南理工大学学报(自然科学版),2014(4):495-500.[8]袁小平,张毅,张侠,等.基于改进FAST 检测的ORB 特征匹配算法[J ].科学技术与工程,2019(21):233-238.[9]BOYKOV Y ,VEKSLER O ,ZABIH R.Fast approximate energy minimization via graph cuts [J ].IEEE Transactions on Pattern Analysis and Machine Intelligence ,2001(11):1222-1239.(编辑㊀王雪芬)Design of recognition and ranging system based on binocular visionZhang Runhao Yang Rui Guan YanSchool of Computer Science Xijing University Shaanxi 710123 ChinaAbstract The recognition and ranging of binocular vision mainly uses a binocular vision system to simulate the eyes of humans thereby obtaining the shape of objects and the distance between them.This paper proposes a target recognition and ranging system constructs a convolutional neural network model uses image processing technology to identify the target and calculates the target distance based on the triangular similarity principle finally achieving recognition and detection.Experimental results show that the designed target recognition and ranging system can simultaneously ensure the detection and ranging of specific targets which has certain research significance.Key words。

基于双目视觉的快速定位与测距方法

基于双目视觉的快速定位与测距方法

基于双目视觉的快速定位与测距方法姚志生;许四祥;李天甲;王洋【摘要】In view of the problem of long matching time in binocular vision positioning and ranging process, a rapid method of binocular vision locating and ranging was proposed based on the background-subtraction method. Firstly, the original images captured by the binocular camera were processed by removing distortion and stereo correction.Then,the image frame and the background frame were subtracted,and morphological processing was carried out to obtain the image containing only the target object;Finally,the left and right images were matched, and the epipolar constraint law was employed to remove the mismatch to obtain the three-dimensional information of the object,and the positioning and ranging operation were completed.Experimental results show that the number of initial matching points is reduced by 96.7%,the number of effective matching points is reduced by 94.1%,and the matching time is reduced by 75.8%,compared with the traditional binocular vision ranging method.The method of this paper has practical significance to realize rapid positioning and ranging based on binocular vision.%针对双目视觉定位与测距过程中存在匹配时间较长的问题,提出一种基于背景差分法的双目视觉快速定位与测距方法.首先,对双目相机拍摄的原始图像进行去畸变和立体校正处理;然后,对图像与背景帧差并进行形态学处理,得到只包含目标物体的图像;最后,对左右图像进行匹配并运用极线约束法则去除误匹配得到物体的三维信息,完成定位与测距.经实验验证,与传统双目视觉定位测距方法相比,该方法初始匹配对数减少了96.8%,有效匹配对数减少了94.1%,匹配时间减少了75.8%,表明本文方法对于实现基于双目视觉的快速定位与测距具有实际意义.【期刊名称】《安徽工业大学学报(自然科学版)》【年(卷),期】2017(034)004【总页数】5页(P368-372)【关键词】双目视觉;相机标定;极线约束;背景差分法【作者】姚志生;许四祥;李天甲;王洋【作者单位】安徽工业大学机械工程学院,安徽马鞍山243032;安徽工业大学机械工程学院,安徽马鞍山243032;安徽工业大学机械工程学院,安徽马鞍山243032;安徽工业大学机械工程学院,安徽马鞍山243032【正文语种】中文【中图分类】TP391在钢铁冶金行业中,板坯连铸成型后需被分段切割送入辊道。

基于双目立体视觉的前方车距测量

基于双目立体视觉的前方车距测量
维普资讯








第3 O卷
Vo . 3 1 O
第1 期
No 1 . . 06
J OURNAL OF DAQI ET NG P ROI EUM N TI I S TUTE
雷达测距、 激光测距相比, 目立体视觉测距方法具有简单可靠 、 双 检测信息量大和测量精度高等优点.
1 数 学模 型
空 间任 意一点 P 在 2个摄像 机 O 和 O 上 的图像点 为 P 1 2 和 P , 图 1 。见 .假设 2个摄像 机 已经标 定 ,
则 它们 的投 影矩 阵 M M 已知 , : 和 即
素 , 一1 2 i , , ,—l 2 3 4 七 , ,一1 2 3 J , , , .
2 前 方 车辆 探 测
前方 车辆探 测 是车距 测 量 的前 提 .假设 道路 是直 线 , 路 面上除行 驶 的车 辆外 无其 他 障碍 物. 且
2 1 感 兴趣 区 ( O ) . A I 的确 定


, , \ 、 、

l一 ]M


j - - 1 4 4 f z i 。确 J
r l

。 ]

} 2

l= IIM 2 J

l ; ; ; ;1 l 2 i j 3 4 j l
,() 2
图 1 双摄像机 观察 空间点
式 中 : z 分 别为 点 P在 2个摄 像机 坐标 系 中的 z坐标 ; “ , , ) ( 。 , ) P z , (。 1 与 “ , 1 为 和 P 。 z在各 自图像 中的齐次 坐标 ;X Y , , ) ( 1 为点 P在世 界坐 标 系下 的齐次 坐标 ; 为 投影 矩 阵 M 的第 i 行第 J列 的元

双目立体视觉测距原理

双目立体视觉测距原理

双目立体视觉测距原理双目立体视觉系统由两个相机组成,每个相机代表一个眼睛。

相机之间的距离通常被称为基线(baseline)。

在观察同一个目标时,两个相机会获取两个稍微不同的图像。

这是因为两个相机的位置不同,导致从不同角度观察到的目标图像有所偏移。

基于这个差异,我们可以使用视差原理来计算目标的距离。

视差是指两个眼睛在看同一个目标时,两个图像中相同物体之间的像素差异。

这个差异是由于目标在三维空间中的位置和相机的视角造成的。

我们可以通过比较两个图像的像素来计算出这个视差。

为了进行视差计算,我们首先需要进行图像配准。

这意味着将两个图像对齐,使得相同的物体在两个图像中位置相同。

这可以通过计算两个图像之间的特征点匹配来实现。

一旦图像对齐完成,我们就可以计算图像中像素之间的视差。

计算视差的常见方法是使用极线约束(Epipolar constraint)和匹配算法。

极线约束是指在双目视觉中,两个相机的对应像素点位于相应极线上。

换句话说,一个像素只能与另一个图像中相同视线上的像素匹配。

这个约束可以减少计算量并提高匹配的准确性。

匹配算法的选择取决于具体的应用需求和计算资源。

一些常见的匹配算法包括块匹配(block matching)、图像金字塔(image pyramid)和灰度共生矩阵(gray-level co-occurrence matrix)方法。

这些算法可以在图像中最佳匹配,并计算出视差值。

一旦获取了视差值,我们可以使用三角测量原理来计算目标的距离。

三角测量基于几何原理,通过知道基线长度和视差值,我们可以计算出目标的距离。

双目立体视觉测距原理有许多应用。

在工业领域,它可以用于机器人导航、三维重建和物体检测。

在医疗领域,双目视觉可以用于辅助手术和视觉康复。

在自动驾驶和无人机等领域,双目视觉可以帮助测量目标距离并进行障碍物检测。

总结起来,双目立体视觉测距原理利用两个相机观察同一目标,并计算出视差值来测量目标的距离。

双目立体视觉测距算法研究共3篇

双目立体视觉测距算法研究共3篇

双目立体视觉测距算法研究共3篇双目立体视觉测距算法研究1双目立体视觉测距算法研究随着机器视觉技术的不断发展,双目立体视觉测距算法逐渐成为了一种广泛应用的测距技术。

双目立体视觉测距算法是通过两个视点来获取立体信息,并计算物体真实距离的一种方法。

本文对双目立体视觉测距算法进行了研究,并分析其在应用中的优势和不足。

一、双目立体视觉测距算法原理双目立体视觉测距算法基于人眼的立体视觉原理,即通过两个视角获取物体的三维信息。

常用的双目立体视觉系统由左右两个相机组成,同时获取场景的两幅图像。

通过对这两幅图像进行处理,计算出物体在左右两幅图像上的像素位置差(视差),从而推算出物体的真实距离。

二、双目立体视觉测距算法优势1.高精度:相较于其他测距方法(如激光测距),双目立体视觉测距算法具有更高的精度,能够在一定范围内实现毫米级别的测距。

2.适用性广:该算法可以适用于多种物体,无论物体大小、形状、材质如何,都可以进行测距。

3.实时性高:双目立体视觉测距算法能够在几毫秒内完成图像处理和测距,实时性较高。

三、双目立体视觉测距算法不足1.对环境影响大:该算法对环境的变化比较敏感,如光照、颜色、纹理等变化会影响到视差计算的准确性。

2.算法复杂度高:该算法相较于其他测距方法具有更高的计算复杂度,需要较高的计算资源支持。

3.视野较小:双目立体视觉测距算法的视野范围相对较小,需要控制好摄像机的位置和摆放角度,否则会影响测距结果的准确性。

四、双目立体视觉测距算法在实际应用中的案例双目立体视觉测距算法已经在多个领域得到了成功应用,以下是一些案例:1.物流自动化:在物流自动化领域,通过双目立体视觉测距算法可以实现对货物的快速识别和分拣,提高分拣效率。

2.智能驾驶:在智能驾驶领域,通过双目立体视觉测距算法可以实现对车辆和行人的快速检测和识别,提高自动驾驶的安全性。

3.机器人制造:在机器人制造领域,通过双目立体视觉测距算法可以实现对工件和机器人的快速识别和定位,提高机器人的自动化程度和生产效率。

双目测距原理 极线校准

双目测距原理 极线校准

双目测距原理极线校准
双目测距原理是基于人类双眼立体视觉的原理,通过两个摄像
头或传感器来模拟人类双眼观察物体的方式,从而实现对物体的测距。

这种方法利用了视差原理,即通过两个视点观察同一物体时,
由于视点之间的距离,物体在两个图像中的位置会有所不同,通过
计算这种差异,可以确定物体与摄像头的距离。

双目测距系统通常包括摄像头、图像处理单元和测距算法。


像头用于捕获物体的图像,图像处理单元用于处理和分析图像数据,测距算法则根据视差信息计算物体与摄像头的距离。

常见的双目测
距算法包括立体匹配算法、三角测量法和深度学习方法等。

而极线校准是双目测距中的一个重要步骤,它是指将两个摄像
头的成像平面上的像素点通过极线进行对应。

极线是由两个摄像头
的光心和对应的像素点确定的直线,极线校准的目的是建立这种像
素点之间的对应关系,以便后续的双目测距算法能够准确地计算视
差信息,从而实现精准的测距。

在极线校准过程中,通常需要进行摄像头的标定,确定摄像头
的内参和外参,然后通过特征点匹配等方法计算极线方程,最终实
现两个摄像头之间的像素点对应关系,为后续的测距提供准确的数据基础。

总的来说,双目测距原理基于视差原理,通过两个摄像头模拟人类双眼视觉,利用视差信息计算物体与摄像头的距离;而极线校准则是双目测距中的重要步骤,通过建立像素点之间的对应关系,为后续的测距算法提供准确的数据基础。

这些原理和方法在计算机视觉、机器人视觉和三维重建等领域有着广泛的应用。

双目视觉测距原理

双目视觉测距原理

双目视觉测距原理双目视觉测距是一种通过两只眼睛来获取深度信息的方法,它模拟了人类的双眼立体视觉原理。

在人类的视觉系统中,两只眼睛分别观察到的景象有所不同,这种差异被大脑用来计算物体的距离和深度。

双目视觉测距原理正是基于这一原理而来的。

首先,我们需要了解双目视觉系统是如何获取深度信息的。

当物体位于不同位置时,它在两只眼睛中所形成的影像也会有所不同。

这种不同主要体现在两只眼睛所看到的物体的位置和角度上。

通过比较这种不同,我们可以计算出物体的距离和深度。

双目视觉测距的原理基于三角测量法。

在这种方法中,我们假设两只眼睛和被观察物体之间构成一个三角形,通过测量这个三角形的各个边和角度,我们就可以计算出物体的距离和深度。

具体来说,我们可以通过测量两只眼睛之间的距离、两只眼睛到物体的距离以及两只眼睛所看到的物体的角度来计算出物体的距离和深度。

双目视觉测距的原理还可以通过立体成像来解释。

在双目视觉系统中,两只眼睛所看到的景象有所不同,这种差异被大脑用来构建一个立体的视角,从而使我们能够感知到物体的距离和深度。

通过比较两只眼睛所看到的景象,我们可以获得一个立体的视角,从而感知到物体的立体形状和位置。

双目视觉测距原理的应用非常广泛。

在机器人领域,双目视觉测距被广泛应用于机器人的导航和避障系统中。

通过模拟人类的双目视觉系统,机器人可以感知到周围环境的深度信息,从而更加准确地进行导航和避障。

在自动驾驶汽车领域,双目视觉测距也被广泛应用于汽车的环境感知系统中,通过获取周围环境的深度信息,汽车可以更加准确地感知到周围道路和障碍物,从而提高行驶安全性。

总的来说,双目视觉测距原理是一种通过模拟人类双眼立体视觉原理来获取深度信息的方法。

它基于三角测量法和立体成像原理,通过比较两只眼睛所看到的景象来计算物体的距离和深度。

双目视觉测距原理在机器人导航、自动驾驶汽车等领域有着广泛的应用前景,将会在未来发挥越来越重要的作用。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

摘要立体视觉技术是机器人技术研究中最为活跃的一个分支,是智能机器人的重要标志。

双目立体视觉是通过对同一目标的两幅图像提取、识别、匹配和解释,重建三维环境信息的过程。

主要包括:视频捕获、摄像机定标、图像预处理和特征提取、立体匹配以及三维重建。

通过对双目立体视觉技术的进一步研究,对多目视觉具有重要的启发,为解决智能移动机器人、工业装配机器人、家用机器人、公共服务机器人的视觉问题奠定良好的技术基础。

计算机立体视觉的主要研究内容是由多幅二维的平面图像恢复出被摄物体的三维坐标,而其中基于两幅图像的双目视觉技术则是一个研究热点。

双目立体视觉的基本原理是模仿人眼与人类视觉的立体感知过程,从两个视点观察同一景物,以获取不同视角下的感知图像,通过三角测量原理计算图像像素间的位置偏差,以获取景物的三维信息。

一个完整的双目视觉系统通常可分为图像获取、摄像机标定、特征提取、立体匹配、目标定位和深度图生成等六大部分。

本论文主要是图像特征提取、立体匹配这两方面的内容展开研究。

首先根据选择的立体视觉成像系统模型阐述了立体视觉测距的基本原理。

其次,对图像特征提取等预处理方法进行详尽地分析,通过实例对算法进行实验。

同时,对图像匹配问题涉及的内容包括图像匹配方式、质量控制策略等进行了总结。

最后,以特征提取与图像匹配研究为基础,针对不同类型的立体图像提出了基于图像边缘特征和图像兴趣点的匹配方法。

关键词:立体视觉摄像机定标特征提取立体匹配深度图用“双视点投影光栅三维测量”原理,由双摄像机获取图像对,通过计算机进行图像数据处理,不仅可以获取服装设计所需的特征尺寸,还可根据需要获取人体图像上任意一点的三维坐标。

§1.2.2发展趋势20世纪70年代中期以Matt、Barrow和Tenenbaum等人为代表的一些研究者提出了一整套视觉计算的理论来描述视觉过程,其核心是从图像恢复物体的三维形状。

在视觉研究的理论下,以Marr的理论影响最为深远,并成为这一领域的主导思想IlJ。

马尔教授认为:视觉可分为三个阶段。

第一阶段是早期视觉(earlyvision),其目的是拍取观察者周围景物表面的物理特性,如距离、表面方向、材料特性(反射、颜色、。

纹理)等,具体来说包括边缘检测、双目立体匹配、由阴影确定形状、由纹理确定形状等。

第二阶段是二维半简图(2.5Dsketch)或本征图像(IntrinsicImage)。

它是在以观察者为中心的坐标系中描述表面的各种特性。

根据这些描述,可以重建物体边界,按表面和体积分割景物。

但在以观察者为中心的坐标系中只能得到可见表面的描述,得不到遮挡表面的描述,故称二维半简图。

第三阶段是三维模型一视觉信息处理的最后一个层次,是用二维半简图中得到的表面信息建立适用于视觉识别的三维形状描述。

这个描述应该与观察者的视角无关,也就是在以物体为中心的坐标系中,以各种符号关系和几何结构描述物体的三维结构和空问关系。

经过近三十年的发展,在马尔的理论框架下,机器人立体视觉取得了一大批成果。

但随着机器人立体视觉研究的不断深入,大们发现了马尔视觉理论的局限性,即从景物图像或系列图像求出景物精确的三维几何场景并定量的确定景物中物体的性质时遇到了困难121。

在Marr的理论中,输入是被动的,给什么图像系统就处理什么图像,整个处理过程基本上是“自底向上”的,没有反馈。

处理的目的是不变的,总是要求出场景中物体的形状和它们的空I’日J位置和关系。

其理论强调表示的重要性以及从不同层次上去研究信息处理问题,在计算理论和算法实现上又特别强调计算理论的重要性。

这些理论多数是建立在对人类感知三维信息分析的基础上。

尽管这些方法在数学上是可行的,但由于各种干扰的存在以及逆成像的问题,使得问题本身是病态的。

进入80年代中后期,随着移动式机器人立体视觉研究的发展,大量运用空间几何的方法以及物理知识来研究双目立体视觉,其主要是完成对道路和障碍的识别处理。

这一时期引入主动视觉的研究方法,并采3颜色的方法,这里不介绍了。

灰度图像的RGB三个分量的值相同,处理很方便。

在256级灰度图中,图像数据一个字节就代表一个像素,如果灰度级是2级或16级,还要拼凑字节,比较麻烦.所以本文主要讨论256级灰度图。

对于灰度图像,因为其RGB值相同,所以只要定义一个二维数组p[x][Y]即可,数组元素的值,也就是图像中每一点的灰度值,这个二维数组就是我们用计算机处理的对象,它和图像是一一对应的。

一幅图像所有像素的灰度信息可以用灰度直方图来描述,灰度直方图是灰度级的函数,描述的是图像中具有该灰度级的像素的个数:其横坐标是灰度级,纵坐标是该灰度出现的频率(像素的个数)。

计算灰度直方图的算法如下:for(i=O:i<height:i++)for(j=o:j<height:j++){k=p[i][j]:gray[k]++:)下图是实验中的一幅图像及其灰度直方图:直方图给出了一个简单的指示,用来判断一幅图像是否合理的利用了全部被允许的灰度级范围,这对分析数字化的效果很有用。

通过直方图还可以选择合适的灰度阈值,进行图像分割和边界提取。

§3.3图像预处理由于各种噪声的干扰和影响,在对图像进行特征提取前需先进行图像的平滑滤波等操作,以消除噪声的影响。

为了抑制数字图像中的噪声,需采用空间低通滤波器。

低通滤波器不影响低频分量,但由于图像边缘轮廓包含多种高频信息,所以在抑制噪声的同时会使图像边缘变得模糊。

若采用高频滤波器提取图像特征又会增强图像噪声。

图像处理中解决该矛盾的手段多采用中值滤波法或复合型中值滤波法。

图像预处理过程通常包括噪声消除、图像增强、边缘提取等过程。

图像增强是指对图像的某些特征,如边缘、轮廓、对比度等进行强调或锐化,以便于显示、观察或进一步分析与处理[20l。

图像增强不增加图像数据中的相关信息,但它增加所选择特征的动态范围,从而使这些特征检测或识别更加容易。

图像增强的主要方法有:基于点运算的方法、基于空间运算的方法、基于频域运算的方法和彩色增强方法。

基于点运算的图像增强方法属于时域处理方法,实际上是对图像的灰度级进行变换,使图像对比度得到调整,是一种点对点的变换。

主要有以下几种:(1)灰度线性变换(2)灰度非线性变换(3)灰度切片变换(4)直方图修整基于空问运算的图像增强方法属于时域处理方法,是一种利用各像素及其邻近各点的像素值来判断该点是否含有噪声,并用适当的方法消除所发现的噪声的图像增强方法。

主要有以下几种:(1)图像平滑(2)图像锐化(3)反对比度映射和统计比例尺度变换§3.3.1灰度变换(1)灰度线性变换假定原图像的灰度范围为[a,b],希望变换后的图像g(X,Y)的灰度范围为[c,d],可用下述变换来实现:g(x,力:—(d—-—c)_[f—(x—,y一)-a]+c(3.1)D一口如果己知图像的大部分像素的灰度级分布在区间[a,b],小部分像素的灰度级不在此区I’丑J内,下列变换也可改善图像的效果。

贴棚={警竹a≤f(x,y≤bf(x,y1<a(3.2)f(x,_y)>b下面是实验中的一幅图像及对其进行灰度线性变换后的图像:图3.2原图像及灰度线性变化图像图3.3原图像及其且刀闰均衡化图像§3.3.3图像平滑图像在生成和传输过程中常受到各种噪声源的干扰和影响而使图像质量变差,抑制或消除这类噪声而改善图像质量的过程称为对图像的平滑过程。

图像平滑的方法主要有:(1)邻域平均法在领域平均法中,假定图像是由许多灰度恒定的小块组成,相邻像素间有很高的空间相关性,而噪声是统计独立的叠加在图像上的。

因此,可用像素领域内的各像素灰度值的平均代替该像素原来的灰度值,实现图3.3原图像及其中值滤波法平滑后的图像如上图所示,噪声被明显得消除了,图像质量得到了改善。

§3.3.4图像锐化图像锐化的目的是增强图像中景物的边缘和轮廓。

常用的方法有微分法、高通滤波法等【23l。

(1)微分法在图像中,边缘是由灰度级和邻域点不同的像素点构成的。

因而,若想增强边缘,就应该突出相邻点的灰度级的变化。

微分运算可用来求信号的变化率,因而具有加强高频分量的作用。

如果将其应用在图像上,可使图像的轮廓清晰。

由于无法事先确定轮廓的取向,因而挑选用于轮廓增强的微分算子时,必须选择那些不具备空|’丑J方向性的和具有旋转不变性的线性微分算子。

图3.4原图像及其高通滤波法锐化后的图像§3.4小结对灰度图像进行特征提取等预处理过程是进行图像配准的前提条件。

像素灰度提取和灰度直方图计算,可以得到图像中每个像素点的灰度值和所有点的灰度统计,以便进行灰度运算和为图像分割、边界提取选择合适的灰度阂值。

图像增强的目的是使图像特征检测或识别更加容易,本章研究了灰度变换、直方图修整、图像平滑、图像锐化等图像增强方法,用Visualc++编程实现了其中一些算法,并给出了处理后的效果图。

(a)原图像(c)Robert算子(b)Sobel算子(d)Kirsch算子(e)Laplacian算子图4.1原图像及其边缘检测效果图图4.2llarr算法边缘检测效果图§4.2边缘细化边缘细化的目的是将有一定宽度的边缘变窄,并保持其形状的拓扑结构不变,可以大大减少边缘的数据量。

这里主要介绍Hilditch细化算法和Sobel细化算法。

Hilditch细化算法适用于输入图像为0和1的二值图像。

像素值为1的区域是需要细化的部分,像素值为0的区域是背景。

Hilditch细化算法可描述如下:设P为被检测的像素,f(P)为像素P的灰度值,仃。

(扛1,2,...,8)为P的8邻域像素,一。

的位置如图所示。

玎^鸭疗2p体确‰,厶飞图4.3像素P的8邻域设集合I={1)表示需要细化的像素子集,集合N={gIg一所≤o)表示背景像素子集,集合R=卜m)表示在第m次减薄时,I中被减掉的像素。

(a)原边缘图(c)Sobel算法细化后边缘图图4.3边缘细化效果图(b)Hilditch算法细化后边缘圈§4.3特征点的提取两眼立体视觉中左右眼图象的对应特征计算是立体视觉中很重要的问题。

为图像上的每个象素找出对应点通常是不实际的。

例如一幅图像上灰度相同的一个区域中的点可能与另一个图像上相应区域中的许多点对应。

提取特征点就是为了解决这一问题从而实现唯一的匹配。

如果对左右立体图象对的所有点都进行相关计算,其计算量将会同基于面积的匹配一样很大。

为了提高处理速度,人们进行了大量研究。

其中,Ohta陋1和LlogdE”I提出利用边界方向的对应特征性质减少对应候补的数目,然后通过加局部约束和重复使用概率松弛法提高对应计算的可信度。

但这种方法在选择递推计算次数的评价函数时遇到困难。

与此同时奥富和三浦分别提出利用不同观察点的两眼立体视数据的融合消除3D视觉信号中的模糊性。

相关文档
最新文档