基于双目视觉的移动机器人动态目标识别与定位
基于双目视觉的识别测距系统设计

第12期2023年6月无线互联科技Wireless Internet TechnologyNo.12June,2023作者简介:张润豪(1997 ),男,浙江温州人,硕士研究生;研究方向:图像处理,控制工程㊂基于双目视觉的识别测距系统设计张润豪,杨㊀瑞,管㊀艳(西京学院计算机学院,陕西西安710123)摘要:双目视觉的识别测距主要通过双目视觉系统模拟人的 双眼 ,从而获得物体的形状和距离的远近㊂文章提出一种目标识别测距系统,构建卷积神经网络模型,利用图像处理技术识别目标以及三角相似原理计算目标距离,最后达到识别和检测的目的㊂实验结果表明,所设计的目标识别测距系统能够同时保证特定目标的检测和测距,具有一定的研究意义㊂关键词:双目视觉;识别测距;神经网络中图分类号:TP391.41㊀㊀文献标志码:A 0㊀引言㊀㊀随着农业自动化的发展,水果的自动化与智能化采摘技术研究已成为当今的研究热点㊂然而,水果的采摘方式与其他作物不同,需要进行准确的采摘㊂因此,依靠双目视觉实现对目标物的准确识别和定位十分重要㊂双目视觉对于危险生产场所的检测㊁非接触产品的质量检测以及位置随机移动物体的实时检测具有重要的研究意义和应用价值[1]㊂双目视觉技术还可应用于机械臂㊁智能家居㊁智能制造㊁工业等具有巨大潜力的领域[2]㊂其他测距方法测距误差较大,测量范围受限,而双目视觉技术可以在不接触目标物的情况下识别和定位目标物,还可以估计目标物的深度信息㊂因此,本文选择双目测距法㊂然而,同时具备目标物识别和测距的系统比较少,不能满足指定工作的需求[3-5]㊂针对上述存在的问题,结合双目视觉和机器学习等技术[6-9],本文提出了基于双目视觉的目标检测测距方法,设计了一个基于双目视觉的目标检测测距系统㊂该系统能够实现对目标物的识别和定位,使人们可以利用计算机技术模拟人眼,方便后期的操作㊂该系统利用卷积神经网络对物体进行识别,再根据双目相机测距原理,最后得到目标与摄像头之间的距离,从而最终实现定位㊂1㊀双目视觉系统㊀㊀双目系统主要由两款相同的摄像头组成,保持在同一个水平面上,并共享一个共同的观察区㊂距离测量是用三角数学方法进行的㊂测距的原理如图1所示㊂O 1和O 2分别为两个摄像头的光圈中心,它们之间的长度为B ㊂点P 为空间中的待测目标物,P 1(x 1,y 1)和P 2(x 2,y 2)为点P 在双目相机成像平面所成的点㊂当焦距为f 时,根据三角形原理可得:图1㊀测距原理B -x 1+x 2Z -f =B Z(1)Z =fB x 1-x 2(2)根据公式(1)和(2),设P 为空间中的一点,在空间坐标系和相机坐标系中的坐标点为(X ,Y ,Z ),(Xᶄ,Yᶄ,Zᶄ)㊂图像坐标系和像素坐标系表示为(x ,y )和(u ,v )㊂空间坐标系经变化到相机坐标系,有:XᶄY ᶄZ ᶄéëêêêùûúúú=R X Y Z éëêêêùûúúú+T (3)根据投影原理,把空间上的点投影到平面上,可得到相机坐标系到图像坐标系的转换关系,即:x y éëêêùûúú=f X ᶄZ ᶄf Y ᶄz ᶄéëêêêêùûúúúú(4)图像坐标系的起点是相机光轴和图像平面的交点,像素坐标系起点从像素阵列中的第一个点开始,图像坐标系转换到像素坐标系:u v éëêêùûúú=x dx +u 0y dy +v 0éëêêêêùûúúúú(5)由以上式可得:Z ᶄu v 1éëêêêùûúúú=1dx 0u 001dy v 0001éëêêêêêêùûúúúúúúf 0000f 000010éëêêêùûúúúR T 01éëêêùûúúX Y Z 1éëêêêêùûúúúú=f xu 000f y v 000010éëêêêùûúúúR T 01éëêêùûúúX Y Z 1éëêêêêùûúúúú(6)公式(6)中的矩阵代表着相机的内外参数,通过相机的标定获得具体参数㊂双目视觉测距是采用双目视觉技术来测量物体距离的原理,通过两台摄像机拍摄同一场景生成图像视差,并根据该视差建立物距测量模型,实现场景距㊀㊀离的实时计算㊂O l 和O r 为光圈中心,T ,f 为相机基线距离和焦距,P l 和P r 为图像坐标系的点,Z 为垂直距离㊂根据三角形相似:T -(X l -X r )T =Z -fZ(7)推出点P 与相机距离Z 的表达式为:Z =fT X l -X r =fTd(8)公式(8)式中,左右相机视差d =X l -X r双目测距系统的流程如图2所示,各个坐标系之间的转换关系如图3所示㊂图2㊀双目系统流程图3㊀各个坐标系转换2 双目相机标定2.1㊀相机标定㊀㊀双目相机中内部和外部参数和畸变参数的精度直接影响后续测量的精度㊂因此,文章选用了具有精度高㊁操作方便的张正友标定法㊂本文自制一个黑白棋盘,并将其固定在一个纸板上,如图4所示㊂首先,使用双目相机在不同的位置和角度拍摄大约30幅棋盘图像㊂其次,将图像分别导入MATLAB 进行检测校正㊂最后,经过计算和分析,利用棋盘校准板获得左右相机内部和外部参数及其位置的三维视图㊂标定结果如图5所示㊂2.2㊀立体校正㊀㊀把实际中非共面行对准的两幅图像,校正成共面行对准,提高匹配搜索的效率㊂将消除畸变后的两幅图像严格地对应,利用极线约束使得两幅图像的对极线恰好在同一水平线上,这样一幅图像上任意一点与其在另一幅图像上的对应点就必然具有相同的行号,只需在该行进行一维搜索即可匹配到对应点㊂根据摄像头标定后获得的双目相对位置对左右视图进行消除畸变和行对准,如图6所示㊂图4㊀标定板角点图5㊀标定板平面位置和标定误差图6㊀校正后图像2.3㊀立体匹配㊀㊀立体匹配主要计算视差㊂基于双目测距原理的分析使得可以通过计算由左右摄像机拍摄的每个图像相应点的视差来获得关于图像深度的信息㊂双目立体视觉的三维重建过程中,需要通过立体匹配算法进行视差图的计算得到左右两幅图像的视差值,进而计算深度以恢复场景的三维信息㊂要计算左右视图中三维场景中目标点生成的视差,左右视图中的两个对应像点必须与该点匹配㊂然而,协调二维空间中的对应点需要很长时间才能缩小适当的搜索范围,需要进行双目相机的立体校正,将二维上的匹配搜索降低到一维㊂立体匹配后,得到的视差图如图7所示㊂图7㊀视差3 图像识别定位测距3.1㊀数据标注和图片训练㊀㊀数据标注是处理原始语音㊁图像㊁文本㊁视频和其他数据并将其转换为机器可读信息的过程㊂机器无法识别和研究未标记的原始数据㊂原始数据只有经过标注处理成为结构化数据后才能被算法训练所使用㊂整个数据标注的过程如下:首先,将要标注的物体制作成数据集,并且图片越多越好,如果样本过少,模型训练和预测都会受到影响,非常容易欠拟合;其次,通过Labelme 工具进行标注,如图8所示;最后,将数据集分为训练集㊁验证集和测试集㊂数据标注完成后,需要对标注的数据集图片进行训练,图片训练完成后,可以看到训练好的模型的权重和PR Curve 曲线㊁Confusion Matrix (混淆矩阵)等训练过程数据㊂然后可以用训练的模型进行测试,配合双目摄像头,可以实现对特定物体的实时识别,如图9所示㊂3.2㊀双目识别测距㊀㊀双目相机的工作方式与人眼相同㊂人眼感知物体距离的能力基于两只眼睛在同一物体上呈现的图像差异,也称为视差㊂把物体识别和双目测距结合在一起,融合了卷积神经网络,不仅能够对物体进行识别,还能够进行测距㊂本文通过深度学习技术与传统算法的结合,利用双目相机实现了物体的精准测距㊂通过网络框的置信度确定识别的准确度,计算表达式为:图8㊀标注图9㊀灰度图和识别信度Pr (object )ˑIOU truth pred(9)IOU truth pred=area (BB dt ɘBB gt )area (BB dt ɣBB gt )(10)Pr (object )为训练样本的概率;BB gt 为物体标签的可行度,BB dt 分为网络预测的可信度;area 为面积函数㊂测距效果如图10所示㊂图10㊀双目测距4 结语㊀㊀在目标识别的基础上,建立双目系统,开发并实㊀㊀施基于双目视觉和机器学习的识别和定位系统㊂该系统已被证明具有一定的精度和稳定性㊂通过对双目距离原理的研究,本文开发了一种基于双目视觉的目标测距和检测系统,通过收集图像㊁校准相机㊁处理图像并进行比较,最后进行目标测试㊂实验表明,目标测距和检测系统具有良好的精度和可行性㊂下一步,笔者将继续深入研究㊁分析和提高双目视觉,消除系统测量的准确性和可靠性,研究双目视觉在智能制造设备和相关智能场景中的应用㊂参考文献[1]任慧娟,金守峰,程云飞,等.面向分拣机器人的多目标视觉识别定位方法[J ].机械与电子,2019(12):64-68.[2]赵刚,郭晓康,刘德政,等.随机工件的点云场景CAD 模型的快速识别与定位[J ].激光与红外,2019(12):1490-1496.[3]柴钰,许继科.基于机器视觉的目标识别与定位系统[J ].计算机工程与设计,2019(12):3557-3562.[4]连黎明.基于多信息融合的移动机器人定位算法[J ].西南师范大学学报(自然科学版),2019(9):89-95.[5]蒋萌,王尧尧,陈柏.基于双目视觉的目标识别与定位研究[J ].机电工程,2018(4):414-419.[6]王德海,洪伟,程群哲.基于双目立体视觉的目标识别与定位[J ].吉林大学学报(信息科学版),2016(2):289-295.[7]高如新,王俊孟.基于双目视觉的目标识别与定位[J ].河南理工大学学报(自然科学版),2014(4):495-500.[8]袁小平,张毅,张侠,等.基于改进FAST 检测的ORB 特征匹配算法[J ].科学技术与工程,2019(21):233-238.[9]BOYKOV Y ,VEKSLER O ,ZABIH R.Fast approximate energy minimization via graph cuts [J ].IEEE Transactions on Pattern Analysis and Machine Intelligence ,2001(11):1222-1239.(编辑㊀王雪芬)Design of recognition and ranging system based on binocular visionZhang Runhao Yang Rui Guan YanSchool of Computer Science Xijing University Shaanxi 710123 ChinaAbstract The recognition and ranging of binocular vision mainly uses a binocular vision system to simulate the eyes of humans thereby obtaining the shape of objects and the distance between them.This paper proposes a target recognition and ranging system constructs a convolutional neural network model uses image processing technology to identify the target and calculates the target distance based on the triangular similarity principle finally achieving recognition and detection.Experimental results show that the designed target recognition and ranging system can simultaneously ensure the detection and ranging of specific targets which has certain research significance.Key words。
机器人与双目相机的手眼标定方法

无人驾驶
无人驾驶车辆利用双目相 机感知周围环境,结合机 器人控制技术实现自主导 航。
服务机器人
服务机器人通过双目相机 识别人脸、物体等信息, 实现人机交互、智能服务 等功能。
手眼标定的目的和意义
提高机器人定位精度
通过手眼标定,可以精确计算机器人与双目相机之间的相对位置 关系,从而提高机器人定位精度。
双目相机通常采用针孔模型进行 成像,即物体通过相机镜头在图 像传感器上成像,成像过程可用
针孔投影进行描述。
相机坐标系
每个相机都有自己的坐标系,通常 以相机光心为原点,X、Y轴与图 像平面平行,Z轴与光轴重合。
世界坐标系
为了描述物体在真实世界中的位置 ,需要引入世界坐标系,世界坐标 系可根据实际需求进行设定。
自标定方法
自标定方法不需要额外的标记物,通过机器人在不同位姿下对同一目标进行成像,利用视 觉信息和机器人运动约束,求解手眼关系。这种方法灵活性较高,但通常需要较复杂的算 法和较多的样本数据。
基于深度学习的标定方法
近年来,深度学习在计算机视觉领域取得了显著成果。基于深度学习的手眼标定方法通过 训练神经网络模型,直接回归出手爪与相机之间的相对位姿关系。这种方法具有强大的学 习能力和鲁棒性,但依赖于大量的训练数据。
3. 优化策略
根据误差分析结果,提出针对性的优化策 略,如增加实验数据、改进图像处理算法 等,以提高标定精度。
2. 精度评估
制定合适的精度评估指标(如均方根误差 RMSE),对标定结果的准确性进行量化 评估。
05
应用案例与实验结果分析
机器人视觉抓取应用案例
案例一
在工业生产线上,机器人需要通过视觉系统定位并抓取传送带上的零件。利用双目相机获取零件的立 体图像,并通过手眼标定方法确定相机与机器人手爪之间的相对位置关系,从而实现准确抓取。
基于双目视觉的目标识别与定位及机械臂的抓取研究

摄像头:机械臂的视觉传感器,为机械臂提供 影像信息;流媒体数据:通过摄像头拍摄所得数据; 原子钟:高精度计时装置;单帧提取:将流媒体数据 通过单帧方式进行提取;Smart3D: 全自动倾斜摄影 测量三维实景建模软件;不完备三维模型:基于双 目视觉的机器人通过 Smart3D 生成的未经机器学习 判断模块判断的三维模型;随机数生成器:生成随 机数的器件。
机械工程。
32
Automation & Instrumentation 2022,37穴9雪
Copyright©博看网. All Rights Reserved.
间。 智能化控制领域中,文献[1]指出的实验室研究 已经可以使用模糊神经网络实现基于机器人自主 视觉的智能化控制, 即对被切削工件不同节理、结 核的反馈数据,及时调整切削机器人机械臂的给进 量和给进力度,实现基于机械手和机器人自主视觉 的切削机器人控制。 文献[2]认为机械手抓取机构的 控制难度远大于机械手切削机构,每年全国大学生 机 器 人 大 赛 (RoboMaster)的 保 留 竞 赛 项 目 为 机 械 手 捡鸡蛋比赛,机械手抓取控制的难度和控制稳定性 直接决定了选手的胜负。
器视觉技术的机械臂抓取进行研究。 随后进行了双眼视觉机器人与三眼视觉机器人的算
法效能比较, 结果显示基于双眼视觉的机器人相比基于三眼视觉的机器人拥有更为灵活
的移动精度、控制精度及工作效率。 该研究改善了在复杂工作环境及复杂工作任务下,机
械臂的自主调整能力和交互能力,为未来机械臂自主作业的研究提供方向,对工业、医疗
judgment module
二维图像:左右摄像机经过单帧提取所输出的
二维图像;空间卷积:为了加强边界强化,二维图像
及三维模型需要经过空间卷积进行处理,以便用于
《2024年度基于双目立体视觉定位和识别技术的研究》范文

《基于双目立体视觉定位和识别技术的研究》篇一一、引言随着科技的飞速发展,计算机视觉技术在许多领域中得到了广泛的应用。
其中,双目立体视觉定位和识别技术以其高精度、高效率的特点,在机器人导航、工业检测、无人驾驶等领域展现出巨大的应用潜力。
本文将围绕双目立体视觉定位和识别技术进行深入的研究和探讨。
二、双目立体视觉技术概述双目立体视觉技术是一种模拟人类双眼视觉的计算机视觉技术。
通过模拟人眼的视差感知原理,双目立体视觉技术利用两个相机从不同角度获取场景的图像信息,然后通过图像处理和算法分析,得到场景中物体的三维信息。
双目立体视觉技术主要包括相机标定、图像获取、图像预处理、特征提取、立体匹配、三维重建等步骤。
三、双目立体视觉定位技术双目立体视觉定位技术是双目立体视觉技术的核心部分,它通过计算左右相机获取的图像间的视差信息,实现场景中物体的三维定位。
具体而言,双目立体视觉定位技术首先需要对相机进行精确的标定,以获取相机的内外参数。
然后通过图像预处理和特征提取,获取场景中的特征点或特征线。
接着,利用立体匹配算法,将左右相机获取的图像进行匹配,得到视差图。
最后,根据视差信息和相机的内外参数,计算得到场景中物体的三维坐标信息。
四、双目立体视觉识别技术双目立体视觉识别技术是在定位技术的基础上,进一步对场景中的物体进行分类和识别。
通过分析物体的形状、大小、纹理等特征信息,结合机器学习、深度学习等算法,实现对物体的识别和分类。
双目立体视觉识别技术可以广泛应用于无人驾驶、机器人导航、工业检测等领域。
五、双目立体视觉技术的应用双目立体视觉技术在许多领域都得到了广泛的应用。
在无人驾驶领域,双目立体视觉技术可以实现车辆的定位和障碍物识别,提高车辆的行驶安全性和自动驾驶的准确性。
在机器人导航领域,双目立体视觉技术可以帮助机器人实现精准的路径规划和导航。
在工业检测领域,双目立体视觉技术可以实现对产品的快速检测和质量控制。
六、研究展望随着计算机视觉技术的不断发展,双目立体视觉定位和识别技术将会有更广泛的应用前景。
机器人视觉物体定位方法

机器⼈视觉物体定位⽅法机器⼈视觉物体定位⽅法本次设计的题⽬是机器⼈视觉物体定位。
伴随社会发展,机器⼈的利⽤越来越普及,出现了多种多样的智能机器⼈,由此也引发了对机器视觉的研究热潮。
⽂章⾸先介绍了机器视觉的发展历程,并详细说明了各阶段的特点。
接着概述了机器视觉技术的原理,深⼊剖析了主流视觉物体定位⽅法。
然后介绍了机器⼈视觉物体定位⽅法常⽤的⼏种应⽤。
最后介绍了⼏种新颖的视觉物体定位⽅法,并猜想机器⼈视觉物体定位技术未来发展⽅向。
关键词:机器视觉 SLAM技术单⽬视觉双⽬视觉多⽬视觉第⼀章:绪论1.1选题的背景及意义在我国持续爆发的2019新型冠状病毒(即2019-nCoV)事件中,⾃动化⾷品仓储配送系统服务包括机器⼈、⽆⼈驾驶、⽆⼈机等再次成为讨论的焦点。
配送机器⼈如何实现⾃动取货送货?⽆⼈驾驶汽车是怎么躲避⾏⼈?⽆⼈机巡航中怎么确定物体之间的距离?当我们谈到相关的话题时,机器视觉定位是⽆论如何也绕不开的问题。
⾃被誉为“机器⼈之⽗”的恩格尔伯格先⽣1959年发明第⼀台机器⼈以来,科学家⼀直把对机器⼈的研究作为研究的重点⽅向。
传统的机器⼈缺乏环境感知能⼒和⾃动应变能⼒,仅仅只能在严格的预定义的环境中完成⼀些预定义和指令下的动作,应⽤⾮常有限局限。
随着机器⼈逐渐⾛进⼈们的⽣产和⽣活中,⼈们也对机器⼈提出了更⾼的要求,希望实现在⽣产加⼯中对物体的⾃动加⼯、对⾃⾝运动轨迹实时的随动检测,节省对其运动轨迹的预先编程,提⾼⽣产效率。
要达到这些要求,必须同时满⾜图像信息的获取、采集、处理和输出,这就是本⽂的研究重点:机器⼈视觉物体定位⽅法。
机器⼈视觉物体定位系统的设计和研发是为了更好地为⼯业机器⼈服务,它的本质是发挥摄像机定位以及跟踪性功能,很多企业在⾃⾝⽣产环节依赖于机器⼈,⽣产效率明显得到改善。
然⽽很多的机器⼈是半⾃动的⼯作模式,只有在⼈⼯操控的指引下才能完成⼯作任务,这样的机器⼈实⽤性很差,⽆法彻底解放⼈⼯,实现⾃动化操作。
基于双目视觉机器人自定位与动态目标定位

基于双目视觉机器人自定位与动态目标定位卢洪军【摘要】Aiming at the fact that, the mobile robot based on binocular vision is very easy to be disturbed by the complex environment, such as the influence of noise, illumination change and the occlusion of the robot, which will seriously affect the positioning accuracy of the self localization and the moving objects, the color feature of the HSV model is proposed to accurately segment the artificial landmarks, and the robot position is determined according to the principle of parallax.A method was proposed based on Harris operator which is accurate to the position of a moving object in a complex environment.The dynamic object is detected by the frame difference method.Harris operator was used to extract the feature points on the moving objects, so as to obtain the disparity value, and then to calculate the position of the moving objects.The experimental results show that the self localization and target localization can overcome the external disturbance and have strong adaptability by using this method.The algorithm has good real-time performance.%针对基于双目视觉自定位与动态目标定位极易受复杂环境(如噪声、机器人发生遮挡、光照变化等)的干扰导致移动机器人定位精度低的问题,提出基于HSV颜色模型特征准确分割出人工路标,根据视差原理确定机器人位置.同时提出一种双目机器人基于Harris算子实现在复杂环境下对动态目标精确定位的方法,利用帧间差分法将运动目标检测出来,采用Harris算子在该运动目标上提取特征点,并获得视差值,从而精确的计算出运动目标的位置.实验结果表明,利用该方法进行自定位与目标定位能够克服外界干扰,具有较强的适应性,且算法的实时性好.【期刊名称】《沈阳大学学报》【年(卷),期】2017(029)001【总页数】6页(P37-42)【关键词】双目视觉;目标定位;Harris算子;帧间差分法;HSV模型【作者】卢洪军【作者单位】沈阳工业大学信息科学与工程学院, 辽宁沈阳 110870【正文语种】中文【中图分类】TP391.420世纪末,对目标定位技术主要有基于红外线的定位技术、基于超声波的定位技术和基于频射识别技术等[1].近年来,由于图像处理和计算机视觉的飞速发展,机器视觉的研究越来越受到广大专家和学者的青睐[2].双目立体视觉是机器视觉的一个重要分支,能够直接模仿人类双眼处理外界环境[3],可以代替人类完成危险的工作(如深海探测、火灾救援、核泄漏监测等)[4].而基于双目立体视觉对动态目标检测与定位也是机器视觉领域备受关注的前沿课题之一[5].双目立体视觉定位主要分为六个步骤[6]:①图像获取;②图像预处理;③摄像机标定;④特征点提取;⑤特征点的立体匹配获取视差值;⑥基于视差原理实现机器人定位.特征点提取和立体匹配是实现机器人定位的关键环节.通常的方法是依靠目标的形状、颜色等特征检测目标,并以运动物体的形心或中心作为特征点[7].该方法虽然计算简单,但极易受噪声干扰,只选择一个点作为特征点,一旦该特征点发生遮挡或光照变化等,都会严重影响定位精度.1977年,Moravec提出根据图像的灰度变化来提取图像角点,称为Moravec角点[8].该方法计算相对简单,但对于处于边缘上的点会存在误检,也极易受光照变化的影响.SIFT特征点[9]和CenSurE特征点[10]虽然对尺度、亮度变化不敏感,但在弱纹理等复杂情况下难以提取稳定的特征点,算法复杂度高,计算时间较长.不满足移动机器人对实时性的要求.针对以上缺陷,本文首先利用帧间差分法检测出运动目标,然后在运动目标上基于Harris算法提取多个特征点来实现移动机器人在复杂环境下实时的对运动目标精确定位.机器人整体定位流程如图1所示,移动机器人首先基于HSV颜色模型空间分割出人工路标,实现机器人自定位.然后利用帧间差分法检测出运动目标,根据Harris算法在左右两幅图像上提取特征点,根据区域匹配原理获取视差值,利用视差原理即可求出运动目标的世界坐标,即完成了对运动目标的定位.1.1 人工路标检测(1) HSV颜色模型.RGB色彩空间分别以红色、绿色、蓝色为三原色,通过适当的搭配可以合成成千上万种颜色,是一种常见的颜色表示法.但是RGB色彩空间与人眼的感知差异大,其空间的相似不代表实际颜色的相似.为了能够更准确分割出人工路标,本文采用HSV色彩空间颜色模型,如图2所示.RGB颜色空间转化到HSV色彩空间只是一个简单的非线性变换,计算简单.HSV模型中H代表色调,S代表饱和度,并且独立于亮度信息V.色调H代表颜色信息,取值范围为0~180°,对其设定阈值可以区分不同颜色的路标;饱和度S表示颜色中掺杂白色的程度,取值范围为0~1,S 越大,颜色越深;亮度V表示颜色的明暗程度,取值范围为0~1,V越大,物体亮度越高.(2) 基于颜色特征提取人工路标.由于本文是在室内环境下对移动机器人定位,所以本文设计的人工路标是由红黄蓝三种颜色组成的矩形纸板.如图3a所示为左摄像机拍摄到的带有人工路标的室内环境.根据HSV颜色模型对H、S、V三个分量进行阈值设置即可分割出人工路标,如图3b所示.然后利用图像处理中的形态学操作对分割出的路标进行完善使其效果最佳,如图3c所示.图3d为获取人工路标的中心点,利用视差原理即可得到当前帧机器人的位置.1.2 帧间差分法帧间差分法[11]的思想是对一段连续视频的相邻两帧进行差分运算,从差分运算的结果中得到运动目标的轮廓.该算法的优点是实现简单,对光照变化不敏感,稳定性好.适用于多目标或背景变化较快的场合.图4为在室内环境下用帧间差分法检测到运动物体.结果显示,帧间差分法能够有效的将运动目标检测出来.2.1 双目立体视觉测距原理双目立体视觉的视差原理[12]是利用两台摄像机从两个视点观察同一景物,以获取在不同视角下的感知图像,通过计算空间点在两幅图像中的视差来获取目标物体的三维坐标.2.2 Harris角点检测Harris角点[13]是在Moravec角点的基础进行改进的算法. Harris算子是用高斯函数代替二值窗口函数, 对离中心点越远的像素赋予越小的权重, 以减少噪声的影响. 高斯函数如式(1)所示.Moravec算子只考虑了四个方向的像素值,Harris算子则用Taylor展开式去近似任意方向.图像I(x,y)平移(Δx,Δy)可以一阶近似为在图像I(u,v)中,像点(u,v)平移(Δx,Δy)后的自相关函数为将式(2)代入式(3)可得:其中M如下所示:根据式(5)中矩阵M的特征值可以近似的表示函数C(x,y)的变化特征.矩阵M的特征值需要考虑以下三种情况,如图5所示.(1) 如果矩阵M的两个特征值都比较小,则表征图像灰度变化函数C(x,y)的值也较小,就说明该像素点的邻域内灰度差值不大,图像较平滑,无角点.(2) 如果矩阵M的两个特征值一个较大,一个较小,说明该像素点的曲率也是如此,则该点的窗口区域处于一条边界,无角点.(3) 如果矩阵M的两个特征值都比较大,则图像灰度变化的自相关函数值也较大,该点的窗函数沿任意方向都将引起灰度的剧烈变化,该点即为角点.根据这一准则,只要计算行列式的特征值就可以检测图像中的哪些点是角点.Harris 提出角点的响应函数:det(M)为行列式的值,trace(M)为行列式的迹.而k根据Harris的建议一般取0.04~0.06之间.若Harris角点响应大于阈值,则被认为是角点.Harris角点的生成只涉及到一阶导数,所以该角点对噪声影响、光照变化引起的灰度值变化都不敏感,是一种比较稳定的特征提取算子.3.1 实验环境本文使用的机器人是由北京博创兴盛技术有限公司开发的自主移动机器人旅行家Ⅱ号,如图6所示.该机器人上安装了由加拿大Point Grey Research公司生产的Bumblebee2双目摄像机,其性能参数如表1所示.3.2 传统移动机器人对运动目标定位实验环境为一间办公室,装有双目摄像机Bumblebee2的移动机器人为工作机器人,用于检测运动目标.将另一台机器人视为运动目标,运动速度为0.1 m/s.传统的方法是提取运动目标的中心点,获取视差值,从而给运动目标定位.传统方法仅获取图像中的一个点作为立体匹配的特征点,当该点受到环境的干扰时定位精度会受到极大的影响,图7为传统方法提取运动目标中心点.表2为传统方法对运动目标定位的实验数据,表3为改变光照后传统方法移动机器人对运动目标定位的实验数据.可以得出传统方法机器人定位误差相对较大,一旦光照发生改变,对运动物体定位误差会更加严重.3.3 基于Harris算子机器人对运动目标定位针对传统方法定位精度不足,极易受外界环境的干扰的问题,决定采用基于Harris角点特征提取,即在相机获得的左右两幅图像上基于Harris算子提取多对特征点,如图8所示.表4、表5为基于Harris方法机器人对运动目标定位的实验数据,可以得出基于该方法对运动目标定位误差很小,相对误差降低到1%左右,当光照发生变化时也能实现对运动目标精确定位.最后将每一帧的两幅图像根据区域匹配原理[14]和极限束准则找到正确的匹配点,排出易受噪声干扰的点,从而得到视差值,即可准确的对运动目标定位.(1) 本文研究了机器人基于双目立体视觉实现自定位与对运动目标定位,充分利用双目视差原理,并结合Harris算法和帧间差分法来实现运动目标的精确定位.从仿真结果可以看出,提取多个特征点可以避免只用一个点易受干扰的不足,实现更精确的运动目标定位.(2) 虽然本文在运动目标上提取多个特征点,有效的克服了传统方法的不足.但还存在问题需要改进.首先,需要找到一种更快更准确的特征点立体匹配算法;其次,本文只是将每一帧图像得到的多个视差值做平均值处理,如何有效的将多个视差值融合也是对运动目标精确定位的关键.【相关文献】[1] 李艳. 双视频目标定位技术[J]. 沈阳大学学报(自然科学版), 2016,28(4):302-305. (LI Y. Dual video target location technology[J]. Journal of Shenyang University(Natural Science), 2016,28(4):302-305.)[2] 李天健. 基于机器人视觉的汽车零配件表面缺陷检测算法研究与实现[J]. 沈阳大学学报(自然科学版), 2013,25(6):476-480. (LI T J. Research and implementation of auto parts surface defect detection algorithm bases on robot visio[J]. Journal of Shenyang University (Natural Science), 2013,25(6):476-480.)[3] 杜宇. 三维重建中双目立体视觉关键技术的研究[D]. 哈尔滨:哈尔滨理工大学, 2014:1-5. (DU Y. Research on key technology of binocular stereo vision in three-dimensional reconstruction[D]. Harbin:Harbin University of Science and Technology, 2004:1-5.)[4] 余俊. 基于双目视觉的机器人目标检测与控制研究[D]. 北京:北京交通大学, 2011:1-4. (YU J. Research on target detection and robot control based on binocular vision[D]. Beijing: Beijing Jiaotong University, 2011:1-4.)[5] DESOUZA G N, KAK A C. Vision for mobile robot navigation: A survey[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002,24(2): 237-267.[6] 高栋栋. 基于双目立体视觉定位和识别技术的研究[D]. 秦皇岛:燕山大学, 2013:9-11. (GAO D D. Research on recognizing and locating binocular stereo vision technology[D]. Qinhuangdao:Yanshan University, 2013:9-11)[7] 崔宝侠,栾婷婷,张弛,等. 基于双目视觉的移动机器人运动目标检测与定位[J]. 沈阳工业大学学报, 2016,38(4):421-427. (CUI B X, LUAN T T, ZHANG C, et al. Moving object detection and positioning of robot based on binocular vision[J]. Journal of Shenyang University of Technology, 2016,38(4):421-427.)[8] 邓国栋. 基于多尺度特征的双目立体视觉目标定位[D]. 哈尔滨:哈尔滨工业大学, 2012: 21-22. (DENG G D. Object location of binocular stereo vision base on multi-scale feature[D]. Harbin: Harbin Institute of Technology, 2012:21-22.)[9] LOWE D G. Distinctive image feature from scale-invariant key point[J]. International Journal of Computer Vision, 2004,60(2):91-110.[10] KONOLIGE K, AGRAWAL M, SOLA J. Large-scale visual odometry for roughterrain[C]∥Robotics Research: The 13thInternational Symposium ISRR, 2011,66:201-212.[11] 熊英. 基于背景和帧间差分法的运动目标提取[J]. 计算机时代, 2014(3):38-41. (XIONG Y. Moving object extraction based on background difference and frame differencemethod[J]. Computer Era, 2014(3):38-41.)[12] 林琳. 机器人双目视觉定位技术研究[D]. 西安:西安电子科技大学, 2009:8-10. (LIN L. The research of visual positioning technology on the binocular robot[D]. Xi’an: Xi'an Electronic and Science University, 2009:8-10.)[13] 张从鹏,魏学光. 基于Harris角点的矩形检测[J]. 光学精密工程, 2014,22(8):2259-2266. (ZHANG C P, WEI X G. Rectangle detection base on Harris corner[J]. Optics and Precision Engineering, 2014,22(8):2259-2266.)[14] 罗桂娥. 双目立体视觉深度感知与三维重建若干问题研究[D]. 长沙:中南大学, 2012:48-53. (LUO G E. Some issues of depth perception and three dimension reconstruction from binocular stereo vision[D]. Changsha: Central South University, 2012:48-53.)。
双目视觉机器人精确定位研究

NO V. 2 0 1 3
V0 I . 1 9 N0. 4
网络出版时间: 2 0 1 3—1 2—1 9 2 0: 1 6 网络 出版 地 址 : h t t p : / / w w w . e n k i . n e t / k c ms / d e t a i l / 3 4 . 1 1 5 0 . N . 2 0 1 3 1 2 1 9 . 2 0 1 6 . 0 1 4 . h t ml
取 自己所处 位置 和其 他 相关 信 息 , 而 在 室 内环境 时, 机 器人 必须 通过 自身 所 带 的传 感 器 识 别所 在 位 置 的路标 完成 自主定 位任 务 。 由于 自然路 标 的
位数出现了错误 , 通过编码的自身纠错功能, 也能 排除错 误 的干扰 。
识 别受 光 照 条 件 、 视 角变化等影响较 大’ , 而 人
收 稿 日期 :2 0 1 3— 0 9— 0 6 基 金项 目:安 徽 省教 育 厅 项 目 ( K J 2 0 1 2 B 0 9 0 ) 资助。
的稳 定性 问题 , 因此 本 文 引入 双 目视 觉来 提 高 定 位效 果 , 具 体分 析如下 :
作者简介 :薰小明, 男, 安徽怀宁人 , 博士 , 安庆师范学 院计算机与信息学院讲师 , 主要从事智能控制 、 机器视觉方面的研究。
2 单 目和双 目定 位 方 法 对 比
为 了提高定 位 的精 度 , 本节 在 人 工路 标 的基 础上 , 分别 从单 目和 双 目来 研究 移 动 机 器人 的定 位效 果 , 以进行 对 比 , 因为单 目定 位存在 难 以解 决
维码其他 良好特性 , 如能传达大量的信息 、 本身带 有 纠错 性 能等 , 本 文 选择 利 用 人 工路 标 二 维 码 来
基于机器人视觉的目标识别与追踪研究

基于机器人视觉的目标识别与追踪研究机器人技术的快速发展以及人工智能的智能化应用,使得机器人视觉系统成为机器人感知和交互的关键组成部分。
目标识别与追踪是机器人视觉领域的重要研究方向之一,它为机器人提供了对环境中目标物体的感知和跟踪能力,具有广泛的应用价值。
本文将重点介绍基于机器人视觉的目标识别与追踪研究的相关技术和应用。
一、目标识别技术目标识别是指通过机器视觉系统对环境中的目标物体进行自动检测和识别。
目标识别技术的发展主要依赖于计算机视觉和深度学习等相关领域的技术进步。
1.特征提取特征提取是目标识别的关键步骤之一,它通过对目标物体周围的像素进行处理,提取出具有区分能力的特征用于目标分类。
常用的特征提取方法包括颜色特征、纹理特征、形状特征等。
例如,颜色特征可以通过在RGB或HSV颜色空间中计算目标物体区域的颜色直方图来表示。
2.目标分类目标分类是指将提取到的特征与预先定义的目标类别进行比对,从而确定目标物体的类别。
传统的目标分类方法主要基于机器学习算法,如支持向量机、决策树等。
而深度学习的发展,特别是卷积神经网络(CNN)的兴起,使得目标分类的准确率得到了显著提升。
二、目标追踪技术目标追踪是指在连续的图像序列中跟踪目标物体的位置和运动状态。
目标追踪技术的发展旨在解决目标在复杂环境下的姿态变化、遮挡、光照变化等问题,使得机器人能够更加准确地进行目标跟踪。
1.基于特征点的追踪基于特征点的追踪是一种传统的目标追踪方法,它通过提取图像中的特征点,并利用特征点的运动信息进行目标追踪。
典型的算法包括Lucas-Kanade光流法、SURF特征等。
这些方法在一些简单场景下具有较好的鲁棒性,但对于复杂场景和遮挡情况下的目标追踪效果有限。
2.基于模型的追踪基于模型的目标追踪方法通过对目标物体进行建模,并利用目标模型与当前帧图像的匹配程度来进行追踪。
常见的方法包括卡尔曼滤波器、粒子滤波器等。
这些方法在对目标变化复杂的情况下具有较好的鲁棒性,但对计算资源要求较高。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
像数据的多尺度特征 ,高斯卷积核是实现尺度变换
的唯一线性核 。一幅二维图像 I ( x , y) 尺度空间定
义为
L ( x , y ,σ) = G( x , y ,σ) 3 I ( x , y)
(1)
其中 G( x , y ,σ) 是尺度可变高斯函数且
第1期
邱雪娜 ,等 :基于双目视觉的移动机器人动态目标识别与定位
N i n gbo 315016 , Z hej i an g , Chi na)
Abstract : A real2time dynamic o bject recognitio n and localizatio n met hod is p resented for mo bile ro bot using binocular visio n. Firstly , t he SIF T operator is applied to o bject feat ures ext ractio n and o bject matching wit h t he disparit y feat ures of binocular visio n. Then , t he o bject area is ext racted t hro ugh regio n growing met hod. Finally , acco rding to t he binocular visio n calibratio n model , t he o bject′s locatio n is o btained. Experiment s show t hat in t he case of bot h camera moving and o bject moving , t he p ropo sed met hod can effectively recognize and locate t he dynamic o bject wit h unknown or o bscure o bject local feat ure.
Chi na; 2. I nsti t ute of A utom ation , H an g z hou D i anz i U ni versi t y , H an g z hou 310018 , Chi na; 3. Col le ge of Elect ronic an d I n f orm ation En gi neeri n g , N i n gbo U ni versi t y of Technolog y ,
Q I U X ue2na1 ,2 ,3 , L I U Fei2 , L I U S hi2ron g2 , S U N Kai2 (1. I nsti t ute of A utom ation , East Chi na U ni versi t y of S cience an d Technolog y , S han g hai 200237 ,
Key words : disparit y feat ure ; SIF T algo rit hm ; dynamic o bject recognitio n ; o bject localizatio n
动态目标识别与定位作为机器视觉领域备受关 视觉导航 、多机器人编队以及智能监控等应用领域 注的前沿课题之一 ,在目标跟踪 、选择性环境建模 、 都具有非常重要的意义[1] 。在过去的 20 多年中 ,运
(4) 关于 x 求导 , 并令等式等于零 , 就可以得到函数
D ( x) 的极值点 ^x。
^x
=-
52 D- 1 5 x2
5D 5x
(5)
则
1. 1 空间极值点坐标检测
为了有效地在尺度空间检测到稳定的关键点 ,
提出高斯差分尺度空间 (Do G scale2space) , 利用不
同尺度的高斯差分核与图像卷积生成 。
Vol . 36 No . 1 2010202
华 东 理 工 大 学 学 报 (自 然 科 学 版)
Journal of East China Universit y of Science and Technology ( Nat ural Science Edition)
3
收稿日期 :2009202226 基金项目 :国家自然科学基金项目 (60675043) ;浙江省科技计划项目 (2007C21051) ;杭州电子科技大学科研启动基金 ( KYS09150543) ;浙江省
宁波市自然基金项目 (2008A610002) 作者简介 :邱雪娜 (19782) ,女 ,浙江岱山人 ,讲师 ,博士生 ,主要研究领域为智能机器人系统 、机器视觉等 。 通讯作者 :刘士荣 , E2mail :liushirong @hdu. edu. cn
1 SIF T 算法
SIF T 算法是一种提取局部特征的算法 ,在尺度
空间寻 找 极 值 点 , 提 取 位 置 、尺 度 、旋 转 不 变 量 。
SIF T 算法的主要特点是对旋转 、尺度缩放 、亮度变
化保持不变性 ,对视角变化 、仿射变换 、噪声也保持
一定程度的稳定性[7] 。SIF T 特征提取应用在视觉
D ( x , y ,σ) =
[ G( x , y , kσ) - G( x , y ,σ) ] 3 I ( x , y) =
L ( x , y , kσ) - L ( x , y ,σ)
(3)
通过计算某采样点在每一尺度下 Do G 算子的
值 ,可以得到特征尺度轨迹曲线 。特征尺度曲线的
由于单目视觉得到的外部环境是二维信息 ,而 实际环境是三维空间 ,上述处理方法丢失了大量的 重要信息 。通过给移动机器人配置双目或多目视觉 系统构成立体视觉可以获得更多的信息 ,这样可以 重建外部环境的三维信息 ,从而更好地为机器人导
航提供更全面的信息 。文献 [ 5 ]提出了一种基于双 目视觉和激光的移动机器人目标跟踪和避障的方 法 ,其中目标跟踪主要基于颜色特征 ,再结合双目视 觉标定模型计算目标和机器人之间的距离 ,通过激 光传感器进行避障 。文献 [ 6 ]利用双目视觉信息系 统实现三维空间中运动物体实时跟踪与测距 。当运 动目标超出视野范围时 ,通过控制摄像机云台转动 搜索目标 。通过自适应背景建模法与 Camshif t 算 法用于实现运动物体的辩识与跟踪 。
定位[8 ] 、视觉里程计[9 ] 和视觉跟踪[10 ] 中 ,表现出了
较好的性能 。
SIF T 算法的本质是从图像中提取 SIF T 关键
点的过程 。算法包括 4 个步骤 : (1) 检测尺度空间极
值点 ; (2) 精确定位极值点 ; (3) 为每个关键点指定方
向参数 ; (4) 关键点描述子的生成 。尺度空间模拟图
3. 宁波工程学院电信学院 ,浙江 宁波 315016)
摘要 :提出了一种双目移动机器人实时动态目标识别与定位方法 。该算法首先采用 SIF T
( Scale Invariant Feat ures Transfo rms) 算法提取目标特征 ,并结合双目视差特征进行目标匹配 ;然
后通过区域增长方法进行目标区域的提取 ;最后结合双目视觉标定的模型对目标进行定位 。实验
105
G( x , y ,σ)
πσ 2 1 e =
- ( x2 + y2 ) / 2σ2 2
(2)
式中 : ( x , y) 是空间坐标 ;σ是尺度坐标 ,σ值越小 ,
则表征该图像被平滑得越少 , 相应的尺度也越小 。
大尺度对应于图像的概貌特征 , 小尺度对应于图像
的细节特征 。
D ( x) = D ( x , y ,σ) 就是 Do G 计算得到的结果 。对式
文献[ 3 ]提出了一种基于单目视觉和激光传感 器的目标跟踪和避障算法 ,用单目视觉进行目标跟 踪 ,根据目标在图像中的位置来控制机器人的运动 方向 ,利用激光探测物体的距离 ,采用动态目标势场 法进行避障 。但遇到目标和障碍物都在前方的情况 时 ,机器人不能有效地进行避障 。另外 ,此方法也没 有利用移动机器人与目标之间距离的远近来调整本 体的运动速度 。文献 [ 4 ]在移动机器人上装备一个 云台摄像机 ,先通过连续几帧图像的边缘检测补偿 摄像机的运动 ,再通过帧间差分法进行运动区域的 提取 ,最后在运动区域中 ,结合目标特征集和运动信 息确定运动目标 。但是这里的跟踪只是视频上的跟 踪 ,让目标尽量保持在图像的中心 ,而不是机器人真 正意义上的跟踪目标 。因为云台摄像机只是一个单 目摄像机 ,不能给出目标的深度信息 。
结果表明 :该方法在摄像机运动2目标运动情况下 ,能对局部特征未知或特征不明显的动态目标进
行有效的识别与定位 。
关键词 :视差特征 ; SIF T 算法 ; 动态目标识别 ; 目标定位
中图分类号 : TP391
文献标志码 :A
Dynamic Object Recognition and Localization of Mobile Robot Based on Binocular Vision
虽然国内外许多学者对基于视觉的移动机器人 目标识别与跟踪做了很多研究 ,而且也提出了很多 优秀的方法 ,但是这些算法大部分是针对某些特定 的动态目标 ,或是针对某些特定的工作环境 ,还存在 一定的不足 。本文提出了一种基于双目视觉的移动 机器人的动态目标识别与定位方法 ,结合 SIF T 算 法 、视差特征和区域增长方法 ,把目标检测 、识别与 定位融为一体 。该方法不需要动态目标的先验特征 信息 ,适用于特征未知或没有明显颜色特征和其他 局部特征的运动目标的识别与定位 ,而且 SIF T 特 征具有旋转 、尺度 、亮度不变性 ,对摄像机运动2目标 运动模式下的目标识别 、定位非常有效 。目标特征 匹配和目标区域提取结合了双目视觉的视差特征 , 在不增加算法计算量和复杂度的同时 ,提高了目标 识别和定位的精确性 ,为机器人运动目标检测 、识别 与定位提出了一种新的方法 ,并在物理实验上验证 了该方法的有效性 。