用单目摄像头追踪移动物体中目标位置的方法与相关技术
基于单目摄像机的无人机动态目标实时跟踪

基于单目摄像机的无人机动态目标实时跟踪随着科技的不断发展,无人机在军事、民用和商业领域逐渐展现出其巨大的应用潜力。
而无人机的核心技术之一就是目标跟踪,即无人机通过摄像头实时跟踪目标的运动轨迹,从而能够实现自主飞行、目标定位和监视等功能。
本文将介绍基于单目摄像机的无人机动态目标实时跟踪技术,探讨其原理、方法和应用前景。
一、技术原理无人机动态目标实时跟踪技术是指无人机通过搭载的单目摄像机来捕捉目标的图像,然后通过图像处理和计算机视觉算法来识别目标,并实时跟踪目标的运动。
其核心技术包括目标检测、目标识别和跟踪算法。
目标检测是指通过摄像头捕捉目标的图像,并将目标从背景中分离出来;目标识别是指对目标进行特征提取和匹配,识别目标的种类和位置;而跟踪算法则是指对目标的运动轨迹进行预测和实时更新,以实现目标的跟踪和定位。
二、技术方法针对无人机动态目标实时跟踪技术,目前主要采用的方法包括视觉特征提取和匹配、深度学习和强化学习。
视觉特征提取和匹配是指通过计算机视觉算法提取目标的特征,并通过特征匹配来识别和跟踪目标。
常用的特征包括颜色、纹理、形状等。
深度学习是指通过神经网络模型来学习和识别目标的特征,从而实现目标的跟踪和定位。
而强化学习则是指通过机器学习算法来对无人机的飞行轨迹和目标跟踪进行优化和调整,以提高跟踪的准确性和稳定性。
三、技术应用无人机动态目标实时跟踪技术在军事、民用和商业领域均有着广泛的应用。
在军事领域,无人机可通过目标实时跟踪技术实现对敌方目标的监视、侦察和打击,提高作战的精确度和效率。
在民用领域,无人机可通过目标实时跟踪技术实现对自然灾害、环境监测和搜索救援等任务的执行,为人们的生命和财产安全提供保障。
在商业领域,无人机可通过目标实时跟踪技术实现对农作物、地产和基础设施等的监视和管理,提高生产的效率和质量。
四、技术挑战虽然无人机动态目标实时跟踪技术具有巨大的应用前景,但其在实际应用中仍面临着一些挑战。
一种单目摄像机的位姿定位方法

一种单目摄像机的位姿定位方法随着人工智能和计算机视觉领域的不断发展,定位和导航技术在机器人、自动驾驶汽车和增强现实等领域中扮演着越来越重要的角色。
单目摄像机作为一种常见的传感器,其在定位和导航中的应用越来越广泛。
本文将介绍一种基于单目摄像机的位姿定位方法,通过该方法可以精确地获取目标物体的位置和姿态信息。
一、方法概述该位姿定位方法是基于特征点匹配和三维重建的技术。
在目标物体的周围设置多个特征点,然后使用单目摄像机拍摄目标物体,并提取图像中的特征点。
通过计算特征点的匹配关系,可以获得目标物体在图像中的姿态信息。
接下来,利用摄像机的内外参数和特征点的三维坐标,结合三维重建算法,可以得到目标物体的真实位置和姿态信息。
二、特征点提取与匹配在单目摄像机中,特征点是图像中具有显著特征的点,如角点、边缘点等。
在定位过程中,首先需要从目标物体的图像中提取特征点。
常用的特征点提取算法包括Harris角点检测、SIFT特征提取、FAST特征提取等。
这些算法能够在图像中准确地提取出特征点,并且具有较好的鲁棒性和稳定性。
提取到特征点之后,接下来需要进行特征点的匹配。
特征点匹配是指在两幅图像中找到相互对应的特征点,这一步是位姿估计的关键。
常用的特征点匹配算法包括基于描述符的匹配算法(如SIFT、SURF)和基于光流的匹配算法等。
这些算法能够有效地找到两幅图像中相互对应的特征点,为后续的位姿估计提供了可靠的数据基础。
三、姿态估计与优化在特征点匹配的基础上,可以进行目标物体的姿态估计。
姿态估计是指根据特征点匹配的结果,计算出目标物体在图像中的位置和姿态信息。
常用的姿态估计方法包括PnP(Perspective-n-Point)算法、EPnP算法、以及基于优化的姿态估计算法等。
这些算法能够根据特征点的匹配关系,精确地计算出目标物体的位置和姿态信息。
除了姿态估计,还可以利用摄像机的内外参数进行辅助估计。
摄像机的内外参数包括焦距、主点、畸变参数、旋转矩阵和平移向量等。
单目摄像头测距原理

单目摄像头测距原理单目摄像头是指只有一个镜头的摄像头,它可以通过图像处理技术实现测距功能。
在现实生活中,我们经常会遇到需要测量距离的情况,比如自动驾驶汽车需要测量前方障碍物的距离,无人机需要测量地面的高度等。
而单目摄像头测距技术的应用,正是为了满足这些需求。
接下来,我们将介绍单目摄像头测距的原理及其实现方法。
单目摄像头测距的原理主要是利用图像中的视差信息来计算距离。
视差是指当我们从不同位置观察同一物体时,由于视角的改变而导致物体在图像中位置的偏移。
通过分析这种视差,我们可以推断出物体与摄像头的距离。
具体来说,单目摄像头测距的原理可以分为以下几个步骤:1. 视差计算,首先,我们需要从单目摄像头获取到图像,并对图像进行处理,提取出图像中的特征点。
然后,我们通过比较这些特征点在不同位置的位置偏移,计算出视差信息。
2. 距离推断,根据视差信息,我们可以利用三角测量原理推断出物体与摄像头的距离。
通过已知的摄像头参数和视差信息,我们可以计算出物体的距离。
3. 距离修正,由于单目摄像头测距存在一定的误差,我们通常需要进行距离修正。
这可以通过使用其他传感器获取准确的距离信息,然后校正单目摄像头的测距结果。
实现单目摄像头测距的方法有很多种,其中比较常见的包括立体视觉法、运动视差法和结构光法等。
立体视觉法通过使用两个摄像头来模拟人类的双眼视觉,从而实现距离测量。
运动视差法则是利用摄像头和物体之间的相对运动来计算视差,从而推断出距离。
而结构光法则是通过投射特定图案到物体表面,然后利用摄像头捕捉图案的形变,从而计算出物体的距离。
总的来说,单目摄像头测距是一种基于图像处理技术的距离测量方法,它通过分析图像中的视差信息来推断物体与摄像头的距离。
虽然单目摄像头测距存在一定的局限性,比如对光照条件和物体表面的要求较高,但在许多应用场景下仍具有重要的意义。
随着图像处理技术的不断发展,相信单目摄像头测距技术将会得到进一步的完善和应用。
单目摄像头标定的原理和方法

单目摄像头标定的原理和方法嘿,咱今儿就来讲讲单目摄像头标定的原理和方法。
你知道吗,这单目摄像头啊,就像是我们的眼睛,但它可没我们的眼睛那么智能,它得经过一番标定,才能更好地看清这个世界呢!想象一下,单目摄像头就像是一个小侦探,它要去观察、去测量周围的一切。
那怎么才能让它更准确呢?这就需要标定啦!标定的原理呢,其实就是建立一个模型,让摄像头知道自己看到的东西在真实世界里的位置和大小。
就好像我们要去一个陌生的地方,得先有张地图一样。
这张地图就是摄像头的标定模型。
通过一系列的操作和计算,让摄像头明白它看到的每个点在实际中的位置关系。
那具体咋标定呢?方法有好几种呢!比如说,可以用一些特制的标定板,上面有很多规则排列的标记点。
摄像头对着这些标定板拍照,然后通过分析这些照片,就能得出很多重要的信息啦。
这就好比是给摄像头出了一套专门的测试题,它通过回答这些问题,来提升自己的能力。
是不是挺有意思的?还有啊,在标定的过程中,可不能马虎。
就像我们做事情一样,得认真仔细,稍有差错,那结果可能就差之千里啦!而且啊,不同的应用场景可能需要不同的标定方法呢。
就像我们穿衣服,不同的场合要穿不同的衣服,总不能穿着睡衣去上班吧!标定好了之后,单目摄像头就能更准确地识别物体、测量距离等等。
它就像是被赋予了超能力一样,可以帮我们做很多事情呢。
比如说在自动驾驶中,单目摄像头可以帮助汽车识别道路、车辆和行人,让汽车更安全地行驶。
这多重要啊,关乎着我们的生命安全呢!在工业生产中,它可以检测产品的质量,确保每个产品都符合标准。
这可不简单,得靠它那精准的“眼光”呢!总之,单目摄像头标定可不是一件小事,它关系到很多领域的发展和应用。
我们得重视它,让它更好地为我们服务。
所以啊,大家可别小看了这小小的单目摄像头标定,它里面的学问大着呢!你说是不是呀?。
单目摄像头测距原理

单目摄像头测距原理单目摄像头测距是一种常见的测距方法,它利用单个摄像头获取的图像信息来计算目标物体与摄像头的距离。
这种技术在工业、无人驾驶、智能家居等领域都有广泛的应用。
接下来,我们将介绍单目摄像头测距的原理和相关知识。
首先,我们需要了解单目摄像头的成像原理。
单目摄像头获取的是二维图像信息,而要计算出目标物体与摄像头的距离,就需要获取三维空间的信息。
这就需要利用图像中的一些线索来推断目标物体的距离。
在单目摄像头测距中,常用的方法包括三角测量法、深度学习法和光流法等。
三角测量法是一种经典的测距方法,它利用目标物体在不同位置时的图像信息来计算距离。
深度学习法则是利用深度学习算法来从图像中学习目标物体的距离信息。
光流法则是通过分析图像中像素点的运动来计算目标物体的距离。
在实际应用中,单目摄像头测距还面临一些挑战,比如光照条件、目标物体表面的特性、图像失真等因素都会影响测距的精度。
为了克服这些挑战,可以采用多种传感器相结合的方法,比如结合激光测距仪、红外传感器等,来提高测距的准确性。
除了硬件设备的改进,算法也是提高单目摄像头测距精度的关键。
随着深度学习技术的发展,利用深度学习算法进行图像处理和距离计算已经成为一种重要的趋势。
深度学习算法可以更准确地理解图像中的信息,从而提高测距的精度。
总的来说,单目摄像头测距是一种重要的测距方法,它在工业、无人驾驶、智能家居等领域都有广泛的应用前景。
通过不断改进硬件设备和算法,可以提高单目摄像头测距的精度和稳定性,进而推动相关领域的发展和应用。
希望本文对单目摄像头测距原理有所帮助。
单摄像头运动目标跟踪方法优化与应用研究

单摄像头运动目标跟踪方法优化与应用研究摘要:运动目标跟踪是计算机视觉领域中的一个重要研究方向。
本文针对单摄像头场景下运动目标跟踪方法进行优化与应用研究。
首先,综述了目标跟踪的基本概念和常用的跟踪方法。
然后,提出了一种结合卷积神经网络和相关滤波器的优化方法,用于提高目标跟踪的准确度和鲁棒性。
接着,针对不同场景下的目标跟踪需求进行了实验验证和性能分析。
最后,将优化后的目标跟踪方法应用于实际场景中,并对结果进行了评估和总结。
1. 引言运动目标跟踪是计算机视觉领域的重要研究方向,具有广泛的应用场景,如智能监控系统、无人驾驶等。
单摄像头场景下的目标跟踪任务面临着诸多挑战,如光照变化、背景干扰和目标遮挡等。
因此,提高单摄像头运动目标跟踪方法的准确性和鲁棒性具有重要的研究意义。
2. 跟踪方法综述目标跟踪方法可以分为传统方法和深度学习方法。
传统方法包括基于颜色直方图、滤波器和密度估计的方法。
深度学习方法则利用卷积神经网络从大量标注数据中学习目标的特征表示。
这些方法各有优劣,需要根据具体场景和需求选择合适的方法。
3. 单摄像头运动目标跟踪方法优化为了提高单摄像头运动目标跟踪的准确度和鲁棒性,本文提出了一种结合卷积神经网络和相关滤波器的优化方法。
首先,利用卷积神经网络提取目标的视觉特征表示,包括颜色、纹理和形状等特征。
然后,将提取到的特征输入到相关滤波器中,用于计算目标的相似度。
最后,根据相关滤波器的输出结果更新目标的位置和尺度信息。
4. 实验验证和性能分析为了验证优化方法的有效性,我们在不同场景下进行了实验。
首先,通过在公共数据集上进行实验,比较了优化方法与传统方法之间的性能差异。
结果显示,优化方法在准确度和鲁棒性上表现更好。
其次,我们通过在真实场景中搭建的实验平台进行了实地测试。
结果表明,优化方法在真实场景下同样具备良好的跟踪效果。
5. 应用研究与评估将优化后的目标跟踪方法应用于实际场景中的智能监控系统,并对结果进行了评估和总结。
单目视觉技术方法

单目视觉技术方法引言:随着计算机视觉技术的迅猛发展,单目视觉技术作为计算机视觉领域的重要研究方向之一,得到了广泛的应用。
本文将介绍单目视觉技术的基本原理、常用方法以及应用领域,并探讨其未来的发展趋势。
一、基本原理单目视觉技术是指通过一台摄像机获取单一视角的图像信息,并利用计算机算法对图像进行处理和分析的技术。
其基本原理是利用摄像机采集的图像数据,通过计算机视觉算法进行图像处理和分析,从而实现对图像中目标物体的识别、测量和跟踪等功能。
二、常用方法1. 特征提取:单目视觉技术中常用的一种方法是通过提取图像中的特征点,如角点、边缘等,来描述目标物体的形状和结构。
这样可以将图像中的目标物体与其他物体进行区分,从而实现对目标物体的识别和测量。
2. 目标检测:目标检测是单目视觉技术中的关键任务之一。
通过利用图像处理和机器学习算法,可以实现对图像中的目标物体进行检测和定位。
常用的目标检测算法包括基于颜色、纹理、形状等特征的方法,以及基于深度学习的方法。
3. 物体跟踪:物体跟踪是指在连续的图像序列中,对目标物体进行实时的跟踪和定位。
常用的物体跟踪方法包括基于模板匹配、卡尔曼滤波、粒子滤波等方法。
这些方法可以利用图像序列中的运动信息,对目标物体的位置进行准确的估计和预测。
4. 三维重建:通过单目视觉技术可以实现对目标物体的三维重建。
常用的三维重建方法包括基于立体视觉的方法和基于运动估计的方法。
这些方法可以从单目图像中恢复出目标物体的三维形状和结构,从而实现对目标物体的精确测量和分析。
三、应用领域1. 自动驾驶:单目视觉技术在自动驾驶领域具有广泛的应用。
通过对道路、车辆和行人等目标物体的检测和跟踪,可以实现自动驾驶汽车的智能感知和决策。
2. 工业自动化:单目视觉技术在工业自动化领域也有着重要的应用。
通过对工件的检测、识别和测量,可以实现工业机器人的自动操作和控制。
3. 安防监控:单目视觉技术在安防监控领域可以实现对目标物体的实时监测和跟踪。
单目摄像头测距原理

单目摄像头测距原理一、背景介绍单目摄像头是一种常用的视觉传感器,可以通过图像处理来获取物体的距离信息。
本文将详细介绍单目摄像头测距的原理以及相关技术。
二、单目摄像头测距的原理单目摄像头测距主要基于三角测距原理,通过获取物体在图像中的像素变化或视差来计算物体的距离。
以下是单目摄像头测距的基本原理:1. 视差原理视差是通过观察物体在两个不同位置下的图像差异来测量物体距离的方法之一。
当我们用一只眼睛观察距离较近的物体时,可以观察到物体在两个眼睛之间的位置差异。
单个摄像头可以模拟这个过程,通过分析图像中的像素差异来计算物体的距离。
2. 相机标定在进行单目摄像头测距之前,首先需要进行相机标定。
相机标定是通过确定相机的内外参数来建立摄像头与真实世界之间的转换关系。
通过相机标定可以得到相机的焦距、畸变参数等信息,为后续的测距工作提供基础。
3. 物体特征提取在进行测距之前,需要首先对物体进行特征提取。
常用的物体特征包括角点、边缘等。
通过提取物体的特征点,可以提高测距的准确性。
4. 视差计算视差计算是单目摄像头测距的关键步骤。
通过对特征点的像素坐标进行计算,可以得到物体在图像中的视差值。
视差值与物体的距离成反比,即视差越大,物体距离越近。
5. 距离计算在计算得到视差值之后,可以通过已知的相机参数和三角测量原理来计算物体的距离。
根据视差与物体距离的关系,可以建立视差与实际距离之间的映射关系。
根据此映射关系,可以通过视差值计算出物体的实际距离。
三、单目摄像头测距的应用单目摄像头测距技术在许多领域都有广泛的应用。
以下是几个常见的应用场景:1. 智能驾驶在自动驾驶领域,单目摄像头常用于车辆和行人的距离测量。
通过测量前方物体的距离,可以帮助车辆做出相应的决策,如避障、跟车等。
2. 工业自动化在工业自动化中,单目摄像头可以用于测量物体的距离和尺寸。
通过测量物体的距离,可以实现自动化生产线上的物料识别和定位,提高生产效率和质量。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
图片简介:本技术公开一种用单目摄像头追踪移动物体中目标位置的方法,其实现步骤包括:1、获取基准图片;2、计算标签1和标签2位置;3、确定追踪时标签1的位置;4、计算标签2的位置;5、计算标签2的角度;6、完成测量位置的追踪。
本技术利用追踪前确定的物体中被跟踪的目标位置,追踪物体运动中被跟踪的目标不存在时,该物体中原来的目标位置,有效的解决了直接跟踪目标,当目标不存在时会造成跟踪失败的问题,使得本技术的方法可以更准确的追踪物体的测量位置。
技术要求1.一种用单目摄像头追踪移动物体中目标位置的方法,其特征在于,追踪前,利用单目摄像头获取标签1和标签2的三维坐标,追踪时,遮挡标签2,利用单目摄像头获取标签1的三维坐标,计算标签2位置,该方法的步骤包括如下:(1)获取基准图片:追踪开始前,使用单目摄像头连续拍摄静止的被测物体的十帧图片,将最后一张图片作为基准图片,该基准图片中包括被测物体、标签1和标签2;(2)计算标签1和标签2位置:(2a)利用apriltag算法中的距离公式,分别计算基准图片中标签1与单目摄像头的距离以及基准图片中标签2与单目摄像头的距离;(2b)按照下式,计算标签1和标签2之间的角度;其中,β1表示在基准图片中标签1的参考顶点A和参考顶点B之间的直线与标签1参考顶点A和标签2中心点之间的直线的角度,arctan表示反正切操作,centy1表示在基准图片中标签2中心点对应y轴的坐标,Ay1表示在基准图片中标签1的参考顶点A处对应y轴的坐标,centx1表示在基准图片中标签2中心点对应x轴的坐标,Ax1表示在基准图片中标签1的参考顶点A处对应x轴的坐标,By1表示在基准图片中标签1的参考顶点B处对应y轴的坐标,Bx1表示在基准图片中标签1的参考顶点B处对应x轴的坐标。
(2c)按照下式,计算标签1参考顶点A与标签2中心点的距离;其中,R1表示在基准图片中标签1参考顶点A与标签2中心点之间的距离,表示取平方根操作,centy1表示在基准图片中标签2中心点对应y轴的坐标,Ay1表示在基准图片中标签1的参考顶点A处对应y轴的坐标,centx1表示在基准图片中标签2中心点对应x轴的坐标,Ax1表示在基准图片中标签1的参考顶点A处对应x轴的坐标;(3)确定追踪时标签1的位置:(3a)追踪开始时,遮挡被测物体上的标签2;(3b)利用apriltag算法中的距离公式,计算在单目摄像头拍摄范围内任意移动被测物体时每帧图片中标签1与单目摄像头的距离;(4)计算标签2的位置:(4a)利用距离公式,计算每帧图片中标签1移动时参考顶点A与被遮挡的标签2中心点之间的距离;(4b)按照下式,计算标签1与被遮挡的标签2之间的角度;β2=β1+α3其中,β2表示每帧图片中标签1参考顶点A和被遮挡的标签2中心点之间的直线与单目摄像头水平轴的角度,β1表示在基准图片中标签1参考顶点A和参考顶点B之间的直线与标签1参考顶点A和标签2中心点之间的直线的角度,α3表示每帧图片中标签1参考顶点A和参考顶点B之间的直线与单目摄像头水平轴的角度;(4c)利用位置公式,计算被遮挡的标签2中心点位置;(5)计算标签2的角度:利用角度公式,计算每帧图片中被遮挡的标签2参考顶点A和参考顶点B之间的直线与单目摄像头水平轴之间的角度;(6)完成测量位置的追踪。
2.根据权利要求1所述的用单目摄像头追踪移动物体中目标位置的方法,其特征在于,步骤(2a)、步骤(3b)中所述的apriltag算法中的距离公式如下:di=-s×h22×scale/2其中,di表示在基准图片中标签中第i个像素点与单目摄像头的距离,s表示系数,h22表示标签坐标系中的四个顶点的齐次坐标到图像标签坐标系中的四个顶点坐标的映射矩阵中第3行第3列的元素值,scale表示标签的边长值。
3.根据权利要求1所述的用单目摄像头追踪移动物体中目标位置的方法,其特征在于,步骤(2b)中所述的标签的参考顶点A和参考顶点B指的在标签未旋转时标签的的左上顶点和右上顶点。
4.根据权利要求1所述的用单目摄像头追踪移动物体中的目标位置方法,其特征在于,步骤(4a)中所述的距离公式如下:R2=d1×R1/d2其中,R2表示每帧图片中标签1参考顶点A与被遮挡的标签2中心点之间的距离,d1表示在基准图片中标签1与单目摄像头的距离,R1表示在基准图片中标签1参考顶点A与标签2中心点之间的距离,d2表示每帧图片中标签1与单目摄像头的距离。
5.根据权利要求1所述的用单目摄像头追踪移动物体中目标位置的方法,其特征在于,步骤(4c)中所述的位置公式如下:centx2=Ax3+R2×cosβ2centy2=Ay3+R2×sinβ2其中,centx2表示每帧图片中被遮挡的标签2中心点的x轴坐标,Ax3表示每帧图片中标签1参考顶点A处对应x轴的坐标,R2表示每帧图片中标签1参考顶点A与被遮挡的标签2中心点之间的距离,cos表示余弦操作,β2表示每帧图片中标签1参考顶点A和被遮挡的标签2中心点之间的直线与单目摄像头水平轴之间的角度,centy2表示每帧图片中被遮挡的标签2中心点的y轴坐标,Ay3表示视频帧中标签1参考顶点A处对应y轴的坐标,sin表示正弦操作。
6.根据权利要求1所述的用单目摄像头追踪移动物体中目标位置的方法,其特征在于,步骤(5)中所述的角度公式如下:α4=α3-α1+α2其中,α4表示每帧图片中被遮挡的标签2的参考顶点A和参考顶点B之间的直线与单目摄像头水平轴之间的角度,α3表示每帧图片中标签1参考顶点A和参考顶点B之间的直线与单目摄像头水平轴之间的夹角,α1表示在基准图片中标签1参考顶点A和参考顶点B之间的直线与单目摄像头水平轴之间的夹角,α2表示在基准图片中标签2参考顶点A和参考顶点B之间的直线与单目摄像头水平轴之间的夹角。
技术说明书用单目摄像头追踪移动物体中目标位置的方法技术领域本技术属于目标追踪技术领域,更进一步涉及运动目标跟踪技术领域中的一种用单目摄像头追踪移动物体中目标位置的方法。
本技术可用于根据追踪前确定的物体中被跟踪的目标位置的前提下,追踪物体运动中被跟踪的目标不存在时,该物体中原来目标位置的变化。
背景技术对物体中特定的目标,当物体移动时,需要对该特定的目标进行追踪,尤其是当该特定的目标不存在时,例如被追踪物体运动中被跟踪的目标被遮挡或者移走后,现有技术大多采用多相机利用多相机间的约束方法来得到被遮挡目标的追踪结果或者采用光流法和模糊PID控制直接跟踪目标。
曜科智能科技(上海)有限公司在其申请的专利文献“多相机目标追踪方法、系统、装置及存储介质”(申请日:2018.12.29,申请号201811637626.8,申请公开号CN 111383252A)中介绍了一种多相机目标追踪的方法和装置。
该专利申请公开的方法的步骤为,通过对多个相机每次同步拍摄的多个图像帧进行多个原始图像区域的选取,并对应提取的特征图且据以通过滤波器生成响应图,通过辨别包含得分最高的目标点的响应图所确定的追踪目标边界框在对应的图像帧中提取追踪结果。
该方法的优点是,某些相机下追踪目标被遮挡时通过多相机间的约束方法来得到被遮挡图像帧的追踪结果,有效消除追踪遮挡,且多相机可以同时提供追踪目标在多个视角的信息,作为输入可以使得相关滤波学习到多角度的特征从而对视角变化更具有鲁棒性。
但是,该方法仍然存在的不足之处是,多相机追踪时每次都需对同步拍摄的多个图像帧进行处理,实时性低。
厦门脉视数字技术有限公司在其申请的专利文献“一种运动目标跟踪方法”(申请日:2020.03.04,申请号202010141749.3,申请公开号CN 111382784 A)中介绍了一种运动目标跟踪方法。
该方法基于嵌入式系统中的连续多帧图像数据,采用混合高斯背景建模来提取前景运动目标,当运动目标出现,混合高斯背景模型分离出运动目标,提取运动目标的角点特征,将对运动目标的追踪换成对角点特征的特征点追踪,使用光流法跟踪特征点,当同时出现多个运动目标时,采用角点聚类分析方法提取角点特征,在追踪运动目标的过程中,使用云台追踪并使云台一直转动,采用模糊PID控制方法使运动目标始终处于图像的中心位置。
该方法的优点是同时出现多个运动目标时,采用角点聚类分析方法提取角点特征,利用光流法对角点进行追踪,即使背景一直变化,仍然可以正确追踪特征点。
但是,该方法仍然存在的不足之处是,直接跟踪目标,当这个目标不存在时,会造成跟踪失败。
技术内容本技术的目的在于针对上述已有技术的不足,提出了一种用单目摄像头追踪移动物体中目标位置的方法,以解决在对移动物体中目标位置追踪的现有技术中,不能在被跟踪的目标不存在对原来的目标位置进行追踪、追踪位置的实时性和精确度低的问题。
实现本技术目的的具体思路是:追踪前,利用单目摄像头获取标签1和标签2的三维坐标,计算标签1与标签2之间的距离和角度;追踪时,遮挡标签2,任意移动被测物体,利用单目摄像头获取标签1的三维坐标,根据标签1与单目摄像头的距离、标签1的旋转角度、追踪前得到的标签1与标签2之间的距离和角度计算标签2的位置和角度,达到对移动物体中目标位置的追踪。
实现本技术目的的方法,包括如下步骤:(1)获取基准图片:追踪开始前,使用单目摄像头连续拍摄静止的被测物体的十帧图片,将最后一张图片作为基准图片,该基准图片中包括被测物体、标签1和标签2;(2)计算标签1和标签2位置:(2a)利用apriltag算法中的距离公式,分别计算基准图片中标签1与单目摄像头的距离以及基准图片中标签2与单目摄像头的距离;(2b)按照下式,计算标签1和标签2之间的角度;其中,β1表示在基准图片中标签1的参考顶点A和参考顶点B之间的直线与标签1参考顶点A和标签2中心点之间的直线的角度,arctan表示反正切操作,centy1表示在基准图片中标签2中心点对应y轴的坐标,Ay1表示在基准图片中标签1的参考顶点A处对应y轴的坐标,centx1表示在基准图片中标签2中心点对应x轴的坐标,Ax1表示在基准图片中标签1的参考顶点A处对应x轴的坐标,By1表示在基准图片中标签1的参考顶点B处对应y轴的坐标,Bx1表示在基准图片中标签1的参考顶点B处对应x轴的坐标;(2c)按照下式,计算标签1参考顶点A与标签2中心点的距离;其中,R1表示在基准图片中标签1参考顶点A与标签2中心点之间的距离,centy1表示在基准图片中标签2中心点对应y轴的坐标,Ay1表示在基准图片中标签1的参考顶点A处对应y 轴的坐标,centx1表示在基准图片中标签2中心点对应x轴的坐标,Ax1表示在基准图片中标签1的参考顶点A处对应x轴的坐标;(3)确定追踪时标签1的位置:(3a)追踪开始时,遮挡被测物体上的标签2;(3b)利用apriltag算法中的距离公式,计算在单目摄像头拍摄范围内任意移动被测物体时每帧图片中标签1与单目摄像头的距离;(4)计算标签2的位置:(4a)利用距离公式,计算每帧图片中标签1移动时参考顶点A与被遮挡的标签2中心点之间的距离;(4b)按照下式,计算标签1与被遮挡的标签2之间的角度;β2=β1+α3其中,β2表示每帧图片中标签1参考顶点A和被遮挡的标签2中心点之间的直线与单目摄像头水平轴的角度,β1表示在基准图片中标签1参考顶点A和参考顶点B之间的直线与标签1参考顶点A和标签2中心点之间的直线的角度,α3表示每帧图片中标签1参考顶点A和参考顶点B之间的直线与单目摄像头水平轴的角度;(4c)利用位置公式,计算被遮挡的标签2中心点位置;(5)计算标签2的角度:利用角度公式,计算每帧图片中被遮挡的标签2参考顶点A和参考顶点B之间的直线与单目摄像头水平轴之间的角度;(6)完成测量位置的追踪。