基于特征点相似度的匹配定位算法

合集下载

模板匹配算法在图像识别中的应用

模板匹配算法在图像识别中的应用

模板匹配算法在图像识别中的应用在计算机视觉领域中,图像识别一直是研究的重点之一。

众所周知,图像识别的核心问题是如何实现图像特征的提取和匹配。

其中,模板匹配算法被广泛应用于图像识别领域,成为了一种非常有效的形式识别方法。

本文将从模板匹配算法的基本原理、流程和实际应用三个方面对其在图像识别中的应用进行分析。

一、模板匹配算法的基本原理模板匹配算法是一种基于相似度度量的匹配方法,它是通过比较匹配对象与预定义模板之间的相似性来实现目标识别的。

具体来说,模板匹配算法把待识别的图像与已知的目标模板进行比较,找到最匹配模板的位置并进行标注,从而完成目标物体的定位。

通常来说,模板匹配算法可以分为两个步骤:特征提取和特征匹配。

在提取特征阶段,模板匹配算法会根据事先定义的特征模板,将原始图像进行特征提取,并得到一系列特征点。

在特征匹配阶段,算法将通过捕捉原始图像与特征模板之间的相似性,计算出它们之间的匹配度,并标识出与特征模板最匹配的区域。

二、模板匹配算法的流程模板匹配算法的整个流程可以简单描述为以下三个步骤:1. 特征提取:针对目标识别问题,根据实际情况选择合适的特征提取方式并得到一系列特征点。

2. 特征匹配:计算被匹配图像和模板图像之间的相似度,并标识出最匹配的区域。

3. 特征检测:将特征匹配的结果进行检测,确定是否匹配成功。

在具体实现中,模板匹配算法还需进行一些优化及改进。

比如,通过对图像进行预处理,可以灵活控制算法的误差和效率;通过加入神经网络或深度学习模型,可以进一步提高算法的准确率和精度。

三、模板匹配算法在图像识别中的应用在实际应用中,模板匹配算法已经得到广泛应用,如面部识别、指纹识别、人体姿态识别、车牌识别、医学影像识别等领域。

下面,我们以人脸识别为例,简单介绍模板匹配算法的应用。

在人脸识别中,可选取样本图片中的人脸作为匹配模板,并在另一张图片中对人脸进行识别匹配。

通常采用的匹配方式有两种:一种是欧氏距离匹配;另一种是相关系数匹配。

无人机图像拼接算法的研究及实现

无人机图像拼接算法的研究及实现

无人机图像拼接算法的研究及实现随着近年来无人机技术的飞速发展,无人机图像拼接技术也得到了广泛的应用。

该技术可以将无人机拍摄得到的相邻区域的图像进行拼接,生成高分辨率的全景图像,提供了一种高效的地图制作和空中监测的手段。

本文将从无人机图像拼接的原理入手,分析其算法的研究,介绍常见的图像拼接算法以及其应用场景,并在最后给出一个无人机图像拼接的实现实例。

一、无人机图像拼接原理无人机的航拍图像拼接是借助现代数字图像处理技术来实现的。

该技术需要处理大量的数据,并结合图像的特征进行定位,将相邻图像进行拼接,生成全景图像。

以下是无人机图像拼接的原理图:如图所示,相机通过对地面连续拍摄,得到多幅重叠区域较多的图像。

在无人机图像拼接中,首先需要对相机进行标定,得到相机的内外参数。

然后,根据每张拍摄的图像的特征,例如SIFT特征,计算出每幅图像的特征点。

接着,通过匹配不同图像之间的特征点,建立不同图像之间的关系。

最后,运用优化算法对关系进行优化,完成图像拼接,生成全景图像。

二、无人机图像拼接的算法研究目前,无人机图像拼接的算法主要有以下几种:1. 基于特征点匹配的无人机图像拼接算法这种算法主要的思路是在多副图像上提取一些稀有的、具有代表性的特征点。

然后根据特征点的相似程度进行匹配,得到匹配点对。

匹配点对的质量好坏非常重要,其正确率和准确度直接决定了拼接后的图像质量。

这种算法的核心是对特征点的提取和匹配两个部分的处理。

由于SIFT, SURF和ORB等算子在特征提取和匹配上有着良好的效果,因此应用广泛。

2. 基于区域分割的无人机图像拼接算法该算法主要是先将输入的拍摄图像进行区域分割,将该图像分为多个区域,然后根据区域之间的相似度,通过一系列的变换操作,将这些不同区域的图像配准后合并起来生成全景图像。

这种算法具有很好的兼容性和可扩展性,能够处理不同场景和不同光照下的图像拼接。

但是该算法也存在着一些缺陷,例如耗费计算时间比较长而导致对计算机处理性能的要求比较高。

如何利用计算机视觉技术进行目标定位和追踪

如何利用计算机视觉技术进行目标定位和追踪

如何利用计算机视觉技术进行目标定位和追踪计算机视觉技术是一种通过计算机程序和算法对图像或视频进行处理和分析的技术。

目标定位和追踪是计算机视觉技术中的一个重要应用领域,它可以在图像或视频中识别和跟踪特定的目标物体。

本文将介绍如何利用计算机视觉技术进行目标定位和追踪。

目标定位是指在给定的图像或视频中找到目标物体所在的位置。

首先,我们需要对图像进行预处理,以提高目标物体的辨识度。

这可以包括图像的去噪、增强对比度、调整亮度等操作。

接下来,我们可以使用特征提取算法来获取图像中目标物体的特征。

常用的特征提取算法包括传统的SIFT(尺度不变特征变换)和SURF (加速稳健特征)算法,以及基于深度学习的CNN(卷积神经网络)算法。

通过提取目标物体的特征,我们可以利用相似度度量方法,如余弦相似度或欧氏距离,来进行目标物体的定位。

目标追踪是指在视频序列中跟踪目标物体的运动轨迹。

与目标定位类似,目标追踪也可以通过特征提取和相似度匹配的方式来实现。

一种常用的目标追踪方法是基于模型的方法,即通过构建目标物体的模型来进行追踪。

在每一帧图像中,我们可以使用目标检测算法来识别目标物体的位置,并更新目标物体的模型。

常用的目标检测算法包括基于传统机器学习的HOG+SVM算法和基于深度学习的YOLO (You Only Look Once)和Faster R-CNN(Region-based Convolutional Neural Networks)算法。

通过不断更新目标物体的模型,我们可以实现对目标物体的准确追踪。

除了基于模型的方法外,还有一种常用的目标追踪方法是基于特征的方法,即通过提取目标物体在不同帧图像中的特征,并通过相似度匹配来进行追踪。

在每一帧图像中,我们可以使用特征点检测算法来提取目标物体的特征点,如SIFT、SURF或ORB(Oriented FAST and Rotated BRIEF)算法。

然后,我们可以使用特征描述算法,如SIFT特征描述算法或ORB特征描述算法,来对提取到的特征点进行描述。

医学影像配准算法及其应用

医学影像配准算法及其应用

医学影像配准算法及其应用医学影像是现代医学发展中的重要组成部分。

通过对患者体内的CT、MRI、PET等影像进行分析,医生可以快速准确地判断疾病的类型、位置和严重程度。

因此,医学影像的质量和准确度直接关系到疾病的治疗效果和患者的生存质量。

为了提高医学影像的精度和临床应用价值,医学影像配准算法应运而生。

什么是医学影像配准?医学影像配准指的是将两个或多个医学影像进行对齐,以减小对比的差异,并实现像素一一对应。

根据其所属领域的不同,医学影像配准算法可以分为结构匹配配准、功能匹配配准和多模态配准三种类型。

其中,结构匹配配准主要针对的是灰度匹配;功能匹配配准则是在结构匹配的基础上,通过比较影像内的生物学功能进行匹配;多模态配准则是将来自不同成像技术的影像进行融合,从而得到更为准确的临床诊断结果。

医学影像配准算法的实现医学影像配准可以通过手动操作和自动算法两种方式实现。

手动操作需要医生花费较长时间进行影像对齐,并且由于人类视觉的限制,无法获得较高的准确度。

因此,研究人员逐渐将自动配准算法应用到了医学影像领域。

目前,医学影像配准算法主要分为两类:基于特征点匹配的算法和基于图像互信息的算法。

特征点匹配的算法是指通过寻找匹配影像中相同的特征点对影像进行配准。

这种算法的优点是计算简单、速度快,但是它对噪声和纹理变化敏感。

基于图像互信息的算法则是通过计算影像的相似度来进行匹配。

这种算法的精度比较高,但是计算复杂度较大,需要长时间的计算。

医学影像配准应用医学影像配准主要应用于医学领域的疾病诊断、治疗和手术规划等方面。

比如,通过CT和MRI的配准,可以更加准确地定位肿瘤部位和大小,同时可以在放疗和化疗前进行影像分析,为治疗方案的制定提供依据。

在神经外科手术中,通过将MRI和CT影像结合起来,医生可以在手术中进行更加精确的定位和导航。

此外,医学影像配准还可以应用于临床研究和药物开发等方面。

结语医学影像配准算法是医学影像发展的重要组成部分。

指纹匹配定位算法的原理

指纹匹配定位算法的原理

指纹匹配定位算法的原理指纹定位技术是一种基于生物特征识别的定位技术,它利用每个人的指纹特征进行身份识别和定位。

本篇文章将详细介绍指纹匹配定位算法的原理和实现过程。

一、指纹特征提取首先,需要从指纹图像中提取出每个人的指纹特征。

指纹特征包括指纹的形状、纹理、沟壑等。

提取指纹特征的方法包括图像处理、模式识别和机器学习等技术。

提取出的指纹特征需要被存储在数据库中,以便后续的匹配和定位。

二、指纹匹配算法在定位过程中,需要将待定位目标的指纹特征与数据库中的指纹特征进行匹配。

常用的指纹匹配算法包括基于距离的匹配算法和基于相似度的匹配算法。

基于距离的匹配算法通常采用欧几里得距离或曼哈顿距离等距离度量方法,根据待定位目标和数据库中指纹之间的距离来判断是否匹配。

基于相似度的匹配算法则采用机器学习或模式识别的方法,根据待定位目标和数据库中指纹之间的相似度来判断是否匹配。

三、定位算法在匹配成功后,需要使用定位算法来确定待定位目标的实际位置。

常用的定位算法包括基于三角测量法的定位算法和基于指纹交叉验证的定位算法。

基于三角测量法的定位算法通常需要三个或更多的已知位置的指纹信息来计算待定位目标的实际位置。

基于指纹交叉验证的定位算法则通过比较待定位目标的指纹特征与多个已知位置的指纹特征来进行定位。

四、优化与改进在实际应用中,可以根据用户需求和反馈,不断优化和改进指纹匹配定位算法。

例如,可以增加一些参数设置,以适应不同情况下的定位需求;也可以考虑引入一些新的算法思想,以提高定位精度和效率。

此外,还可以采用一些新兴的技术,如深度学习和人工智能等,来提高指纹匹配定位算法的性能和准确性。

总的来说,指纹匹配定位算法是一种重要的生物特征识别定位技术,具有安全、准确、稳定等优点。

通过正确提取指纹特征、选择合适的匹配算法、实现精确的定位算法以及不断优化和改进算法,可以提高该技术的性能和准确性,满足不同场景下的定位需求。

以上就是《指纹匹配定位算法的原理》的全部内容,希望能够帮助到您。

视觉定位的关键参数

视觉定位的关键参数

视觉定位的关键参数一、视觉特征提取视觉定位的第一个关键参数是视觉特征。

视觉特征是从图像中提取出来的一些能够代表图像内容的信息,例如边缘、角点、纹理等。

常用的视觉特征提取算法包括SIFT、SURF和ORB等。

这些算法可以通过对图像进行滤波、边缘检测和兴趣点提取等操作,得到一组稳定的特征点。

二、特征匹配与跟踪特征匹配与跟踪是视觉定位的第二个关键参数。

在视觉定位中,需要将当前图像中提取的特征点与参考图像中的特征点进行匹配,从而确定当前图像在参考图像中的位置。

常用的特征匹配算法有FLANN、RANSAC等。

这些算法可以通过计算特征点之间的距离和相似度,找到最佳的匹配点,并通过随机采样一致性算法来排除错误匹配。

三、相机内外参数校准相机内外参数校准是视觉定位的第三个关键参数。

相机内参数是指相机自身的参数,例如焦距、畸变系数等;相机外参数是指相机在世界坐标系中的位置和朝向。

在视觉定位中,需要对相机的内外参数进行准确的校准,以保证定位的精确性。

常用的相机校准算法有张正友标定法和Tsai标定法等。

四、地图构建与更新地图构建与更新是视觉定位的第四个关键参数。

在视觉定位中,需要建立一个参考地图,用于对当前图像进行位置估计。

地图可以通过激光雷达、摄像头和惯性导航等多种传感器进行构建。

同时,随着环境的变化,地图也需要进行更新,以适应位置变化和新的特征点。

五、定位算法与优化定位算法与优化是视觉定位的第五个关键参数。

在视觉定位中,需要根据特征匹配结果和地图信息,计算当前图像在世界坐标系中的位置和方向。

常用的定位算法有基于特征匹配的PnP算法、基于滤波器的扩展卡尔曼滤波算法等。

同时,为了提高定位的精度和鲁棒性,还可以采用优化算法,例如非线性最小二乘法和粒子滤波器等。

六、实时性与鲁棒性实时性与鲁棒性是视觉定位的最后两个关键参数。

在实际应用中,视觉定位需要具备较高的实时性,即能够在短时间内完成图像处理和定位计算。

同时,视觉定位还需要具备较好的鲁棒性,即能够在复杂环境中稳定地进行定位。

slam重定位方法

slam重定位方法

slam重定位方法Slam重定位方法1. 简介随着自主导航机器人和增强现实技术的发展,SLAM (Simultaneous Localization and Mapping)重定位方法变得越来越重要。

SLAM重定位旨在通过机器视觉和激光扫描等传感器数据,实现机器人在未知环境中的定位和地图构建。

2. SLAM重定位方法的分类类别一:基于特征点的方法基于特征点的SLAM重定位方法主要通过提取场景中的关键特征点,并与先前记录的地图进行匹配。

以下是几种常见的方法:•传统关键点匹配方法:根据特征描述子的相似度进行匹配,常用的算法包括SIFT、SURF和ORB等。

•基于BoW(Bag of Words)的方法:将特征描述子表示为词包,通过匹配词包的相似性来确定位姿。

•基于直方图的方法:以特征点的分布直方图为特征,通过直方图相似性度量进行匹配。

类别二:基于深度学习的方法近年来,深度学习技术的兴起为SLAM重定位带来了新的方法。

以下是几种基于深度学习的SLAM重定位方法:•基于深度神经网络的方法:利用卷积神经网络(CNN)或循环神经网络(RNN)等深度学习模型,直接从图像中学习定位和地图结构。

•基于生成对抗网络(GAN)的方法:通过对抗训练,生成逼真的场景图像,并与实际场景进行匹配。

•基于自编码器的方法:通过自编码器学习图像特征表示,实现定位匹配。

类别三:基于图优化的方法基于图优化的SLAM重定位方法将传感器数据抽象为图的节点和边,通过最小化误差函数,优化机器人位姿和地图模型。

以下是几种常见的方法:•基于最小二乘法的方法:利用最小二乘法建立误差模型,通过迭代优化参数,实现精确的位姿估计和地图构建。

•基于因子图的方法:将SLAM问题建模为因子图,在因子图上进行消息传递和推理,优化机器人位姿和地图拓扑结构。

•基于非线性优化的方法:利用非线性优化算法,如高斯牛顿法或Levenberg-Marquardt算法,解决SLAM重定位问题。

医学影像处理中的图像配准算法实现技巧

医学影像处理中的图像配准算法实现技巧

医学影像处理中的图像配准算法实现技巧医学影像处理在现代医学诊断中起着至关重要的作用。

而图像配准作为其中重要的一环,是将不同影像之间进行准确的位置、尺度和方向的对齐,以实现医学影像的比较、融合和分析。

本文将介绍医学影像处理中的图像配准算法实现技巧。

一、图像配准概述图像配准是指将一组图像中的目标物体进行精确定位和对齐。

医学影像处理中的图像配准旨在准确地比较不同时间点或不同影像模态的医学图像,以便更好地追踪疾病的进展和评估治疗效果。

二、图像配准的算法医学影像图像配准的算法可以分为以下几类:1. 特征点匹配算法特征点匹配算法是一种常用的图像配准方法。

该方法通过检测图像中的特征点,并找到这些特征点之间的对应关系,从而实现图像的对齐。

常用的特征点匹配算法包括SIFT、SURF和ORB等。

首先,算法会在图像中提取特征点,并计算每个特征点的描述子。

然后,通过计算特征点描述子之间的相似度,找到最佳匹配。

最后,通过对特征点的位置进行配准,实现图像的对齐。

2. 基于互信息的配准算法互信息是一种常用的图像配准衡量指标,用于评估两幅图像的相似性。

基于互信息的配准算法主要包括归一化互信息(NMI)和互信息标准差(MIS)等。

该方法通过计算图像中的灰度直方图,并结合互信息来衡量两幅图像的相似度。

然后,通过优化配准变换参数,使得互信息最大化,实现图像的配准。

3. 基于变形场的配准算法基于变形场的配准算法利用变形场来描述图像的形变情况,并通过优化变形场来实现图像的对齐。

典型的基于变形场的配准算法有Thin-Plate Spline(TPS)和B-spline等。

该方法首先计算图像的像素点之间的位移,然后通过插值方法生成变形场。

最后,通过优化变形场的参数,实现图像的对齐。

三、图像配准的应用图像配准在医学影像处理中广泛应用于以下领域:1. 临床诊断医学影像图像配准可以提供医生在不同时间点或不同影像模态下进行疾病比较和评估的依据。

例如,在肿瘤的持续监测中,医学影像配准可以实现不同时间点下肿瘤的精确测量和比较。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
收稿日期 : 2010- 11- 22
[5] 配定位过程主要包括四个步骤 : a. 提
作者简介 : 甄巍松 ( 1980- ) , 男 , 河南洛阳人 , 工程师 . 研究方向 : 嵌入系统设计、 机器视觉 .
86
武汉工程大学学 报
第 33 卷
取特征点 ; b. 寻找初始匹 配点; c. 去除错误匹配 点; d. 目标定位. 2. 1 提取特征点 由于距离不同, 导致同样的特征点 在模板图
像在场 景中的位 置. 如 果目标的 变化, 仅仅是 旋 转 , 平移和缩放, 那么仅仅需要 2 对匹配点就能求 出目标在场景中的位置和旋转角度和缩放 比例. 但是由于并不能保证所有的匹配点都是正 确的, 可能会有部 分匹配点错误, 或者特 征点本身提取 的精度不够 高, 所以需要采取拟和 的方法计算变 换参数 . 采用 类 似 RANSAC 方 法 来 求 变 换 参 数. RANSAC 方法是一个在允许有许多野点 ( out lier) 的数据集里 寻找模型的方法. 采取 以下方法来估 计变换参数 : a. 把匹配对 按照特 征点描述 子之间距 离排 序 , 选择 M 个距离最小的匹配对; b. 应用 RANSAC 方法寻找 T 个正确的匹配 对; c. 根据 T 个匹配对, 重新计算变换参数 X ; d. 对所有的匹配对 m 中满足变换参数 X 的 加入到 T 中, 重新计算变换参数 X ; 在本文中, 考虑到场景 图像的变化不 仅仅是 仿射变化, 而是复杂的透视变换, 所以变换参数采 取 2 次多项式的形式 : u = ( x 2 y 2 x y x y 1) ( a20 a02 a11 a 10 a01 a00 ) T
0
引 言
对于实际有意义的前视定位系统
[ 1]
点应该在两个图像相同的位置附近. Schmid 证明 H arris 角点检测具有良好的可重复性, 但在尺度变 而言, 惯导 化范围大于 2 的情况下其性能很差. Matas 提出了 显著区域 ( distinguished regions) 算法, 它能随图像 的变化而保证稳定性和不变性. 它与角点检测不同, 角点检测关注的是两个方向上的灰度变化或梯度变 化 , 而它利用连通区域的特性, 能够做到视点不变 性 . Tuyt elaars [ 9] 提出了两种区域检测算法: 平行四 边形和椭圆. 该两种方法都是基于固定点的提取算 法 , 但是对尺度变化比较敏感. Baumberg [ 10] 也提出 了一个类似的算法, 它先用多尺度的 H arris 算法检 测尺度空间上的点, 然后利用二阶矩自适应地去除 切变和拉伸带来的影响. L ow e[ 11] 指出上述方法是以 非仿射不变的形式选择位置和尺度, 所以上述方法 并不是完全仿射不变的方法, 同时也提出了尺度不 变 特 征 变 换 方 法 ( Scale Invariant Feature Transformation , SIFT ) . Yanke 等 人 提 出了 PCA SIFT 算法, 主要是将 SIFT 中 128 维的描述子降维, 以加快运算速度. Mikolajczyk
2. 3
去除错误匹配点 经过最近邻与次最近邻之比 匹配后, 仍会有
[ 13]
一些匹配错误的点. 可以利用 F 矩阵 来修正 . 根 据视觉成像原理 , F 矩阵为 3 3 矩阵 , 且它的秩为 2 , 共有 7 个 自由度. 对于同一物体 在不同的视角 下成像 , 可以知道图像中的一点 x 在另外一幅图 中的一条直线 l 上. 在利用 F 矩阵去除错误的匹配对过程中 , 由 于可能有比较多的错误的匹配对 , 所以求到的 F 矩阵可能不 够准确, 从而导致特征 点对应的极线 不够准确. 本文采取迭代方式 , 设置一个变量 与 特征点到极线的距离进行比较. 首先将 设为图 像宽度和图 像高度中最大值的一半 , 如果对应点 到极线的距 离小于它, 则认为是可 能正确的匹配 对 . 然后根据这些匹配对重新计算 F 矩阵 , 将 减 小到原来的 一半, 如果对应点到极 线的距离小于 , 则认为是可能正确的匹配对 . 如此反复, 直到 小于一定的门限为止. 本文中设定 的最小值为 2 , 即对应的特征点到对应极线的距离应该小于 2 个像素 . 2. 4 目标定位 根据得到的对应匹配点 , 可以计算出 模板图
图1 F ig . 1
极线约束
v = ( x y x y x y 1) ( b 20 b02 b 11 b01 b 00 )
2
2
T
T he epipolar co nstr aint
( 1)
第4期
甄巍松 , 等 : 基于特征点相似度的匹配定 位算法
87
公式 ( 1) 中 , ( x , y ) 表示模板中特征点的位置, ( u, v) 是场景图中的特征点, 该表达式表示模板图 中特征点的位置到场景图中特征 点位置的变换, 其参数用 ( a20 a 02 a11 a 10 a01 a 00 ) T 和 ( b 20 b 02 b11 b01 b00 ) T 表示. 从公式( 1) 中可以看出, 需要计算的变换参数 共包含 12 个, 一个匹配对就有 2 个等式 , 那么求 出该组参数至少需要 6 个匹配对. 根据求得的变换参数 , 可以利用一 个线段来 计算出模板图像在场景中的位置、 旋转角度和尺 度变化. 将模板图像中心作为线段的起点 T 1 ( x 1 , y 1 ) , 其水平方向作为模板图像的初始方向 , 沿该 方向经过一定的距离 T , 选择该点作为线段的终 点 T 2 ( x 2 , y 2 ) . 那么 , 根据变换参数, 求出该线段的 起点 和 终 点 在 场 景 图 中 的 坐 标 S 1 ( u1 , v 1 ) 和 S 2 ( u2 , v 2 ) , 点 S 1 ( u1 , v 1 ) 即为模板图 像中心在场 景图中的位置. 场景图像 相对模板图像的旋转方 向为点 S 1 ( u1 , v 1 ) 指向 S 2 ( u2 , v 2 ) 的朝向 . 点 S 1 ( u1 , v 1 ) 和 S 2 ( u2 , v 2 ) 之间的距离与点 T 1 ( x 1 , y 1 ) 和 T 2 ( x 2 , y 2 ) 之间的距离之比即为场景图像相对 模板图像的尺度变化 .
像 ; 缩放图像有 6 个场景, 87 幅图像. 对该数据库 中所有的图像进行实验 , 假设一个场景有 n 幅图 像 , 任意选取其中的一幅作为模板, 其它的图像作 为待匹配定位图像 , 则有 n* ( n - 1 ) 次匹配实验. 对同一个场景, 人工选取特征点进行匹配 , 将得到 的定位结果 作为正确的定位结果, 其中包括位置 x、 位置 y 、 尺度因子 s 、 旋转角度 . 然后将计算结 果与真实结果进行对比 , 得到位置、 尺度因子和旋 转角度的误差的均值和标准差. 对这 19 个场景进 行实验 , 其统计结果如表 1 所示 .
和场景图上表现出尺度上的差异 , 因此特征点提 取技术必 须 具有 一 定的 尺 度不 变 性. 这 里选 择 SIF T 特征点进行匹配 , 由于 SIF T 使用具有尺度 选择性的高斯 差分 ( Dif ference of gaussian, Dog ) 滤波器 , 当特征点的尺度与某 Do g 算子的尺度相 同时 , 该 Do g 算子的滤波输出响应将达到极大或 极小 ( 依赖于特征点的极 性) , 这里极大或极小是 相对于相邻空间位置及尺度而言的. 因此 , 通过检 测 Dog 滤波器 组输出 空间位置 和尺度空 间的极 值, 就可得到相应的特征点位置及其尺度信息. 进 一步地, 可以在所检测出 的特征点处计算梯度强 度和方向 , 从而得到关于该特征点的更多信息. 同 时由于 Dog 算子是各向同性的, 因此用于提取特 征点时具有旋转不变性. 2. 2 寻找初始匹配点 特征点相似度测量的最简单方式就是最近邻 方法 . 最近邻方法定义为 描述子之间的最小欧氏 距离 . 由于场景图像的背景不同或亮度变化 , 图像 的特征点不容易完全匹配 , 所以匹配特征点的描 述子区别可能很大, 如果 用一个全局的门限来约 束, 效果不会很好. 另外一个有效的方法就是比较 最近邻和次最近邻的距离之比 , 如果最近邻的距 离与次最近邻的距离的比值小于一定门限则认为 是匹配点 . 对于错误的匹配点来说, 最近邻和次最 近邻一般很相似 , 所以很容易去除, 但也会去除掉 一些匹配正确的点, 如果 能牺牲一些正确的匹配 而去除大部分的错误点也是值得的 . 因此制定特征点相似度 匹配的准则 , 采取以 下方法来确定初始匹配对 : a. 用最近邻方法寻找 初始匹配点, 将小于一定 门限的匹配对作为可能 的匹配对; b. 用最近邻和次最近邻之比方法再次 寻找匹配点, 将比值小于 一定门限的匹配对也作 为可能的匹配对 .
[ 12] [ 8]
[ 7]
系统总是存在一定的误差的, 导致在匹配定位时刻 获取的实时目标场景相对于参考目标场景, 存在视 点、 方位和距离的不同. 但是, 进一步考虑到惯导误 差不可能是任意大的 , 因此在匹配定位时刻获取的 实时目标场景相对于参考目标场景的视点、 方位和 距离差异不会任意大 . 这意味着只需要考虑一定范 围内的视点、 方位和距离变化. 当获取目标的三维信 息比较困难, 或者不能获取目标的三维信息时, 可以 将目标及其周围的图像作为模板 , 将实时图作为场 景. 采用基于特征的匹配算法, 则匹配运算量仅与特 征的个数有关 , 从而可以大大提高匹配速度; 同时在 基于特征的匹配算法中还易于引入估计匹配图像对 之间几何失真的机制 , 从而使得算法具有抗图像几 何失真的能力, 所以利用特征进行景像匹配定位是 一种有效且实用的技术.
1
相关工作
许多研究者利用我种信息进行图像的匹配定
也提出了梯度位置
朝 向 直 方 图 ( Gradient Locat ion Orientat ion H istograms, GLOH ) 算法, 采用了圆形的模板, 共 3 个径向和 8 个纬向线条 , 分成了 17 个格子 , 每个格 子用 16 个朝向表示, 则其描述子共有 272 维, 再利 用 PCA 降维, 产生 128 维的向量.
相关文档
最新文档