基于深度滤波器优化的SLAM单目稠密重建
基于全景视觉的单目SLAM系统的开题报告

基于全景视觉的单目SLAM系统的开题报告1. 题目背景随着移动机器人技术的快速发展,SLAM技术已经逐渐成为机器人导航、自主探索、环境构建等重要的基础技术。
在SLAM技术中,单目SLAM是最具有前景的一个分支,因为它不需要复杂的硬件配置,只需要一台传统的单目相机即可实现立体视觉的效果。
然而,由于单目相机的深度感知信息少,难以确定摄像机在三维空间的位置和姿态,单目SLAM 产生的误差较大。
全景相机具有对周围环境进行全方位感知的能力,能够提供更多的景深信息,有效改善单目SLAM的精度。
目前已有一些研究者尝试基于全景相机实现SLAM技术,但是这些方法多数是基于扫描式全景相机,因此存在拍摄速度慢、耗费时间长、缺乏精度等问题。
因此,基于全景视觉的单目SLAM系统仍然需要深入研究。
2. 研究目的本文旨在基于全景视觉构建单目SLAM系统,提高相机测量精度和稳定性,为实现高精度的移动机器人导航和环境构建提供新的技术途径。
3. 研究内容(1) 文献综述综述国内外相关研究现状,包括全景相机、单目SLAM等技术的发展和应用。
分析目前存在的问题以及未来的发展方向和趋势。
(2) 全景相机建模和标定建立全景相机的数学模型,进行相机内外参数标定,获取完整的相机几何信息。
(3) 全景图像拼接及特征提取对全景图像进行有效的拼接,提取关键点、特征点等图像特征,应用视觉SLAM算法,计算相机的位姿。
(4) SLAM后端优化根据前端提取的特征点,计算相机位姿,在此基础上进行后端优化,消除误差和提高稳定性。
(5) 实验验证与分析通过实际测试,验证系统的精度和稳定性,分析系统的性能和局限,并提出改进方案。
4. 研究意义和预期结果本文旨在提出一种基于全景视觉的单目SLAM系统,以解决传统单目SLAM相机深度感知不足的问题,提高相机的定位精度和稳定性,为移动机器人导航和环境构建提供更好的基础技术支持。
预期结果是:(1) 建立全景相机的数学模型,对其进行有效的标定,获取完整的相机几何信息;(2) 提出一种针对全景图像的SLAM算法,有效识别图像中的特征点,计算相机的位姿;(3) 通过实际测试,验证系统的精度和稳定性,并提出改进方案。
基于深度相机的SLAM算法评测

基于深度相机的SLAM算法评测满春涛;曹淼;李巍【摘要】针对3种典型的基于深度相机的同步定位与地图构建(SLAM)算法,包括RGB-D SLAM V2,RTAB-Map和DVO SLAM,介绍这3种SLAM算法的理论特点.采用两个公开的SLAM数据集,包括TUM数据集和ICL-NUIM数据集,进行SLAM 算法的评测,评测指标包括SLAM算法的精确度、运行性能以及鲁棒性.评测的实验结果表明,在选择基于深度相机的SLAM算法时:如果考虑精确度和鲁棒性优先于运行性能,则选择RGB-D SLAM V2;如果考虑运行性能和鲁棒性优先于精确度,则选择DVO SLAM;如果考虑精确度和运行性能优先于鲁棒性,则选择RTAB-Map.%Three typical depth camera based simultaneous localization and mapping( SLAM) algorithms, including RGB-D SLAM V2,RTAB-Map and DVO SLAM,whose theories and features were introduced . By using two open-source SLAM datasets ,including TUM dataset and ICL-NUIM dataset , the above three SLAM algorithms were evaluated , and the index included the accuracy ,performance and robustness of the SLAM algorithms .The results of the experiments demonstrate that RGB-D SLAM V2 is chosen when accu-racy and robustness are prior to speed;DVO SLAM is chosen when speed and robustness are prior to ac-curacy;RTAB-Map is chosen when speed and accuracy are prior to robustness .【期刊名称】《电机与控制学报》【年(卷),期】2017(021)012【总页数】6页(P60-65)【关键词】同步定位与地图构建算法;算法评测;视觉里程计;地图构建;深度相机【作者】满春涛;曹淼;李巍【作者单位】哈尔滨理工大学自动化学院,黑龙江哈尔滨150080;哈尔滨理工大学自动化学院,黑龙江哈尔滨150080;中国科学院自动化研究所复杂系统管理与控制国家重点实验室,北京100190;哈尔滨理工大学自动化学院,黑龙江哈尔滨150080【正文语种】中文【中图分类】TP13在机器人学和计算机视觉的诸多研究中,希望能够快速地获取外界环境的三维模型并且能够根据相应的三维模型估算出传感器(比如相机、激光雷达等)所处的位姿。
无人机导航中的SLAM算法优化研究

无人机导航中的SLAM算法优化研究无人机(Unmanned Aerial Vehicle, UAV)作为一种无人驾驶的飞行器,广泛应用于航拍、地形测量、搜救等领域。
然而,无人机在执行任务过程中需要实时感知、建立环境地图和定位自身位置等功能,这就需要使用到同时定位与地图构建(Simultaneous Localization and Mapping, SLAM)算法。
SLAM算法是指在未知环境中,通过机器人的运动和传感器观测数据,同时完成环境地图的构建以及机器人自身的定位。
在无人机导航中,SLAM算法对于实现精准的定位和地图构建至关重要。
然而,由于无人机导航的实时性和复杂性,SLAM算法在无人机应用中面临着一些挑战,如计算复杂度高、误差累积、数据关联等问题。
因此,对SLAM算法进行优化研究是提高无人机导航性能的关键。
一种常用的SLAM算法是基于视觉的SLAM算法,即利用无人机搭载的相机获取环境信息,并通过计算机视觉算法进行图像处理和特征提取,从而实现地图构建和定位。
为了提高基于视觉的SLAM算法效果,可以从以下几个方面进行优化。
首先,算法参数的选择对于SLAM算法的性能至关重要。
选择合适的参数可以平衡计算复杂度和精度。
例如,对于特征提取算法中的特征点选择阈值,过高的阈值会导致特征点过少,难以实现稳定的定位;而过低的阈值则会导致特征点过多,增加计算复杂度。
因此,根据实际应用场景和计算资源的情况,合理选择相关算法的参数值是优化SLAM算法的一个重要步骤。
其次,数据关联是影响SLAM算法精度的重要因素。
在无人机导航中,由于环境的动态性和无人机的快速移动性,可能会存在部分图像帧无法正确匹配的情况。
因此,需要采用一些鲁棒的数据关联方法,使算法能够更好地处理数据关联问题。
比如,采用滤波器、神经网络等方法来解决数据关联问题,进一步提高SLAM算法的精度和稳定性。
此外,为了增强SLAM算法的实时性,可以采用计算加速的方法。
SLAM算法

SLAM算法引言。
SLAM(Simultaneous Localization and Mapping)算法是一种用于同时定位和建图的技术,它在无人驾驶、机器人导航和增强现实等领域有着广泛的应用。
随着计算机视觉和机器学习技术的不断发展,SLAM算法也在不断演进和改进。
本文将从传统的SLAM算法出发,介绍其基本原理和发展历程,然后探讨现代SLAM算法的发展趋势和应用前景。
传统SLAM算法。
传统的SLAM算法主要基于激光雷达、摄像头和惯性测量单元等传感器数据,通过特征点提取、匹配和优化等步骤来实现地图构建和定位。
其中,基于激光雷达的SLAM算法通常采用粒子滤波、扩展卡尔曼滤波或图优化等方法来实现定位和建图,而基于视觉的SLAM算法则主要依赖于特征点的跟踪和三维重建来实现定位和建图。
传统SLAM算法在实际应用中取得了一定的成果,但也存在着数据处理复杂、实时性差和鲁棒性不足等问题。
现代SLAM算法。
随着深度学习和神经网络技术的兴起,现代SLAM算法开始引入深度学习模型来提高地图构建和定位的精度和鲁棒性。
例如,基于深度学习的SLAM算法可以利用卷积神经网络来提取特征点和描述子,使用循环神经网络来实现时序信息的建模,或者通过生成对抗网络来实现地图的增量更新和修正。
这些技术的引入使得SLAM算法在复杂环境下的定位和建图能力得到了显著提升,同时也为SLAM算法的实时性和鲁棒性带来了新的可能性。
SLAM算法的发展趋势。
未来,随着传感器技术的不断进步和计算能力的提升,SLAM算法将迎来更加广阔的发展空间。
一方面,基于多传感器融合的SLAM算法将成为发展的重点,不仅可以利用激光雷达、摄像头和惯性测量单元等传感器数据,还可以引入声纳、毫米波雷达和超宽带等传感器数据,从而实现对复杂环境的更加准确的定位和建图。
另一方面,基于深度学习和神经网络的SLAM算法将继续发展,不仅可以利用现有的深度学习模型来提高定位和建图的精度和鲁棒性,还可以进一步探索新的深度学习模型和算法,以应对更加复杂和动态的环境。
slam算法原理

slam算法原理SLAM(Simultaneous Localization and Mapping)算法是一种在未知环境中通过传感器获取数据进行自主定位和建图的技术。
该算法通常用于机器人导航和无人车等自主移动设备中,它能够实现实时定位设备自身的位置并同时生成准确的地图。
SLAM算法的基本原理是通过感知传感器(如相机、激光雷达等)获取环境的感知信息,并将这些信息与设备自身位置估计进行配准,实现同时定位和建图。
其实现的核心问题是解决机器人或无人车在运动过程中的自身位置估计以及环境地图的构建,并将定位和地图更新过程进行融合。
SLAM算法可以分为基于滤波和基于优化的方法。
基于滤波的方法(如扩展卡尔曼滤波器)适用于线性系统,但在非线性系统中效果不佳。
因此,基于优化的方法(如非线性最小二乘优化)在非线性问题上更为通用。
SLAM算法通常分为前端和后端两个部分。
前端主要负责感知传感器数据的处理和特征提取,确定机器人或无人车的运动路径和环境中的特征点。
后端则负责估计设备的位置和地图的构建,并对前端提取的特征进行优化。
在SLAM算法中,常用的地图表示方法包括栅格地图、拓扑地图和语义地图等。
栅格地图将环境划分为一个个栅格单元,用二维数组存储,表示地图中的障碍物和空闲空间。
拓扑地图则通过节点和边的连接关系来表示环境的拓扑结构,适用于大规模环境。
语义地图则将环境中的特征点拆分为不同的语义类别,例如墙、门、家具等。
SLAM算法的具体步骤如下:1.数据采集:通过传感器获取环境的感知信息,如激光雷达扫描数据、相机图像等。
2.前端特征提取:对采集的数据进行特征提取,如提取相机图像中的角点或激光雷达扫描数据中的线特征。
3.运动估计:通过比较连续帧间的特征点,利用算法(如光流法)来估计设备的运动,即相机或激光雷达的位姿变化。
4.数据关联:通过特征点的匹配,将当前帧与之前的地图进行关联,找到当前帧中与地图中对应的特征点,这一步也叫做约束建立。
slam建图学习计划

slam建图学习计划1. 学习目标我们的学习目标是建立对Slam建图技术的深入理解,包括算法原理、数学基础和实际应用。
具体包括以下几个方面:(1)了解Slam的基本原理和分类,包括基于滤波、基于图优化和基于深度学习的方法。
(2)掌握Slam建图中常用的算法,包括扩展卡尔曼滤波(EKF)、粒子滤波、图优化和深度学习等。
(3)熟悉Slam建图的数学基础,包括线性代数、概率论和最优化方法。
(4)了解Slam在实际应用中的挑战和解决方案,包括传感器选择、环境建模和实时性能等。
2. 学习内容为了达成以上学习目标,我们可以按照以下内容进行学习:(1)Slam基础知识学习Slam的基本原理和分类,包括基于特征、基于直接法和基于深度学习的方法。
可以阅读相关的论文和教材,例如《Probabilistic Robotics》、《SLAM for Dummies》,并参与Slam建图相关的在线课程和讨论。
(2)Slam算法学习Slam建图中的常用算法,包括EKF、粒子滤波、图优化和深度学习等。
可以使用开源Slam库,例如Gmapping、Cartographer和LSD-slam,进行实际的算法实现和调试。
(3)数学基础巩固线性代数、概率论和最优化方法的数学基础,这些知识在Slam建图中非常重要。
可以参考相关的教材和课程,例如《线性代数应用》、《概率图模型》和《最优化方法》,并进行相关的习题练习。
(4)实际应用了解Slam在自动驾驶、无人机、虚拟现实和室内导航等领域的实际应用。
可以阅读相关的研究论文和技术博客,了解不同领域的Slam建图技术和挑战。
3. 实践项目为了加强对Slam建图技术的理解和应用,我们可以选择一个实际的项目来进行实践。
例如使用激光雷达和相机数据,实现一个室内建图和导航系统。
可以使用开源的Slam库和传感器套件,例如ROS、Hector Slam和ZED相机,实现一个完整的Slam建图系统。
4. 教学反馈在学习过程中,我们建议定期进行教学反馈,包括参加线下或线上的Slam建图研讨会、参与Slam建图竞赛和分享自己的项目经验。
基于YOLO的复杂环境视觉SLAM优化方法

Journal of Computer Applications ISSN 1001-9081 2021-12-31
计算机应用,2021,41 (S2): 208 - 213 CODEN JYIIDU http://www.joca.cn
文章编号:1001-9081(2021)S2-0208-06 DOI: 10. 11772/j. issn. 1001-9081. 2021010201基于YOLO的复杂环境视觉SLAM优化方法
吴丽凡'魏东岩2•,袁洪2(1.中国科学院大学,北京100049; 2.中国科学院空天信息创新研究院,北京100094)(*通信作者电子邮箱weidy@aircas. ac. cn)
摘要:针对视觉SLAM的前端视觉里程计在实际路面应用中易受移动车辆、行人等动态目标影响而导致的错误
对极约束问题,基于Y0L0提出了 一种去除动态特征点的方法,通过对路面动态目标进行识别,并对提取到的不稳定 特征点进行剔除,实现对视觉SLAM定位性能的优化。利用公开的带参考基准数据的11组KITTI数据集进行了测试, 测试结果表明,提出的优化方法在常见路面场景中的定位结果有相应的优化,可以使原0RB-SLAM2方法双目模式下 的相对姿态误差(RPE)的中值由4. 24%降低至3. 99%;在算法时间方面,同样在双目模式下,与使用Mask R-CNN的 DynaSLAM在原0RB-SLAM2时间消耗基础上增加121%相比,使用Y0L0时间消耗增加仅为36%,能更有效率地提高
定位精度。关键词:视觉SLAM; 0RB-SLAM2方法;神经网络;Y0L0;复杂动态环境;特征点剔除
中图分类号:TP249 文献标志码:A
YOLO-based SLAM optimization method for complex environment vision
WU Lifan1,2, WEI Dongyan2*, YUAN Hong2(1. University of Chinese Academy of Sciences, Beijing 100049, China;2. Aerospace Information Research Institute, Chinese Academy of Sciences, Beijing 100094, China)
基于单目视觉的移动机器人SLAM问题的研究共3篇

基于单目视觉的移动机器人SLAM问题的研究共3篇基于单目视觉的移动机器人SLAM问题的研究1近年来,随着移动机器人的普及和应用范围的拓展,SLAM问题逐渐成为智能机器人领域研究的热点之一。
其中,基于单目视觉的移动机器人SLAM问题在实际应用中具有广泛的应用价值和发展前景。
基于单目视觉的移动机器人SLAM问题是指通过移动机器人的单目摄像头获取场景信息,并将其转化为机器人自身的位姿和场景信息,以实现对未知环境的建图和定位。
相比于传统的激光、视觉双目或多目视觉SLAM方法,单目视觉具有成本低、易于集成、信息获取范围广等优势。
因此,其研究具有极为重要的意义。
在基于单目视觉的移动机器人SLAM问题的研究中,主要包括以下几个方面的内容。
一、摄像头标定在基于单目视觉的移动机器人SLAM问题中,摄像头标定是必不可少的步骤。
通过对摄像头的本质矩阵、畸变系数等参数进行标定,可以精确地计算出摄像头的真实参数,以保证后续场景信息提取和位姿计算的准确性。
二、特征提取与匹配在单目视觉SLAM中,为了准确提取场景信息,需要对场景中的特征点进行提取。
目前常用的特征点提取方法包括SIFT、SURF、ORB等。
提取到的特征点可用于匹配图像、计算位姿等,从而实现多帧图像之间的场景恢复。
三、位姿计算位姿计算是基于单目视觉的移动机器人SLAM问题中的核心环节。
在该过程中,需要结合相邻帧之间的位置信息,使用迭代最近点(ICP)算法等进行位姿计算,并将计算结果传递给后续流程。
四、地图构建在基于单目视觉的移动机器人SLAM问题中,地图构建是将抽象的位姿、特征点等信息融合到一个实际的环境中的过程。
在此过程中,需要根据机器人经过的路径和位姿计算结果,以及提取出的场景特征点,构建出一个实际的地图,并将其传递到下一步操作中。
基于单目视觉的移动机器人SLAM问题的研究现状不断发展,已经形成了比较完善的技术体系。
其中,基于深度学习的方法已经成为研究的热点之一。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
2019年第38卷第9期传感器与微系统(Transducer and Microsystem Technologies)DOI:10.13873/J.1000—9787(2019)09—0019—05基于深度滤波器优化的SLAM单目稠密重建*杨海清,曾俊飞(浙江工业大学信息工程学院,浙江杭州310000)摘要:稠密重建问题是视觉同时定位与地图构建(SLAM)的重要环节,每一个像素点深度距离的准确测量对稠密重建都起到重要作用。
在工业应用中,往往使用RGB-D相机进行稠密重建,但是RGB-D相机有一些量程、应用范围和光照的限制。
因此,采用滤波器方式深度估计的单目相机,不仅可以保证SLAM实时性要求,同时还适用于室外、大场景等场合。
针对高斯滤波算法存在稠密重建准确率不高的问题,提出了一种基于簇的均匀—高斯深度滤波算法,采用改进的滤波算法处理错误匹配的像素点,在正确处理外点数据的基础上,解决深度值错误估计、相邻像素深度值相差过大的问题。
实验结果表明:改进型深度估计算法重建的稠密地图更加细致,且重建准确率提高了约30%。
关键词:稠密重建;视觉同时定位与地图构建(SLAM);单目相机;深度估计;高斯分布中图分类号:TP391文献标识码:A文章编号:1000—9787(2019)09—0019—05SLAM monocular dense reconstruction based on depthfilter optimization*YANG Haiqing,ZENG Junfei(College of Information Engineering,Zhejiang University of Technology,Hangzhou310000,China)Abstract:Dense reconstruction is a significant component of visual simultaneous localization and mapping(SLAM).Accurate measurement of depth distance of each pixel point plays a crucial role in dense reconstruction.In industrial applications,the RGB-D camera is generally utilized for dense reconstruction;however,the RGB-Dcamera still remain certain unavoidable shortcomings,i.e.,small measuring range,narrow application scope,andhigh sensitivity to illumination.Hence,the depth estimation of the monocular camera with filter mode not onlyguarantees the real-time requirement of SLAM,but also be suitable for outdoor and large scenarios.A cluster-baseduniform Gauss distributed depth filtering algorithm is used to overcome the difficulty that the dense reconstructionof the deep filtering under the Gauss distribution hypothesis with an unsatisfactory accuracy.The improvedalgorithm is adopted to deal with the mismatched pixels point,and also significantly robust against outliers.Inaddition,on the basis of correctly processing the outliers data,the problem of depth value estimation error and bigdifference of adjacent pixel depth value is solved.The experimental results show that the improved depth estimationalgorithm is more delicate in reconstruction of dense maps,and the reconstruction accuracy is improved by about30%.Keywords:dense reconstruction;visual SLAM;monocular camera;depth estimation;Gauss distribution0引言同时定位与地图构建(simultaneous localization and mapping,SLAM)指搭载特定传感器的主体,在没有先验环境信息条件下,通过自身运动的过程来建立所处环境的空间模型,同时估计自身的运动轨迹。
当传感器为相机时,称之为“视觉SLAM”。
根据使用视觉传感器的数量和类型的不同,视觉SLAM系统主要可分为3类:单目视觉SLAM、多目视觉SLAM和RGB-D SLAM[1]。
重建稠密地图是视觉SLAM的两大目标之一,使用RGB-D相机进行地图重建是目前的主流方法[2],但是RGB-D相机存在测量范围窄、噪声大、视野小、易受日光干扰等诸多问题,主要适用于室内环境。
而双目相机的配置与标定较为复杂,其深度量程和精度受双目相机的基线与分辨率所限。
对此,本研究选用单目相机传感器,其结构简单,成本较低,环境适应性较强,且抗干扰能力显著。
当单目相机移动时图像会形成视差,利用视差可获取像素的深收稿日期:2018—09—10*基金项目:浙江省自然科学基金资助项目(LY13F010008);浙江省科技计划资助项目(2015F50009)91传感器与微系统第38卷度信息[3]。
因此,SLAM 系统使用了一种既节省计算量还可使估计的地图点更为准确的方法———深度滤波,通过深度滤波可计算出真实地图点最有可能存在的坐标位置[4]。
无论哪种工业机器人,想要完成准确跟踪定位、精确导航、实时避障和完美还原三维场景的任务,都需有高精度的稠密地图[5]。
但是,由于单目相机图像像素可能出现误匹配,且传感器噪声和环境噪声时刻存在,总是会形成一些误差极大甚至假的地图点,导致稠密地图重建准确率不高。
因此,为提高单目相机恢复原始场景的能力,本文提出了一种基于深度滤波器优化的稠密重建算法,旨在获取重建准确率更高、表面更加细腻的三维稠密地图。
1地图重建系统的总体框架系统的框架主要由三大部分组成,包括:关键帧选取与匹配像素点对、深度滤波技术和稠密建图。
具体模块如图1所示。
滤波器技术深度值优化建图三角测量法像素搜索与匹配关键帧数据图1地图重建系统总体框架首先,系统对关键帧数据进行极线搜索,采用像素块匹配策略来提高匹配准确率;其次,利用三角化测量获取像素的深度数据,使用滤波器技术对深度数据进行跟踪并融合,实现高效的场景重建;最后,本文综合考虑因光照、遮挡、运动模糊等原因引起的深度值错误估计,显式处理外点,采用优化后的算法对每一像素点的深度估计值进行监控,及时剔除异常深度值,对深度图中相邻像素深度变化过大的情况进一步判断与处理,保证稠密地图的重建准确性。
2基于深度滤波技术的稠密重建2.1稠密地图前端预处理重建稠密地图,需估计每一个像素点的深度值,如若利用地图中每个像素点的描述子进行匹配,会在前端阶段占用大量的工作时间,这在实时性要求较高的SLAM 系统里是不允许的。
因此,采用极线搜索[6]和块匹配技术[7]来确定第一幅图像中像素在其他关键帧的位置,如图2所示。
极线l 1平移向量td 射线图2极线搜索示意左边相机O 1观测到参考帧I R 存在像素点P R ,假设其深度存在的范围区域是最小值d min 到无穷大,即该像素点到对应空间点的距离为图2中的d 射线。
d 射线的投影在当前帧I C 上形成一条线,为极线l 1,在极线上比较每个像素与P R 的相似程度。
本研究采用比较像素块的方法,以提高像素匹配的区分性。
先在P R 周围选取一个w ˑw 大小矩形窗口W 1,再在极线l 1上取多个同样大小的矩阵块进行比较,把P R 周围的矩形窗口记为W 1∈R w ˑw,极线l 1上的n 个小块记为W i ∈R w ˑw (i =1,2,…,n )。
计算矩形窗口W 1与W i 的相似性,采用去均值的NCC 方法[8],即S (W 1,W i )=∑i ,j(W 1(i ,j )-W 1(i ,j ))(W i (i ,j )-W i (i ,j ))∑i ,j(W 1(i ,j )-W 1(i ,j ))2∑i ,j(W i (i ,j )-W i (i ,j ))2(1)式(1)的结果接近于0时表示两个矩阵块不相似,接近于1则代表相似。
此外,利用仿射矩阵获取到更佳的像素匹配结果[9],并由像素匹配点对估计出当前帧像素深度值,定义为d R P R =d C R P C +t (2)式中R 为旋转矩阵,t 为平移向量。
式(2)两端同时左乘P R 的反对称矩阵M 可求得当前帧像素深度d C 。
2.2基于均匀—高斯滤波的稠密重建算法前端预处理阶段提供深度初值,后端滤波器负责对这些数据进行深度融合。
均匀—高斯滤波算法[10]采用高斯滤波[11]跟均匀滤波相结合的方法,对同一空间点投射在不同关键帧的像素点深度值进行概率统计分析,不断融合更新深度图。
如图3所示。
d k +n +1融合d k +2d k +1d k融合融合融合Z k +nZ k +1Z k Z k -1更新更新图3深度图融合更新过程图3中,Z k -1是k -1时刻状态的深度值,d k 是k 时刻的深度估计值。
以此类推,可以获取k +n 时刻状态的深度值。
均匀—高斯滤波器算法模型如下P (μobs |μest ,p )=pN (μobs |μest ,σ2est )+(1-p )u (μobs |μmin ,μmax )(3)式中μest 和σ2est 分别为上一个状态的深度值和方差,μobs 和σ2obs 分别为新观测到的深度值和方差,μmax 和μmin 为像素点深度的最大值和最小值,p 为正确估计深度值的概率。