基于图像处理的多传感器融合的物体识别方法与相关技术

合集下载

多传感器的融合方法

多传感器的融合方法

多传感器数据融合多传感器数据融合是一个新兴的研究领域,是针对一个系统使用多种传感器这一特定问题而展开的一种关于数据处理的研究。

多传感器数据融合技术是近几年来发展起来的一门实践性较强的应用技术,是多学科交叉的新技术,涉及到信号处理、概率统计、信息论、模式识别、人工智能、模糊数学等理论。

近年来,多传感器数据融合技术无论在军事还是民事领域的应用都极为广泛。

多传感器融合技术已成为军事、工业和高技术开发等多方面关心的问题。

这一技术广泛应用于C3I系统、复杂工业过程控制、机器人、自动目标识别、交通管制、惯性导航、海洋监视和管理、农业、遥感、医疗诊断、图像处理、模式识别等领域。

实践证明:与单传感器系统相比,运用多传感器数据融合技术在解决探测、跟踪和目标识别等问题方面,能够增强系统生存能力,提高整个系统的可靠性和鲁棒性,增强数据的可信度,并提高精度,扩展整个系统的时间、空间覆盖率,增加系统的实时性和信息利用率等。

1 基本概念及融合原理1.1 多传感器数据融合概念数据融合又称作信息融合或多传感器数据融合,对数据融合还很难给出一个统一、全面的定义。

随着数据融合和计算机应用技术的发展,根据国内外研究成果,多传感器数据融合比较确切的定义可概括为:充分利用不同时间与空间的多传感器数据资源,采用计算机技术对按时间序列获得的多传感器观测数据,在一定准则下进行分析、综合、支配和使用,获得对被测对象的一致性解释与描述,进而实现相应的决策和估计,使系统获得比它的各组成部分更充分的信息。

1.2 多传感器数据融合原理多传感器数据融合技术的基本原理就像人脑综合处理信息一样,充分利用多个传感器资源,通过对多传感器及其观测信息的合理支配和使用,把多传感器在空间或时间上冗余或互补信息依据某种准则来进行组合,以获得被测对象的一致性解释或描述。

具体地说,多传感器数据融合原理如下:(1)N个不同类型的传感器(有源或无源的)收集观测目标的数据;(2)对传感器的输出数据(离散的或连续的时间函数数据、输出矢量、成像数据或一个直接的属性说明)进行特征提取的变换,提取代表观测数据的特征矢量Yi;(3)对特征矢量Yi进行模式识别处理(如,聚类算法、自适应神经网络或其他能将特征矢量Yi变换成目标属性判决的统计模式识别法等)完成各传感器关于目标的说明;(4)将各传感器关于目标的说明数据按同一目标进行分组,即关联;(5)利用融合算法将每一目标各传感器数据进行合成,得到该目标的一致性解释与描述。

自动驾驶汽车的传感器与算法工作原理

自动驾驶汽车的传感器与算法工作原理

自动驾驶汽车的传感器与算法工作原理自动驾驶汽车是当今科技领域中的热门话题,其采用了先进的传感器技术和复杂的算法来实现智能化驾驶。

本文将介绍自动驾驶汽车中传感器与算法的工作原理。

一、摄像头传感器自动驾驶汽车通常配备多个摄像头传感器,以检测和识别周围的交通标志、道路标线、行人和其他车辆。

摄像头传感器可以利用图像和视频处理算法来提取关键的视觉特征,例如边缘、颜色和纹理等,从而实现目标检测和识别。

摄像头传感器通常采用广角镜头,以获取更宽广的视野范围。

此外,还可以通过多个摄像头传感器的组合来实现全景视图,提高对周围环境的感知能力。

算法方面,常用的计算机视觉算法包括卷积神经网络(CNN)和支持向量机(SVM)等,用于训练和识别图像中的目标物体。

二、激光雷达传感器激光雷达传感器是自动驾驶汽车中一种常用的远距离感知设备。

它通过发射激光束并测量光束的反射时间来获取周围环境的三维点云数据。

激光雷达传感器可以实时生成高精度的环境地图,包括道路、建筑物和其他障碍物的准确位置和形状信息。

激光雷达传感器的工作原理基于激光测距原理和扫描技术。

通过控制激光束的发射方向和角度,激光雷达可以扫描整个周围环境,并生成详细的点云数据。

算法方面,常用的激光雷达数据处理算法包括聚类、分割和目标跟踪等,用于检测和识别环境中的障碍物。

三、雷达传感器雷达传感器在自动驾驶汽车中也起着重要的作用。

雷达传感器可以利用电磁波的反射原理来检测周围环境的物体和障碍物。

雷达传感器通常使用微波频段的电磁波,以实现较长距离的目标检测和测距。

雷达传感器的工作原理是通过发射微波信号并接收其反射信号来实现环境感知。

传感器可以测量反射信号的时间和强度,并将其转化为环境中不同物体的位置和形状信息。

在算法方面,常用的雷达数据处理算法包括滤波、多目标跟踪和运动估计等,用于实现精准的目标检测和跟踪。

四、超声波传感器超声波传感器在自动驾驶汽车中主要用于短距离障碍物检测和测距。

它通过发射超声波脉冲并测量其回波时间来检测周围物体的距离和位置。

ar技术的原理

ar技术的原理

ar技术的原理AR技术,即增强现实技术(Augmented Reality),是一种可以将虚拟信息与真实世界相结合的技术。

通过AR技术,用户可以在现实环境中看到合成的虚拟物体,同时也可以与这些虚拟物体进行交互。

AR技术的原理是基于计算机视觉和图像处理技术的。

下面将从传感器技术、图像处理和渲染以及交互技术三个方面详细介绍AR技术的原理及其实现。

一、传感器技术AR技术的实现离不开各种传感器的支持。

最常用的传感器是摄像头,用于捕捉用户所处的真实环境。

通过摄像头获取的图像可以被计算机用于实时分析和识别。

除了摄像头,AR设备还常常搭载其他传感器,如加速度计、陀螺仪和磁力计。

这些传感器可以检测设备的运动和方向变化,从而提供设备在现实世界中的位置和姿态信息。

通过这些传感器的协同工作,AR技术能够实现对用户环境的感知,为后续的虚拟信息展示和交互提供必要的数据支持。

二、图像处理和渲染在AR技术中,图像处理和渲染是实现虚拟与真实融合的关键步骤。

图像处理技术主要包括目标识别、图像跟踪和环境感知等,用于将摄像头捕获的图像与虚拟信息进行匹配和定位。

目标识别是AR技术中的一个重要任务,通过对摄像头获取的图像进行分析和识别,可以找到现实世界中的特定目标物体,并将虚拟物体与其进行关联。

图像跟踪则保持虚拟物体和目标物体的相对位置不变,使得用户在移动过程中能够看到虚拟物体的稳定效果。

环境感知是指通过图像分析和计算来了解现实环境的特征和属性,以便根据环境的变化调整虚拟物体的展示和交互方式。

渲染是将虚拟物体以逼真的方式插入到真实环境中的过程。

通过计算机图形学技术,将虚拟物体的三维模型转化为二维图像,并根据光照、阴影等要素进行合成和渲染,使虚拟物体与真实环境无缝地结合在一起。

渲染的结果会通过AR设备的显示器或投影等方式呈现给用户。

三、交互技术AR技术的另一个重要方面是交互技术。

用户与虚拟物体的有效交互是AR技术实现增强现实效果的关键。

常见的交互方式包括触摸屏、声音识别、手势识别等。

基于多传感器融合的目标检测算法研究

基于多传感器融合的目标检测算法研究

基于多传感器融合的目标检测算法研究随着人工智能技术的快速发展,目标检测技术已成为图像处理和计算机视觉领域的热门研究方向之一。

目标检测算法主要用于从图像、视频等多源数据中自动识别和定位特定目标,已广泛应用于智能监控、自动驾驶、人脸识别等领域。

然而,由于物体表现形式的多样性和复杂性,单一传感器的数据往往不足以提供完整的目标信息,因此多传感器融合的目标检测算法日益受到关注。

本文将介绍多传感器融合的目标检测算法研究的现状和未来发展趋势。

一、多传感器融合方案传感器融合是指将不同传感器的信息进行整合和优化,以提高系统准确性和可靠性的方法。

多传感器融合的目标检测算法通常涉及红外传感器、雷达、激光雷达等多个传感器,利用这些传感器的互补性,实现更准确、更全面的目标检测。

1.特征级传感器融合特征级传感器融合是利用不同特征描述子,如颜色、形状、纹理等,将不同传感器的目标信息进行整合的方法。

这类算法主要利用众多传感器所具有的纹理、颜色、物体形状、大小和轮廓等多种特征,将这些特征融合在一起,生成具有更丰富特征的目标描述,从而提高检测准确度。

2.决策级传感器融合决策级传感器融合是通过将多个传感器的分类输出结果进行合并的方式,提高目标检测的准确性和鲁棒性。

这类算法主要利用各传感器之间的互补性,将分别由各个传感器得出的目标检测结果进行综合,形成最终的目标检测结果。

二、多传感器融合的应用现状1.智能监控多传感器融合的目标检测技术在智能监控领域的应用最为广泛。

利用不同种类的传感器对监控行为进行全面监控和实时定位。

例如,多传感器结合应用可实现对违禁品、危险品、运动物体等的自动识别和报警,提高了安全性。

2.自动驾驶多传感器融合的目标检测技术在自动驾驶中发挥了关键作用。

例如,在传统单一摄像头与激光雷达标定中,仅通过摄像头获取的图像往往不能利用地面特征准确定位。

而通过加入激光雷达,可以创建点云图像,并进行自动检测和定位。

三、多传感器融合的未来发展趋势1.深度学习与多传感器融合近年来,深度学习技术的发展已经取得了巨大的成功。

如何利用图像处理技术进行目标识别

如何利用图像处理技术进行目标识别

如何利用图像处理技术进行目标识别图像处理技术在当今社会中被广泛应用于各个领域,其中之一就是目标识别。

目标识别是指通过对图像或视频进行处理,自动地检测和识别出其中的目标物体。

本文将介绍如何利用图像处理技术进行目标识别,并探讨其在实际应用中的一些挑战和解决方案。

一、图像处理技术概述图像处理技术是指通过对图像进行数字化处理,提取和分析其中的信息,以达到对图像内容的理解和处理的技术。

图像处理技术主要包括图像获取、图像增强、特征提取、目标检测和目标识别等步骤。

图像获取是指通过摄像机、扫描仪等设备获取图像。

图像增强是指通过对图像进行滤波、增强对比度等处理,以提高图像质量。

特征提取是指通过对图像进行分析,提取出其中的特征信息。

目标检测是指通过对图像进行处理,检测出其中存在的目标物体。

目标识别是指通过对目标物体的特征进行匹配和比对,确定目标物体的身份。

二、目标识别的基本原理目标识别的基本原理是通过对图像进行处理和分析,提取出目标物体的特征信息,然后将这些特征与已知的目标特征进行比对,从而确定目标物体的身份。

目标识别的过程可以分为以下几个步骤:1. 图像获取:通过摄像机或其他设备获取图像。

2. 图像预处理:对图像进行去噪、增强对比度等处理,以提高图像质量。

3. 特征提取:对图像进行分析,提取出其中的特征信息,如颜色、纹理、形状等。

4. 特征匹配:将提取到的特征与已知的目标特征进行比对,确定目标物体的身份。

5. 目标识别:根据匹配结果,确定目标物体的身份,并进行相应的处理或判断。

三、目标识别的方法和技术目标识别的方法和技术有很多种,常用的包括模板匹配、特征匹配、神经网络等。

1. 模板匹配:模板匹配是一种简单直观的目标识别方法。

它首先将目标物体的特征提取出来,并生成一个模板。

然后将这个模板与待识别图像进行比对,找出最匹配的位置,从而确定目标物体的位置和身份。

2. 特征匹配:特征匹配是一种常用的目标识别方法。

它通过对图像进行特征提取,将特征转化为数值表示,然后将这些特征与已知的目标特征进行比对,找出最相似的特征,从而确定目标物体的位置和身份。

基于图像处理的视觉伺服系统研究

基于图像处理的视觉伺服系统研究

基于图像处理的视觉伺服系统研究随着科技的不断发展,图像处理技术在各个领域的应用越来越广泛。

其中,基于图像处理的视觉伺服系统是一种重要的应用方向。

视觉伺服系统是一种通过图像识别和处理技术实现自动控制的机械系统,包括传感器、图像采集卡、处理器、控制器和执行器等部分。

本文将介绍基于图像处理的视觉伺服系统的研究现状、应用领域以及未来发展趋势。

一、研究现状基于图像处理的视觉伺服系统是近年来研究的热点之一。

通过图像识别和处理技术,系统可以实现对目标物体的追踪、定位和控制等功能。

目前,已经有不少研究者对该领域进行了深入探究,并取得了重要的研究成果。

1. 图像处理算法图像处理算法是基于图像处理的视觉伺服系统的核心技术之一。

包括图像预处理、特征提取、分类识别等多个方面。

其中,特征提取是关键的一步,需要根据不同的目标物体选择不同的特征提取算法。

当前常用的特征提取算法有边缘检测算法、颜色直方图算法、形状匹配算法等。

2. 传感器技术传感器技术是基于图像处理的视觉伺服系统的另一核心技术。

目前常用的传感器包括相机、红外线传感器、超声波传感器等。

相机是其中最常用的一种,具有高分辨率、图像鲜明等优点。

同时,随着科技的不断进步,传感器技术也在不断创新,新型传感器的出现将极大地促进系统性能的不断提高。

3. 控制算法视觉伺服系统的控制算法需要结合上述两个核心技术实现,包括控制平台的设计、PID控制算法的实现等多个方面。

当前常用的控制算法包括模糊控制算法、神经网络控制算法等。

二、应用领域基于图像处理的视觉伺服系统在多个领域中得到了广泛应用。

以下是其中几个应用领域:1. 工业制造基于图像处理的视觉伺服系统可以应用于工业生产线上,实现对生产过程中物件的位置、姿态、大小的检测与控制。

例如,在给瓶子打标签时,系统可以对瓶子的大小、形状进行检测,确保标签放置位置的准确性。

2. 视觉导航基于图像处理的视觉伺服系统可以应用于无人机、机器人等设备的视觉导航。

无人机多传感器系统数据融合技术探讨

无人机多传感器系统数据融合技术探讨

无人机多传感器系统数据融合技术探讨随着现代技术的不断发展,无人机的应用越来越广泛,已经成为很多领域的重要工具,如农业、环境监测、消防、医疗等。

而随着多传感器系统技术的成熟,无人机多传感器系统已成为无人机应用的重要方向之一。

本文将探讨无人机多传感器系统和数据融合技术的相关问题。

一、无人机多传感器系统的构成无人机多传感器系统是由多种不同类型的传感器组成的系统,其中包括但不限于以下几种:1. 摄像机:主要用于拍摄航拍图像和视频,为空中观测提供直接的视觉信号,图像质量将直接影响数据采集、识别分类和数据分析的质量。

对于无人机拍摄而言,拍摄高度、拍摄视角、地面覆盖范围是不可忽略的重要因素。

因此选择合适种类的摄像机、设置适当的拍摄参数,对于实现航拍目标具有重要意义。

2. 红外线(IR)传感器:主要用于夜间航拍或能够在可见光画面中无法分辨出的情况下搜寻物体和场景。

3. 激光雷达(LIDAR):主要用于三维建模、地形地貌等地理研究方面。

4. GPS:全球定位系统。

定位准确性对于大部分无人机应用至关重要,如果定位不准确或误差较大将影响数据采集的有效性和可靠性,也会对后续的数据分析产生重要的影响。

5. 气象传感器:包括温度、湿度、气压、风速风向等参数。

气象传感器的主要作用是检测天气变化对于作物、人们健康、建筑物等方面的影响,也适合监测空气质量等环境问题。

二、无人机多传感器系统数据融合技术随着无人机多传感器技术的日益发展,数据融合显得尤为重要。

传感器数据的融合可以通过不同的方法实现,其中主要的方法包括模型驱动和数据驱动两种。

1. 模型驱动:模型驱动是一种基于物理模型的方法,在此方法中,系统可以使用传感器数据来更新物理模型,然后预测未来景观。

这个方法还可以相应地引导规划决策,因此在很多领域有重要的应用,如自然资源管理和工业控制领域。

在这种方法中,精确地建立物理模型是非常重要的,因为物理模型的精度直接影响整个系统的精度。

2. 数据驱动:数据驱动的融合方法可以完全基于数据,将来自不同传感器的多个数据流合并成一个统一的输出。

多传感器数据融合技术综述

多传感器数据融合技术综述

多传感器数据融合技术综述一、多传感器数据融合的定义数据融合技术(Multiple Sensor Information Fusion,MSIF)又称信息融合技术,它的研究起源于军事指挥智能通讯系统,即C3I (Command,Control,Communication and Intelligence)系统建设的需求,早期研究也多来自于军事方面的应用。

而随着工业系统的复杂化和智能化,该技术已被推广到民用领域,如医疗诊断、机械故障诊断、空中交通管制、遥感、智能制造、智能交通、工业智能控制及刑侦等等。

作为前沿领域技术,无论是军用系统还是民用系统,都趋向于采用数据融合技术来进行信息综合处理。

在知识爆炸的信息时代,数据融合技术就显得尤其重要,它能避免数据富有但信息贫乏的情况发生。

数据融合是关于协同利用多传感器信息,进行多级别、多方面、多层次信息检测、相关、估计和综合以获得目标的状态和特征估计以及态势和威胁评估的一种多级信息自动处理过程。

它将不同来源、不同模式、不同时间、不同地点、不同表现形式的信息进行融合,最后得出被感知对象的精确描述。

数据融合其实也就是对数据的提取和处理,得出最终的有效信息。

多传感器数据融合也就是用各种不同的传感器观测信息,然后将不同来源、不同形式、不同时间、不同地点的信息通过计算机技术,对按时间顺序获得的若干传感器的观测信息,用某种方法自动分析、综合,得到更加有效的信息。

二、国内外研究概况美国国防部JDL(Joint Directors of Laboratories)从军事应用的角度将数据融合定义为一种多层次、多方面的处理过程,即把来此许多传感器和信息源的数据和信息加以联合(Association)、相关(Correlation)和组合(Combination),以获得精确的位置估计(Position Estimation)和身份估计(Identity Estimation),以及对战情况和威胁及其重要程度进行了适时的完整评价。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

本技术公开了一种基于图像处理的多传感器融合的物体识别方法,包括以下步骤:S1:获取三通道RGB彩色图像及一通道多线激光测距图像;S2:将RGB彩色图像的摄像机光学坐标投射成激光点云坐标,激光点云坐标投射成360°环形全景坐标;S3:利用深度学习的图像识别技术,针对事先训练过的目标进行目标检测框选定,得到目标检测边界框分布图像及物体类别分布图像。

本技术方法简单,实时性高,基于多传感器实现六通道图像的映射融合,在传统的RGBD四通道图像的基础上,增加了二通道来源于目标检测的物体类别分布图像、目标检测边界框分布图像,为实现快速准确的目标物体定位提供了精准的图像处理基础。

技术要求1.一种基于图像处理的多传感器融合的物体识别方法,包括以下步骤:S1:获取三通道RGB彩色图像及一通道多线激光测距图像;S2:将RGB彩色图像的摄像机光学坐标投射成激光点云坐标,激光点云坐标投射成360°环形全景坐标;S3:利用深度学习的图像识别技术,针对事先训练过的目标进行目标检测框选定,得到目标检测边界框分布图像及物体类别分布图像。

2.根据权利要求1所述的基于图像处理的多传感器融合的物体识别方法,其特征在于,在步骤S1中,所述三通道RGB彩色图像通过摄像机原始图像获取,所述一通道多线激光测距图像通过获取激光点云信息后生成独立图层得到。

3.根据权利要求1所述的基于图像处理的多传感器融合的物体识别方法,其特征在于,在步骤S2中,将摄像机坐标投射成激光点云坐标的具体步骤包括:S201:创建3D临时贴图,贴图坐标为激光坐标,贴图大小为单个摄像头贴图转换为激光点云坐标后的宽度和高度;S202:计算贴图下个像素的激光坐标;S203:判断下个像素是否为贴图的结尾像素,若不是则重复步骤S202,若是则进行下一步骤;S204:将八个摄像机贴图合并,拼接生成激光坐标下的360度全景图。

4.根据权利要求3所述的基于图像处理的多传感器融合的物体识别方法,其特征在于,步骤S202的具体计算过程包括:首先将激光坐标转换成摄像机镜头坐标,再将镜头坐标转换成摄像机像素坐标,最后将对应摄像机像素读取到贴图。

5.根据权利要求1所述的基于图像处理的多传感器融合的物体识别方法,其特征在于,在步骤S2中,将激光点云坐标投射成环形全景坐标的具体步骤包括:S211:创建一个激光点阵图层,大小为1920*1080,左右边缘角度为0—360°,上下角度为-15°—15°,左右边缘角度、上下角度均匀铺展拉伸;S212:读取一列激光点阵存储区数据;S213:计算打印图像的像素角度;S214:计算像素位置,将对应数据赋值到打印的图层;S215:判断当前读取的激光点阵存储区数据是否为数据的结尾,若不是则重复步骤S212—S214,若是则生成图像结束。

6.根据权利要求1所述的基于图像处理的多传感器融合的物体识别方法,其特征在于,在步骤S3中,事先训练过的目标包括目标人员、工作服、安全帽。

技术说明书基于图像处理的多传感器融合的物体识别方法技术领域本技术涉及图像处理领域,特别是涉及一种基于图像处理的多传感器融合的物体识别方法。

背景技术变电站是电力系统稳定运行的重要环节,在变电站中分布着各中重要的变电设备,虽然现有的变电站一般为封闭区域,外来人员不能够进入到变电站内,但是对于变电站内的工作人员来说,对于工作人员的行为却难以得到有效管控,尤其是在变电站内的某些区域来说,采用现有的摄像监控难以准确监控,并且摄像监控存在着盲区,更为重要的是,变电设备种类多、结构不固定,与线路相比检修作业环境更复杂,检修作业过程更繁琐,作业人员位置若无监视则容易因疏忽或其他方面原因误入带电间隔(误碰带电设备)容易引发安全事故,因此应对进入变电站内的作业人员进行准确识别,确保变电站的安全稳定,进而确保整个电网系统的稳定运行。

目前对变电站运维人员的定位多采用摄像头拍摄、激光雷达定位等技术,对拍摄的图像采用人工检测进行人员识别,费时费力,或采用图像处理的方法进行人员定位,但存在的问题是摄像机和激光雷达均为球形镜头,但两者的坐标刻度线截然不同,导致的桶形畸变方向也不一样。

在传统的图像处理中,一般是将桶形畸变图像转成无畸变的图像。

但该处理方法计算复杂,实时性差,同时在整张图像上进行单图层的人员定位跟踪及目标距离检测工作量巨大,定位效果差,距离测算准确率低。

因此亟需提供一种新型的基于图像处理的物体定位方法来解决上述问题。

技术内容本技术所要解决的技术问题是提供一种基于图像处理的多传感器融合的物体识别方法,能够快速准确地实现物体识别。

为解决上述技术问题,本技术采用的一个技术方案是:提供一种基于图像处理的多传感器融合的物体识别方法,包括以下步骤:S1:获取三通道RGB彩色图像及一通道多线激光测距图像;S2:将RGB彩色图像的摄像机光学坐标投射成激光点云坐标,激光点云坐标投射成360°环形全景坐标;S3:利用深度学习的图像识别技术,针对事先训练过的目标进行目标检测框选定,得到目标检测边界框分布图像及物体类别分布图像。

在本技术一个较佳实施例中,在步骤S1中,所述三通道RGB彩色图像通过摄像机原始图像获取,所述一通道多线激光测距图像通过获取激光点云信息后生成独立图层得到。

在本技术一个较佳实施例中,在步骤S2中,将摄像机坐标投射成激光点云坐标的具体步骤包括:S201:创建3D临时贴图,贴图坐标为激光坐标,贴图大小为单个摄像头贴图转换为激光点云坐标后的宽度和高度;S202:计算贴图下个像素的激光坐标;S203:判断下个像素是否为贴图的结尾像素,若不是则重复步骤S202,若是则进行下一步骤;S204:将八个摄像机贴图合并,拼接生成激光坐标下的360度全景图。

进一步的,步骤S202的具体计算过程包括:首先将激光坐标转换成摄像机镜头坐标,再将镜头坐标转换成摄像机像素坐标,最后将对应摄像机像素读取到贴图。

在本技术一个较佳实施例中,在步骤S2中,将激光点云坐标投射成环形全景坐标的具体步骤包括:S211:创建一个激光点阵图层,大小为1920*1080,左右边缘角度为0—360°,上下角度为-15°—15°,左右边缘角度、上下角度均匀铺展拉伸;S212:读取一列激光点阵存储区数据;S213:计算打印图像的像素角度;S214:计算像素位置,将对应数据赋值到打印的图层;S215:判断当前读取的激光点阵存储区数据是否为数据的结尾,若不是则重复步骤S212—S214,若是则生成图像结束。

在本技术一个较佳实施例中,在步骤S3中,事先训练过的目标包括目标人员、工作服、安全帽。

本技术的有益效果是:(1)本技术基于多传感器实现六通道图像的映射融合,在传统的RGBD四通道图像的基础上,增加了二通道来源于目标检测的物体类别分布图像、目标检测边界框分布图像,为实现快速准确的目标物体定位提供了精准的图像处理基础;(2)本技术在单镜头光学坐标到激光坐标再到360度环形全景坐标的转换过程中,通过设计曲面对曲面的转换方式,直接将曲面的图像投射到曲面的激光坐标上去,无需进行畸变图像到无畸变图像的转换,实时性更高;(3)与传统的激光雷达的目标分割和跟踪方法不同,本技术利用了深度学习进行目标分割和跟踪,然后激光点投影到深度学习的检测目标框内,不但可以获取定位信息,也可以获取物体的类别信息,而且实用性好,在大部分场合下,激光点云是稀疏的,而图像是稠密的,所以点云获取的成本代价非常高,而图像获取的成本代价相对低,将目标分割和跟踪放在图像处理中能够极大的减少对激光点云的依赖,降低成本。

附图说明图1是本技术基于图像处理的多传感器融合的物体识别方法的流程图;图2是多图层投影示意图;图3是步骤S2中将摄像机坐标投射成激光点云坐标的流程示意图;图4是步骤S2中将激光点云坐标投射成环形全景坐标的流程示意图。

具体实施方式下面结合附图对本技术的较佳实施例进行详细阐述,以使本技术的优点和特征能更易于被本领域技术人员理解,从而对本技术的保护范围做出更为清楚明确的界定。

请参阅图1,本技术实施例包括:一种基于图像处理的多传感器融合的物体识别方法,主要应用在变电站安监巡检机器人上,通过深度学习的目标检测,和实时激光点云的融合,完成现场的人员个体定位,其包括以下步骤:S1:获取三通道RGB彩色图像及一通道多线激光测距图像;所述三通道RGB彩色图像通过摄像机原始图像获取,所述一通道多线激光测距图像通过获取激光点云信息后生成独立图层得到,激光点云信息为16线360°激光的深度图像,由雷达直接读取获得。

各图像的定义和数据编码为:(1)彩色图像R:摄像机原始图像红色通道,灰度0-255;(2)彩色图像G:摄像机原始图像绿色通道,灰度0-255;(3)彩色图像B:摄像机原始图像蓝色通道,灰度0-255;(4)多线激光测距图像:本实施例中采用16线激光测距灰度图像,灰度1-255,其中纯黑色0表示没有意思,1-255表示距离。

S2:将RGB彩色图像的摄像机光学坐标投射成激光点云坐标,激光点云坐标投射成360°环形全景坐标;结合图2,该步骤中通过设计曲面对曲面的转换方式,直接将曲面的图像投射到曲面的激光坐标上去,无需进行畸变图像到无畸变图像的转换,实时性更高,全部转换公式分为两个步骤:(1)RGB彩色图像的摄像机光学坐标到16线激光点云坐标的投射,结合图3,具体包括以下步骤:S201:创建3D临时贴图,贴图坐标为激光坐标,贴图大小为单个摄像头贴图(转换为激光坐标下的彩色图像)转换为激光点云坐标后的宽度和高度;S202:计算贴图下个像素的激光坐标,包括将激光坐标转换成摄像机镜头坐标,实际上是将镜头中的像素位置(物理位置)标定到激光坐标中,采用激光坐标的每个像素“读取”镜头对应位置的数据,显示效果更均匀;再将镜头坐标转换成摄像机像素坐标,最后将对应摄像机像素读取到贴图;S203:判断下个像素是否为贴图的结尾像素,若不是则重复步骤S202,若是则进行下一步骤;S204:将八个摄像机贴图合并,拼接生成激光坐标下的360度全景图。

该步采用的转换公式为:已知16线激光图像的横坐标(经度弧度)为longitude,纵坐标(纬度弧度)为latitude;输出图像的像素高度为high,宽度为width;相机最大可视角度(弧度)为viewMax;设光学镜头的旋转弧度坐标为alpha,偏离中心点弧度坐标为beta;设相机原始图像的像素横坐标为imageX,纵坐标为imageY;求alpha:第一像限:alpha=arctan(tan(latitude)/sin(longitude));第二,三像限:alpha=arctan(tan(latitude)/sin(longitude))+pi;其中pi=3.1415926;第四像限:alpha=arctan(tan(latitude)/sin(longitude))+2*pi;其中90度:alpha=0.5*pi;270度:alpha=1.5*pi;原点:alpha=0;求beta:beta=arccos(cos(longitude)*cos(latitude));求imageX:imageX=width/2+cos(alpha)*sqrt((high/2)^2+(width/2)^2)*beta/(viewMax/2);求imageY:imageY=high/2-sin(alpha)*sqrt((high/2)^2+(width/2)^2)*beta/(viewMax/2);(2)16线激光点云坐标到360°环形全景坐标的投射,结合图4,具体包括以下步骤:S211:创建一个激光点阵图层,大小为1920*1080,左右边缘角度为0—360°,上下角度为-15°—15°,左右边缘角度、上下角度均匀铺展拉伸;S212:读取一列激光点阵存储区数据;S213:计算打印图像的像素角度,计算过程为:已知当前激光点的序列号No,顶边(第1线)和底边(第16线)的角度差angleMax,线的数量为number;设当前激光点的纬度(角度)为latitude,则latitude=angleMax/2-(No-1)*angleMax/(number-1);经度(角度)longitude直接读取;S214:计算像素位置,将对应数据赋值到打印的图层,计算过程为:已知图像原点(0,0)位于左上角,激光原点(0,0)位于中心;激光纬度为latitude,经度为longitude;激光贴图上下边缘角度差latitudeMax,左右边缘角度差longitudeMax;贴图像素高度最大值为high,宽度最大值为width;设当前点打印像素横坐标为x,纵坐标为y;求x,y:x=width*longitude/longitudeMax+width/2;y=high/2-high*latitude/latitudeMax;S215:判断当前读取的激光点阵存储区数据是否为数据的结尾,若不是则重复步骤S212—S214,若是则生成图像结束。

相关文档
最新文档