用于自动驾驶场景的多传感器融合定位方法与设计方案
多传感器的加权融合方法

多传感器的加权融合方法
在现代科技发展中,传感器技术的应用越来越广泛,从智能手机到自动驾驶汽车,从医疗设备到环境监测,传感器都扮演着重要的角色。
然而,单一传感器所获取的信息可能存在不足或者误差,因此如何有效地融合多个传感器的信息成为了一个重要的问题。
在这篇文章中,我们将探讨多传感器的加权融合方法,以及其在不同领域的应用。
多传感器的加权融合方法是一种将来自不同传感器的信息进行整合和加权的技术。
通过融合多个传感器的信息,可以提高系统的准确性、鲁棒性和可靠性。
在实际应用中,多传感器的加权融合方法可以用于目标跟踪、环境监测、导航系统等领域。
在多传感器的加权融合方法中,首先需要对来自不同传感器的信息进行预处理和特征提取。
然后,针对每个传感器的信息,可以根据其准确性、可靠性和重要性进行加权。
最后,将加权后的信息进行融合,得到最终的结果。
在实际应用中,多传感器的加权融合方法可以通过不同的技术实现,例如卡尔曼滤波、粒子滤波、神经网络等。
这些技术可以根
据具体的应用场景和传感器类型进行选择和优化,以实现最佳的融合效果。
多传感器的加权融合方法在自动驾驶、智能交通、智能家居、医疗诊断等领域都有着广泛的应用。
例如,在自动驾驶汽车中,通过融合激光雷达、摄像头、超声波传感器等多种传感器的信息,可以实现对周围环境的全面感知和精准定位,从而提高驾驶安全性和舒适性。
总之,多传感器的加权融合方法是一种重要的技术手段,可以有效提高系统的性能和可靠性。
随着传感器技术的不断发展和应用场景的不断拓展,多传感器的加权融合方法将会发挥越来越重要的作用,为各种智能系统和设备的发展提供强大的支持。
基于多传感器融合的自动驾驶车辆感知与定位算法研究

基于多传感器融合的自动驾驶车辆感知与定位算法研究随着科技的不断进步,自动驾驶技术逐渐走进了人们的视野。
而要实现自动驾驶,感知与定位是其中至关重要的一环。
本文将介绍基于多传感器融合的自动驾驶车辆感知与定位算法的研究。
一、引言随着人工智能、传感器技术和计算能力的不断提升,自动驾驶技术成为了可能。
在自动驾驶过程中,感知与定位是车辆准确、安全行驶的基础,而传统的单一传感器往往无法提供足够全面的信息。
因此,基于多传感器融合的感知与定位算法应运而生。
二、传感器类型在自动驾驶车辆中常用的传感器包括摄像头、激光雷达、毫米波雷达、惯性测量单元(IMU)等。
这些传感器能够感知周围环境,获取道路、障碍物、车辆等信息,协助车辆实现精准定位和感知。
三、传感器融合传感器融合是指将来自不同传感器的数据进行集成、融合,得到更准确、全面的车辆感知与定位信息。
常用的传感器融合方法包括数据级融合、特征级融合和决策级融合。
1.数据级融合数据级融合是将来自不同传感器的原始数据进行融合,通过数据融合算法对数据进行处理和整合。
例如,使用卡尔曼滤波器对传感器数据进行滤波和融合,从而消除噪声和错误。
2.特征级融合特征级融合是将不同传感器提取的特征进行融合,得到更综合的特征表示。
这样可以减少信息冗余,提高感知与定位的准确性。
例如,通过将摄像头和激光雷达提取的特征进行融合,可以实现对车辆周围环境的更全面感知。
3.决策级融合决策级融合是将来自不同传感器的决策结果进行融合,得到最终的感知与定位结果。
这样可以提高决策的准确性和鲁棒性。
例如,通过将多个传感器的检测结果进行融合,可以实现对障碍物的更准确识别和处理。
四、算法研究基于多传感器融合的感知与定位算法有很多种,下面将介绍其中几种常见的算法。
1.扩展卡尔曼滤波(EKF)EKF是一种常用的状态估计算法,可以用于估计车辆的位置、速度和姿态等。
通过将多个传感器的观测结果融合,可以实现对车辆状态的准确估计。
2.粒子滤波(PF)PF是一种基于蒙特卡洛方法的非线性滤波算法,对于非线性系统和非高斯噪声具有良好的适应性。
多传感器融合

Outline
引言 多传感器信息融合基础理论 多传感器后融合技术 多传感器前融合技术 本章小结
引言
必然性
不同车载传感器的原理、功能各异,不同传感器在不同的场景下发挥着各自优势,其获 取的信息各不相同,不能相互替代。由于每个传感器的差异,仅通过增加单一传感器数量并 不能从根本上解决问题。实现自动驾驶,就需要多个传感器相互配合,共同构成自动驾驶汽 车的感知系统。
Low-level融合
特征级融合指在提取所采 集数据包含的特征向量之 后融合。特征向量用来体 现所监测物理量的属性, 在面向检测对象特征的融 合中,这些特征信息是指 采集图像中的目标或特别 区域,如边缘、人物、建 筑或车辆等信息,其结构 如右图所示。
Low-level融合
根据融合内容,特征级融合又分为目标状态信息融合和目 标特性融合两大类。其中,前者是先进行数据配准,以实 现对状态和参数相关估计,更加适用于目标追踪。后者是 借用传统模式识别技术,在特征预处理的前提下进行分类 组合。
AVOD
AVOD是一种融合激光雷达点云数据以及RGB图像信息的3D 目标检测算法,与MV3D不同的是,它的输入只有激光雷达 生成的BEV(Bird's Eye View) Map和相机采集的RGB图像, 舍弃了激光雷达FV(Front View)和BEV中的密度特征( Intensity Feature),其网络结构如图所示。
Low-level融合
Low-level融合体系结构是一种较 低信息层次上的融合,是集中式 融合结构。集中式融合结构将各 传感器获得的原始数据直接送到 数据融合中心,进行数据对准、 数据关联、预测等,在传感器端 不需要任何处理,可以实现实时 融合,其结构示意图如右图所示 。
人工智能在自动驾驶领域的应用挑战与解决方案

人工智能在自动驾驶领域的应用挑战与解决方案自动驾驶技术是当下备受关注的热门话题,而人工智能(Artificial Intelligence,AI)在其应用中扮演着重要的角色。
随着科技的不断进步,人工智能在自动驾驶领域面临着一系列的挑战,本文将探讨这些挑战并提出相应的解决方案。
一、感知与识别挑战自动驾驶需要准确地感知和识别车辆周围的环境,包括道路、行人、其他车辆等。
然而,不同天气、光线条件下的感知和识别依然是一个困扰自动驾驶技术的难题。
此外,有些情况下目标物体可能被部分遮挡,这给感知与识别带来了更大的挑战。
解决方案:1. 多传感器融合:通过结合激光雷达、摄像头、毫米波雷达等多种传感器获取的数据信息,可以提高感知的准确性和鲁棒性。
2. 强化学习:利用强化学习算法,使得自动驾驶系统能够不断学习和适应不同的环境和条件,提高感知与识别的能力。
3. 数据增强:通过使用大规模的数据集,结合数据增强技术,提高感知和识别的性能。
二、决策与规划挑战自动驾驶车辆需要做出准确的决策和规划路径,以应对各种道路情况和交通状况。
然而,道路交通是一个复杂的系统,其中不同车辆、行人和交通信号灯等元素的相互作用使得决策与规划变得复杂。
此外,自动驾驶车辆还需要面对紧急情况,如避免碰撞、遇到突发状况等。
解决方案:1. 深度强化学习:利用深度强化学习模型,为自动驾驶车辆提供有效的决策和规划策略,使其能够在复杂的交通环境下做出准确的行动。
2. 预测与模拟:利用数据分析和模拟技术,预测不同交通情景下的可能行为,以此为依据进行决策和规划。
3. 云端决策:将决策和规划任务部分移至云端进行处理,通过云计算的强大计算能力和实时数据传输,实现更高效、更准确的决策和规划。
三、安全挑战自动驾驶技术的一大关键挑战是确保其安全性。
无人驾驶车辆必须能够正确地感知环境、做出准确的决策并进行相应的行动,以确保乘客和其他道路使用者的安全。
此外,自动驾驶车辆还需要能够预测和应对潜在的危险情况。
多传感器联合标定及其应用

多传感器联合标定及其应用摘要:多传感器联合标定是指利用多个传感器协同工作,通过标定过程对各个传感器的参数和位置关系进行确定,从而提高系统的感知和测量准确性。
本文综述了多传感器联合标定的原理、方法以及在不同应用领域的研究进展。
在传感器标定方面,介绍了参数标定和外部标定两种常用的方法,并详细探讨了基于滤波器和优化算法的多传感器联合标定研究。
此外,还阐述了多传感器联合标定在自动驾驶和智能交通系统、机器人技术等领域的应用。
通过深入了解多传感器联合标定的原理和应用,可以为实现精准感知和准确测量提供重要的理论指导和实际应用参考。
关键词:多传感器;联合标定;参数标定;外部标定;滤波器;优化算法1.多传感器联合标定的原理和方法1.1传感器标定的基本概念和目的在多传感器系统中,每个传感器都具有其特定的参数和位置关系。
传感器标定是通过测量和分析传感器的内部参数(如增益、偏置、非线性特性等)以及外部位置(如位置、方向、姿态等)来确定这些参数和位置关系的过程。
传感器标定的目的是消除不同传感器之间的误差,使它们能够准确地感知和测量目标或环境的特征。
1.2传感器标定的常用方法和技术传感器标定涉及到参数标定和外部标定两种常用的方法和技术。
1.2.1参数标定方法参数标定是通过收集传感器的内部数据来确定其内部参数。
常见的参数标定方法包括:静态标定:将传感器暴露在已知条件下,通过收集数据并进行分析,确定传感器的内部参数。
动态标定:在传感器进行实际工作时,通过与已知参考物体或环境进行交互,收集数据并进行分析,确定传感器的内部参数[1]。
1.2.2外部标定方法外部标定是通过测量传感器与其他已知参考物体或传感器之间的关系,确定传感器的外部位置。
常见的外部标定方法包括:手眼标定:通过测量机械臂末端执行器相对于相机的位置和姿态,确定相机的外部位置。
相机-相机标定:通过测量多个相机之间的位置和姿态关系,确定相机的外部位置。
传感器网络标定:通过多个传感器之间的相互测量和协同,确定传感器的外部位置。
自动驾驶车辆传感器配置

实时性要求
自动驾驶车辆对数据处理的实时 性要求极高,需要在极短的时间 内完成数据的采集、处理和决策 输出。
数据传输速度和稳定性问题
高速数据传输技术
为了保证数据传输的速 度和稳定性,需要使用 高速数据传输技术,如 以太网、CAN总线等。
数据压缩技术
为了降低数据传输的带 宽需求,可以使用数据 压缩技术,对原始数据 进行压缩后再进行传输 。
在自动驾驶车辆中,传感器的主要功能包括环境感知、障碍 物检测、车辆定位、路径规划等,是实现自动驾驶不可或缺 的关键部件。
自动驾驶中传感器作用
环境感知
障碍物检测
通过激光雷达、摄像头等传感器,自动驾 驶车辆能够实时感知周围环境,包括道路 、交通信号、行人、车辆等信息。
利用超声波、红外线等传感器,自动驾驶 车辆可以准确检测道路上的障碍物,如石 头、树枝等,从而避免碰撞。
应用场景
是实现自动驾驶车辆环境感知的 重要手段之一,可用于城市道路 、高速公路等多种场景的自动驾
驶。
优缺点
信息丰富、成本低廉,但受光照 、阴影、反光等干扰影响较大, 需要与其他传感器融合使用以提
高识别准确率。
超声波传感器
1 2 3
工作原理
利用超声波在空气中的传播特性进行探测,通过 测量超声波的发射和接收时间差来计算目标物体 的距离。
01
02
03
摄像头
提供视觉信息,识别交通 信号、车道线、行人等。
雷达
检测障碍物距离和速度, 适用于各种天气条件。
激光雷达
提供高精度三维环境信息 ,用于定位和障碍物识别 。
多传感器融合方案设计
传感器类型选择
根据需求选择摄像头、雷达、激光雷达等传感器 。
智能驾驶系统的传感器数据处理与融合方案

智能驾驶系统的传感器数据处理与融合方案智能驾驶系统是现代汽车工业的热点领域,在实现自动驾驶的发展过程中起着至关重要的作用。
智能驾驶系统依赖多种传感器来获取车辆周围的环境信息,而传感器数据处理与融合是确保驾驶系统准确、高效运行的核心技术。
在智能驾驶系统中,传感器数据处理旨在对多种传感器收集到的数据进行预处理、滤波、校准等操作,以保证数据的准确性和一致性。
同时,传感器数据处理还可以发现并修复传感器故障,提高系统的可靠性。
针对不同类型的传感器,如雷达、相机、激光雷达等,可以采用不同的数据处理算法。
为了实现传感器数据的融合,需要将来自不同传感器的信息进行集成和综合。
传感器数据融合可以充分利用每个传感器的优势,通过组合不同传感器的数据来获得更准确的环境感知结果。
常见的传感器数据融合方法包括卡尔曼滤波、粒子滤波和扩展卡尔曼滤波等。
通过这些方法,不同传感器的数据可以相互校正,提高环境感知的准确程度。
在传感器数据处理与融合方案中,数据处理算法的优化和创新是至关重要的。
目前,随着深度学习的兴起,许多基于神经网络的算法用于处理和分析传感器数据。
通过神经网络的端到端训练,可以使系统更好地理解和利用传感器数据,提高对复杂场景的感知能力。
此外,还可以利用深度学习算法进行目标检测、轨迹预测和行为识别等功能,进一步提升系统的智能化水平。
除了数据处理算法的优化,硬件方面的创新也是提高传感器数据处理与融合方案的关键。
高性能的处理器和计算设备可以提供更快的数据处理速度和更大的计算能力,从而实现实时的数据处理和融合。
此外,高精度、高分辨率的传感器硬件可以提供更多准确的数据,为数据处理和融合提供更可靠的基础。
传感器数据处理与融合方案在智能驾驶系统中有广泛的应用。
例如,在自动泊车场景中,通过融合相机、超声波传感器和激光雷达的数据,可以实现对停车位的准确识别和车辆与障碍物的安全距离计算。
在自动驾驶场景中,通过融合多种传感器的数据,可以实现对车辆周围道路状况、行人和其他车辆的实时感知和分析。
无人驾驶技术的多传感器融合与数据融合算法

无人驾驶技术的多传感器融合与数据融合算法无人驾驶技术正在逐渐走向成熟,成为未来交通领域的重要发展方向。
而在实现无人驾驶的过程中,多传感器融合与数据融合算法的应用是至关重要的。
本文将介绍无人驾驶技术中的多传感器融合以及数据融合算法,并探讨其对无人驾驶技术发展的意义和挑战。
一、多传感器融合技术多传感器融合技术是指利用多个不同类型的传感器和传感器组件,如相机、雷达、激光雷达等,将它们的信息进行融合、处理和分析,以提供更完整、准确的环境感知和决策支持。
通过融合多个传感器的数据,无人驾驶系统能够获取更全面的环境信息,从而更好地感知并应对各种复杂交通场景。
在多传感器融合中,关键的任务之一是传感器数据对准和整合。
不同类型的传感器在输出数据时可能存在误差和偏差,因此需要通过精确的校准和时序同步来确保数据融合的准确性和一致性。
此外,传感器数据的标定也是重要的一环,通过将传感器与准确的车辆坐标系进行对齐,可以更好地进行信息融合和决策。
多传感器融合技术的优势在于可以通过不同传感器的互补性,弥补单一传感器的不足。
例如,相机可以提供高分辨率的图像信息,激光雷达可以提供高精度的距离和深度信息,而雷达可以在恶劣天气条件下提供可靠的障碍物探测。
通过综合利用多个传感器,无人驾驶系统可以更准确地感知和理解道路环境,提高行驶的安全性和可靠性。
二、数据融合算法数据融合算法是多传感器融合的关键环节,用于将来自不同传感器的数据进行整合和处理,生成系统所需的高级信息。
常见的数据融合算法包括卡尔曼滤波、粒子滤波、扩展卡尔曼滤波等。
卡尔曼滤波是一种常用的数据融合算法,可以通过对传感器的观测数据进行优化估计,从而获得更准确的状态估计结果。
它利用系统的动力学模型和传感器的观测模型,通过递归地更新状态估计和协方差矩阵,实现对状态的时序预测和更新。
卡尔曼滤波在无人驾驶中广泛应用于目标跟踪、定位和姿态估计等任务。
粒子滤波是一种基于蒙特卡洛方法的数据融合算法,它通过对系统状态的随机采样来逼近后验概率分布。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
本技术公开了一种用于自动驾驶场景的多传感器融合定位方法,采用低成本传感器结合矢量地图通过改进的粒子滤波算法实现车道级定位。
本技术不仅具有明显价格优势,有利于自动驾驶技术普及,同时能保证定位精度,而且使用更加方便,还能输出频率可调的高频定位信息,其能为环境感知和车身控制提供基准数据。
权利要求书1.一种用于自动驾驶场景的多传感器融合定位方法,其特征在于包括以下步骤:步骤1,车载传感器实时采集车辆的行驶信息;其中,车辆的行驶信息包括,车辆所在的经纬度、车辆的速度信息、航向信息、车辆所在的车道和车辆与所在车道的中心线之间的距离;步骤2,在矢量地图上以步骤1采集到的车辆所在的经纬度为圆心,GPS定位偏差为半径做圆;并在圆内根据高斯分布设置粒子群;其中,矢量地图中含有车道线、车道宽度、车道航向角的信息;步骤3,将传感器采集的航向信息、速度信息和步骤2中设置的粒子群中每个粒子的位置信息加入高斯噪声后输入到第一恒定转率和速度运行模型中,第一恒定转率和速度模型输出每个粒子的状态信息,其中每个粒子的状态值包括每个粒子在UTM坐标系下的坐标值和每个粒子的航向信息;步骤4,将不在车辆所在车道内的粒子的权重值设置为0;再分别计算剩下粒子点的权重值;步骤5,将步骤3获得每个粒子的状态信息和步骤4获得每个粒子的权重值通过加权平均法求出车辆的位置信息。
2.根据权利要求1所述的用于自动驾驶场景的多传感器融合定位方法,其特征在于:所述步骤1中采用多种传感器,每种传感器的数据源不同。
3.根据权利要求1所述的用于自动驾驶场景的多传感器融合定位方法,其特征在于:所述步骤2中GPS定位偏差通过公式计算获得,其中,λ为GPS定位偏差,η表示GPS定位精度,θ为收到星数,h为水平精度因子,β的取值范围在0.55~0.65,σ为稳定系数,μ为水平精度系数。
4.根据权利要求1所述的用于自动驾驶场景的多传感器融合定位方法,其特征在于:所述步骤4中粒子点的权重值获取方法,包括以下步骤:步骤401,根据公式:Δdi =dc-dip;Δyawi=yawc+ yawir- yawip;分别计算粒子群中每个粒子在车道中位置差值和航向差值;其中,Δdi表示第i个粒子的位置差值,dc表示Camera输出当前车辆距离车道中心线的距离偏差,dip表示第i个粒子的距离车道中心线的距离偏差,Δyawi表示第i个粒子的航向角差值,yawc表示Camera输出的当前车辆与车道的航向角的偏差,yawir表示第i个粒子所在车道的道路的航向角,yawip表示第i个粒子的航向角;步骤402,将步骤401获得的每个粒子在车道中的位置差值和航向差值代入概率密度函数,经过归一化后得到每个粒子点的权重值wi;其中,wi为第i个粒子的权重,σd表示Camera检测车辆距离车道中心线的距离偏差的方差,ud表示Camera检测车辆距离车道中心线的距离偏差的均值,σyaw表示Camera检测车辆与车道的航向角的偏差的方差,uyaw表示Camera检测车辆与车道的航向角的偏差的均值。
5.根据权利要求1所述的用于自动驾驶场景的多传感器融合定位方法,其特征在于:还包括高频模块,将步骤5中获得的车辆的位置信息、实时的车辆速度信息和车辆的航向信息输入到高频模块中,高频模块输出车辆位置信息;其中高频模块通过第二恒定转率和速度模型对车辆的位置信息进行计算。
6.根据权利要求5所述的用于自动驾驶场景的多传感器融合定位方法,其特征在于:所述高频模块工作包括以下步骤:步骤601,将步骤5中获得的车辆的位置信息和当前采集的车辆速度信息以及车辆的航向信息输入到第二恒定转率和速度模型中计算下一时刻车辆的位置信息{xt,yt,yawt}并输出,其中,第二恒定转率和速度模型为:yawt=yawt-1+yaw’vt-1×△txt= xt-1+v’t×cos(yawt) ×△tyt= yt-1+v’t×sin(yawt) ×△t式中,yawt表示t时刻车辆的航向角,yawt-1表示t-1时刻车辆的航向角,yaw’vt-1表示在t-1时刻IMU输出的车辆的航向角的角速度,xt表示t时刻车辆在UTM坐标系下的横坐标,xt-1表示t-1时刻车辆在UTM坐标系下的横坐标,v’t在t时刻车辆里程计输出的车辆的速度, yt表示t时刻车辆在UTM坐标系下的纵坐标,yt-1表示t-1时刻车辆在UTM坐标系下的纵坐标;步骤602,检测是否采集到新的车辆速度信息和车辆的航向信息;如果采集到新的车辆速度信息和车辆的航向信息,则执行步骤603,如果没有采集到新的车辆速度信息和车辆的航向信息则执行步骤602;步骤603,检测步骤5是否有输出新的车辆的位置信息,如果没有,则用步骤601获得车辆的位置信息{xt,yt,yawt}结合此时采集到的新的车辆速度信息以及车辆的航向信息作为输入数据输入到第二恒定转率和速度模型中计算下一时刻车辆的位置信息{xt,yt,yawt}并输出,然后重复步骤602;如果步骤5有输出新的车辆的位置信息,则重复步骤601~602。
技术说明书一种用于自动驾驶场景的多传感器融合定位方法技术领域本技术属于自动驾驶领域,特别涉及一种用于自动驾驶场景的多传感器融合定位方法。
背景技术高精度定位是自动驾驶领域的重要研究课题,目前常用高精度组合导航、多线激光雷达、摄像等传感器结合高精度地图实现车道级定位,主要采用卡尔曼滤波、粒子滤波、SLAM(即时定位与地图构建)等融合定位算法。
其中常规的卡尔曼滤波算法需要价格昂贵的高精度RTK(实时动态测量技术)和IMU,在高架桥、隧道等GPS信号不稳定地方,其定位精度较低;现有的粒子滤波算法需要借助深度学习模块检测道路标志,将其与先验地图中的道路特征匹配,更新模型参数;SLAM算法在车辆快速运行的高速公路上鲁棒性较低,此外其需要高性能的计算平台。
所以,在现有技术中没有一种适用于车辆自动驾驶的既经济又能够精准定位的方法。
技术内容技术目的:本技术针对现有技术存在的问题,提出了一种不仅经济又能够对车辆进行准确定位的用于自动驾驶场景的多传感器融合定位方法。
技术方案:为实现上述目的,本技术提供了一种用于自动驾驶场景的多传感器融合定位方法,包括以下步骤:步骤1,车载传感器实时采集车辆的行驶信息;其中,车辆的行驶信息包括,车辆所在的经纬度、车辆的速度信息、航向信息、车辆所在的车道和车辆与所在车道的中心线之间的距离;步骤2,在矢量地图上以步骤1采集到的车辆所在的经纬度为圆心,GPS定位偏差为半径做圆;并在圆内根据高斯分布设置粒子群;其中,矢量地图中含有车道线、车道宽度、车道航向角的信息;步骤3,将传感器采集的航向信息、速度信息和步骤2中设置的粒子群中每个粒子的位置信息加入高斯噪声后输入到第一恒定转率和速度运行模型中,第一恒定转率和速度模型输出每个粒子的状态信息,其中每个粒子的状态值包括每个粒子在UTM坐标系下的坐标值和每个粒子的航向信息;步骤4,将不在车辆所在车道内的粒子的权重值设置为0;再分别计算剩下粒子点的权重值;步骤5,将步骤3获得每个粒子的状态信息和步骤4获得每个粒子的权重值通过加权平均法求出车辆的位置信息。
进一步,所述步骤1中采用多种传感器,每种传感器的数据源不同,可以选用低成本的传感器。
进一步,所述步骤2中GPS定位偏差通过公式计算获得,其中,λ为GPS定位偏差,η表示GPS 定位精度,θ为收到星数,h为水平精度因子,β的取值范围在0.55~0.65,σ为稳定系数,μ为水平精度系数。
有效的保证了整个方法的鲁棒性。
进一步,所述步骤4中粒子点的权重值获取方法,包括以下步骤:步骤401,根据公式:Δdi =dc-dip;Δyawi=yawc+ yawir- yawip;分别计算粒子群中每个粒子在车道中位置差值和航向差值;其中,Δdi表示第i个粒子的位置差值,dc表示Camera输出当前车辆距离车道中心线的距离偏差,dip表示第i个粒子的距离车道中心线的距离偏差,Δyawi表示第i个粒子的航向角差值,yawc表示Camera输出的当前车辆与车道的航向角的偏差,yawir表示第i个粒子所在车道的道路的航向角,yawip表示第i个粒子的航向角。
步骤402,将步骤401获得的每个粒子在车道中的位置差值和航向差值代入概率密度函数,经过归一化后得到每个粒子点的权重值wi;其中,wi为第i个粒子的权重,σd表示Camera检测车辆距离车道中心线的距离偏差的方差,ud表示Camera检测车辆距离车道中心线的距离偏差的均值,σyaw表示Camera检测车辆与车道的航向角的偏差的方差,uyaw表示Camera检测车辆与车道的航向角的偏差的均值。
进一步,还包括高频模块,将步骤5中获得的车辆的位置信息、实时的车辆速度信息和车辆的航向信息输入到高频模块中,高频模块输出车辆位置信息;其中高频模块通过恒定转率和速度模型对车辆的位置信息进行计算。
能够输出频率可调的高频定位信息。
进一步,所述高频模块工作包括以下步骤:步骤601,将步骤5中获得的车辆的位置信息和当前采集的车辆速度信息以及车辆的航向信息输入到第二恒定转率和速度模型中计算下一时刻车辆的位置信息{xt,yt,yawt}并输出,其中,第二恒定转率和速度模型为:yawt=yawt-1+yaw’vt-1×△txt= xt-1+v’t×cos(yawt) ×△tyt= yt-1+v’t×sin(yawt) ×△t式中,yawt表示t时刻车辆的航向角,yawt-1表示t-1时刻车辆的航向角,yaw’vt-1表示在t-1时刻IMU输出的车辆的航向角的角速度,xt表示t时刻车辆在UTM坐标系下的横坐标,xt-1表示t-1时刻车辆在UTM坐标系下的横坐标,v’t在t时刻车辆ODOM(里程计)输出的车辆的速度, yt表示t时刻车辆在UTM坐标系下的纵坐标,yt-1表示t-1时刻车辆在UTM坐标系下的纵坐标;步骤602,检测是否采集到新的车辆速度信息和车辆的航向信息;如果采集到新的车辆速度信息和车辆的航向信息,则执行步骤603,如果没有采集到新的车辆速度信息和车辆的航向信息则执行步骤602;步骤603,检测步骤5是否有输出新的车辆的位置信息,如果没有,则用步骤601获得车辆的位置信息{xt,yt,yawt}结合此时采集到的新的车辆速度信息以及车辆的航向信息作为输入数据输入到第二恒定转率和速度模型中计算下一时刻车辆的位置信息{xt,yt,yawt}并输出,然后重复步骤602;如果步骤5有输出新的车辆的位置信息,则重复步骤601~602。
工作原理:本文提出一种针对自动驾驶场景的定位方案,采用低成本GPS、IMU、Camera等传感器结合矢量地图通过改进的粒子滤波算法实现车道级定位。