基于视觉和后推方法的智能车轨迹跟踪控制
分布式驱动和线控转向车辆轨迹跟踪控制算法研究

分布式驱动和线控转向车辆轨迹跟踪控制算法研究一、什么是分布式驱动和线控转向?你有没有想过,未来的车子是不是就像科幻电影里那样,可以完全没有方向盘,甚至完全不用你踩油门刹车,车子自己就能开?别急,这不是幻想,正是分布式驱动和线控转向技术的魅力所在。
简单来说,分布式驱动就是车辆的动力来源不再依赖一个大马力发动机,而是通过多个电动机分布在车轮附近,每个车轮都能独立驱动,就像给车子装上了“多重发动机”,每个车轮都能根据实际需要进行精准控制。
而线控转向就更“牛”了,车子的方向盘根本不需要机械连接到车轮,而是通过电子信号来控制转向。
想象一下,不需要借助一根粗大的方向盘轴,车轮就能随时响应你的指令,省力又省事。
这种技术的好处可多了,车子的操控变得更加精准,尤其是在复杂路况下,车辆能够根据不同的情况随时调整行驶方式,让车主有更多选择余地。
这种技术一旦成熟,未来可能连个老司机都不需要了,车子自动导航、自动驾驶,简直能省去一大堆麻烦。
二、轨迹跟踪控制的挑战与需求说到轨迹跟踪控制,可能很多人都不知道是啥,简单来说,就是控制车辆按设定的路线行驶,不跑偏、不打滑。
想象一下,在高速上,你开的车如果突然跑到别的车道,后果可想而知。
车子轨迹跟踪控制系统就是为了保证车子稳稳地沿着目标轨迹前行。
这种控制系统对于任何自动驾驶系统来说都是“硬骨头”,尤其是在高速行驶或复杂路况下,车子要精准地跟着设定的轨迹走,毫厘不差。
而分布式驱动和线控转向技术的加入,解决了这一难题。
传统的车辆控制技术更多依赖于机械和液压系统,它们的响应速度慢,精度也有限。
但在分布式驱动的帮助下,车轮可以根据每个角度、每个速度的需求进行独立调整,而线控转向则进一步提升了转向的精度,车子可以毫不费力地应对各种复杂的道路状况和突发情况。
你能想象吗?车子就像一个懂得你心思的“老司机”,几乎不会让你犯错,自动修正方向,不跑偏、不走弯路。
但是,问题也来了,如何让这个系统在各种复杂环境下“听话”呢?想让车子按你心意走,背后可需要一大堆算法支持。
智能小车目标识别跟踪系统的设计

智能小车目标识别跟踪系统的设计作者:张岚来源:《中国新技术新产品》2015年第22期摘要:随着经济水平的飞速发展和科学技术的不断提高,电子设备的智能化将成为当今时代的发展趋势。
本文首先介绍了智能小车目标识别跟踪系统的组成,在此基础上详细介绍了智能小车对目标的识别以及跟踪系统的设计。
关键词:智能小车;识别;追踪中图分类号:TP23 文献标识码:A随着科学技术在工业智能控制领域的不断应用,对特定目标的识别和跟踪技术日渐趋近成熟。
通过使用单片机、ARM等高速控制芯片对车载摄像模块进行配置,即可实现图像的快速捕获;再将捕获的图像信息通过无线通讯的方式传送到计算机,对其进行信息处理和判断,即可判定出小车的运动方向。
此过程实现了通过无线通讯的方式下发运动方向指令,从而达到对特定目标的识别和跟踪的目的。
1 智能小车识别跟踪系统组成系统主要由智能小车(包含摄像头模块)、数据收发终端和计算机三个部分组成。
其中,智能小车和数据接收终端采用2.4GHz的无线进行通讯,数据收发终端采用网口和计算机进行通讯,计算机上安装有C++开发的图像处理和控制界面。
智能小车识别跟踪系统结构示意图如图1所示。
1.1 智能小车通讯模块目前无线通讯模块有很多,如红外、蓝牙、Zigbee和NRF24L01的无线模块等几种。
红外技术:红外是家庭无线控制网络可以选择的一个技术,设备简单,价格低廉,很容易推广。
由于波长短,障碍物衍射能量差,必须使控制器和接收机在可视范围内,并且通信角度不大于35°。
另外一个特点是通信距离短,一般最大10m,因此,这种模式仅适用于点对点的沟通、无障碍、短距离,不容易建立广泛的家庭通信网络。
蓝牙技术:蓝牙技术是一种低成本,短距离,点对点和点对多点通信的技术,支持无线通信技术。
蓝牙技术的主要目的是交换数据和语音信号,传输协议过于复杂,芯片成本较高。
ZigBee技术:ZigBee是一种短距离、低功率、低速率、低成本的无线通信技术,通讯距离几百米内。
自动驾驶汽车路径跟踪控制

Auto.En 鑰汽车工程师OVERVIEW 行业观察«重庆交通大学机电与汽车工程学院重庆市轨道交通汽车系统集成与控制重庆市重点^室摘要:路径跟踪作为自动驾驶汽车运动控制模块的基础部分,需要精确跟踪参考路径。
这也是近年来自动驾驶汽车研究的热点之一。
对路径跟踪运动控制进行了分类介绍,同时,系统地归纳总结了近年来自动驾驶汽车在复杂环境下精准跟踪路径并保持平稳性、安全性的最新研究方法。
此外,对路径跟踪控制方法在跟踪期望路径过程中尚存在的一些问题提出了建议,为自动驾驶领域提供了一定的参考和借鉴。
关键词:自动驾驶;路径跟踪;控制方法;线性二次最优控制方法Path Tracking Control for Autonomous Vehicle **基金项目:重庆市轨道交通车辆系统集成与控制重庆市重点试验室项目(CSTC215yfpt-zdsys30001)Abstract : As the basic part of the motion control module of autonomous vehicles, path tracking needs to accurately track thereference path. This is also one of the hot topics in the research of autonomous vehicles in recent years. The motion control ofpath tracking is classified and introduced. At the same time, the latest research methods of accurate path tracking and maintaining stability and safety of autonomous vehicles in complex environment in recent years are systematically summarized. In addition, some suggestions on the problems of the path tracking control method in the process of tracking the expected pathare put forward, which provide some reference for the field of automatic driving.Key words : Automatic driving; Path tracking; Control method; Linear quadratic optimal control method随着现代汽车工业和计算机技术的快速发展,人 们对自动驾驶汽车的智能化控制的要求越来越高。
智能循迹避障小车论文

自动化专业导论智能循迹避障小车学生姓名:学号:指导教师:目录摘要引言第一章绪论1.1智能小车的背景1.2智能小车的现状第二章设计方案2.1设计任务2.2方案及轨道选择2.3智能小车元件介绍第三章硬件设计3.1总体设计3.2驱动电路3.3信号检测模块3.4主控线路第四章软件设计4.1主程序模块4.2电机驱动程序4.3循迹模块4.4避障模块第五章制作安装与调试作品总结致谢摘要利用红外对管检测黑线与障碍物,并以STC89C52单片机为控制芯片控制电动小汽车的速度及转向,从而实现自动循迹避障的功能。
其中小车驱动由L298N驱动电路完成,速度由单片机输出的PWM波控制。
关键词:智能小车;STC89C52单片机;L298N;红外对管引言2004年1月3日和1月24日肩负着人类探测火星使命的“勇气”号和“机遇”号在火星不同区域着陆,并于2004年4月5日和2004年4月26 日相继通过所有“考核标准”。
火星车能够在火星上自主行驶:当火星车发现值得探测的目标,它会驱动六个轮子向目标行驶;在检测到前进方向上的障碍后,火星车会去寻找可能的最佳路径。
据悉,中国的登月计划分三步进行:第一步,发射太空实验室和寻找贵重元素的月球轨道飞行器;第二步,实现太空机器人登月;第三步,载人登月。
随着“神舟”系列飞船和“嫦娥”月球探测卫星的成功发射,第一步接近成熟;第二步中太空机器人登月计划中的太空机器人应该能在月球上自主行驶,进行相关探测。
因此对于我国来说,类似于美国“勇气”号和“机遇”号火星车的智能车技术研究也显得迫在眉睫。
目前,城市交通的安全问题己引起各国政府有关部门的高度重视和全民的关注,专家、学者在分析城市交通事故的原因时,普遍认为事故原因主要包括:人员素质、运输车辆、道路环境和管理法规等四个方面,而车辆性能的提高即研发高性能的智能汽车是其中很重要的一个环节。
美国研究认为,包括智能汽车研究在内的智能运输系统对国家社会经济和交通运输有着巨大的影响,其意义和价值在于:大量减少公路交通堵塞和拥挤,降低汽车的油耗,可使城市交通堵塞和拥挤造成的损失分别减少25%-40%左右,大大提高了公路交通的安全性及运输效率,促进了交通运输业的繁荣发展。
智能汽车技术论文资料

智能车辆基于双目视觉系统障碍物识别的研究张继晨(武汉理工大学汽车工程学院;汽研1202班;学号:1049721202240)摘要:随着汽车的普及,交通运输问题日益严重,近年来人们对汽车的智能性的要求越来越迫切。
与此同时,以实现无人、全自动和安全驾驶为最终目标的智能车辆今年来发展较为迅速,其关键技术之一是目标障碍物自动识别。
本文主要探讨利用双目视觉目标识别技术,来进行车辆前方障碍物的自动识别。
此外指出任何一种有效的障碍物检测系统不能只依靠单一传感器进行环境感知,因此利用多种传感器信息融合技术检测智能车辆前方障碍物,是未来该领域的研究重点与难点。
关键词:智能汽车;双目视觉;障碍物识别;信息融合The Study of Obstacle Detection Technology Based on BinocularStereovision for Intelligent VehicleZhang Jichen(School of Automobile Engineering, Wuhan University of Technology, Class: 1202, Number: 1049721202240)Abstract: With the popularization of the vehicle, traffic problem has increasingly become a hot problem. In recent years, people are expecting a type of cars which can be intelligent. At the same time, the realization of completely automatic and safe driving intelligent vehicles is a new rapidly developed research area in recent years, and the key technology of it is automatically detect the obstacles. This article mainly aims at automatically detect the obstacles in front of the vehicle by use of the binocular stereovision obstacle detection technology. In addition, the obstacle can not be detected based on only one kind of sensor, many kinds of information from different sensors must be employed. So the research focus in obstacle detection for intelligent vehicles is located at multi-sensors data fusion.Key words: intelligent vehicle; binocular stereovision; obstacle detection; data fusion引言目标识别技术作为图像理解领域研究的一个重要分支,是利用计算机自动分析和提取原始图像中的前景信息,也就是模糊识别、数据处理等理论,模仿人的视觉系统感知外部世界各种形状的一项技术。
视觉跟随原理

视觉跟随原理视觉跟随是一种基于计算机视觉技术的应用,它可以实现对目标物体的实时跟踪和定位。
该原理的核心思想是通过分析图像或视频中的像素信息,识别出目标物体,并根据其运动轨迹进行跟踪。
视觉跟随的应用非常广泛,例如在无人驾驶汽车中,通过视觉跟随原理可以实现对前方车辆或行人的跟踪,从而实现自动驾驶的功能。
此外,在机器人领域,视觉跟随也被广泛应用于机器人的导航和操作中,使机器人能够准确地跟随目标物体进行移动或执行任务。
视觉跟随原理的实现过程可以分为以下几个步骤:1. 图像获取:首先需要通过摄像头或其他图像采集设备获取目标物体的图像或视频。
2. 特征提取:在获取到图像或视频后,需要对目标物体进行特征提取。
这可以通过计算机视觉算法来实现,例如边缘检测、颜色分析等。
3. 目标识别:在提取到目标物体的特征后,需要对其进行识别。
这可以通过机器学习算法来实现,例如支持向量机、卷积神经网络等。
4. 运动估计:一旦识别出目标物体,就需要对其运动进行估计。
这可以通过比较连续帧之间的像素差异来实现,从而得到目标物体的运动轨迹。
5. 跟踪更新:根据目标物体的运动轨迹,可以对其进行跟踪更新。
这可以通过将当前帧的目标位置与前一帧的目标位置进行比较,从而确定目标物体的新位置。
视觉跟随原理的实现需要借助计算机视觉和机器学习等相关技术。
近年来,随着计算机硬件性能的提升和算法的不断优化,视觉跟随的精度和实时性得到了显著提高。
这使得视觉跟随在许多领域都得到了广泛应用。
然而,视觉跟随原理也存在一些挑战和限制。
例如,在复杂的环境中,目标物体的遮挡、光照变化等因素会对跟随效果产生影响。
此外,视觉跟随还需要消耗大量的计算资源,对计算机性能要求较高。
视觉跟随原理是一种基于计算机视觉技术的应用,通过对图像或视频中的目标物体进行识别和跟踪,实现对目标物体的实时定位。
视觉跟随在无人驾驶、机器人导航等领域具有广泛的应用前景,但也面临着一些挑战和限制。
随着技术的不断进步,相信视觉跟随将在未来发展得更加成熟和智能化。
基于双目视觉的车辆检测跟踪与测距
第13卷㊀第4期Vol.13No.4㊀㊀智㊀能㊀计㊀算㊀机㊀与㊀应㊀用IntelligentComputerandApplications㊀㊀2023年4月㊀Apr.2023㊀㊀㊀㊀㊀㊀文章编号:2095-2163(2023)04-0147-05中图分类号:TP389.1文献标志码:A基于双目视觉的车辆检测跟踪与测距郭鹏宇(上海工程技术大学机械与汽车工程学院,上海201620)摘㊀要:由于道路上存在各种不安全因素,车辆检测跟踪并测距是自动驾驶技术的重要组成部分㊂本文将YOLOv4-tiny作为检测器使之加快模型检测速度且更适合在车辆嵌入式设备中使用㊂考虑到目标检测失败的情况,本文在历史缓冲区中存储以前的跟踪细节(唯一ID)和每个对象的相应标签,提出了一个基于中值的标签估计方案(MLP),使用存储在前一帧的历史标签的中值来预测当前帧中对象的检测标签,使得跟踪错误最小化,并用双目摄像头获取图像检测车辆距离㊂测试新网络结构后,检测精度(MeanAveragePrecision,mAP)为80.14%,检测速度较YOLOv4相比提高了184%,检测到的距离误差平均在0.5%左右㊂关键词:YOLOv4-tiny;目标跟踪;中值算法;双目测距Vehicledetection,trackingandrangingbasedonbinocularvisionGUOPengyu(SchoolofMechanicalandAutomotiveEngineering,ShanghaiUniversityofEngineeringScience,Shanghai201620,China)ʌAbstractɔDuetovariousunsafefactorsontheroad,vehicledetection,trackingandrangingaretheimportantpartofautomaticdrivingtechnology.Inthispaper,YOLOv4-tinyisusedasadetectortospeedupmodeldetectionandismoresuitableforvehicleembeddeddevices.Consideringthefailureofobjectdetection,thispaperstorestheprevioustrackingdetails(uniqueID)andthecorrespondinglabelofeachobjectinthehistorybuffer,andproposesamedium-basedlabelestimationscheme(MLP),whichusesthemedianvalueofthehistorylabelstoredinthepreviousframetopredictthedetectionlabeloftheobjectinthecurrentframe,sothattrackingerrorsareminimized.Theimagesobtainedbybinocularcameraareusedtodetectvehicledistance.Aftertestingthenewnetworkstructure,thedetectionaccuracy(MeanAveragePrecision,mAP)is80.14%,thedetectionspeedis184%higherthanthatofYOLOv4,andthedetecteddistanceerrorisabout0.5%onaverage.ʌKeywordsɔYOLOv4-tiny;targettracking;medianalgorithm;binoculardistancemeasurement作者简介:郭鹏宇(1995-),女,硕士研究生,主要研究方向:智能网联汽车㊂收稿日期:2022-05-240㊀引㊀言在自动驾驶辅助系统中,基于传感器,采用车辆检测㊁跟踪㊁测距等一系列计算机视觉算法进行环境感知,辅助系统就能得到车辆周围信息,以保证驾驶员安全驾驶㊂基于视觉的车辆检测及测距系统主要应用在道路交通场景下,用于辅助检测前方目标以及进行距离预警,其性能好坏主要依赖于采用的车辆检测算法㊂目前,在使用相机进行目标检测时,多采用传统的机器视觉检测方法㊂对于前方车辆目标,该方法首先根据车辆的局部特征,如阴影㊁边缘纹理㊁颜色分布等特征生成感兴趣区域;然后利用对称特征等整体特征对感兴趣区域进行验证㊂在从产生感兴趣区域到验证感兴趣区域的过程中,为了达到实时检测的要求,一般需要对图像进行灰度化,并对灰度化后的图像进行阴影分割和边缘分析㊂因此,对于相机获得的图像,传统的机器视觉的车辆检测方法通常找到感兴趣区域的车辆的特点和梯度直方图特征(HOG[1]),SIFT[2]特征或Haar-like[3]特征通常用于获得前面的假设检验区域车辆,即ROI区域;此后用这些特征训练SVM[4]或Adaboost[5]车辆检测分类器,计算车辆图像的特征值,并根据车辆特征值的大小与前方车辆进行判断,得到前车的假设测试区域验证,完成对前车的检测㊂而上述传统的机器视觉检测方法本质上是通过人工选择特征进行识别和分类㊂在复杂场景中,人工特征的数量会呈几何级数增长,这对前面车辆的识别率也有很大的影响㊂这种方法更适合在某种特定场景下的车辆识别,因为其数据规模并不大,泛化能力则较差,很难实现快速和准确的复杂应用场景的检测㊂近年来,随着卷积神经网络(CNN)的应用,出现了许多算法㊂一阶段方法包括SSD[6]㊁YOLO系列[7-8]㊁RetinaNet[9]㊂两阶段方法包括FastR-CNN[10]和FasterR-CNN[11]㊂最近提出的最先进的YOLO-v4[12]具有很高的检测精度和检测速度㊂目前,对于多目标车辆轨迹跟踪技术主要可分为两大类㊂一类是传统方法,如利用背景差分法㊁帧差法㊁光流法等方法提取运动目标,传统方法部署方便,资源消耗低,但受先验知识限制,跟踪稳定性差,准确性不高㊂另一类是基于卷积神经网络的㊁称为深度学习的方法,深度学习方法可以学习更多的目标特征,能在连续的视频帧中检测出目标对象㊂深度学习方法精度高,但其计算量较大,实时性不高,因此,基于视频跟踪的车辆检测算法仍需改进㊂研究可知,基于视觉相机的测距方法主要有单目测距和双目测距两种㊂这2种方法的共同特点是通过相机采集图像数据,随后从图像数据中得到距离信息㊂单目检测方法的优点是成本低,缺点是对检测精度的依赖过大㊂此外,从实用的角度来看,在汽车上安装单目相机时,由于汽车的颠簸,汽车的俯仰角经常发生变化,导致精度显著下降㊂双目测距的方法是通过计算2幅图像的视差直接测量距离㊂1㊀车辆检测与跟踪本文使用的目标检测算法是YOLOv4-tiny,其中YOLO表示YouOnlyLookOnce,由Bochkovskiy等学者开发㊂YOLOv4-tiny是YOLOv4的压缩版本,虽在平均精度方面受到了影响,但却可以在低计算能力下高效运行㊂与未压缩版本的4个YOLO头相比,YOLOv4-tiny只使用了2个YOLO头,并使用了29个预训练卷积层作为基础㊂YOLO各变量参数设置见表1,卷积层各变量参数设置见表2㊂㊀㊀上一代YOLO的非maxpool抑制(NMS)等遗留特性和一些新特性㊁包括加权剩余连接(WRC)㊁Mosaic数据增强在内有效提高了算法在模糊图像中识别类的能力,降低了识别类所需的处理能力㊂YOLOv4-tiny提供了较高的帧率,同时具有中间地带平均精度与常用模型并列㊂在本文中,使用YOLOv4-tiny算法作为车辆的检测器,并且使用DeepSORT[13]算法作为初始车辆跟踪器㊂表1㊀YOLO各变量参数设置Tab.1㊀YOLOparametersettingsYOLO变量参数Mask0,1,2anchors10,14,㊀23,27㊀37,58㊀81,82㊀135,169㊀344,319classes4num6jitter0.3scale_x_y1.05cls_normalizer1.0iou_lossciouignore_thresh0.7truth_thresh1random0Resize1.5nms_kindgreedynmsbeta_nms0.6表2㊀卷积层各变量参数设置Tab.2㊀Theconvolutionlayerparametersettings卷积层变量参数batch_normalize1filters64size3stride2pad1activationleaky㊀㊀图1显示了2个ID及其前3个标签㊂对于ID#137的车辆,本文方法预测的标签用加黑来标记㊂[1255,739,1421,856][960,719,1006,758]车辆I D 137[1255,739,1421,859][955,721,1006,758][1255,739,1421,856][952,722,1006,758]目标检测标签1图1㊀应用MLP后的历史缓冲区示例图Fig.1㊀AhistorybufferexampleafterapplyingMLP841智㊀能㊀计㊀算㊀机㊀与㊀应㊀用㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀第13卷㊀㊀㊀本文使用历史缓冲区来调整和改进每个检测标签的视觉质量和在帧中的显示㊂如果有任何车辆检测标签缺失,那么本文的MLP为该车辆生产一个估计的检测标签㊂延时使用一系列的检测标签前存储在历史缓冲区来预测未检测到车辆的检测标签ID在给定的框架(见图1)㊂条件估计为特定车辆检测标签,标签ID应该至少在2个连续帧出现㊂为了预测缺失的检测标签,本文对当前帧t应用以下公式:Ñ=l(t-1)(i)-l(t-2)(i)(1)l(t)(i)=l(t-1)(i)+Ñ(2)㊀㊀这里,lxmin,ymin,xmax,ymax()表示每个车辆ID基于调整边界框标签的中值,Ñ表示边界框位置的变化从时间戳(t-2)到(t-1);i表示每辆车唯一的ID㊂2㊀双目测距双目视差示意如图2所示㊂由图2可知,2个摄像头的中心距是B,两个摄像头观察同一点P,P1的坐标为(X1,Y1),P2的坐标为(X2,Y2),由于2台相机始终是平行的,高度相同,所以在左右2张图像中P点的Y坐标是相同的,在X方向上存在视差㊂因此,可以通过标定相机内外参数来确定图像坐标与世界坐标之间的关系㊂双目视差原理如图3所示㊂PZ 2X 2P 2Z 1P 1O 2Y 2Y 1BC 2X 1O 1C 1x 1y 1y 2x 2图2㊀双目视差示意图Fig.2㊀SchematicdiagramofbinocularparallaxdfB aP RC RA RbP LX LX RPC LA L图3㊀双目视差原理图Fig.3㊀Principleofbinocularparallax㊀㊀图3中,CL和CR是2个摄像头的光学中心,摄像头之间的距离是b,相机的焦距为f,P点在左右图像的投影点为PlXl,Yl(),PrXr,Yr(),AL,PL=XL,AR,PR=XR,PR,B=a,从三角形相似关系可知:d-fd=aa+xRd-fd=b-xL+xR+ab+xR+a(3)㊀㊀由式(3)可知:a=bxRxL-xR-xR(4)㊀㊀由此,空间中P点到相机的距离为:d=fa+xRxR=bfxL-xR(5)㊀㊀P在相机坐标系中的三维坐标可以由几何关系得到:X=bxLxL-xRY=byxL-xRZ=bfᶄxL-xMìîíïïïïïïïï(6)㊀㊀对于车辆的测距,本文取检测到的边界框内每辆车的中心来表示被检测物体到双目相机中心的距离㊂3㊀实验结果与分析将YOLOv4-tiny与其他常用的目标检测算法进行比较,将其mAP与FPS进行比较,得到表3中的结果㊂本文提出的车辆检测与跟踪方法使用了TensorFlow库和基于YOLOv4-tiny模型的DeepSORT算法㊂经综合比较,使用YOLOv4-tiny的精度和检测速度是可以接受的,精度比YOLOv3-tiny高,速度比YOLOv4的方法更快㊂YOLOv4-tiny模型检测车辆效果如图4所示㊂表3㊀各模型帧率和mAP对比Tab.3㊀FramerateandmAPcomparison模型mAP/%帧率(FPS)YOLOv485.0814.12YOLOv4-tiny80.1440.11YOLOv383.3216.99YOLOv3-tiny69.0352.77941第4期郭鹏宇:基于双目视觉的车辆检测跟踪与测距图4㊀YOLOv4-tiny模型检测车辆效果Fig.4㊀CarsvideodetectionusingYOLOv4-tinymodel㊀㊀使用本文方法前后汽车的标签变化曲线如图5所示㊂对于ID#39的车辆,图5(a)是使用方法前,图5(b)是使用本文方法后,相同的汽车标签变得更加平滑㊂X (b o u n d i n g b o x 的中心)100200300400500600700800730720710700690680670Y (b o u n d i n g b o x 的中心)(a)使用本文方法前100200300400500600700800730720710700690680670X (b o u n d i n g b o x 的中心)Y (b o u n d i n g b o x 的中心)(b)使用本文方法后图5㊀使用本文方法前后汽车的标签变化Fig.5㊀Thelabelchangesbeforeandafterusingthemethodinthispaper㊀㊀在目标跟踪时,从历史缓冲区中预测缺失标签的方法往往会产生不好的结果,因为对象检测器的可视化结果经常显示不稳定和闪烁的边框标签㊂在应用本文的基于中值的算法后,可以得到高度稳定的标签㊂因此,本文方法提高了目标检测器的视觉性能,并为目标检测器和跟踪器提供了对缺失标签的更好估计㊂利用双目相机取检测到的边界框内每辆车的中心来表示被检测物体到双目相机中心的距离㊂仿真测试结果见表4㊂从距离测试的结果来看,测试精度相对较高,基本保持在0.5% 0.6%之间㊂表4㊀测量结果分析Tab.4㊀Themeasuredresultsanalysis实验组数测量距离/cm实际距离/cm误差/%11567.001559.110.503521655.001646.140.535331738.001729.160.508641893.001883.170.519351983.001971.200.595162236.002223.220.571672489.002475.260.55204㊀结束语本文介绍了一种用于自动驾驶的实时检测跟踪与测距系统㊂通过本文提出的实时同步方法,该系统方便了车辆实时同步检测;利用双目摄像头,YOLOv4-tiny和DeepSORT算法对车辆进行检测和跟踪,并提出中值标签预测方法优化跟踪效果,同时实现了对前方车辆的精确测距㊂整个系统在检测和测距方面取得了较高的精度和实时性㊂对于自动驾驶的应用,该系统可以结合许多智能技术,如目标预警㊁自动避障等㊂与此同时,该系统还有很大的改进空间㊂在检测方面,通过优化算法提高检测性能,通过训练更多类型的物体,如行人㊁非机动车等,为自动驾驶提供更多的道路信息㊂在这个系统中,测距是指从双目相机的中心到物体的距离㊂在实际情况下,车辆的具体位置到物体的距离可以根据相机的安装位置和车辆的实际长度来计算㊂通过优化双目测距算法,可以提高测距精度㊂参考文献[1]TAIGMANY,YANGMing,RANZATOMA,etal.DeepFace:Closingthegaptohuman-levelperformanceinfaceverification[C]//2014IEEEConferenceonComputerVisionandPatternRecognition.Columbus,OH,USA:IEEE,2014:1701-1708.[2]MAXiaoxu,GRIMSONWEL.Grimson.Edge-basedrichrepresentationforvehicleclassification[C]//TenthIEEEInternationalConferenceonComputerVision.Beijing:IEEE,2005:1185-1192.[3]XUQing,GAOFeng,XUGuoyan.Analgorithmforfront-vehicledetectionbasedonHaar-likefeature[J].AutomotiveEngineering,2013,35(4):381-384.(下转第157页)051智㊀能㊀计㊀算㊀机㊀与㊀应㊀用㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀第13卷㊀参考文献[1]SHIJianping,TAOXin,XULi,etal.Breakamesroomillusion:depthfromgeneralsingleimages[J].ACMTransactionsonGraphics(TOG),2015,34(6):1-11.[2]YANGDong,QINShiyin,Restorationofdegradedimagewithpartialblurredregionsbasedonblurdetectionandclassification[C]//IEEEInternationalConferenceonMechatronicsandAutomation.Beijing,China:IEEE,2015:2414–2419.[3]ABBATEA,ARENAR,ABOUZAKIN,etal.Heartfailurewithpreservedejectionfraction:refocusingondiastole[J].InternationalJournalofCardiology,2015,179:430-440.[4]LYUW,LUWei,MAMing.No-referencequalitymetricforcontrast-distortedimagebasedongradientdomainandHSVspace[J].JournalofVisualCommunicationandImageRepresentation,2020,69:102797.[5]YIXin,ERAMIANM.LBP-basedsegmentationofdefocusblur[J].IEEETransactionsonImageProcessing,2016,25(4):1626-1638.[6]GOLESTANEHSA,KARAMLJ.Spatially-varyingblurdetectionbasedonmultiscalefusedandsortedtransformcoefficientsofgradientmagnitudes[C]//IEEEConferenceonComputerVisionandPatternRecognition(CVPR).Honolulu,Hawaii:IEEE,2017:596-605.[7]SUBolan,LUShijian,TANCL.Blurredimageregiondetectionandclassification[C]//Proceedingsofthe19thACMinternationalconferenceonMultimedia.ScottsdaleArizona,USA:ACM,2011:1397-1400.[8]SHIJianping,XULi,JIAJiaya.Discriminativeblurdetectionfeatures[C]//ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition.Columbus,USA:IEEE,2014:2965-2972.[9]TANGChang,WUJin,HOUYonghong,etal.Aspectralandspatialapproachofcoarse-to-fineblurredimageregiondetection[J].IEEESignalProcessingLetters,2016,23(11):1652-1656.[10]王雪玮.基于特征学习的模糊图像质量评价与检测分割研究[D].合肥:中国科学技术大学,2020.[11]CHENQifeng,LIDingzeyu,TANGCK,etal.KNNMatting[J].IEEETransactionsonPatternAnalysis&MachineIntelligence,2013,35(9):2175-2188.[12]OJALAT,PIETIKAINENM,MAENPAAT.Multiresolutiongray-scaleandrotationinvarianttextureclassificationwithlocalbinarypatterns[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2002,24(7):971-987.[13]ACHANTAR,SHAJIA,SMITHK,etal.SLICsuperpixelscomparedtostate-of-the-artsuperpixelmethods[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2012,34(11):2274-2282.[14]WANGJingdong,JIANGHuaizu,YUANZejian,etal.Salientobjectdetection:Adiscriminativeregionalfeatureintegrationapproach[J].InternationalJournalofComputerVision,2017,123:251-268.[15]ZHAOMinghua,LIDan,SHIZhenghao,etal.BlurfeatureextractionplusautomaticKNNmatting:Anoveltwostageblurregiondetectionmethodforlocalmotionblurredimages[J].IEEEAccess,2019,7:181142-181151.[16]OTSUN.Athresholdselectionmethodfromgray-levelhistograms[J].IEEETransactionsonSystems,Man,andCybernetics,1979,9(1):62-66.[17]GASTALESL,OLIVEIRAMM.Domaintransformforedge-awareimageandvideoprocessing[J].Eurographics,2010,29(2):753-762.(上接第150页)[4]KAZEMIFM,SAMADIS,POORREZAHR,etal.VehiclerecognitionusingcurvelettransformandSVM[C]//Proc.ofthe4thInternationalConferenceonInformationTechnology.LasVegas,NV,USA:IEEE,2007:516-521.[5]FREUNDY,SCHAPIRERE.Adecision-theoreticgeneralizationofon-linelearningandanapplicationtoboosting[J].JournalofComputerandSystemSciences,1997,55:119-139.[6]LIUWei,ERHAND,SZEGEDYC,etal.SSD:Singleshotmultiboxdetector[C]//EuropeonConferenceonComputerVision(ECCV).Switzerland:Springer,2016:21-37.[7]REDMONJ,DIVVALAS,GIRSHICKR,etal.Youonlylookonce:Unified,real-timeobjectdetection[C]//IEEEConferenceonComputerVisionandPatternRecognition.LasVegas,NV,USA:IEEE,2016:779-788.[8]REDMONJ,FARHADIA.YOLOv3:Anincrementalimprovement[J].arXivpreprintarXiv:1804.02767,2018.[9]LINTY,GOYALP,GIRSHICKR,etal.Focallossfordenseobjectdetection[C]//IEEEInternationalConferenceonComputerVision(ICCV).Venice,Italy:IEEE,2017:2980-2988.[10]GIRSHICKR.FastR-CNN[C]//IEEEInternationalConferenceonComputerVision(ICCV).Santiago,Chile:IEEE,2015:1440-1448.[11]RENShaoqing,HEKaiming,GIRSHICKR,etal.FasterR-CNN:Towardsrealtimeobjectdetectionwithregionproposalnetworks[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2016,39(6):1137-1149.[12]BOCHKOVSKIYA,WANGCY,LIAOHYM.YOLOv4:Optimalspeedandaccuracyofobjectdetection[J].arXivpreprintarXiv:2004.10934,2020.[13]AZHARMIH,ZAMANFHK,TAHIRNM,etal.PeopletrackingsystemusingDeepSORT[C]//10thIEEEInternationalConferenceonControlSystem,ComputingandEngineering(ICCSCE).IEEE,2020:137-141.751第4期李浩伟,等:基于LBP特征与图像显著性的散焦模糊区域检测。
基于视觉传感器的智能车控制算法设计
Ab ta t I i u d r t e b c g o n f t e t “ r e c l u n t n l n e g a u t s s r c r c n e t .I d srb s h s r c : t S n e h a k r u d o h 4 h F e s ae c p a i a u d r d ae ma a o t s ” t e c e te o r t i
l s l h t e e ms u e I o h o u z o t lo t m amo t al t e o h r t a s d P D ag rt m r f z y c n r l ag r h .T e c r s a e a e s e d w s u o 3. s i o lx l i o i h a v r g p e a p t 3 m/ n a c mpe
4. h c o lo lcrnc a d Ifr t n E gn eig T e S h o f Ee to i n nomai n ie rn ,Xi n Ja tn nv ri ,Xia 1 0 9, ia o a ioo g U ie t s y n 7 0 4 Chn )
摘 要 :以 第 四届 “ 思 卡 尔 ” 全 国 大 学 生 智 能 汽 车 大 赛 为 背 景 , 绍 了 基 于 视 觉 传 感 器 , 包括 方 向控 制 和 速 度 控 制 。 PD 算 法 或 模 糊 控 制 算 法 几 乎 为 所 有 参 赛 队 伍 所 采 用 的 背 在 I 景 下 , 出 了 “ 优 曲 率 法 ” 并 使 用 与 之 配 合 的 “ 婪 路 径 规 划 ” 法 。该 小 车 在 复 杂 赛 道 上 的 平 均 速 提 最 , 贪 算
基于图像处理的智能车辆设计
基于图像处理的智能车辆设计王洋(南昌大学信息工程学院,南昌33003I)产品与应用摘要介绍了自行设计的视觉导航的智能车,它综合应用了图像处理、单片机控制、数据通信等相关理论。
智能车的设计包括软件、硬件两部分内容。
软件设计包括图像处理、电机控制、数据通信等内容。
硬件设计包括控制系统硬件组成,电机驱动控制电路设计。
在不同条件下试验证明,该智能车系统实时性好.工作稳定。
关键词:智能车;图像处理;电机控制;数据通信T he D esi gn of V i si on-B a sed V echi cl eW ang Y an g(C ol l ege of I n f or m at i o n E ngi neer i ng,N anchang U ni ver s i t y,N anchang330031)A bs t r act T he vi si on—base d ve c hi c l e i nt e gr a t e s t he i m a ge proces s i ng appl i c at i ons,s i ngl e chi pc ont r ol。
da t a com m uni c at i ons a nd ot he r r el a t e t he or i e s.V i si on.bas ed vec hi c l e des i ng i nc l ude ss oft w ar e and har dw ar e.Sof t w ar e des i gn i nc l udes i m a ge pr o ces s i ng,el ect r om ot or con t r ol,da t a com m uni cat i ons and ot her con t ent.H ar dw ar e des i gn i ncl ud es t he com posi t i on of t he cont rol s ys t em har dw a r e.t he des i gn of el e ct r i c al cont rol dri ven c i r cui t s.A nd t he r esu l t s al s o s how t ha t t he cont r ol l e r has e ff i c i e nc y and per f or m ance of st a bl e w or k.K ey w or d s:vechi cl e:i m age process i ng a ppl i c at i ons;el ec t rom ot or cont rol:dat a com m uni cat i ons1引言和速度进行实时控制。
基于摄像头传感器的智能车循迹算法设计方案
基于摄像头传感器的智能车循迹算法设计方案智能车循迹算法设计是一个面向摄像头传感器的重要问题。
在该设计方案中,我们将使用摄像头传感器获取实时图像,并通过算法对车辆的行驶轨迹进行识别和监控。
1.硬件配置首先,我们需要准备一辆小型车辆,安装上摄像头传感器,以便获取行驶过程中的实时图像。
摄像头传感器应具备高清晰度、广角和长距离拍摄等特点,以确保获得准确的图像信息。
2.图像采集和处理摄像头传感器将连续获取车辆行驶过程中的实时图像,这些图像将用于车辆循迹算法的识别和处理。
在图像采集过程中,需要优化传感器的曝光、对焦和白平衡等参数,以确保图像的清晰度和准确性。
在图像处理方面,我们可以借助计算机视觉技术,使用图像处理算法对采集到的图像进行预处理。
预处理的目标是提取图像中的目标物体,并将其转换为二值图像,以便后续的轨迹识别和分析。
3.循迹算法设计循迹算法是整个智能车循迹系统的核心。
其主要任务是通过分析图像中的车道线信息,实现车辆的自动循迹。
在循迹算法的设计中,我们可以采用以下步骤:步骤1:车道线检测步骤2:车道线跟踪检测到车道线后,接下来需要对其进行跟踪。
可以使用基于Hough变换或RANSAC算法的直线拟合方法,通过拟合检测到的车道线点集,得到车道线的方程参数。
步骤3:车辆偏离检测根据车道线的方程参数,可以计算出车辆与车道线之间的距离,进而判断车辆是否偏离了轨迹。
如果车辆偏离了轨迹,可以通过调整车辆的方向盘或驱动电机,使车辆重新回到正确的行驶轨迹上。
4.实时控制和反馈在循迹算法的实现中,需要实时控制车辆的转向和行驶速度。
可以通过与车辆的控制系统进行接口设计,将算法计算得到的转向角度和速度信息传递给车辆控制系统。
总结基于摄像头传感器的智能车循迹算法设计方案,包括硬件配置、图像采集和处理、循迹算法设计和实时控制与反馈等关键步骤。
通过对摄像头传感器获取到的图像进行车道线检测、跟踪和车辆偏离检测,可以实现智能车的自动循迹和行驶控制,提高行驶的准确性和安全性。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
ห้องสมุดไป่ตู้VO . 6 NO. 13 6
( trl cec dt n Na a S i eE io ) u n i
J ne 20 u o8
文 章编 号 : 005 5 2 0 )6 09 —5 10 .6 X( 08 0 —0 00
基 于视 觉 和 后 推 方 法 的 智 能 车 轨迹 跟踪 控 制 水
不完 整 系统 不 能通过 连续 和可 微 的纯状 态反馈 达到
能 , 系统通 过识别 指 定公路 路 面 的标 志 线 , 定允 此 确 许智 能 车安全 行驶 的有 效 区域 , 而 进 一 步规 划 出 从 跟踪 控制 器所 需要 跟 踪 的 行驶 轨 迹 . 道标 志线 识 车 别 主要 包 含 以下 3个 步骤 : 边缘 抽 取和 二值 化 、 道 车 线提取、 建立 车 道线模 型 .
运 动 学模 型 转换 为链 式 系统模 型 , 同时利 用后 推 方法设 计控 制律 , 克服 了采 用动 态反馈 线
性化 方 法设计 的控 制 器维数较 高以及 滑模 变结 构控 制 器 易 出现 高频抖 振 的 缺 点. 真 结 仿 果表 明 : 方 法具有较 好 的轨迹 跟踪控 制 效果 和全局 稳 定性. 该
1 1 边 缘 抽 取 和 二 值 化 .
在 通 常情 况 下 , 道 标 志线 一般 都具 有 比较 强 车
的边缘 , 因此 先对 道 路 图 像进 行 边 缘 抽 取 . 目前 , 用
于边 缘 抽 取 的 常用 算法 有 : oe s 子 、alc R b, 算 Lpae算 计出了动态跟踪控制器 , 但该方法使得控制器维数 子、r i 算子 、 an 算 子、oe 算 子等. 合考 Pe t wt C ny Sbl 综 较 高. hcl C aa 等 及 Y n ag等 设 计 出 了 滑模 变 结 虑 实 时性 和实 际处理效 果后 , 文 中选 择 了 Sbl 本 oe算 构控制器 , 但是该方法会给控制带来高频抖振. 李胜 子 对道路 图像 进 行 边缘 抽 取. 1 a 所示 为 未经 处 图 () 等 、 俊艳 等 提 出 了基 于 误 差 模 型 的 B cs . J徐 akt e 理 的原始车道 图像 , 边缘抽取效 果如 图 1 b 所示 . () pig pn 设计 方 法 , 是 控 制 设 计相 对 复 杂 . 但 由于 链 式 道 路 图 像 经 过 边 缘 抽 取 后 仍 含 有很 多 无 用 信 系统模 型可 以将非 完整 系统 的难 点 以很 简单 的形式 息, 需采用 二 值化对 其进 行 处 理 以提 取 包 含 车 道标 表 达 出来 , 于此 的控 制设计 也将 变得 相对简单 . 基 因 志线在内的有用信息. 由于天气 、 光线等不确定因素 此, 本文 中首先 通过 基 于 视 觉 的 车 道标 志 线识 别 系 的存在 , 为提高处理结果的鲁棒性和 自适应性 , 二值 统建 立控制 系统 的期 望 跟踪 轨 迹 , 后 建立 了智 能 然 化要解 决 的是 自动 最 佳 阈值 的确 定 问题 , 佳 阈值 最 车链式 系统模 型 , 再针 对该模 型 设计 了 B c s p ig akt pn 的确定 方 法主要 有 : 大 熵 法 、 维 直 方 图法 、 e 最 二 分水 控制器 , 最后 通过 仿 真 验 证 了该 控 制 器 能够 达 到 很 岭 法 、 别分 析法 等 . 文 中采用 判别 分析 法来 确定 判 本 好 的控 制效果 , 有 良好 的全局稳 定性 . 具 最佳 阈值 , 准则 就 是 使进 行 阈值 处 理 后分 离 的像 其 素类 之 问 的类 问方 差 最 大 . 方 法 只 需计 算 直 方 图 此 1 基 于视 觉 的车 道 标 志 线/  ̄ yl ,j 的 0阶矩 和 1阶矩 , 因此实 时性得 到 了较 好 的满 足. 车 道 标 志 线 识 别 是 智 能 车 视 觉 系统 的 基 本 功 二值 化效 果如 图 1 c 所 示. ()
渐近 稳定 , 这使 得智 能 车 的 轨 迹跟 踪 控 制 只能 寻 求 不连 续控 制律 、 时变控 制律 或 合控 制律 、 昆 在前人 的 研 究 中动态 时变 反馈 线 性 化 、 模 变 结 构控 制 和 后 滑
推 ( akt pn ) 制 是 几 种 主 流 的 控 制 方 法 . B c s p ig 控 e DA de . oe 等 采用 动 态 反馈 线 性化 的方 法设 ’n raN v l
卞建 勇 徐建 闽 胡跃 明
(. 1华南理工大学 土木与交通学院 , 广东 广州 50 4 ; . 160 2 华南理工大学 自动化科学与工程学院 , 东 广州 5 0 0 广 16 ) 4
摘
要 :通过 基 于视 觉的 车道标 志线识 别 系统 建 立 智 能车 的期 望跟 踪 轨迹 , 并将 智 能 车
关键词 : 车道标志线识别; 智能车; 链式 系统 ; 视觉; 后推方法; 轨迹跟踪 中图分类号 : P 4 T 2 文献标识码 : A
由于智 能车车 轮与 地 面之 间有不可 避免 的滚动
约束 , 得智 能车 系统 成 了最 典 型 的非 完 整 控制 系 使 统 3. rc e 的反 馈渐 近稳 定性 必要 条 件指 出 , 1 Bok t - ] t
维普资讯
华 南 理 工 大 学 学 报 (自 然 科 学 版 )
第3 6卷 第 6期 20 08年 6月
J u n lo o h Ch n i e st f Te h l g o r a fS ut i a Un v r iy o c no o y