基于动态窗口的运动车辆颜色特征提取算法

合集下载

无人驾驶汽车中的图像处理与目标检测技术研究

无人驾驶汽车中的图像处理与目标检测技术研究

无人驾驶汽车中的图像处理与目标检测技术研究随着科技的不断进步和人们对智能交通系统需求的增加,无人驾驶汽车成为了汽车行业的新热点。

而无人驾驶汽车的核心技术之一就是图像处理与目标检测。

本文将科普无人驾驶汽车中的图像处理与目标检测技术,揭示其重要性及应用。

一、图像处理1. 图像传感器图像传感器是无人驾驶汽车中图像处理的起点。

无人驾驶汽车通常配备了多种传感器,如摄像头、激光雷达等。

其中,摄像头是最常用的图像传感器之一,它可以感知车辆周围的环境,采集图像数据。

2. 图像采集与预处理图像采集是指摄像头获取实时图像的过程。

得到的图像数据需要进行预处理,包括去噪、调整图像亮度、对比度等,以提高图像质量和准确性。

此外,还需要进行图像校准,消除摄像头畸变等。

3. 特征提取与图像识别特征提取是图像处理的核心环节。

通过提取图像中的关键特征,如边缘、纹理、颜色等信息,可以帮助识别和跟踪目标。

图像识别算法能够将图像中的内容与已有的数据进行匹配,从而识别出不同的目标,如路标、行人、车辆等。

4. 图像分割与分类图像分割是将图像中不同的区域划分出来,以便更好地理解和处理。

通过图像分割技术,可以将车辆、行人等目标从背景中分离出来,为目标检测奠定基础。

图像分类是将图像划分为不同的类别,如道路、交通标志等,以进一步分析和理解图像。

二、目标检测1. 目标检测算法目标检测是指在图像中准确地定位和识别出不同的目标。

无人驾驶汽车需要通过目标检测算法来检测和识别道路、行人、车辆等。

传统的目标检测算法包括基于模板匹配、基于滑动窗口和分类器、基于特征提取等方法。

而随着深度学习的发展,现代目标检测算法如卷积神经网络(CNN)、区域卷积神经网络(R-CNN)等也得到了广泛应用。

2. 目标跟踪与预测目标跟踪是无人驾驶汽车中的重要任务之一。

通过目标跟踪技术,无人驾驶汽车可以实时地跟踪和预测行人、车辆等目标的位置和运动轨迹。

这对于实现智能行驶、避免碰撞等至关重要。

基于颜色直方图的颜色特征提取

基于颜色直方图的颜色特征提取

推 出 了 以 IBM 的 QBIC[1]和 VIRAGE 的 VIR( Visual Information 3. HSV 空间的非等间隔量化
Retrieval) 图像引擎等为代表的一系列成功的产品。
将 h, s, v 3 个 分 量 按 人 的 颜 色 感 知 进 行 非 等 间 隔 的 量 化 ,
由于区域颜色分布具有局域性, 有的颜色出现的很少, 为了 不敏感, 具有相当强的鲁棒性。同时, 在许多情况下, 颜色又是描
简化直方图描述, 有必要对其进行优选。一种基于阀值的颜色集 述一幅图像最简便而有效的特征。人们对于一幅图像的印象, 往
(color set)的思想是针对颜色直方图中每个颜色项 k, 引入阀值 T 往从图像中颜色的空间分布开始。所有这些都促使颜色成为基
HSV 空间的 H, S, V 值, 可设 v'=max(r, g, b), 定义:{r' , g ' , b'}为:
r'=(v'- r)/(v'- min( r , g, b))
(1)
g'=(v'- g) /(v'- min( r , g, b ))
(2)
b'=(v'- b)/(v'- min( r , g, b ))
96
福建电脑
2007 年第 5 期
基于颜色直方图的颜色特征提取
巩艳华 1, 朱爱红 1, 代凌云 2
( 1. 海军航空工程学院, 山东 烟台 264001 2. 曲阜师范大学日照校区信息技术传播学院 山东 日照 276826 )
【摘 要】: 本文首先介绍了几种常用的颜色空间, 并说明了他们之间的转换方法, 利用常用的 HSV 空间说明了几种常 用的颜色特征的提取方法。
HSV 模型, 因此在这里需要 RGB 到 HSV 的转换。

基于视频的车流量统计算法

基于视频的车流量统计算法

基于视频的车流量统计算法常志国;李晶;胡云鹭;郭茹侠【摘要】The vehicle counting algorithm based on virtual line inevitably exists the possibility of missing and error. Concerning this issue, this paper extracts and combines two types of image information- the virtual lines’ relative positions with the objects and its pixel value variance, then a new vehicle segmentation and counting method is proposed. First, it determines the relative positions between the objects and the virtual lines, and combines with the variance of virt ual lines’ pixel value. With these information, it can improves the accuracy of the traffic flow by means of dividing vehicles. A testing system is developed for testing the performance of the method. The system has run in some kinds of weather, and its result is analyzed. The results show that the method has excellent performance both in real-time and accuracy in the daytime and the accuracy was above 95% for each lane of traffic. But the performance in the nighttime may not be optimal. Therefore, improvement is planned to make during following research.%基于虚拟检测线的车辆计数算法不可避免地会出现漏检和误检问题。

一种基于SVM和HOG特征的视频车辆识别算法

一种基于SVM和HOG特征的视频车辆识别算法

• 74•图2 运行界面②快递员模块功能(a)首页:包括“物流查询”,“查看寄快递费用”,“实名注册”,“订单查询”。

(b)收件:包括“快递编号”,“联系电话”,“收件时间”,“地址派送位置”。

(c)寄件:包括“帮寄件”“查找快递员”,“选择寄件的快递公司”。

(d)个人中心:包括“登录”,“添加地址”,“钱包”,“设置”,“问题反馈”。

(e)订单:包括“已完成的订单”,“正在进行的订单”,“订单费用”。

(f)派件:包括“抢单”,“确定派件时间”。

订单模块,如图1所示。

3.系统实现限于篇幅,进介绍部分功能的实现和运行界面。

如图2(a),(b)所示。

(a)图为当用户登录后的界面,有基本的寄件取件等功能。

(b)图为当想为别人代取快递是的界面,需要进行实名制认证,通过后即可成为“快递员”,帮别人代取快递。

4.结论本APP目的在于解决当下大学校园快递无人取,没时间取等问题,运用Android开发,后台服务器、MySQL数据库等技术,实现快递代取,快递代送,大学生课余时间通过实名认证成为“快递员”来帮助同学取快递以及赚取“小费”等功能。

经过测试APP使用方便,设计合理,运行可靠,用户体验感好,有效的解决了人们的需求。

西北民族大学国家级大学生创新创业训练计划资助项目(项目编号:201810742070)。

作者简介:汪慧兴(1997—),男,山东济宁人,现就读西北民族大学数学与计算机科学学院2016级软件工程专业。

视频车检技术在智能交通系统(ITS)中具有广泛的应用。

本文基于梯度分布直方图(HOG)和支持向量机(SVM),开发了一种视频车辆识别算法。

首先介绍了车辆特征提取方法,重点论述了选择车前窗作为样本进行特征提取的优势;描述了HOG特征和SVM 的相关原理;考虑实际的应用场景,对扫描窗的尺寸及扫描方式进行了优化。

实验结果表明,本文提出的算法能够适应复杂的道路环境,对视频图像中的车窗识别效果较好。

引言:智能交通系统(ITS )是将通信技术、传感技术、电子控制技术及计算机处理技术有效地集成应用于交通管理而建立的一种全面、实时、准确、高效的综合交通运输管理系统。

智能驾驶系统中的目标检测技术

智能驾驶系统中的目标检测技术

智能驾驶系统中的目标检测技术目标检测技术是智能驾驶系统中的核心技术之一。

它的作用是通过分析车辆周围的环境信息,准确地检测出道路上的行人、车辆、交通标志和道路边界等目标物体,为智能驾驶系统提供准确的感知能力,从而确保驾驶安全。

一、目标检测技术的基本原理目标检测技术主要使用计算机视觉和机器学习的方法,通过图像或视频的处理和分析,实现对目标物体的准确检测和识别。

1. 特征提取目标检测技术首先需要从图像中提取出与目标物体相关的特征。

常用的特征提取方法包括颜色特征、纹理特征和形状特征等。

通过对这些特征进行提取和描述,可以有效地表示目标物体在图像中的位置和属性。

2. 候选框生成在确定目标物体的位置时,目标检测技术会生成一系列候选框。

这些候选框是可能包含目标物体的矩形或者多边形区域。

常用的候选框生成方法有滑动窗口和图像分割等。

通过生成候选框,可以缩小目标物体的搜索范围,提高检测的效率。

3. 目标分类和位置回归在生成候选框后,目标检测技术会对每个候选框进行分类和位置回归。

分类是指判断候选框中是否存在目标物体,常用的分类方法有支持向量机、卷积神经网络等。

位置回归是指根据候选框的位置和特征,对目标物体的精确位置进行修正。

二、目标检测技术在智能驾驶系统中的应用目标检测技术在智能驾驶系统中有着广泛应用,主要体现在以下几个方面:1. 碰撞预警和安全驾驶智能驾驶系统利用目标检测技术可以实时地监测行人、车辆和其他障碍物的位置和动态信息。

当检测到潜在的碰撞风险时,系统会及时发出预警信号,提醒驾驶员采取相应的安全措施,从而大大降低交通事故的发生率。

2. 自动泊车和道路辅助目标检测技术可以帮助智能驾驶系统实现自动泊车和道路辅助功能。

系统可以通过检测停车位周围的目标物体,准确判断停车位的大小和空闲情况,并对车辆进行自动控制,实现自动泊车的效果。

同时,在高速公路上,系统也可以通过检测车道线和其他车辆,提供车道偏离预警和自动跟车辅助功能。

基于机器视觉的避障智能小车系统研究

基于机器视觉的避障智能小车系统研究

基于机器视觉的避障智能小车系统研究一、本文概述随着技术的快速发展,机器视觉在各个领域的应用日益广泛。

特别是在智能移动机器人领域,基于机器视觉的避障技术成为了研究的热点。

本文旨在探讨基于机器视觉的避障智能小车系统的设计与实现,分析其在现代自动化和智能化领域的应用价值。

本文首先介绍了智能小车系统的研究背景和意义,阐述了基于机器视觉的避障技术在智能小车中的重要性。

接着,文章对机器视觉的基本原理和关键技术进行了概述,包括图像采集、预处理、特征提取和目标识别等步骤。

在此基础上,文章详细描述了避障智能小车系统的总体架构和关键功能模块,如环境感知模块、决策控制模块和执行驱动模块等。

文章还深入探讨了避障算法的设计和实现,包括基于规则的避障策略、基于深度学习的避障方法等。

通过对不同避障算法的比较和分析,文章提出了适用于智能小车的优化算法,并进行了实验验证。

实验结果表明,本文设计的基于机器视觉的避障智能小车系统具有较高的避障性能和稳定性,能够适应复杂多变的环境。

文章总结了基于机器视觉的避障智能小车系统的研究成果和贡献,并展望了未来的发展方向和应用前景。

本文的研究不仅为智能小车的设计和优化提供了理论支持和实践指导,也为机器视觉在其他领域的应用提供了有益的借鉴和参考。

二、系统总体设计在《基于机器视觉的避障智能小车系统研究》的项目中,系统总体设计是确保整个避障智能小车系统能够高效、稳定、安全地运行的关键。

在设计过程中,我们充分考虑了硬件和软件两个方面,力求实现系统的高集成度、高可靠性和高适应性。

在硬件设计方面,我们采用了模块化设计思路,将系统划分为多个功能模块,包括传感器模块、控制模块、驱动模块和电源模块等。

传感器模块主要负责采集环境信息,包括摄像头、超声波传感器等,用于获取实时的视频流和距离数据。

控制模块作为系统的核心,负责处理传感器数据,进行图像处理和决策分析,输出控制指令。

驱动模块则负责将控制指令转换为电机的实际动作,驱动小车前进、后退、转弯等。

自适应融合角点特征的Camshift目标跟踪

自适应融合角点特征的Camshift目标跟踪

自适应融合角点特征的Camshift目标跟踪陈丽君;马永杰【摘要】为了能够实时有效地跟踪运动目标,提出了一种新的自适应融合角点特征和颜色特征的Camshift目标跟踪算法。

该算法融合了角点的特征不变性,并采用Mean-Shift算法提供的非参数核密度估计的统计思想,计算各特征的概率密度函数,用Bhattacharyya系数作为相似性度量函数,利用相似性度量值之比自适应地融合角点特征和颜色特征,将得到的新的概率密度分布结合Camshift跟踪算法实现目标跟踪。

测试结果表明,该算法比传统的Camshift算法跟踪效果更好,更准确。

%In order to track moving targets in real time and effectively, in this paper, a new Camshift target tracking algo-rithm is proposed, in which corner features and color features are fused adaptively. The invariance of the corner is com-bined in this algorithm, and the kernel probability density estimation of the Mean-Shift algorithm is used to calculate the probability density function for each feature. Bhattacharyya coefficient is adopted as similarity measure function, then using the ratio of similarity to achieve adaptive fusion of corner and color features. The new probability density distribution and the Camshift tracking algorithm will be combined to achieve the target tracking. Simulation results show that the algo-rithm is better than traditional Camshift algorithm, and tracks object more accurately.【期刊名称】《计算机工程与应用》【年(卷),期】2014(000)024【总页数】5页(P178-182)【关键词】Camshift;特征融合;Harris角点;Bhattacharyya系数;自适应【作者】陈丽君;马永杰【作者单位】西北师范大学物理与电子工程学院,兰州 730070;西北师范大学物理与电子工程学院,兰州 730070【正文语种】中文【中图分类】TP391目标跟踪是计算机视觉重要的研究方向之一,被广泛应用于监控、视觉导航、军事制导、交通等领域[1],但是,目标和背景的外观发生改变,或者目标的突然运动等因素都会加大目标跟踪的难度。

基于视频的交通目标跟踪方法研究

基于视频的交通目标跟踪方法研究

基于视频的交通目标跟踪方法研究雷云;王夏黎;孙华【摘要】交通目标的检测是智能交通系统(ITS)中的一项关键技术,基于视频跟踪方法的检测技术是目前研究的热点.介绍了近年来提出的一些主要的基于视频的运动目标跟踪方法,对各种方法进行了归类,并分析比较了这些方法的优缺点.在此基础上,着重介绍了一种快速运动目标跟踪方法--MeanShift算法.该算法主要利用图像的颜色统计直方图作为特征,利用Bhattacharyya距离作为目标匹配相似性测度,采用梯度优化方法完成对运动目标的快速跟踪.该方法非常适合对交通目标的跟踪.【期刊名称】《计算机技术与发展》【年(卷),期】2010(020)007【总页数】4页(P44-47)【关键词】智能交通系统;视频图像处理;目标跟踪;MeanShift算法【作者】雷云;王夏黎;孙华【作者单位】长安大学信息工程学院,陕西西安710064;长安大学信息工程学院,陕西西安710064;长安大学信息工程学院,陕西西安710064【正文语种】中文【中图分类】U491.1+160 引言随着经济的发展和社会的进步,对交通场景的监控已经成为一个十分重要的课题。

现如今通过摄像机来监控交通场景,早已被广泛应用于社会生活当中,但是在很多场合下,由人来分析视频序列是不合适的。

而基于计算机视觉和图像处理的视觉监控技术提供了一种更加先进和可行的方法,其广泛的应用前景和潜在的商业价值已经引起了国内外学术界和企业界的极大关注。

文中将对视觉交通监控中的交通目标跟踪方法进行研究。

1 常用的目标跟踪算法目标跟踪,就是通过分析然后在视频序列的每幅图像中找到所感兴趣的运动目标的位置,建立起运动目标在各幅图像中的联系。

简单的说就是在视频序列的每一幅图像中对运动目标进行定位。

基于视频或图像序列的交通目标跟踪长期以来都是计算机视觉、数字视频与图像处理和模式识别领域中一个非常重要和活跃的研究课题。

目标跟踪的作用非常重要,因为它是衔接运动目标检测和目标行为分析与理解的一个重要环节。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

一阶颜色矩反映了图像的平均色, 二阶颜色矩描述了图 像颜色分布的一致性。由图 2 和图 3 可以看出, 在车头部分车 体颜色分布相对于其他部分颜色的一致性好得多, 因此可以 用二阶颜色矩来区分车窗和车头, 然后用一阶矩来描述车体 的主要颜色, 提取算法如下:
佟守愚, 郑黎黎, 杨
吉, 等: 基于动态窗口的运动车辆颜色特征提取算法
[2]
2
算法描述
算法基本思路是首先利用背景差分方法提取交通场景中
的车辆, 并剔除车辆阴影对车辆中心定位的影响; 然后根据车 辆中心坐标和车辆类型的不同, 在车辆中心区域开设 3 个动 态窗口, 通过二阶颜色矩来分析比较每个窗口区域内的颜色 一致性; 最后选取颜色一致性最好的区域, 计算其一阶颜色 矩, 并以此作为所检测车辆的主体颜色。算法流程如图 1 所示。
Computer Engineering and Applications 计算机工程与应用
2010, 46 (24)
19
基于动态窗口的运动车辆颜色特征提取算法
佟守愚 1, 郑黎黎 2, 杨 吉 1, 丁同强 2 TONG Shou-yu1, ZHENG Li-li2, YANG Ji1, DING Tong-qiang2
为( x ′c y ′c), 则其颜色特征窗口 (图 3) 的坐标( x ′i y ′ j )按如下公式 (2) 和 (3) 确定, 即先平移, 再按视距深度进行比例缩放:
x͂ i = xi + ( x ′c - x c) y͂ j = y j + ( y ′c - y c) y′ y′ x ′i = c x͂ i y ′ j = c y͂ j yc yc
O
x ′1 x ′2
(2) (3)
X
图1
车辆颜色特征提取算法流程图
y ′1 y ′2 y ′3 y ′4
考虑阴影的影响, 很可能导致如下严重问题: (1) 提取的车辆 中心位置坐标严重偏离实际; (2) 目标类型的判断出现严重错 误。这些都将直接影响到车辆颜色提取窗口的确定, 从而影 响颜色提取的准确性。近年来阴影消除已成为基于视频技术 的交通信息检测研究的一项重要内容[5-8]。文中采用文献[8]提 出的阴影剪除方法。
Y
2.2
车辆中心定位与车型判别
利用图像背景差分方法将车辆目标从背景中提取出来并
图3
车辆颜色特征动态窗口
2.4
车辆颜色信息的提取
确定了车辆的位置后, 就可以根据位置信息进一步获取
剪除阴影, 即可对车辆进行定位, 也就是确定车辆的中心。对 剪除阴影后的差分图像作二值化处理, 得到二值化的车辆图 像。车辆的中心位置可以通过计算各象素点横、 纵坐标相加 求和后取平均来求得车辆的中心位置坐标C ( x c y c), 如下式:
于多色或杂色车辆颜色特征识别效果也在 80%以上。在交通 场景中对运动车辆的颜色特征提取会受到诸多因素的干扰, 如场景中的天气、 光照强度与角度、 车辆的阴影、 车型以及不 同颜色模型的选取等, 因此, 如何克服各种因素导致的颜色提 取失真, 仍是一个有待深入研究的课题。
2010, 46 (24)
21
(1) 根据车辆的中心坐标, 在相应的视频图像中找到车辆 的对应区域, 由中心点沿车体方向开 3 个连续的窗, 如图 3 所示; (2) 求得每个窗内的 RGB 平均二阶颜色矩M i = (r 2 + g 2 + b 2)/3, 计算M min = min(M1, M 2, M 3); (3) 计算与M min相应的区间内的一阶颜色矩(r1, g1, b1)。
型的不同进行动态调整; 颜色提取算法采用 RGB 颜色模型, 利用颜色的一阶矩和二阶矩作为车辆主体颜色的判定依据。算法经 实验验证具有较高的检测精度。 关键词: 运动车辆; 颜色特征; 动态窗口 DOI: 10.3778/j.issn.1002-8331.2010.24.006 文章编号: 1002-8331 (2010) 24-0019-03 文献标识码: A 中图分类号: TP391.41
(4) (5) (6) (7) (8) (9)
相同的不同车辆在视频显示时, 视距远的车辆会比视距近的 车辆小; 即使同一运动辆车, 在不同时刻抓拍到的图像帧, 其 显示的车辆图像大小也必定不同。因此, 在车辆中心区域开 设的 3 个颜色提取窗口的大小应随着车辆中心位置的不同进 行动态调整。即使在摄像机相同视距上, 对于不同大小的车 辆, 其颜色提取窗口的大小也应根据车辆类型不同而进行相 应的动态调整。具体实现过程如下: (1) 在每一车道某一固定位置分别抓拍大、 中、 小 3 种类 型的静止车辆 (称为基准车辆) 图片, 并根据式 (1) 提取基准车 辆的中心坐标( x c y c), 作为后续动态窗口调整时的基准坐标。 (2) 依据车头方向, 沿车辆纵向中心线位置由前至后连续 开设 3 个大小相同的颜色特征提取窗口, 窗口的位置坐标和 尺寸大小根据实验的实际显示状况确定, 并作为后续动态窗 口调整时的基准窗口。图 2 所示的是小型基准车辆颜色窗口 的位置和大小。 (3) 设同一车道小型运动车辆的中心坐标按公式 (1) 提取
2.1
车辆检测与阴影剪除
在车辆中心位置开设窗口时, 需要确定车辆的中心位置
坐标并判别车辆类型。本文利用背景差分方法提取车辆目 标。但该方法的缺点是提取场景内目标时, 将目标和它的阴 影作为一体分割出来, 所以阴影点将被误检为目标点。如不
基金项目: 国家自然科学基金 (the National Natural Science Foundation of China under Grant No.50808093/E0807) ; 中国博士后科学基金 (the Postdoctoral Science Foundation of China under Grant No.20070411000) 。 作者简介: 佟守愚 (1962-) , 男, 博士, 副教授, 主要研究方向: 交通信息工程与控制; 郑黎黎 (1975-) , 女, 博士后, 副教授, 研究方向: 智能交通系统; 杨吉 (1959-) , 副教授, 研究方向: 数学建模; 丁同强 (1977-) , 博士, 副教授, 研究方向: 交通安全。 收稿日期: 2010-03-19 修回日期: 2010-07-09
x c = 1 å xi y c = 1 å yi L i=0 L i=0
L-1 L-1
车辆的颜色信息。由于摄像机是以一定的俯视角度来拍摄车 辆, 挡风玻璃等部分占据了图像中车辆目标区域相当的面积, 对车辆的颜色提取造成很大干扰, 因此如何从目标区域中分 离出带有车辆颜色信息的部分将对颜色信息提取至关重要。 文中就这一问题给出了利用一阶、 二阶颜色矩来区分和描述 车体信息的有效方法。颜色矩是反映一幅图像颜色及其分布 的统计量。一幅用 RGB 表示的大小为 m×n 的图像 f (i j)的一 阶颜色矩(r1 g1 b1)、 二阶颜色矩(r 2 g 2 b 2)表示如下:
1.空军航空大学 基础部, 长春 130022 2.吉林大学 交通学院, 长春 130025 1.Foundational Department, Aviation University of Air Force, Changchun 130022, China 2.College of Transportation, Jilin University, Changchun 130025, China E-mail: shouyutong@ TONG Shou-yu, ZHENG Li-li, YANG Ji, et al.Research on color feature extraction algorithm of moving vehicle based on dynamic puter Engineering and Applications, 2010, 46 (24) : 19-21. Abstract:A dynamic windows based color extraction algorithm of moving vehicle is proposed.The color extraction windows are adjusted according to the vehicle center coordinates and vehicle types in traffic scene.The RGB color model is used in color extraction algorithm.The main color of vehicle is judged by color moment and second moment.Experiments are given to demonstrate the effectiveness and benefits of the proposed method. Key words:moving vehicle; color feature; dynamic window 摘 要: 提出了基于动态窗口的运动车辆颜色提取算法, 其中颜色提取窗口根据车辆中心坐标在交通场景中的位置以及车辆类
r1 = g1 = b1 = r2 = g2 = b2 = 1 å r(i j) m´n å i=0 j=0 1 å g(i j) m´n å i=0 j=0 1 å b(i j) m´n å i=0 j=0 1 å (r(i j) - r1)2 m´n å i=0 j=0 1 å (g(i j) - g1)2 m´n å i=0 j=0 1 å (b(i j) - b1)2 m´n å i=0 j=0
1
引言
运动车辆的分类识别与跟踪技术是智能交通系统 (ITS)
前人研究成果的基础上, 提出了基于动态窗口的运动车辆颜 色提取算法, 其中颜色提取窗口根据车辆中心坐标在交通场 景中位置以及车辆类型的不同进行动态调整。算法经实验验 证具有较高的检测精度。
相关文档
最新文档