基于视频的目标跟踪

合集下载

基于视频的目标跟踪

基于视频的目标跟踪
事件检 测的重要手段 。 基于 目 标 区域 和 目 标特征点 的跟踪 方法既 简单又快捷。 目 标 区域 的跟踪主要工作是对 目 标物重心的提取 。 并对重心进行 跟踪。 而目标特征跟踪首先是对 目标物体特征 点的提取 , 提取 完毕后 , 对特征点进行跟踪 , 跟踪的方法主要采用模版 匹配。 基于视频的 目标跟踪 主要 讨论 了这两种 方法。基 于视频的 目 标跟踪主要的 目的就是交通事件的检 测。
点 否则不是 目标物的特 征点 。 ’ 2 . 2 特 征 点 的 跟 踪 特征点跟踪是根据第 i 帧中得 到的模 板在第 i + 1 帧得到匹配最佳
的 目标区域。 影 响跟踪效果好坏 的四个 因素为 : 模板 , 候选 目标 , 相似 度的衡量 。本文 的跟踪 方法模 板都是需要更新的 , 即第 i 帧中的模板 在第 1 帧中找到最佳匹配的 目标区域后 .在第 i + 2 帧以i + l 帧中找 到最佳匹配的 目标区域作 为新 的模板 , 以此类推 。 ( 1 ) 模板表示。跟踪方法模板的表示 为特征 点为中心的矩形框 内 的像素值 。 由于 目标帧间运 动小 , 可以为下一帧的搜索指定一个范 围。 模板匹配 的模板以块 ( B l o c k ) 为存储结构的匹配过程就是基于块匹配 。 块 匹配跟踪 的思 想是将视频 图像中的每一 帧图像 分成多个相 互不重 叠 的子 块 ( M N ) . 并 假设块 内所有像 素点的位移矢 量完全是相 同的 , 把分 出来 的每个子块当作实际运动的 目标物体 对于 当前帧 中的每一 个 子块 . 在前一帧 或后一 帧某 一设定 的搜索 范围( K ) 内. 根 据给定 一 / N, i =l, 2, 3, L 一1, L 的匹配准则 , 找到与 当前帧当前块块相似度最高 的子块 , 即为匹配块 。 由上一帧或者下一帧得到的匹配块 . 和当前块 的相 对的位置可以得到 这两帧 的物体运动位移 .所得到的运动位移作 为当前块运动矢量 . 用 D来表示 。 则重心的列 y = i 。 。 设 可能当前 帧中 的运 动位移 的最大矢量 为 D ( d x 。 d r ) . 则 下一 帧 1 . 2 目标区域的重心轨迹分析 M + 2 d x ) * ( N + 2 d y ) 表示。 当前匹配 得到 目标物重心以后 , 进行 目 标 物重心 的跟踪 , 跟 踪的思想 : 得到 的块 的搜索窗 口的相应 的大小可用( 重心后 。 保存重心的行和列 , 第 二帧在上一帧 中的重心 附近进行搜索 , 块与搜索 窗口间的关系可用下图表示 : 搜索 的范 围本文设定为行数块数为 4 块列数 的块数 为 8 块. 如果搜索 到有 目标物 的重 心 . 就认为两帧 为同一 目标物 . 更新重心 的列 和行坐 标, 搜索下一帧 。 本文搜 索的帧数设定为 1 O 帧。 根据每十 帧 目 标物重 心的跟踪轨迹 , 分析 目标物的速度。由于车辆速度较 快 , 行人速度较 慢。 但 阈值 的选 取有困难 。 所 以 目标物 的速度 在本文 中是 十帧的位移 矢量和 . 这样做是为了放大速度之间的差距 。

基于深度学习的视频目标检测与跟踪算法研究

基于深度学习的视频目标检测与跟踪算法研究

基于深度学习的视频目标检测与跟踪算法研究一、引言随着计算机视觉技术的飞速发展,视频目标检测与跟踪在许多领域中发挥着重要作用,如智能监控、自动驾驶、虚拟现实等。

基于深度学习的视频目标检测与跟踪算法,通过深度神经网络的训练与优化,能够在复杂场景中准确地检测出目标物体并进行实时跟踪,具有很高的实用价值。

本文将针对基于深度学习的视频目标检测与跟踪算法进行研究。

二、视频目标检测1.传统方法的不足在传统的视频目标检测算法中,主要采用的是基于特征工程的方法,需要人工提取出适合目标检测的特征并设计相应的分类器。

然而,这种方法存在着特征提取难、特征选择不准确等问题,限制了检测算法的性能。

在大量数据训练的情况下,特征工程的成本也很高。

2.基于深度学习的视频目标检测算法深度学习在计算机视觉领域中的应用逐渐兴起,特别是卷积神经网络(CNN)的兴起使得目标检测算法得到了极大的改善。

基于深度学习的视频目标检测算法主要通过训练一个深度神经网络,使其能够自动学习出目标物体的特征表示,并通过后续的分类器对目标进行识别与定位。

首先,深度神经网络通常包含多个卷积层和池化层,用于提取图像中不同层次的特征。

然后,通过全连接层将提取到的特征与标签进行匹配,训练网络模型。

最后,通过对新的图像样本进行前向传播,得到目标物体的识别和定位结果。

基于深度学习的视频目标检测算法相较于传统方法具有很多优势。

首先,深度神经网络能够自动学习出适用于目标检测的特征表达,避免了人工特征工程的复杂性。

其次,通过大规模数据的训练,深度学习模型能够提高目标检测的准确性和泛化能力。

此外,深度学习算法还能够处理大规模数据集,使得算法具备更好的实时性。

三、视频目标跟踪1.传统方法的不足传统的视频目标跟踪算法通常基于目标的运动模型或者外观模型,但是它们在面对复杂场景时往往表现不佳。

这是因为传统方法无法有效地应对目标形变、光照变化、遮挡等问题,且对复杂背景下的目标无法准确跟踪。

基于视频序列的目标检测与跟踪的开题报告

基于视频序列的目标检测与跟踪的开题报告

基于视频序列的目标检测与跟踪的开题报告一、研究背景随着计算机视觉技术的不断发展和深度学习算法的普及,目标检测和跟踪成为了计算机视觉领域的重要研究方向。

目标检测是指在图像或视频序列中,自动检测出图像或视频中的所有目标,并对其进行定位和分类。

目标跟踪是指在视频序列中,对一个或多个目标进行跟踪,以实现目标的轨迹跟踪。

目标检测和跟踪的应用广泛,包括智能交通领域中的车辆和行人监测、智能安防领域中的人脸识别和行为分析、无人机领域中的目标跟随等。

在实际应用中,视频序列中存在很多干扰因素,例如光照变化、目标尺度变化、目标遮挡等等,这些因素都会对目标检测和跟踪的结果产生影响。

因此,如何提高目标检测和跟踪的鲁棒性和准确性是一个重要的研究课题。

二、研究内容本文拟研究基于视频序列的目标检测与跟踪方法,具体研究内容如下:1. 探究目标检测和跟踪的常用算法,包括传统算法和深度学习算法,并选择其中几种具有代表性的算法进行深入研究和分析。

2. 针对视频序列中存在的干扰因素,研究如何提高目标检测和跟踪的鲁棒性和准确性,包括对目标尺度的自适应调整、对目标的遮挡和漏检的处理等。

3. 设计和实现一个基于视频序列的目标检测和跟踪系统,通过实验对系统进行验证和评价,包括系统的检测和跟踪准确率、系统的实时性和鲁棒性等。

三、研究意义本文的研究意义在于:1. 提供一种基于视频序列的目标检测和跟踪方法,拓展了计算机视觉领域中的研究方向。

2. 提高目标检测和跟踪系统的鲁棒性和准确性,为实际应用提供更为精准和可靠的技术支持。

3. 为其他相关研究提供参考和借鉴,推动计算机视觉技术的发展和应用。

四、研究方法本文主要采用文献调研、算法分析、系统设计和验证实验等方法进行研究。

具体步骤如下:1. 进行文献调研,了解目标检测和跟踪的研究现状和发展趋势,收集和整理相关论文和资料。

2. 对比并分析目标检测和跟踪的常用算法,筛选出具有代表性和优劣比较明显的算法进行深入研究。

智能交通系统中基于视频图像处理的车辆检测与跟踪方法综述

智能交通系统中基于视频图像处理的车辆检测与跟踪方法综述

智能交通系统中基于视频图像处理的车辆检测与跟踪方法综述一、概述随着科技的快速发展和城市化进程的推进,智能交通系统(ITS)已经成为现代交通领域的重要研究方向。

基于视频图像处理的车辆检测与跟踪方法是智能交通系统的重要组成部分,对于提高道路安全、优化交通流量、实现智能交通管理具有重要意义。

基于视频图像处理的车辆检测与跟踪方法主要利用计算机视觉和图像处理技术,对视频序列中的车辆进行自动检测、跟踪和识别。

这种方法可以实时获取道路交通信息,为交通管理和规划提供数据支持。

同时,通过车辆检测与跟踪,还可以实现车辆行为分析、交通事件检测等功能,为智能交通系统的进一步发展提供有力支持。

近年来,随着深度学习、机器学习等人工智能技术的快速发展,基于视频图像处理的车辆检测与跟踪方法也取得了显著的进步。

通过构建深度学习模型,可以实现对车辆目标的准确、快速检测,同时利用多目标跟踪算法,实现对多辆车辆的连续跟踪。

这些技术的发展为智能交通系统的车辆检测与跟踪提供了新的解决方案,也为未来的智能交通发展奠定了坚实的基础。

基于视频图像处理的车辆检测与跟踪方法仍然面临一些挑战,如复杂交通场景下的车辆遮挡、光照变化、动态背景干扰等问题。

未来研究需要不断探索新的算法和技术,提高车辆检测与跟踪的准确性和鲁棒性,以适应智能交通系统的发展需求。

本文将对基于视频图像处理的车辆检测与跟踪方法进行综述,介绍其基本原理、发展历程、现状以及未来的发展趋势。

通过总结现有方法的优点和不足,为未来的研究提供参考和借鉴。

同时,本文还将探讨当前面临的挑战和未来的研究方向,为智能交通系统的进一步发展提供有益的探索和启示。

1. 智能交通系统概述智能交通系统(Intelligent Traffic Systems,ITS)是信息技术、数据通信技术、传感器技术、电子控制技术以及计算机技术的综合应用,旨在构建一种大范围内、全方位发挥作用的实时、准确、高效的综合运输和管理系统。

基于深度学习的视频目标识别与跟踪

基于深度学习的视频目标识别与跟踪

基于深度学习的视频目标识别与跟踪视频目标识别与跟踪是一项基于深度学习的前沿技术,它的应用广泛,包括视频监控、自动驾驶、人机交互等领域。

本文将详细介绍基于深度学习的视频目标识别与跟踪的原理、方法及其在各个领域的应用。

首先,我们先来了解一下视频目标识别与跟踪的概念。

视频目标识别是指在视频中自动识别和定位特定目标的过程,而目标跟踪则是在视频序列中,在帧与帧之间追踪目标的过程。

这两个任务通常是相互关联的,目标跟踪需要先进行目标识别,然后才能进行跟踪。

目前,深度学习在视频目标识别与跟踪任务中取得了巨大的突破。

深度学习通过使用多层神经网络,可以从原始数据中自动学习高层次的特征表示,从而提高目标识别与跟踪的准确性和鲁棒性。

下面我们将重点介绍基于深度学习的视频目标识别与跟踪的方法和技术。

对于视频目标识别任务,常用的深度学习方法包括卷积神经网络(Convolutional Neural Network,简称CNN)和循环神经网络(Recurrent Neural Network,简称RNN)。

CNN可以提取图像的空间特征,通过多次卷积和池化操作可以提取出目标的形状、纹理等特征;RNN则可以利用其记忆性,对时间序列数据进行建模,从而克服目标在不同帧之间的变化。

当前,许多先进的视频目标识别模型如YOLO、Faster R-CNN、SSD等都基于深度学习框架构建,这些模型在目标识别精度和速度上有着较大的改进。

对于视频目标跟踪任务,常用的深度学习方法包括基于卷积神经网络的目标跟踪器和基于循环神经网络的目标跟踪器。

基于卷积神经网络的目标跟踪器通过在两个帧之间匹配特征来实现目标的跟踪,例如Siamese网络、DaSiamRPN等;基于循环神经网络的目标跟踪器则通过对目标在时间序列上进行建模,从而进行目标跟踪,例如LSTM-based目标跟踪器。

这些跟踪器通过不断学习和更新模型,能够在复杂的背景和目标变化的情况下实现准确的跟踪。

视频目标追踪算法及应用场景解析

视频目标追踪算法及应用场景解析

视频目标追踪算法及应用场景解析在当今数字时代,无人机、监控系统、自动驾驶等技术的迅猛发展,使得视频目标追踪成为一个备受关注的话题。

视频目标追踪算法具有广泛的应用场景,可以用于运动分析、智能监控、人机交互等方面。

本文将对视频目标追踪算法及其应用场景进行深入解析。

视频目标追踪是指从连续的视频序列中,准确地跟踪特定目标并提取其运动信息的一项技术。

其主要目标是在视频中对感兴趣的目标进行连续、准确、鲁棒的跟踪。

视频目标追踪具有许多不同的算法,下面将介绍其中几种主要的算法。

首先是基于颜色特征的视频目标追踪算法。

这种算法通过分析目标的颜色信息,将目标与周围背景进行区分,从而实现目标的追踪。

该算法比较简单,但对于光照变化、目标形状变化等情况不太鲁棒。

其次是基于特征点的视频目标追踪算法。

这种算法通过提取目标图像中的特征点,并跟踪这些特征点的位置变化来实现目标追踪。

该算法对于目标形状变化、旋转、尺度变化等情况有较好的适应性,但对于光照变化和目标遮挡等情况仍然比较敏感。

另一种常见的算法是基于深度学习的视频目标追踪算法。

深度学习通过构建深度神经网络模型,能够自动学习图像和视频中的特征表示。

通过将大量标注的视频数据输入深度神经网络,网络可以学习目标的外观、形状、运动等特征,从而实现目标的准确追踪。

相比传统算法,基于深度学习的视频目标追踪算法具有更高的准确性和鲁棒性。

视频目标追踪算法具有广泛的应用场景。

其中之一是运动分析。

通过对目标的运动轨迹进行分析,可以了解目标的活动范围、速度、加速度等信息。

这对于交通监控、行为认知与预测等领域具有重要意义。

视频目标追踪还可应用于智能监控系统中。

借助视频目标追踪技术,可以实时监测特定区域的目标,如行人、车辆等。

该技术可以用于安防监控、物流管理、智能交通等领域,提高监控系统的效能和准确性。

此外,视频目标追踪还在虚拟现实(VR)和增强现实(AR)领域有广泛应用。

通过追踪用户的手势、表情、头部运动等目标,可实现更自然、沉浸式的人机交互体验。

基于视频图像的目标跟踪系统设计

基于视频图像的目标跟踪系统设计

a c h i e v e t h e t a r g e t o f l a r g e - s c a l e ,h i g h — p r e c i s i o n a u t o ma t i c t r a c k i n g .
Ke y wo r d s : I ma g e a c q u i s i t i o n; I ma g e i n f o r ma t i o n p r o c e s s i n g ; Ta r g e t i d e n t i f i c a t i o n; Ta r g e t t r a c k i n g
第2 1 卷 第 2期
2 0 1 3年 4月
安 徽 建 筑 工 业 学 院 学报 ( 自然科学版)
o f Ar c h i t e c t u r e& I n d u s t r y J o u r n a l o f An h u i I n s t i t u t e
法正确地处理 图像信息 、 识 别 目标 。通过对水平 和垂直 驱动 电机 的控制 , 实 现三维 目标跟 踪。能够实现 系统 对 目标 的大范 围, 高精 度的 自动 跟踪 。 关键词 : 图像 采集 ; 图像信息处理 ; 目标识别 ; 目标跟踪
中图分类 号 : T P 3 9 1 . 4 1 文献标识码 : A 文章编号 : 1 0 0 6 — 4 5 4 0 ( 2 0 1 3 ) 0 2 — 0 8 0 - 0 4
Ab s t r a c t : S t u d i e d i n t h e c o n t e x t o f a s i mp l e i mp l e me n t a t i o n o f i ma g e r e c o g n i t i o n a n d t r a c k i n g .S TM 3 2

视频目标跟踪技术的研究及应用

视频目标跟踪技术的研究及应用

视频目标跟踪技术的研究及应用随着科技的不断发展,视频目标跟踪技术已经被广泛应用于安防、智能交通、医疗等领域。

本篇文章将从技术原理、优缺点分析、应用场景以及未来发展等方面进行探讨。

一、技术原理首先,我们需要了解视频目标跟踪技术的基础知识。

视频目标跟踪技术是指通过计算机视觉等技术手段,对视频中的特定目标进行跟踪、定位和识别的过程。

技术实现的一般思路是首先在视频帧中通过目标检测算法检测出待跟踪的目标,然后通过跟踪算法对目标进行追踪。

其中,跟踪算法又分为基于特征和基于深度学习的两种方式。

基于特征的目标跟踪算法常用的是判别式跟踪算法,该算法利用目标的特征对目标进行跟踪,如颜色、纹理、形状等。

常见的包括KCF、TLD、MOSSE等算法。

这些算法快速、高效,能够在实时处理视频时满足实施要求,但对于目标的遮挡、快速移动等场景表现不够理想。

而基于深度学习的目标跟踪算法是近年来的新兴技术,相较于基于特征的算法具有更好的对抗目标姿态变化、光照变化、背景干扰等方面的鲁棒性。

例如,Siamese网络、SiamRPN等算法拥有高效的推理速度及较好的识别性能。

相比基于特征的算法,基于深度学习的算法所需要的计算能力和硬件设备要求比较高,因此它们常常采用GPU进行加速。

二、优缺点分析目标跟踪技术在应用中的优缺点也是需要我们考虑的。

优点:1.实时性:目标跟踪技术能够实现实时处理,能够在毫秒级别内完成对目标的跟踪,满足实时性的需求。

2.鲁棒性:基于深度学习的目标跟踪算法具有很强的鲁棒性,适用于复杂的环境中,能够应对光照变化和背景混杂等复杂问题。

3.可扩展性:针对不同场景的跟踪需求,目标跟踪技术应用灵活多样,可根据需求进行定制。

缺点:1.精度:针对一些目标需要进行精确定位的场景,目标跟踪技术的精度相对于检测技术仍有提升空间。

2.计算量:基于深度学习的目标跟踪算法所需要的计算量相较于基于特征的算法更高,因此需要较高的计算资源。

3.可靠性:在目标跟踪过程中,一些干扰项如背景混杂等因素会影响目标跟踪的可靠性,因此需要综合考虑处理复杂环境的能力。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

基于视频的目标跟踪
【摘要】基于视频的目标的跟踪是交通事件检测的一种重要方法,对视频中的目标物提取之后,再对目标物的跟踪是现代基于视频交通事件检测的重要手段。

基于目标区域和目标特征点的跟踪方法既简单又快捷。

目标区域的跟踪主要工作是对目标物重心的提取,并对重心进行跟踪。

而目标特征跟踪首先是对目标物体特征点的提取,提取完毕后,对特征点进行跟踪,跟踪的方法主要采用模版匹配。

基于视频的目标跟踪主要讨论了这两种方法。

基于视频的目标跟踪主要的目的就是交通事件的检测。

【关键词】跟踪;区域;重心;特征点
1 目标区域的重心跟踪
1.1 目标区域的重心
我们利用连通域标记[1]来判断行人。

根据连通域的外接矩形的重心的跟着轨迹来判断行人。

目标区域由于背景提取和二值化的偏差,目标物的中心往往不是目标物的重心。

所以本文根据目标区域计算目标区域的重心[2]。

从而对重心进行跟踪。

由于二值化的影响使连通域标记的外接矩形的不能更好的反应
目标物地真实情况。

现在为了避免上述情况,本文在确定外接矩形前进行二值化投影。

先进行行投影。

统计每行中的块为白色的块数,再进行列投影,统计每列中的块为白色的块数。

根据行投影和列投影计算目标物的重心。

以重心的列的坐标计算为例,其计算思想:设图像目标物块数为n,列数为[0,l-1],对
应列i的目标物块数为n■,几率为:
p■=n■/n,i=1,2,3,l-1,l
■p■=1
则重心的列y=i*pi。

1.2 目标区域的重心轨迹分析
得到目标物重心以后,进行目标物重心的跟踪,跟踪的思想:得到重心后,保存重心的行和列,第二帧在上一帧中的重心附近进行搜索,搜索的范围本文设定为行数块数为4块列数的块数为8块,如果搜索到有目标物的重心,就认为两帧为同一目标物,更新重心的列和行坐标,搜索下一帧。

本文搜索的帧数设定为10帧。

根据每十帧目标物重心的跟踪轨迹[3],分析目标物的速度。

由于车辆速度较快,行人速度较慢,但阈值的选取有困难,所以目标物的速度在本文中是十帧的位移矢量和,这样做是为了放大速度之间的差距。

2 目标区域特征点的跟踪
2.1 特征点的选取
目标物的特征点[4]的选取直接影响到目标物的跟踪,所以选取目标物的特征点要有代表性和特征性。

本文选取目标物的棱角作为它的特征点。

特征点选取思想:在目标物的左右边缘两侧的像素的灰度值差别是非常大的,一侧是目标物本身,另一侧为背景,同样,在目标物的上下边缘两侧的像素得灰度值差别也是非常大的,一侧是目标
物本身,另一侧为背景。

所以我们利用目标物左右和上下边缘两侧的像素灰度差的来选取特征点。

特征点选取过程:
(1)搜索图像,当搜索到目标物上的像素时(目标物像素值为255,背景像素值为0)计算它的左上与右上像素灰度值的差,正前与正后的像素灰度值差,左下与右下的像素灰度值差,并将他们之差的绝对值求和。

(2)当求得的和大于所设定阈值时,认为这一点在目标物的边界上。

(3)对(2)中的点计算它的左上与左下的像素灰度值差,正上与正下的像素灰度值差,右上与右下的像素灰度值差,并将他们之差的绝对值求和。

(4)当求得的和大于所设定阈值时,认为这一点是目标物的特征点。

否则不是目标物的特征点。

2.2 特征点的跟踪
特征点跟踪是根据第i帧中得到的模板在第i+1帧得到匹配最佳的目标区域。

影响跟踪效果好坏的四个因素为:模板[5],候选目标,相似度的衡量。

本文的跟踪方法模板都是需要更新的,即第i 帧中的模板在第i+1帧中找到最佳匹配的目标区域后,在第i+2帧以i+1帧中找到最佳匹配的目标区域作为新的模板,以此类推。

(1)模板表示。

跟踪方法模板的表示为特征点为中心的矩形框内的像素值。

由于目标帧间运动小,可以为下一帧的搜索指定一个
范围。

模板匹配的模板以块(block)为存储结构的匹配过程就是基于块匹配[6]。

块匹配跟踪的思想是将视频图像中的每一帧图像分成多个相互不重叠的子块(m*n),并假设块内所有像素点的位移矢量完全是相同的,把分出来的每个子块当作实际运动的目标物体。

对于当前帧中的每一个子块,在前一帧或后一帧某一设定的搜索范围(k*l)内,根据给定的匹配准则,找到与当前帧当前块块相似度最高的子块,即为匹配块。

由上一帧或者下一帧得到的匹配块,和当前块的相对的位置可以得到这两帧的物体运动位移,所得到的运动位移作为当前块运动矢量,用d来表示。

设可能当前帧中的运动位移的最大矢量为d(dx,dy),则下一帧的块的搜索窗口的相应的大小可用(m+2dx)*(n+2dy)表示。

当前匹配块与搜索窗口间的关系可用下图表示:
图1 匹配块与搜索窗口关系示意图
对视频图像中的每个含有目标的块(8*6)进行跟踪,从而可以得到目标的运动轨迹。

(2)候选目标表示。

候选目标的表示为和特征点为中心的矩形框内灰度值。

(3)目标物特征点的相似度衡量。

相似度衡量是根据相应的计算来完成的,相关计算值大的表示相似程度高。

在计算相似度的衡量上用的函数最小平均绝对差值函数:
最小平均绝对差值函数(mad):
mad(i,j)=■■■t(m,n)-f(m+i,n+j)
3 结语
目标物体的跟踪是判断交通事件的重要途径,区域的跟踪和目标特征点的跟踪是要基于图像二值化,图像二值化的准确程度直接决定了跟踪的准确性,特别是特征点的跟踪。

当多个目标物体出现重叠或者遮挡时,区域的跟踪和目标特征点的跟踪的方法就失去了作用。

所以目标物体的遮挡问题是今后应该重点研究的方向。

【参考文献】
[1]黄卫,陈里得.智能运输系统(its)概述[m].北京:人民交通出版社,2001.
[2]黄若芸,莫玉龙.用于智能交通“车流量监测”的压缩域内运动目标监测[j].上海大学学报,2003,9(2):100-104.
[3]于艳玲.视频检测中的的车辆速度检测技术研究[d].西安:长安大学,2009.
[4]高红波,王卫星.一种二值化图像连通区域标记的新算法[j].计算机应用,2007.
[5]章毓晋.图像工程(上册):图像处理和分析[m].北京:清华大学出版社,1999: 256-265.
[6]肖志坚.h.264帧间编码技术的分析与改进[d].西安:西安电子科技大学, 2005.
[7]彭小宁,杨明.基于局部图金字塔的不规则块匹配视频分割方法[j].计算机科学, 2008.。

相关文档
最新文档