视频跟踪实验报告

合集下载

基于特征的视频跟踪算法研究的开题报告

基于特征的视频跟踪算法研究的开题报告

基于特征的视频跟踪算法研究的开题报告一、选题背景及意义随着数字图像和视频技术的发展,视频跟踪(Video Tracking)逐渐成为计算机视觉领域的一个重要分支。

视频跟踪是指在视频序列中自动检测和跟踪目标物体的位置和形状变化。

其中,目标物体可以是人、车辆、动物、物体等。

视频跟踪应用广泛,如视频监控、交通监控、医学诊断、机器人视觉、虚拟现实等领域。

视频跟踪算法的有效性和准确性对其应用的成败至关重要。

在视频跟踪算法中,基于特征的跟踪算法(Feature-based Tracking)是最常用的一种算法。

在该算法中,利用目标物体的特征(例如颜色、纹理等)进行跟踪。

该算法的优势是能够应对目标物体在视频序列中的形变、运动模式变化等情况,而且具有较高的跟踪准确度。

但是,该算法也存在一些问题,如目标物体特征提取的不稳定性和跟踪过程中的困难等。

因此,基于特征的视频跟踪算法研究仍有很大的发展空间。

本文将探讨基于特征的视频跟踪算法的相关问题,分析该算法的优势和不足,提出改进方案,加强算法的稳定性和准确性,提高视频跟踪算法在实际应用中的效果,具有重要的理论和实践意义。

二、研究内容和方法本文将围绕基于特征的视频跟踪算法的提取、匹配和跟踪三个环节进行研究。

(一)特征提取特征提取是视频跟踪中的关键步骤,也是最具有挑战性和难度的环节之一。

本文将分析目前常用的特征提取算法,评估它们的优劣,并探讨如何基于更加优秀的特征提取算法来提高视频跟踪的稳定性和准确性。

(二)特征匹配在视频跟踪的匹配过程中,对于目标物体的特征点进行跨帧匹配是一个关键的问题。

本文将探讨基于特征描述子的匹配算法,并分析其在速度和鲁棒性方面的优劣。

(三)特征跟踪基于特征的视频跟踪算法中,特征跟踪是一个重要的环节。

本文将研究常用的跟踪算法,并评估它们的跟踪效果和准确度。

同时,基于目前的研究成果和实际应用需求,提出改进方案,加强算法的鲁棒性和稳定性。

(四)方法本文将采用实验分析的方法,通过搭建视频跟踪实验平台,测试不同特征提取方法、描述子匹配算法和跟踪算法的性能,对比分析各算法优劣,并提出改进方案。

基于深度学习的视频跟踪技术研究

基于深度学习的视频跟踪技术研究

基于深度学习的视频跟踪技术研究一、引言随着机器学习和人工智能的发展,视频跟踪技术已成为计算机视觉中的一个重要方向。

视频跟踪技术可以帮助人们更好地理解物体的运动规律,从而更好地识别和判断物体的属性和状态。

其中,基于深度学习的视频跟踪技术具有易于实现、拓展性强、准确率高等优势,成为研究的热点之一。

二、基于深度学习的视频跟踪技术基于深度学习的视频跟踪技术主要分为两种:在线跟踪和离线跟踪。

1、在线跟踪在线跟踪是指在目标运动过程中实时跟踪其运动状态。

在线跟踪主要依赖于卷积神经网络(Convolutional neural network,CNN)进行特征提取和目标检测。

目标检测时,根据目标出现的特征点和位置,在图像序列中找到最相关的位置,对目标进行跟踪。

具体实现包括网络训练和目标模型构建两个步骤。

网络训练时,采用回归算法和卷积神经网络,对目标特征进行提取和学习。

目标模型构建时,基于学习到的特征和检测算法,对每一帧图像进行目标检测和跟踪。

2、离线跟踪离线跟踪是指利用已有的数据集对目标进行跟踪预测。

它同样基于卷积神经网络进行特征提取和目标检测。

不同的是,离线跟踪通过对目标数据进行统计分析,建立模型并预测目标运动状态。

三、基于深度学习的视频跟踪技术研究现状基于深度学习的视频跟踪技术已经在很多领域得到了广泛的应用。

下面将从人脸跟踪、目标跟踪和自动驾驶等方面进行研究现状的分析。

1、人脸跟踪人脸跟踪是指在人脸移动过程中实时跟踪其位置状态。

基于深度学习的视频跟踪技术可以通过学习到的特征点和模型建立,追踪人脸的位置并对其进行动态表情分析。

其中,最新的人脸跟踪技术依赖于深度模型和图像分割技术,通过对图像中的颜色、质量和纹理进行分析和组合来提高跟踪精度。

2、目标跟踪目标跟踪是指通过学习目标特征点,在目标移动过程中实现自动跟踪目标的运动状态。

基于深度学习的视频跟踪技术可以利用卷积神经网络提取目标特征,检测跟踪目标的位置,具有准确率高、速度快等优点。

跟踪算法评测实验报告

跟踪算法评测实验报告

一、实验背景随着计算机视觉技术的发展,目标跟踪技术在视频监控、人机交互、自动驾驶等领域发挥着越来越重要的作用。

跟踪算法旨在对视频序列中的目标进行实时检测和定位,从而实现对目标的持续跟踪。

为了评估不同跟踪算法的性能,本实验选取了多种常见的跟踪算法,在相同条件下进行评测,并对实验结果进行分析。

二、实验目的1. 了解不同跟踪算法的基本原理和特点。

2. 评估不同跟踪算法在真实场景下的性能。

3. 分析影响跟踪算法性能的因素。

三、实验方法1. 数据集:本实验选取了公开数据集OTB-2013、VOT2015和VOT2016进行评测。

2. 算法:本实验选取了以下几种常见的跟踪算法进行评测:- 基于颜色特征的跟踪算法:MeanShift、CamShift- 基于模型特征的跟踪算法:SiamFC、SiamMask- 基于深度学习的跟踪算法:ByteTrack、Sort3. 评价指标:本实验采用以下评价指标对跟踪算法进行评估:- 平均精度(AP):计算跟踪算法在数据集中所有测试序列上的平均精度。

- 跟踪成功率(Success Rate):计算跟踪算法在数据集中所有测试序列上的跟踪成功率。

- 平均定位误差(Average Error):计算跟踪算法在数据集中所有测试序列上的平均定位误差。

四、实验结果与分析1. MeanShift和CamShift算法:这两种算法基于颜色特征进行跟踪,具有简单易实现的特点。

然而,在复杂场景下,颜色特征容易受到光照变化和遮挡等因素的影响,导致跟踪效果不佳。

2. SiamFC和SiamMask算法:这两种算法基于模型特征进行跟踪,能够有效地应对光照变化和遮挡等问题。

在OTB-2013数据集上,SiamFC算法的AP值达到0.9以上,SiamMask算法的AP值达到0.85以上。

然而,SiamFC算法在处理运动模糊和快速运动目标时效果较差,而SiamMask算法在处理部分遮挡和尺度变化时效果不佳。

视频跟踪实验报告

视频跟踪实验报告

本次实验是一种基于MATLAB的简易的从视频播放的帧图像中找出目标图像,并进行视频跟踪的实现方法。

通过对图像进行阈值处理(图像分割),再对分割后的图像求取形心,以对目标图像进行定位,并最后找到各幅帧图像的目标位置的方法,从而实现对95帧视频图像的实时跟踪。

图片存于帧图片文件夹!程序算法为Untitled6.m文件!基于MATLAB的图像跟踪算法2.1 95帧视频图像的读取由于视频是由95帧图像通过连续播放从而达到视频的效果的,所以要达到视频放映的效果,应首先对95帧图像序列进行顺序读取。

95帧图像存储在MATLAB的默认路径中,文件名为00000xxx.bmp。

要达到读取它们的目的,需要使用循环算法。

算法由一个名为read_seqim(i)的函数实现,以下是函数的源程序:function I=read_seqim(i)if nargin==0i=1;min=00000001;endname=num2str(i);if i<=9min=strcat('0000000',name,'.bmp');elseif i<=99min=strcat('000000',name,'.bmp');elsemin=strcat('00000',name,'.bmp');endI=imread(min);其中i为读取图像的序号,通过以上的函数可以很方便的实现对95帧图像中任意一帧的读取,从而为后面的处理提供方便。

2.2 图像的阈值处理(图像分割)阈值(Threshold),也叫门限。

阈值化(Thresholding),即按给定阈值进行图像的二值化处理。

阈值分割法可分为以下几种:☐简单阈值分割法;☐多阈值分割法;☐最大类间方差法;☐最佳阈值法。

许多情况,图像是由具有不同灰度级的几类区域组成。

如文字与纸张、地物与云层(航空照片)等,阈值分割是利用同一区域的具有某种共同灰度特性进行分割。

影像跟踪互动实验报告

影像跟踪互动实验报告

一、实验背景随着科技的发展,影像跟踪技术在多个领域得到了广泛应用。

本实验旨在通过研究影像跟踪算法,实现实时、准确的物体跟踪,为后续的图像处理、目标识别等应用提供技术支持。

二、实验目的1. 熟悉影像跟踪的基本原理和方法;2. 掌握一种常用的影像跟踪算法,如卡尔曼滤波、光流法等;3. 分析影像跟踪过程中的关键参数,优化跟踪效果;4. 实现影像跟踪的互动性,提高用户体验。

三、实验内容1. 影像采集与预处理(1)采集实验所需的视频素材,确保画面清晰、稳定;(2)对采集到的视频进行预处理,如去噪、缩放等,以便后续处理。

2. 影像跟踪算法实现(1)采用卡尔曼滤波算法进行跟踪,实现目标状态估计;(2)利用光流法进行跟踪,计算目标运动轨迹。

3. 影像跟踪效果分析(1)对比分析不同跟踪算法的优缺点;(2)根据实验结果,调整跟踪参数,优化跟踪效果。

4. 影像跟踪互动实现(1)通过触摸屏、鼠标等设备实现影像跟踪的互动操作;(2)根据用户操作,实时调整跟踪目标,提高用户体验。

四、实验步骤1. 准备实验所需的硬件设备和软件环境;2. 采集实验视频素材,并进行预处理;3. 编写影像跟踪程序,实现卡尔曼滤波和光流法;4. 对比分析不同跟踪算法的优缺点,优化跟踪参数;5. 实现影像跟踪的互动操作,调整跟踪目标;6. 进行实验测试,记录实验数据;7. 分析实验结果,撰写实验报告。

五、实验结果与分析1. 实验结果(1)通过卡尔曼滤波算法进行跟踪,实现了目标的实时跟踪;(2)利用光流法进行跟踪,准确计算了目标运动轨迹;(3)根据用户操作,实现了影像跟踪的互动性,提高了用户体验。

2. 实验分析(1)卡尔曼滤波算法在跟踪过程中具有较高的鲁棒性,适用于多种场景;(2)光流法在计算目标运动轨迹时,具有较好的实时性;(3)通过优化跟踪参数,提高了跟踪效果;(4)影像跟踪的互动性为用户提供了一种便捷的操作方式。

六、实验结论通过本次实验,我们掌握了影像跟踪的基本原理和方法,实现了实时、准确的物体跟踪。

视频目标追踪技术的使用方法与实践经验分享

视频目标追踪技术的使用方法与实践经验分享

视频目标追踪技术的使用方法与实践经验分享视频目标追踪技术是一种通过视频分析算法和人工智能技术来实现对视频中特定目标的实时跟踪的方法。

该技术在监控系统、自动驾驶、智能家居等领域具有重要应用价值。

本文将分享视频目标追踪技术的使用方法和实践经验。

首先,我们需要了解视频目标追踪技术的基本原理。

视频目标追踪技术主要通过两个步骤来实现。

首先,需要在视频中检测出目标物体,可以使用深度学习算法、传统的特征提取算法或结合两者的方法来实现。

其次,需要通过目标物体的外观和运动信息进行跟踪,包括目标物体的位置、尺度和方向等。

常用的跟踪算法有卡尔曼滤波器、粒子滤波器、相关滤波器等。

在实际应用视频目标追踪技术时,有几个关键的环节需要注意。

首先,需要选择适合的目标检测算法。

根据应用场景的不同,可以选择使用卷积神经网络(CNN)进行目标检测,如YOLO、SSD等。

其次,应根据目标的特性选择合适的跟踪算法。

如果目标物体具有较大的运动范围和变形,可以选择使用粒子滤波器等跟踪算法。

最后,需要对追踪结果进行验证和纠正,以提高追踪的准确性和稳定性。

在进行视频目标追踪技术的实践时,以下几点经验值得分享。

首先,预处理是很关键的一步。

通过对原始视频进行降噪、固定帧率和调整亮度等操作,可以提高目标检测和跟踪的效果。

其次,对于较大的视频数据,可以使用分布式计算和并行处理的方法,以提高计算效率和实时性。

最后,不同场景下的目标追踪可能需要不同的算法和参数设置,需要根据实际情况进行调整,以获得最佳的追踪效果。

除了基本的视频目标追踪技术外,还有一些高级方法可以进一步提升追踪的效果。

其中之一是多目标跟踪技术,能够同时追踪多个目标,并识别它们之间的关系。

另一个是在视觉上下文中使用深度学习技术,通过利用前一帧和后一帧之间的关系来提高追踪的鲁棒性和准确性。

此外,结合传感器数据和其他信息源,如激光雷达、红外传感器等,也可以提高追踪的效果。

然而,视频目标追踪技术仍然存在一些挑战和限制。

基于视频的运动目标检测与跟踪的开题报告

基于视频的运动目标检测与跟踪的开题报告

基于视频的运动目标检测与跟踪的开题报告一、选题背景:目标检测和跟踪技术是计算机视觉领域的研究热点之一,广泛应用于智能监控、自动驾驶等领域。

目标检测是指在视频中检测出与特定对象有关的目标;目标跟踪是指根据目标检测结果,在视频中跟踪目标的运动轨迹。

深度学习技术的广泛应用,尤其是卷积神经网络(CNN),使得目标检测和跟踪的准确率和效率得到了大幅提高。

二、研究内容:本课题基于视频的运动目标检测与跟踪,主要研究内容包括:1. 视频预处理:视频序列的提取与帧率降低处理;2. 目标检测:采用深度学习技术对视频中的目标进行检测,同时进行准确度和效率的优化;3. 目标跟踪:根据目标检测的结果,在视频中进行目标跟踪,并根据目标移动的连续性进行轨迹预测和修正;4. 系统集成:将目标检测和跟踪的结果进行集成,实现在视频中对目标运动状态的实时监测。

三、研究意义:本课题的研究意义在于:1. 对运动目标的实时监测,有利于提高智能监控和自动驾驶等领域的安全性和效率;2. 探索基于深度学习技术的目标检测和跟踪方法,拓宽计算机视觉领域的研究方向;3. 为视频数据处理和分析提供新的技术支持。

四、研究方法:本课题采用深度学习方法进行研究,具体实现过程包括:1. 采用卷积神经网络对视频中的目标进行检测,通过训练得到检测器的参数;2. 采用目标跟踪算法对检测得到的目标进行跟踪,根据目标移动的连续性进行轨迹预测和修正;3. 将目标检测和跟踪的结果进行集成,并对集成结果进行分析和优化。

五、预期成果:本课题预期可以实现基于视频的运动目标检测与跟踪系统,并完成以下成果:1. 论文一篇,介绍研究过程、方法和结果,提交到相关领域的国际会议或期刊;2. 完成基于视频的运动目标检测与跟踪原型系统的开发,并进行测试和评估;3. 提供基于深度学习技术的目标检测和跟踪算法的优化方案和实现方法。

六、研究难点:本课题的主要研究难点在于:1. 如何处理视频数据,提取目标运动轨迹,并实时显示目标运动状态;2. 如何使用深度学习技术对视频中的目标进行准确和高效的检测和跟踪,并解决目标遮挡、形变和光照变化等问题;3. 如何结合目标检测和跟踪的结果,并针对实际应用场景进行集成和优化。

视频中的行为识别与跟踪技术研究

视频中的行为识别与跟踪技术研究

视频中的行为识别与跟踪技术研究在数字化时代,我们生活的世界正变得越来越图像化,其中最具代表性的就是视频。

视频技术已经广泛应用于监控、安防、娱乐等领域,如何通过技术手段从视频中提取有价值的信息对这些领域之外的生产和生活也有很大的意义。

而其中最为关键的技术就是行为识别与跟踪技术。

行为识别技术是指从视频流中对人物行为进行识别,包括弯腰、举手、走路、奔跑、跳跃等各种动作,目前主要采用的方法是通过计算机视觉技术来完成。

识别技术是基于人体姿态估计的,在人进行各种动作的过程中,其身体的一些部位比如四肢、身体轮廓等有规律地移动和变化,通过对这些变化的分析和测量,我们可以建立各种动作的模型,从而对行为进行识别。

但是这项技术受到人体姿态的影响比较大,如何在不同的环境下对行为进行准确的识别是一个难点问题。

为了解决这个问题,学者们提出了一种新的行为识别技术——物体轮廓跟踪技术。

该技术通过对视频场景中的每一个物体进行轮廓提取和持续跟踪,建立了物体与轮廓间的对应关系,并通过物体跟踪算法识别物体在视频中的运动,从而实现对人体行为的识别。

这种方法的优点在于不需要事先预测人体姿态,利用物体轮廓的变化能够更好地对运动进行识别。

除了行为的识别,行为的跟踪同样具有很重要的意义。

行为跟踪技术是指识别并跟踪特定行为或物体,该技术可以在广泛应用于人脸识别、犯罪侦查、交通检测、医疗监控等领域中。

特别是在犯罪侦查和医疗监控领域中,行为跟踪技术的作用更为突出。

在犯罪侦察方面,通过行为跟踪技术可以有效地帮助警方追踪嫌疑人的行踪,并为破案提供有力的证据。

传统的行为识别方法容易受到环境干扰和误差影响,而行为跟踪技术可以对目标进行准确跟踪,不会受到周围环境的影响,从而提高了行为识别的准确率。

在医疗监控方面,行为跟踪技术可以帮助医护人员监控患者的行为,比如是否出现意识混乱、是否需要帮助等情况。

其实现原理同样是通过采用计算机视觉技术对患者进行轮廓识别和运动跟踪,从而发现潜在的医疗问题,为医疗人员提供准确的诊断和治疗。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

本次实验是一种基于MATLAB的简易的从视频播放的帧图像中找出目标图像,并进行视频跟踪的实现方法。

通过对图像进行阈值处理(图像分割),再对分割后的图像求取形心,以对目标图像进行定位,并最后找到各幅帧图像的目标位置的方法,从而实现对95帧视频图像的实时跟踪。

图片存于帧图片文件夹!
程序算法为Untitled6.m文件!
基于MATLAB的图像跟踪算法
2.1 95帧视频图像的读取
由于视频是由95帧图像通过连续播放从而达到视频的效果的,所以要达到视频放映的效果,应首先对95帧图像序列进行顺序读取。

95帧图像存储在MATLAB的默认路径中,文件名为00000xxx.bmp。

要达到读取它们的目的,需要使用循环算法。

算法由一个名为read_seqim(i)的函数实现,以下是函数的源程序:
function I=read_seqim(i)
if nargin==0
i=1;min=00000001;
end
name=num2str(i);
if i<=9
min=strcat('0000000',name,'.bmp');
elseif i<=99
min=strcat('000000',name,'.bmp');
else
min=strcat('00000',name,'.bmp');
end
I=imread(min);
其中i为读取图像的序号,通过以上的函数可以很方便的实现对95帧图像中任意一帧的读取,从而为后面的处理提供方便。

2.2 图像的阈值处理(图像分割)
阈值(Threshold),也叫门限。

阈值化(Thresholding),即按给定阈值进行图像的二值化处理。

阈值分割法可分为以下几种:
☐简单阈值分割法;
☐多阈值分割法;
☐最大类间方差法;
☐最佳阈值法。

许多情况,图像是由具有不同灰度级的几类区域组成。

如文字与纸张、地物与云层(航空照片)等,阈值分割是利用同一区域的具有某种共同灰度特性进行分割。

而用阈值分割法分割图像就是选取一个适当的灰度阈值,然后将图像中的每个像素和它进行比较,将灰度值超过阈值的点和低于阈值的点分别指定一个灰度值,就可以得到分割后的二值图像,此时目标和背景已经得到了分割。

阈值分割法简单,快速,特别适用于灰度和背景占据不同灰度级范围的图像。

这里我们使用多阈值分割法。

多阈值分割法就是假设一幅图像包含两个以上的不同类型的区域,可以使用几个门限来分割图象。

分割函数如下:
1阈值的确定
由于需要分析的95帧图像的灰度分布大致是相当的,所以我们任意选取一帧图像来求取它的阈值,这里我们选取第50帧图像,具体的源代码如下:
I0=read_seqim(40);%任意读取一帧图像
figure(1),imshow(I0);%原图像显示
I0=double(I0);
figure(2),hist(I0,300);%原图像直方图显示
所得到的图像如下:
011122
2,(,)(,),(,),(,)f f x y T g x y f T f x y T f f x y T ≤⎧⎪=<≤⎨⎪>⎩
上图为读取一帧图像的图像显示,下图为它所对应的直方图显示
2图像的阈值分割
第一图中的小球是我们所要跟踪的目标。

第二图中我们可以看出我们所要得到的目标灰度分布于灰度值在140-95的区域内;图中灰度在40-140区域内为背景的灰度表示,所以这里我们就设定两个阈值T1=150;T2=220.在两阈值中间的区域为目标区域。

通过图像分割把目标从图像中提取出来,具体源代码如下:
T1=150;T2=220;%观察并找出阈值
for i=1:95
I=read_seqim(i);
M=double(I);
for m=1:180
for n=1:315
if (M(m,n)>=T1)&&(M(m,n)<=T2)
M(m,n)=1;%设置背景灰度
else
M(m,n)=0;%设置目标灰度
end
end
end%%图像的分割和阈值处理
形心(距心)的求取
成像跟踪系统经过图像的预处理、图像的分割识别等一系列信息处理,最终实现对目标位置的实时精确测量,即对目标或目标的局部实施稳定跟踪。

目标跟踪的方法具体有以下几种:
矩心(质心、形心)跟踪;边缘跟踪;峰值跟踪;相关跟踪;滤波跟踪。

这里我们使用矩心(质心、形心)跟踪。

矩心也叫质心或重心,是物体对某轴的静力矩作用中心。

如果把目标图像看成是一块质量密度不均匀的薄板,以图像上各像素点的灰度作为各点的质量密度。

这样就可以借用矩心的定义式来计算目标图像的矩心。

由于计算重心的过程是个统计平均过程, 它算出的跟踪点不是个别的最亮点位置, 而是图像中各个像元灰度加权平均的位置, 所以, 以重心为跟踪点, 跟踪的随机误差小, 精度高, 稳定性好。

具体的计算方法如下:
其中f(x,y)为(x,y)处的灰度值,N和M分别为图像的列数和行数,以下为求取形心的源程序:
设置跟踪波门X=0;Y=0;X1=0;Y1=0;PINJUN=0;PINJUN1=0;
for m=1:180
for n=1:315
x=m*M(m,n); y=n*M(m,n); pinjun=M(m,n);
X=X+x;Y=Y+y;PINJUN=PINJUN+pinjun;
end
X1=X1+X;
Y1=Y1+Y;
PINJUN1=PINJUN1+PINJUN;
end
Xmean=X1/PINJUN1;
Ymean=Y1/PINJUN1;
Xmean=(Xmean*100-mod(Xmean*100,100))/100;
Ymean=(Ymean*100-mod(Ymean*100,100))/100;
%求取形心的计算
为了实现对视频目标的跟踪,设置波门是一个十分必要的工作。

对边缘跟踪及矩心跟踪来说,都要设置一个波门。

波门的尺寸略大于目标图象,波门紧紧套住目标图象(如图3—42所示)。

波门是随目标图象视频信号而产生的。

在波门以内的信号当作感兴趣的信号予以检出而摒除波门以外的其它信号;也可以针对视场中出现的苦干个目标面同时设置几个波门,分别检出各个波门中的信号。

从整个视场中检出波门内的信号的方法属于选通技术的范畴。

利用选通技术可以对目标进行有选择的跟踪,同时也可以非常有效地排除背景干扰。

这里的波门设置方法为以形心位置为中心,在图像中包含目标的区域添加一个合
适矩形框(即跟踪波门,这里我们取22×22 pixels),以实现对95 帧图像的实时跟踪,以下为波门设置源代码:
for m=(Xmean-11):(Xmean+11)
n=Ymean-11;
I(m,n)=1;
end
for m=(Xmean-11):(Xmean+11)
n=Ymean+11;
I(m,n)=1;
end
for n=(Ymean-11):(Ymean+11)
m=Xmean-11;
I(m,n)=1;
end
for n=(Ymean-11):(Ymean+11)
m=Xmean+11;
I(m,n)=1;
end%画出跟踪波门
通过上图我们不难看出,我们已经找到了正确的波门,并且实现了目标的定位和跟踪,通过以上简单的方法实现了简易图像跟踪系统的设计,并且较稳定地对目标图像进行了跟踪。

相关文档
最新文档