运动目标图像的识别与跟踪
目标识别与跟踪

目标识别与跟踪目标识别与跟踪是计算机视觉领域的一个重要研究方向,旨在从图像或视频中自动检测和跟踪特定目标的位置和运动。
它在很多应用领域有着广泛的应用,如智能监控、自动驾驶、人机交互等。
目标识别是指在图像或视频中自动检测出感兴趣的目标。
其中,目标可以是各种不同类型的物体,如行人、汽车、动物等。
目标识别的核心任务是通过计算机视觉算法来判断图像中的目标是否存在,并进行目标定位。
常用的目标识别算法包括基于特征描述子的方法,如Haar特征和HOG特征,以及基于深度学习的方法,如卷积神经网络(CNN)和目标检测框架YOLO和Faster R-CNN。
跟踪是指在连续的图像或视频帧中追踪目标的运动。
目标跟踪的主要任务是根据目标在前一帧中的位置,预测在当前帧中的位置,并对目标进行跟踪。
常用的目标跟踪算法包括基于模板匹配的方法,如相关滤波器和KCF算法,以及基于学习的方法,如多样性跟踪和Boosting跟踪。
目标识别与跟踪的关键挑战之一是克服图像和视频在光照、尺度、遮挡等方面的干扰。
为了解决这些问题,研究者们一直在努力开发更加鲁棒和准确的算法。
近年来,深度学习技术的发展为目标识别与跟踪带来了巨大的突破,通过利用深度神经网络和大规模标注数据,提高了目标识别与跟踪的性能和准确率。
目标识别与跟踪在实际应用中具有广泛的应用前景。
在智能监控领域,目标识别与跟踪可以帮助警方自动检测和追踪可疑人物或车辆。
在自动驾驶领域,目标识别与跟踪可以用于识别和跟踪行人、车辆等交通参与者,以保证行驶安全。
在人机交互领域,目标识别与跟踪可以用于手势识别和追踪,实现更自然的人机交互方式。
总之,目标识别与跟踪是计算机视觉领域的一个重要研究方向,具有广泛的应用前景。
通过不断的研究和创新,目标识别与跟踪算法的性能将进一步提高,为各个领域带来更多实际应用的机会。
运动目标检测与跟踪

背景差方法
背景差分法假定背景是静止不 变的,因此背景不随帧数而变。
相减
二值化
后处理
结果
背景估计法
• 背景估计法适用于背景静止情况下的视频分割,其主要基 于以下两个假设:
假设1:在背景静止的情况下,若外界光照条件不变,且在不考虑噪 声的情况下,视频序列图像中的背景保持不变。 假设2:在目标可视的情况下,目标与背景的灰度之间存在着一定的 对比度。 • 根据假设1,在静态场景的条件下视频序列图像中不包含目标的完整 背景在每一帧都相同,由于运动目标会遮挡住一部分背景,所以每一 帧中的背景并不等于完整背景,关键技术就是根据一定的准则从连续 k帧图像中估计出该视频序列图像的完整背景。
根据假设2,运动目标与背景之间的灰度存在着一定的对比度,因此 在不考虑噪声的情况下,在差分图像中属于背景区域的像素的灰度值 为零,从而检测出了运动目标。
运动目标检测方法存在的实际应 用上的困难
1
运动阴影的 干扰
2
动态背景的 影响
3
场景光照的 变化
运动阴影的干扰
• 原因:由于阴影和目标都与背景的差别很大,并 且二者常有着相同的运动,阴影常被错划为运动 目标。
Contents
1
现状和应用
2
目标检测的相关技术
3
目标跟踪的常用方法
4
结语
现状
• 运动目标检测与跟踪是在基于动态图像分析的基 础上结合图像模式识别和图像跟踪方法对图像序 列中的目标进行检测—识别—跟踪的过程,它是 图像处理与计算机视觉领域中的一个非常活跃的 分支,在最近二十几年间,随着计算机技术、 CLSI技术与高分辨率传感技术,图像处理技术的 迅速更新,它在国名经济和军事领域的许多方面 有着广泛的应用。
运动的目标识别与跟踪简述

运动的目标识别与跟踪简述运动的目标识别与跟踪是计算机视觉领域的一个热门研究方向,涵盖了视频分析、智能交通、人机交互、安防监控等领域。
该技术可以自动识别视频中的目标,跟踪目标的运动轨迹,并提取目标运动的特征,如速度、方向、加速度等,为后续处理和决策提供数据支持。
运动目标识别是指从视频序列中自动识别目标物体,并对其进行分类、定位和识别。
目标识别的主要任务是利用计算机视觉技术,从视频帧中提取目标物体的特征,并与已知目标模型进行匹配和识别。
目前常用的目标识别方法包括基于像素的阈值分割算法、基于特征提取的模板匹配算法、基于机器学习的分类识别算法、基于卷积神经网络的深度学习算法等。
运动目标跟踪是指在视频序列中对目标物体进行连续追踪,得出其在时间上的运动轨迹,并根据目标的运动轨迹提取出其运动特性。
运动目标跟踪的主要挑战在于如何处理目标物体的尺寸、形变、遮挡和干扰等问题,避免跟踪误差和漏检的情况。
目前常用的跟踪算法包括基于颜色、纹理和形状等特征的特征点跟踪算法、基于运动模型的卡尔曼滤波和粒子滤波算法、基于深度学习的神经网络跟踪算法等。
运动目标识别与跟踪的应用十分广泛,其中包括智能视频监控、自动驾驶、智慧城市、虚拟现实等领域。
在智能交通领域,运动目标识别和跟踪可以用于路口监控、行人识别、车辆计数、交通拥堵分析等,以提高公共安全和运输效率。
在虚拟现实领域,运动目标识别和跟踪可以用于追踪用户的行为,自适应更新虚拟环境,并改善用户体验。
在安防监控领域,运动目标识别和跟踪可以用于实时监视和检测,及时发现异常和预防犯罪。
综上所述,运动目标识别与跟踪是计算机视觉领域的一个重要研究方向,具有广泛的应用前景。
随着计算机视觉和深度学习技术的不断发展,我们有望在未来看到更多更高效、更准确的运动目标识别和跟踪算法被广泛应用于各个领域。
视频监控中的运动目标检测与跟踪

视频监控中的运动目标检测与跟踪随着科技的不断发展,视频监控系统在我们生活中起到了越来越重要的作用。
其中,运动目标检测与跟踪是视频监控系统中的关键技术之一。
本文将详细介绍视频监控中的运动目标检测与跟踪的原理和应用。
在视频监控系统中,运动目标指的是图像序列中不断变化的区域,例如人、车辆等。
而运动目标检测与跟踪则是指在视频中自动识别和跟踪这些运动目标的过程。
首先,运动目标检测是指在视频序列中找出运动目标所在的位置。
常见的运动目标检测算法包括帧间差、光流法和背景建模等。
帧间差方法通过比较连续帧之间的像素差异来检测目标的运动。
光流法则利用像素间的灰度变化来估计运动目标的移动。
背景建模则通过建立静止背景图像来检测运动目标。
其次,运动目标跟踪是指在检测到的运动目标中,跟踪其运动轨迹并实时更新位置信息。
常见的运动目标跟踪算法包括卡尔曼滤波器、粒子滤波器和相关滤波器等。
卡尔曼滤波器通过预测和观测更新的方式来估计目标的位置。
粒子滤波器则通过在候选区域中采样来估计目标的位置。
相关滤波器利用目标模板和候选区域之间的相关性来跟踪目标。
在实际应用中,运动目标检测与跟踪技术被广泛应用于视频监控系统中。
首先,它可以用于实时监测人员和车辆的行为,以便及时发现异常情况。
例如,当有人携带危险物品进入监控区域时,系统可以立即发出警报并采取相应措施。
其次,它可以用于交通管理系统中,监测交通流量和违规行为。
例如,当有车辆逆向行驶或超速行驶时,系统可以自动拍摄照片或录像作为证据。
此外,运动目标检测与跟踪技术还可用于视频分析和智能监控系统中,为用户提供更加智能的安防服务。
然而,运动目标检测与跟踪技术也存在一些挑战和局限性。
首先,复杂的背景和光照变化会对运动目标检测产生干扰。
例如,当目标混杂在复杂的背景中时,算法往往会出现误检测现象。
其次,目标遮挡和形状变化也会对运动目标跟踪产生困难。
例如,当目标部分被其他物体遮挡时,算法往往会失去目标的轨迹。
基于计算机视觉的运动目标检测与追踪研究

基于计算机视觉的运动目标检测与追踪研究摘要:随着计算机视觉和人工智能的快速发展,基于计算机视觉的运动目标检测和追踪成为了当前研究的热点。
本文将介绍运动目标检测和追踪的概念,并详细探讨了一些常见的方法和技术,如基于深度学习的目标检测算法和多目标追踪。
最后,本文还对未来的研究方向进行了展望。
1. 引言随着计算机视觉和人工智能技术的进步,运动目标检测和追踪在许多领域中都具有重要应用。
例如,在视频监控和智能交通系统中,准确地检测和追踪运动目标可以提供更安全和高效的服务。
因此,研究如何利用计算机视觉的方法来实现运动目标检测和追踪变得尤为重要。
2. 运动目标检测运动目标检测是指通过计算机视觉技术识别图像或视频中的运动目标。
传统的方法主要基于图像处理和特征提取技术,如背景减除、边缘检测和目标轮廓提取。
然而,这些方法往往对光照变化和背景复杂的场景效果不佳。
近年来,基于深度学习的目标检测算法如Faster R-CNN、YOLO和SSD等取得了显著的进展。
这些算法能够自动学习目标的特征,从而在复杂场景下表现出更好的性能。
3. 运动目标追踪运动目标追踪是指跟踪运动目标在连续帧中的位置和运动状态。
与运动目标检测相比,追踪更具挑战性,因为目标在不同帧之间可能会发生形变、遮挡或运动模式的变化。
针对这些问题,研究者提出了各种追踪算法,如基于相关滤波器的方法、粒子滤波和深度学习方法等。
其中,多目标追踪是一种更复杂的问题,需要同时追踪多个运动目标。
针对多目标追踪,常见的方法有多目标跟踪器的设计和融合方法等。
4. 挑战和解决方案运动目标检测和追踪中存在一些挑战,例如复杂背景、目标形变、光照变化和目标遮挡等。
为了解决这些问题,研究者提出了一系列解决方案。
例如,对于复杂背景,可以采用自适应背景建模和深度学习方法来提高检测和追踪的准确性。
对于目标形变和光照变化,可以使用形变估计和颜色模型来进行调整。
另外,目标遮挡问题可以使用多目标追踪和深度学习等方法来解决。
运动的目标识别与跟踪简述

运动的目标识别与跟踪简述运动的目标识别与跟踪是指利用计算机视觉和图像处理技术对视频中的运动目标进行识别和跟踪。
在现代社会中,运动目标识别与跟踪技术已经得到了广泛的应用,包括智能监控系统、自动驾驶汽车、机器人导航等领域。
本文将对运动的目标识别与跟踪技术进行简要介绍,包括其基本原理、关键技术和应用领域。
一、目标识别与跟踪的基本原理运动的目标识别与跟踪是通过对视频序列中的图像进行处理和分析,从而实现对运动目标的识别和跟踪。
其基本原理可以简要概括如下:1. 图像采集:首先需要使用摄像机等设备对视频序列中的图像进行采集,并将其转换为数字信号。
2. 运动目标检测:利用计算机视觉和图像处理技术对视频序列中的图像进行分析和处理,从而实现对运动目标的检测和定位。
常用的检测算法包括背景建模、运动检测和物体识别等。
3. 目标跟踪:一旦运动目标被检测出来,就需要对其进行跟踪,即在连续的图像帧中跟踪目标的运动轨迹。
常用的跟踪算法包括卡尔曼滤波、粒子滤波和相关滤波等。
4. 数据关联:对于多个运动目标,需要进行数据关联,即将它们在连续的图像帧中进行匹配和跟踪。
通过以上步骤,可以实现对视频序列中的运动目标进行准确的识别和跟踪,为后续的应用提供可靠的基础数据。
二、目标识别与跟踪的关键技术运动的目标识别与跟踪涉及多个关键技术,包括图像处理、模式识别、机器学习等。
下面对其中的一些关键技术进行简要介绍:1. 图像处理:图像处理是目标识别与跟踪的基础,包括图像的预处理、特征提取和图像分割等。
通过对图像进行处理和分析,可以提取出目标的特征信息,为后续的目标识别和跟踪提供数据支持。
2. 特征提取:特征提取是目标识别与跟踪的关键步骤,包括颜色特征、纹理特征、形状特征等。
通过对目标的特征进行提取和描述,可以实现对目标的精确识别和跟踪。
3. 目标识别算法:目标识别算法是实现目标识别与跟踪的核心技术,包括支持向量机、决策树、神经网络等。
通过对目标进行特征匹配和分类,可以实现对目标的准确识别和跟踪。
动态视觉对运动目标的检测与跟踪

动态视觉对运动目标的检测与跟踪随着技术的不断进步,动态视觉在机器视觉领域中扮演着越来越重要的角色。
动态视觉是指通过对物体运动的感知和分析,实现对运动目标的检测与跟踪。
这项技术广泛应用于视频监控、无人驾驶、机器人导航等领域,对于提高安全性和智能化水平具有重要意义。
动态视觉检测与跟踪的实现过程中,首要任务是通过图像处理算法对目标进行检测。
目标检测旨在从图像中分割出感兴趣的运动目标,以便后续的跟踪工作。
在目标检测中,常见的算法有背景建模、基于像素颜色分布的方法、基于梯度的方法等。
这些方法在进行目标检测时,需要根据实际情况选择合适的算法和参数设置,以确保准确性和实时性。
一旦目标被成功检测出来,接下来的任务就是对目标进行跟踪。
目标跟踪是指在连续帧图像中跟踪目标的位置和运动信息,以实现对目标的动态追踪。
目标跟踪面临的挑战是目标在图像中的变形、遮挡、光照变化以及背景干扰等问题。
为了解决这些问题,研究者们提出了多种跟踪算法,如卡尔曼滤波、粒子滤波、相关滤波等。
这些算法根据不同的原理和假设,对目标进行预测和更新,实现对目标运动轨迹的准确跟踪。
除了完成目标的检测和跟踪之外,动态视觉还需要对目标的行为进行分析和理解。
目标行为分析涉及到对目标的动作、姿态、形态等信息的提取和解释。
通过对目标行为进行分析,可以实现对目标的高级理解和智能判断。
目标行为分析的研究中,常用的方法有姿态估计、行为分类、行为识别等。
这些方法基于机器学习和图像处理技术,通过训练模型和特征提取,实现对目标行为的自动化分析。
动态视觉对于运动目标的检测与跟踪不仅应用于学术研究领域,也应用于实际应用中。
在城市交通中,动态视觉可以通过对车辆和行人的检测与跟踪,实现交通信号灯的自动控制和交通违法行为的监测。
在无人驾驶领域,动态视觉可以实现对周围交通目标的实时感知和判断,从而实现智能导航和自主避障。
在工业生产过程中,动态视觉可以通过对机器人进行目标检测和跟踪,实现自动化生产和物流分拣。
如何利用计算机视觉技术进行运动目标检测和跟踪

如何利用计算机视觉技术进行运动目标检测和跟踪计算机视觉技术的快速发展使得运动目标检测和跟踪成为可能。
这项技术不仅在安防领域起到重要作用,还应用于自动驾驶、智能监控和虚拟现实等众多领域。
本文将介绍如何利用计算机视觉技术进行运动目标检测和跟踪。
一、运动目标检测运动目标检测是指利用计算机视觉技术,通过分析连续的图像序列,检测出视频中出现的运动目标。
运动目标可以是人、车辆、动物等各种物体。
以下是运动目标检测的主要步骤。
1. 前景提取前景提取是运动目标检测的第一步,其目的是将视频中的前景目标从背景中分离出来。
常用的前景提取方法包括帧差法、基于统计学模型的方法和基于深度学习的方法。
帧差法是最简单的方法,基于像素之间的差异来识别前景目标。
而基于统计学模型的方法则通过建立像素值的分布模型来识别前景目标。
基于深度学习的方法通常使用卷积神经网络(CNN)来提取特征并进行分类。
2. 运动检测运动检测是利用差分技术或光流法等方法,检测出视频中的运动目标。
差分技术通过对相邻帧之间的差异进行计算,来确定运动目标的位置。
而光流法则通过跟踪关键点在连续帧之间的移动来检测运动目标。
3. 目标分割和识别目标分割和识别是将前景目标分割并分类的过程。
它通常通过图像分割算法和目标识别算法实现。
图像分割算法将前景目标从图像中提取出来,并通过边缘检测、区域生长或图像分割神经网络等方法实现。
目标识别算法则通过比较目标特征和已知类别的模型特征,来对目标进行分类。
二、运动目标跟踪运动目标跟踪是指通过分析视频序列中的目标位置,持续追踪目标的运动轨迹。
以下是运动目标跟踪的主要步骤。
1. 目标初始化目标初始化是运动目标跟踪的第一步,其目的是在视频序列的初始帧中确定目标的位置。
常用的目标初始化方法有手动框选和自动检测。
手动框选是通过人工在初始帧中标记目标的位置。
而自动检测则通过运动目标检测算法自动获取初始目标位置。
2. 特征提取和匹配特征提取和匹配是运动目标跟踪的核心步骤。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
运动目标图像的识别与跟踪本文主要目的是将视频摄像头中的运动目标从背景中提取出来,并加以跟踪。
首先考虑的是常见的目标检测的算法,其次考虑对于噪声的滤除,最后是对运动目标的跟踪。
一、基本目标检测算法我们主要考虑的目标检测的算法主要有三种,光流场法、背景模型法以及时域差分法。
1.1光流场法光流主要是图像亮度模式的表现运动。
而光流场则是指灰度模式的表面运动。
一般条件下,我们可以根据图像的运动,进行估算相对运动。
光流场法的基本理论是光流场基本方程:0=++t y x I vI uI (1.1)式中我们根据亮度守恒,利用泰勒公式展开,忽略高阶项与二次项。
其中x I 、y I 和t I 是图像在对数轴x 、y 两个方向和t 的的导数,()v u ,就是这个点的光流坐标。
光流场法的目标检测,在摄像机运动时候也可以做出判断,但是图像的噪声太过明显,使得计算数据庞杂,计算的公式更加复杂,这样并不适合我们的对于目标跟踪的高精度的摄像系统。
1.2背景模型法背景模型法,也被称为背景差法,主要利用当前的图像和背景的图像的二值化做差,然后取阈值,分割运动目标。
首先根据:()()()y x b y x f y x D t t t ,,,-= (1.2)我们可以得到当前的图像帧数()y x f t ,和背景图像的帧数),(y x b t 做差,然后以公式对图像进行二值化的处理。
⎩⎨⎧≤>=)(,0)(,1),(BackGroundT D ForeGround T D y x P t t t (1.3) 上面),(y x P t 是二值化模板图。
假设某一区域大于一个给定的面积的时候,该区域就是我们要找的目标区域。
背景模型法的算法简单,可以快速反应,并且可以提供运动目标的大略特征等数据。
但是对于复杂背景下,比如人流较大的公共场所,或者有光照等干扰时,就需以其他的算法以不断更新背景信息来进行弥补。
相关的,还有背景统计模型法,在没有运动目标的前提下,建立背景的静态景观作为背景数据,然后根据前一帧数图像和以后的图像进行实时比对,采集运动目标。
现在最常用的描述背景点颜色分布的概率模型是高斯分布,并提出了自适应高斯混合背景模型,用以模拟背景。
背景统计模型的方法是在数理统计方法之上,相比之下,和对整体的像素点利用同一阈值分割更加有效、合理。
1.3时域差分法该方法是指对一个非常小的时间间隔t ∆(t ∆<<1s),两幅图像根据这一时刻和上一时刻背景的比较,利用阈值化来进行筛选运动目标区域,提取运动目标。
差分图像),(1y x D 根据公式:),(),(),(11y x f y x f y x D t t ∆--= (1.4)上式中,),(y x f t 是t 时刻的帧图像,),(y x f t t ∆-则是t ∆以后的帧图像。
接着,根据下面公式,对图像进行二值化:⎩⎨⎧≤>=)(,0)(,1),(BackGroundT D ForeGround T D y x P t t t (1.5) ),(y x P t 是二值模板图。
目标像素大于T 时,该像素就是目标像素,小于等于T 时就一定为背景像素。
时域分析法的计算速度快,对于运动目标的分析准确。
虽然不能完全分析出运动目标所有的像素点,但是可以确定运动目标的方位。
美中不足的是,它对于运动目标的位置检测不够精细,而且也有较多的噪点。
二、针对本文对移动目标跟踪的方法在本文中,我们在针对移动目标的检测跟踪,首先截取一个静态的图像,作为背景,其次针对这一背景我们与下一时间段的所截取图像进行比较。
如果有较大的变动,说明有移动物体出现。
然后按照:灰度、中值滤波、二值化、差值法、确定运动目标、求重心这一顺序来完成对运动目标的跟踪。
2.1 RGB 图像的灰度化处理正常采集的图像都是彩色的图像,需要我们对彩色的图像灰度处理,能使得图像后期的处理更加简单。
现在的图像采集方式所采集的图2.1 运动目标跟踪算法程序图图像中的像素的颜色有绿色、红色和蓝色三个分量。
这三种颜色分别搭配组成各种各样的颜色。
其中每个分量有255种取值,相当于每个像素点上颜色的变化范围达到一千六百余万种。
灰度图像是图像中比较特殊的一种,它的红绿蓝三个分量相同的特殊的彩色图像,像素点也只有255种变化,变化范围大大变小,计算量也同时变小,方便我们后期其他的处理。
所以我们一般进行数字图像处理的时候都要先将图像变为灰度图像。
它不影响我们对图像整体特征的了解,因为其本身具有与彩色图像相同明暗特征,色度特征等。
整体和局部的特征除了颜色,没有其他的变化。
我们可以利用公式进行灰度化处理:),(*11.0),(*59.0),(*3.0),(y x B y x G y x R y x Gray ++= (2.1)上式,),(y x 为图像中一个像素点的坐标,Gray 所代表的的物理意义是点的亮度,也就是灰度。
R 、G 、B 分别代表红色绿色蓝色这三个颜色分量。
图2.2是采集的原图像和灰度图像对比,4.2a 图为采集到的原图,4.2b 为经过灰度处理的图像。
a 采集到的原图b 灰度处理后的图像图4.2 采集到的原图与灰度图像对比 2.2图像的中值滤波处理在图像采集、录像摄影过程中,图像经常会受到各种噪声的干扰。
体现为一些单独的小像素点,彩色图像或者灰度图像中,显示不明显,但是如果未经过滤波处理的图像,在二值化过程中就一定十分明显,会发现图像周围由于光线明暗、背景或者身体颜色的过渡形成一些孤立的像素点,也就是噪声。
这与这些噪声影响我们对于图像的处理的精确度,并对图像的分割、分析、阈值或者判断等带来巨大的影响。
受到噪声影响的图像有多种方法进行滤波,其中很多种方法去除噪声的同时,使得图像边缘变得模糊,这样令我们的图像特征受到很大影响。
这是图像滤波的低通性,一般这种滤波方式都是线性的滤波。
我们使用中值滤波方式,这种方式是非线性的,可以做到保护边缘又可以去除明显的噪声污染。
把数字图像中的一个点的值用该点的一个区域的各个点的值的中值代替。
一组数n x x x x x 4321,,,,令其排序如下:in i i i x x x x ≤≤≤≤ 321则:{}⎪⎩⎪⎨⎧+==+))](2/([21)(,,,,,)2/(2/]1[4321为偶数为奇数n n x x n x x x x x x Med Y i n i n i n (2.2) Y 称为n x x x x x 4321,,,的中值,如有一个序列(10,20,30,40,50,60,70),则中值为40。
这是中值滤波的实现原理把一个点的特定长度或形状的领域称为窗口,我们所处理的二位图像进行滤波,定义输出为:}),(,),({}{2)(),(I j i A s r x med x med Y s j r i ij i ∈∈==++ (2.3)图2.3是图像经过灰度处理后再由中值滤波处理的图像对比。
a 滤波前的图像b 滤波后的图像图2.3 图像滤波前后对比2.3图像的二值化处理图像的二值化处理是将图像上的点的灰度值置成0或255,也就是整个图像呈现出明显的黑白效果。
即将255个灰度等级的灰色图像通过适当的阈值选取而获得仍然可以反映图像是整体和局部特征的二值图像。
我们进行过上面所说的灰度化处理后,把灰度图像二值化,便可得到二值图像,这样在对图像做进一步处理的时候,图像的几何性质与像素值为0和255的点的位置有关,不再涉及像素的多级值,使处理变得简单,而且数据的处理和压缩量较小。
我们一般采取阈值分割技术来得到理想的二值图像,这种阈值分割方式对于背景和人物有较强的对比的情况下尤其有效。
二值化处理的计算简单,并且总能封闭,应用更加方便,我们可以判定所有的灰度的值大于我所规定的阈值的就被我判定为黑色,灰度值就是255,否则我就将它判定为白色,或者说不是背景区域,灰度值为0。
或者我们也可以说,所处理的二值图像上所得值不是1就是0。
假如采集图像中的物体呈均匀的深色,而且背景的灰度等级明显低于被拍摄物体,阈值法就可以很好的分割所采集图像。
假设灰度值为N L L L ,...,21的图像,图像尺寸为N M ⨯,利用随机变量X 表示图像中的随便一个像素N y M x xy ...3,2,1,...3,2,1∈∈μ。
N L L L ,..,,21,就是说X 有N 个取值的可能。
各级灰度出现的概率:)(),...,(),(2211N N L P p L P p L P p === (2.4)并且11=∑=N n N p(2.5) 我们用密度矩阵来描述这种随机变量:⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡N N p p p L L L X P X ,...,,,..,,)(2121(2.6) 不同的图像,矩阵的密度也有所不同。
期望值在随机变量的统计过程中能反映出随机变量的平均值。
也代表随机变量取值比较集中的地方。
灰度值在图像中是随机变量,所以,该从灰度中心进行分割。
它令有灰度值的白像素和黑色像素有均等的灰度值,用threshold μ表示阈值:∑==N n n n t h r e s h o l d L P L 1)(μ (2.7)使)(n L h 表示n L 的出现次数,则:∑∑∑∑∑========N n n N n n n m N n n N n nN n n n threshold L h L h L Lh L h L L P L 11111)()()()()(μ (2.8)经过滤波,所处理的二值化图像的噪点会少一些,图2.4是中值滤波后所处理的二值化图像。
a 图像二值化前b 图像二值化处理以后图2.4 图像进行二值化处理前后比对2.4图像的差值处理为了使图像的重心计算更加简便,减少图像中的噪点,我们需要对图像每相邻四帧的二值化图像和第一帧的二值化图像做差,可以有效地提取背景。
该过程类似于边缘提取,但是并不一样,差值处理主要是根据时间先后做差。
如果是静态下的背景,处理后的图像只有很少的噪点,有运动的物体则能看出运动物体的轮廓。
图2.5是原背景与二值化后根据时间做差的两幅图像比比较:a背景原图像b背景图像经过差值处理后图2.5 背景图像经过差值处理前后图2.6是这一背景中有人运动的图像比较:a人物运动图像原图b人物运动时经差值处理后图2.6 人物运动时刻经过差值处理后的情况2.5重心计算我们对重心的计算主要是针对整幅图像的灰度为255的区域取平均值来取得的,该区域的位置一般在我们已经确定的运动目标的面积中心位置,这是根据所有区域的点计算出来的。
假定图像大小为NM⨯的数字图像),(yxf,重心位置),(YX定义为:∑∑===MxNyyxf xMNX11),(1(2.9)∑∑===M x Ny y x f y MN Y 11),(1(2.10) 由于我们的图像都是经过二值化处理的,目标区域的值都是1则上式化简:∑∑===M x Ny x MN X 111 (2.11) ∑∑===M x Ny y MN Y 111(2.12) 也就是说,我们可以利用目标点的坐标位置进行计算,假设其目标外接一个矩形,则重心点就在矩形的中心点。