目标检测综述教学内容
无人机影像处理中的目标检测算法综述

无人机影像处理中的目标检测算法综述目标检测在无人机影像处理中扮演着关键的角色,其能够识别并定位图像中的特定目标,为无人机提供精确的导航和监测功能。
随着无人机技术的快速发展,目标检测算法也在不断演进和改进。
本文将对无人机影像处理中的目标检测算法进行综述,包括传统方法和深度学习方法。
一、传统目标检测算法1. 基于图像特征的传统目标检测算法基于图像特征的传统目标检测算法主要包括颜色特征、纹理特征和形状特征等。
其中,颜色特征算法通过提取目标物体的颜色信息进行检测,如基于颜色空间变换和阈值分割的方法。
纹理特征算法则利用目标物体的纹理信息进行检测,如基于纹理描述符和局部二值模式的方法。
形状特征算法则利用目标物体的形状信息进行检测,如基于轮廓描述和边缘检测的方法。
传统方法在目标检测中取得了一定的成果,但其鲁棒性和通用性相对较差,难以应对复杂的场景和光照变化。
2. 基于模型的传统目标检测算法基于模型的传统目标检测算法通过构建目标物体的模型来进行检测,主要包括模板匹配法和统计模型法。
模板匹配法通过将目标物体的模板与待检测图像进行匹配来进行检测,如基于相关滤波器和灰度共生矩阵的方法。
统计模型法则通过对目标物体进行统计特征建模来进行检测,如基于隐马尔可夫模型和高斯混合模型的方法。
基于模型的传统方法在某些场景下能够获得较好的检测效果,但对目标物体的先验知识依赖较高,对目标形状和尺度变化敏感。
二、深度学习目标检测算法随着深度学习技术的发展,深度学习目标检测算法在无人机影像处理中逐渐取得了突破性的进展。
1. 基于卷积神经网络的深度学习目标检测算法基于卷积神经网络的深度学习目标检测算法主要包括R-CNN、Fast R-CNN、Faster R-CNN和YOLO等。
R-CNN通过首先生成候选框,再对候选框进行卷积特征提取和分类,实现目标检测。
Fast R-CNN将分类和定位任务融合到一个网络中,提高了检测速度。
Faster R-CNN则引入了区域建议网络,同时实现了准确的目标检测和高效的候选框生成。
(完整版)目标检测综述

一、传统目标检测方法如上图所示,传统目标检测的方法一般分为三个阶段:首先在给定的图像上选择一些候选的区域,然后对这些区域提取特征,最后使用训练的分类器进行分类。
下面我们对这三个阶段分别进行介绍。
(1) 区域选择这一步是为了对目标的位置进行定位。
由于目标可能出现在图像的任何位置,而且目标的大小、长宽比例也不确定,所以最初采用滑动窗口的策略对整幅图像进行遍历,而且需要设置不同的尺度,不同的长宽比。
这种穷举的策略虽然包含了目标所有可能出现的位置,但是缺点也是显而易见的:时间复杂度太高,产生冗余窗口太多,这也严重影响后续特征提取和分类的速度和性能。
(实际上由于受到时间复杂度的问题,滑动窗口的长宽比一般都是固定的设置几个,所以对于长宽比浮动较大的多类别目标检测,即便是滑动窗口遍历也不能得到很好的区域)(2)特征提取由于目标的形态多样性,光照变化多样性,背景多样性等因素使得设计一个鲁棒的特征并不是那么容易。
然而提取特征的好坏直接影响到分类的准确性。
(这个阶段常用的特征有SIFT、HOG等)(3) 分类器主要有SVM, Adaboost等。
总结:传统目标检测存在的两个主要问题:一是基于滑动窗口的区域选择策略没有针对性,时间复杂度高,窗口冗余;二是手工设计的特征对于多样性的变化并没有很好的鲁棒性。
二、基于Region Proposal的深度学习目标检测算法对于传统目标检测任务存在的两个主要问题,我们该如何解决呢?对于滑动窗口存在的问题,region proposal提供了很好的解决方案。
regionproposal(候选区域)是预先找出图中目标可能出现的位置。
但由于region proposal 利用了图像中的纹理、边缘、颜色等信息,可以保证在选取较少窗口(几千个甚至几百个)的情况下保持较高的召回率。
这大大降低了后续操作的时间复杂度,并且获取的候选窗口要比滑动窗口的质量更高(滑动窗口固定长宽比)。
比较常用的region proposal算法有selective Search和edge Boxes,如果想具体了解region proposal可以看一下PAMI2015的“What makes for effective detection proposals?”有了候选区域,剩下的工作实际就是对候选区域进行图像分类的工作(特征提取+分类)。
三维目标检测综述

三维目标检测综述三维目标检测是现代计算机视觉领域的热门研究方向之一,其主要目的是在三维场景中准确识别出不同种类的物体并确定它们的位置、形状和姿态。
在实际应用中,三维目标检测可以应用于自动驾驶、智能机器人、安保监控等众多领域中。
当前,三维目标检测的研究主要集中在两大类方法上。
一类是基于视觉图像数据,通过深度学习将其转化为点云数据,并在点云上进行处理;另一类是基于传感器采集的点云数据,直接在点云上进行处理。
下面我们将分别阐述这两种方式的研究进展。
基于视觉图像数据的三维目标检测方法基于视觉图像数据进行三维目标检测的方法主要分为两个阶段。
第一阶段是生成点云数据,第二阶段是在点云数据上进行目标检测。
下面我们将分别讨论这两个阶段的主要方法。
1. 生成点云数据的方法在生成点云数据的阶段,一般采用的主要方法是激光雷达和深度学习。
具体如下:(1)激光雷达:激光雷达是一种常用的获取三维点云数据的传感器,在三维目标检测中也有广泛的应用。
然而,由于激光雷达设备成本高昂,使用范围相对有限,因此研究者们也将目光转向了另外一种技术——深度学习。
(2)深度学习:深度学习是近年来计算机视觉领域中的热门技术,其所能解决的问题涉及分类、识别、检测、分割等多个方向。
在三维目标检测中,研究者们通过使用深度学习来生成点云数据,并在此基础上进行目标检测。
比如,PointNet++和PointRCNN就是基于深度学习的方法。
2. 目标检测的方法在点云数据上进行目标检测时,常用的方法有两种,分别是基于传统的局部特征描述子和使用深度学习的方法。
(1)传统方法:传统方法主要包括点特征提取、特征描述子、点匹配、模型匹配等环节。
此方法主要优点在于其速度较快,但容易出现误判。
例如,ROPS是一种常用的点特征描述子;SHOT,FPFH,NARF等是常用的特征描述子。
(2)深度学习方法:深度学习方法是当前目标检测领域中最受欢迎的方法之一。
在点云数据上进行目标检测时,目前已有多种基于深度学习的方法被提出。
小目标检测综述

小目标检测综述
小目标检测是计算机视觉领域中的一个重要研究方向,它旨在从图像或视频中检测出小尺寸的目标物体,例如人脸、车辆、行人等。
由于小目标物体的尺寸较小,其特征信息相对较少,因此小目标检测面临着诸多挑战,如目标物体的分辨率低、图像噪声和背景干扰等。
近年来,小目标检测技术取得了很大的进展,出现了许多有效的方法和算法。
以下是一些常见的小目标检测方法:
1. 基于深度学习的方法:深度学习技术在计算机视觉领域中取得了巨大的成功,也被广泛应用于小目标检测中。
常用的深度学习模型包括卷积神经网络 CNN)、循环神经网络 RNN)和生成对抗网络 GAN)等。
2. 基于多尺度的方法:由于小目标物体的尺寸较小,其在不同尺度下的特征信息不同,因此可以采用多尺度的方法来检测小目标物体。
常用的多尺度方法包括图像金字塔、特征金字塔和多分辨率图像融合等。
3. 基于上下文信息的方法:小目标物体通常与周围环境存在一定的上下文信息,因此可以利用这些上下文信息来提高小目标检测的准确性。
常用的上下文信息包括目标物体周围的像素值、目标物体与周围物体的相对位置等。
4. 基于数据增强的方法:由于小目标物体的数据量较少,因此可以采用数据增强的方法来增加数据量,从而提高小目标检测的准确性。
常用的数据增强方法包括翻转、旋转、缩放、裁剪等。
总之,小目标检测是一个具有挑战性的研究方向,需要综合运用多种技术和方法来提高检测的准确性和效率。
随着计算机视觉技术的不断发展,相信小目标检测技术也会不断取得新的突破和进展。
SAR图像目标检测研究综述

2、基于时域的方法:这类方法主要通过滑动窗口等方式,对SAR图像进行时域 分析。这类方法可以更好地抑制斑点噪声,但是计算复杂度较高。
三、典型SAR图像目标检测方法 介绍
1、基于SWT(Sliding Window Technique)的方法:这是一种常用的时域分 析方法,通过在SAR图像上滑动一个窗口,对窗口内的像素进行统计和阈值判 断,以检测目标。
1、传统方法
基于滤波的方法是SAR图像目标检测的常用方法之一。该方法主要通过滤波器 对图像进行平滑处理,以减小图像的噪声和干扰,然后利用图像的统计特征进 行目标检测。基于边缘的方法则通过检测图像边缘来提取目标信息。该方法主 要利用图像边缘的突
变特性来识别目标,但容易受到噪声干扰。小波变换是一种有效的信号处理方 法,在SAR图像目标检测中主要用于提取图像的多尺度特征,提高目标的识别 精度。
另外,如何将SAR图像目标检测与其他图像处理任务(如图像分割、目标跟踪 等)相结合,进一步提高SAR图像的应用价值,也是未来的一个研究方向。
总之,SAR图像目标检测是一个富有挑战性和应用价值的研究领域。未来的研 究应不断探索和创新,结合新的技术和方法,进一步提高SAR图像目标检测的 性能和鲁棒性,为实际应用提供更为可靠的解决方案。
4、训练策略调整:我们采用了分阶段训练的方法。首先,我们使用大量的无 标签数据进行预训练,以增强网络对SAR图像背景和噪声的适应性。然后,我 们使用有标签数据进行微调,以使网络能够更准确地检测和识别舰船目标。
5、后处理改进:在目标检测任务中,后处理是关键的一部分。我们提出了一 种新的非极大值抑制(NMS)策略,该策略考虑到了SAR图像中舰船目标的空 间关系和形状特征。此外,我们还引入了一种新的目标标签修正算法,以解决 因SAR图像的分辨率和角度问题导致的目标识别错误。
损失函数 目标检测 综述

损失函数目标检测综述引言在计算机视觉领域中,目标检测是一项重要的任务。
通过目标检测,计算机可以识别图像或视频中的特定对象,并将其位置和类别进行标记。
为了实现准确的目标检测,我们需要使用适当的损失函数来衡量预测结果与真实标签之间的差距。
本文将对目标检测中常用的损失函数进行综述和分析。
1. 损失函数的重要性损失函数是目标检测任务中的关键组成部分。
它用于衡量预测结果与真实标签之间的差异,从而指导模型的训练过程。
一个有效的损失函数应该能够在训练过程中引导模型逐渐优化,使其能够准确地预测目标的位置和类别。
2. 目标检测任务的挑战目标检测任务面临着多个挑战,包括目标尺寸变化、遮挡、光照变化等。
为了应对这些挑战,研究者们提出了许多不同的目标检测算法,并设计了相应的损失函数来优化这些算法。
3. 常用的损失函数3.1 IOU损失函数IOU(Intersection over Union)是目标检测中常用的评估指标之一。
它衡量了预测框与真实框之间的重叠程度。
IOU损失函数根据预测框和真实框的IOU值来衡量它们之间的差异。
常见的IOU损失函数有Smooth L1 Loss和GIoU Loss等。
3.2 分类损失函数在目标检测任务中,除了需要准确地定位目标的位置,还需要正确地分类目标的类别。
分类损失函数用于衡量预测类别与真实类别之间的差异。
常见的分类损失函数有交叉熵损失函数和Focal Loss等。
3.3 边界框回归损失函数边界框回归损失函数用于衡量预测框与真实框之间的位置差异。
它在目标检测任务中起到了调整预测框位置的作用。
常见的边界框回归损失函数有Smooth L1 Loss 和MSE Loss等。
3.4 多任务损失函数多任务损失函数用于同时优化目标检测任务中的多个子任务,如目标分类、边界框回归等。
它可以综合考虑不同任务之间的关系,提高模型的整体性能。
常见的多任务损失函数有SSD Loss和RetinaNet Loss等。
目标检测与跟踪技术综述

目标检测与跟踪技术综述摘要:目标检测与跟踪技术作为计算机视觉领域的核心技术之一,已经在多个领域中得到了广泛应用,如视频监控、自动驾驶、机器人导航等。
本文将对目标检测与跟踪技术的发展历程、关键问题、常用方法以及应用领域进行综述,旨在帮助读者了解该领域的研究热点和发展趋势。
1. 引言目标检测与跟踪技术是计算机视觉领域中的重要研究方向,其主要目标是在给定图像或视频中,准确地识别和跟踪特定的目标物体。
这一技术广泛应用于目标识别、行为分析、智能监控等领域,在提高安全性、降低人力成本等方面具有重要的意义。
2. 目标检测技术2.1 传统目标检测方法传统目标检测方法主要包括基于图像特征的方法、基于滑动窗口的方法和基于分类器的方法。
其中,基于图像特征的方法通过提取图像的局部特征来进行目标检测;基于滑动窗口的方法将一个固定大小的窗口在图像上滑动,通过分类器判断窗口内是否含有目标;基于分类器的方法通过训练分类器来实现目标检测。
2.2 深度学习目标检测方法随着深度学习的兴起,目标检测技术也发生了革命性的变化。
深度学习目标检测方法主要包括基于区域提取的方法和单阶段检测方法。
基于区域提取的方法通过生成候选区域并对其进行分类来实现目标检测;而单阶段检测方法直接在特征图上进行密集预测,能够实现较快的目标检测速度。
3. 目标跟踪技术目标跟踪技术旨在实现在视频序列中跟踪特定目标物体的位置和运动状态。
目标跟踪技术可以分为基于传统方法和基于深度学习方法两类。
3.1 基于传统方法的目标跟踪基于传统方法的目标跟踪主要包括相关滤波器、粒子滤波器和Kalman滤波器等。
这些方法通过建模目标的运动模式和特征来进行跟踪,并且在一定程度上具有鲁棒性和实时性。
3.2 基于深度学习的目标跟踪近年来,基于深度学习的目标跟踪方法取得了显著的进展。
这些方法主要通过学习目标的外观和运动模式来进行跟踪,并且能够处理目标缺失、遮挡等复杂场景。
4. 关键问题及挑战在目标检测与跟踪技术的研究中,存在一些关键问题和挑战。
特殊天气条件下的目标检测方法综述

特殊天气条件下的目标检测方法综述特殊天气条件下的目标检测方法综述摘要:随着科技的不断发展和社会的进步,目标检测在各个领域都起到了重要的作用。
然而,在现实世界中,天气条件的多变性给目标检测带来了巨大的挑战。
本文将对在特殊天气条件下的目标检测方法进行综述,重点探讨雨天、雪天和雾天等天气条件下的目标检测技术及其应用。
一、引言目标检测是计算机视觉和图像处理领域的重要研究内容,其主要任务是在给定图像中准确地识别和定位目标物体。
然而,特殊天气条件下的目标检测往往受到大气湿度、光照条件等多种因素的影响,导致传统的目标检测方法无法得到较好的效果。
因此,在特殊天气条件下进行目标检测成为了一个备受关注的研究领域。
二、雨天下的目标检测方法雨天是一种典型的特殊天气条件,大雨天气中的目标检测面临着雨滴的遮挡、反射和折射等问题。
为了解决这些问题,研究者们提出了一系列的目标检测方法。
例如,基于红外图像的目标检测方法可以通过跳过光学传感器,直接获取目标的红外信息,避免了雨滴的影响。
此外,利用图像去雨算法可以有效去除雨滴的影响,从而提升目标检测的准确性。
三、雪天下的目标检测方法在雪天条件下,由于雪花的覆盖和大气湿度的增加,目标检测也变得困难起来。
研究者们尝试使用红外热像仪、激光雷达等非光学传感器进行目标检测,以避免光照差异的影响。
此外,使用图像增强和滤波技术可以有效提高图像的可视性,从而改善目标检测的效果。
四、雾天下的目标检测方法雾天是目标检测中最具挑战性的天气条件之一,由于大气中的悬浮粒子导致图像模糊和对比度降低,使目标的边缘和细节难以分辨。
为了克服这些问题,研究者们提出了各种雾天下的目标检测方法。
例如,通过模型学习和数据训练,可以根据雾天图像的特点进行目标检测。
此外,使用图像恢复算法可以恢复雾天图像的对比度和清晰度,从而提高目标检测的精度。
五、特殊天气条件下的目标检测应用特殊天气条件下的目标检测在交通安全、安防监控、军事领域等方面具有重要的应用价值。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
如有侵权请联系网站删除 精品资料 一、传统目标检测方法
如上图所示,传统目标检测的方法一般分为三个阶段:首先在给定的图像上选择一些候选的区域,然后对这些区域提取特征,最后使用训练的分类器进行分类。下面我们对这三个阶段分别进行介绍。 (1) 区域选择 这一步是为了对目标的位置进行定位。由于目标可能出现在图像的任何位置,而且目标的大小、长宽比例也不确定,所以最初采用滑动窗口的策略对整幅图像进行遍历,而且需要设置不同的尺度,不同的长宽比。这种穷举的策略虽然包含了目标所有可能出现的位置,但是缺点也是显而易见的:时间复杂度太高,产生冗余窗口太多,这也严重影响后续特征提取和分类的速度和性能。(实际上由于受到时间复杂度的问题,滑动窗口的长宽比一般都是固定的设置几个,所以对于长宽比浮动较大的多类别目标检测,即便是滑动窗口遍历也不能得到很好的区域) (2) 特征提取 由于目标的形态多样性,光照变化多样性,背景多样性等因素使得设计一个鲁棒的特征并不是那么容易。然而提取特征的好坏直接影响到分类的准确性。(这个阶段常用的特征有SIFT、HOG等) (3) 分类器 主要有SVM, Adaboost等。 总结:传统目标检测存在的两个主要问题: 一是基于滑动窗口的区域选择策略没有针对性,时间复杂度高,窗口冗余; 二是手工设计的特征对于多样性的变化并没有很好的鲁棒性。
二、基于Region Proposal的深度学习目标检测算法 对于传统目标检测任务存在的两个主要问题,我们该如何解决呢? 对于滑动窗口存在的问题,region proposal提供了很好的解决方案。region 如有侵权请联系网站删除 精品资料 proposal(候选区域)是预先找出图中目标可能出现的位置。但由于region proposal利用了图像中的纹理、边缘、颜色等信息,可以保证在选取较少窗口(几千个甚至几百个)的情况下保持较高的召回率。这大大降低了后续操作的时间复杂度,并且获取的候选窗口要比滑动窗口的质量更高(滑动窗口固定长宽比)。比较常用的region proposal算法有selective Search和edge Boxes,如果想具体了解region proposal可以看一下PAMI2015的“What makes for effective detection proposals?” 有了候选区域,剩下的工作实际就是对候选区域进行图像分类的工作(特征提取+分类)。对于图像分类,不得不提的是2012年ImageNet大规模视觉识别挑战赛(ILSVRC)上,机器学习泰斗Geoffrey Hinton教授带领学生Krizhevsky使用卷积神经网络将ILSVRC分类任务的Top-5 error降低到了15.3%,而使用传统方法的第二名top-5 error高达 26.2%。此后,卷积神经网络占据了图像分类任务的绝对统治地位,微软最新的ResNet和谷歌的Inception V4模型的top-5 error降到了4%以内多,这已经超越人在这个特定任务上的能力。所以目标检测得到候选区域后使用CNN对其进行图像分类是一个不错的选择。 2014年,RBG(Ross B. Girshick)大神使用region proposal+CNN代替传统目标检测使用的滑动窗口+手工设计特征,设计了R-CNN框架,使得目标检测取得巨大突破,并开启了基于深度学习目标检测的热潮。
1. R-CNN (CVPR2014, TPAMI2015) (Region-based Convolution Networks for Accurate Object detection and Segmentation) 如有侵权请联系网站删除
精品资料 上面的框架图清晰的给出了R-CNN的目标检测流程: (1)输入测试图像 (2)利用selective search算法在图像中提取2000个左右的region proposal。 (3)将每个region proposal缩放(warp)成227x227的大小并输入到CNN,将CNN的fc7层的输出作为特征。 (4)将每个region proposal提取到的CNN特征输入到SVM进行分类。 上面的框架图是测试的流程图,要进行测试我们首先要训练好提取特征的CNN模型,以及用于分类的SVM:使用在ImageNet上预训练的模型(AlexNet/VGG16)进行微调得到用于特征提取的CNN模型,然后利用CNN模型对训练集提特征训练SVM。 对每个region proposal缩放到同一尺度是因为CNN全连接层输入需要保证维度固定。 上图少画了一个过程——对于SVM分好类的region proposal做边框回归(bounding-box regression),边框回归是对region proposal进行纠正的线性回归算法,为了让region proposal提取到的窗口跟目标真实窗口更吻合。因为region proposal提取到的窗口不可能跟人手工标记那么准,如果region proposal跟目标位置偏移较大,即便是分类正确了,但是由于IoU(region proposal与Ground Truth的窗口的交集比并集的比值)低于0.5,那么相当于目标还是没有检测到。 小结:R-CNN在PASCAL VOC2007上的检测结果从DPM HSC的34.3%直接提升到了66%(mAP)。如此大的提升使我们看到了region proposal+CNN的巨大优势。 但是R-CNN框架也存在着很多问题: (1) 训练分为多个阶段,步骤繁琐: 微调网络+训练SVM+训练边框回归器 (2) 训练耗时,占用磁盘空间大:5000张图像产生几百G的特征文件 (3) 速度慢: 使用GPU, VGG16模型处理一张图像需要47s。 针对速度慢的这个问题,SPP-NET给出了很好的解决方案。 如有侵权请联系网站删除
精品资料 2. SPP-NET (ECCV2014, TPAMI2015) (Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition)
先看一下R-CNN为什么检测速度这么慢,一张图都需要47s!仔细看下R-CNN框架发现,对图像提完region proposal(2000个左右)之后将每个proposal当成一张图像进行后续处理(CNN提特征+SVM分类),实际上对一张图像进行了2000次提特征和分类的过程! 有没有方法提速呢?好像是有的,这2000个region proposal不都是图像的一部分吗,那么我们完全可以对图像提一次卷积层特征,然后只需要将region proposal在原图的位置映射到卷积层特征图上,这样对于一张图像我们只需要提一次卷积层特征,然后将每个region proposal的卷积层特征输入到全连接层做后续操作。(对于CNN来说,大部分运算都耗在卷积操作上,这样做可以节省大量时间)。现在的问题是每个region proposal的尺度不一样,直接这样输入全连接层肯定是不行的,因为全连接层输入必须是固定的长度。SPP-NET恰好可以解决这个问题:
上图对应的就是SPP-NET的网络结构图,任意给一张图像输入到CNN,经过卷积操作我们可以得到卷积特征(比如VGG16最后的卷积层为conv5_3,共产生512张特征图)。图中的window是就是原图一个region proposal对应到特征图的区域,只需要将这些不同大小window的特征映射到同样的维度,将其作为全连接的输入,就能保证只对图像提取一次卷积层特征。SPP-NET使用了空间金字塔如有侵权请联系网站删除 精品资料 采样(spatial pyramid pooling):将每个window划分为4*4, 2*2, 1*1的块,然后每个块使用max-pooling下采样,这样对于每个window经过SPP层之后都得到了一个长度为(4*4+2*2+1)*512维度的特征向量,将这个作为全连接层的输入进行后续操作。 小结:使用SPP-NET相比于R-CNN可以大大加快目标检测的速度,但是依然存在着很多问题: (1) 训练分为多个阶段,步骤繁琐: 微调网络+训练SVM+训练训练边框回归器 (2) SPP-NET在微调网络的时候固定了卷积层,只对全连接层进行微调,而对于一个新的任务,有必要对卷积层也进行微调。(分类的模型提取的特征更注重高层语义,而目标检测任务除了语义信息还需要目标的位置信息) 针对这两个问题,RBG又提出Fast R-CNN, 一个精简而快速的目标检测框架。
3. Fast R-CNN(ICCV2015) 有了前边R-CNN和SPP-NET的介绍,我们直接看Fast R-CNN的框架图:
与R-CNN框架图对比,可以发现主要有两处不同:一是最后一个卷积层后加了一个ROI pooling layer,二是损失函数使用了多任务损失函数(multi-task loss),将边框回归直接加入到CNN网络中训练。 (1) ROI pooling layer实际上是SPP-NET的一个精简版,SPP-NET对每个proposal使用了不同大小的金字塔映射,而ROI pooling layer只需要下采样到一如有侵权请联系网站删除 精品资料 个7x7的特征图。对于VGG16网络conv5_3有512个特征图,这样所有region proposal对应了一个7*7*512维度的特征向量作为全连接层的输入。 (2) R-CNN训练过程分为了三个阶段,而Fast R-CNN直接使用softmax替代SVM分类,同时利用多任务损失函数边框回归也加入到了网络中,这样整个的训练过程是端到端的(除去region proposal提取阶段)。 (3) Fast R-CNN在网络微调的过程中,将部分卷积层也进行了微调,取得了更好的检测效果。 小结:Fast R-CNN融合了R-CNN和SPP-NET的精髓,并且引入多任务损失函数,使整个网络的训练和测试变得十分方便。在Pascal VOC2007训练集上训练,在VOC2007测试的结果为66.9%(mAP),如果使用VOC2007+2012训练集训练,在VOC2007上测试结果为70%(数据集的扩充能大幅提高目标检测性能)。使用VGG16每张图像总共需要3s左右。 缺点:region proposal的提取使用selective search,目标检测时间大多消耗在这上面(提region proposal 2~3s,而提特征分类只需0.32s),无法满足实时应用,而且并没有实现真正意义上的端到端训练测试(region proposal使用selective search先提取处来)。那么有没有可能直接使用CNN直接产生region proposal并对其分类?Faster R-CNN框架就是符合这样需要的目标检测框架。