基于深度卷积神经网络的目标检测

合集下载

一阶段目标检测算法

一阶段目标检测算法

一阶段目标检测算法一阶段目标检测算法(One-StageObjectDetectionAlgorithm)是目标检测的一种关键技术,它是指通过一个网络同时完成目标的定位和分类的技术。

由于它可以在少量数据上实现良好的性能,并且在实时性能方面也表现出较高的表现,因此它在计算机视觉任务中得到了广泛的应用。

一阶段目标检测算法受到了深度卷积神经网络(DCNNs)的影响,随着DCNNs在图像解析和分析方面取得了巨大的进步,对目标检测算法的计算效率有了明显的提高。

一阶段目标检测算法是基于DCNNs的,并且取代了之前的双阶段目标检测算法,使得检测的速度和准确性得到了显著的提升。

一阶段目标检测算法的基本原理是,给定一张图像,将图像输入到DCNNs中,然后,基于DCNNs的输出结果,通过一系列的计算得出预测框,并在预测框中计算预测物体的类别和位置。

这样,就可以准确的检测出不同的物体位置和类别,而不需要像双阶段目标检测算法一样进行反复的计算和比较。

此外,一阶段目标检测算法也可以支持多任务学习,它可以在同一个网络中实现对不同物体的检测,以及对目标物体的定位和分类,这是双阶段目标检测算法不能做到的。

这种独特的特性非常有利于在受限环境中,例如智能手机和小型智能设备,使用目标检测算法,因为可以减少计算资源的消耗。

最后,值得一提的是,一阶段目标检测算法本身也是基于DCNNs的深度学习技术,因此具备比传统机器学习方法更强的性能和准确性优势,因此,它在众多领域的应用也越来越普及。

总结,一阶段目标检测算法是一种非常有效的技术,它可以在少量数据上实现良好的性能,并且在实时的性能方面也表现出较高的效果,同时它还可以适用于多任务学习,并且可以在受限环境中使用,从而有助于大规模应用计算机视觉技术。

基于深度学习的视频目标检测与跟踪算法研究

基于深度学习的视频目标检测与跟踪算法研究

基于深度学习的视频目标检测与跟踪算法研究一、引言随着计算机视觉技术的飞速发展,视频目标检测与跟踪在许多领域中发挥着重要作用,如智能监控、自动驾驶、虚拟现实等。

基于深度学习的视频目标检测与跟踪算法,通过深度神经网络的训练与优化,能够在复杂场景中准确地检测出目标物体并进行实时跟踪,具有很高的实用价值。

本文将针对基于深度学习的视频目标检测与跟踪算法进行研究。

二、视频目标检测1.传统方法的不足在传统的视频目标检测算法中,主要采用的是基于特征工程的方法,需要人工提取出适合目标检测的特征并设计相应的分类器。

然而,这种方法存在着特征提取难、特征选择不准确等问题,限制了检测算法的性能。

在大量数据训练的情况下,特征工程的成本也很高。

2.基于深度学习的视频目标检测算法深度学习在计算机视觉领域中的应用逐渐兴起,特别是卷积神经网络(CNN)的兴起使得目标检测算法得到了极大的改善。

基于深度学习的视频目标检测算法主要通过训练一个深度神经网络,使其能够自动学习出目标物体的特征表示,并通过后续的分类器对目标进行识别与定位。

首先,深度神经网络通常包含多个卷积层和池化层,用于提取图像中不同层次的特征。

然后,通过全连接层将提取到的特征与标签进行匹配,训练网络模型。

最后,通过对新的图像样本进行前向传播,得到目标物体的识别和定位结果。

基于深度学习的视频目标检测算法相较于传统方法具有很多优势。

首先,深度神经网络能够自动学习出适用于目标检测的特征表达,避免了人工特征工程的复杂性。

其次,通过大规模数据的训练,深度学习模型能够提高目标检测的准确性和泛化能力。

此外,深度学习算法还能够处理大规模数据集,使得算法具备更好的实时性。

三、视频目标跟踪1.传统方法的不足传统的视频目标跟踪算法通常基于目标的运动模型或者外观模型,但是它们在面对复杂场景时往往表现不佳。

这是因为传统方法无法有效地应对目标形变、光照变化、遮挡等问题,且对复杂背景下的目标无法准确跟踪。

《基于空洞卷积和边缘引导的目标检测方法研究》

《基于空洞卷积和边缘引导的目标检测方法研究》

《基于空洞卷积和边缘引导的目标检测方法研究》一、引言目标检测是计算机视觉领域的一项重要任务,它旨在确定图像中特定目标的位置并对其进行准确标注。

近年来,随着深度学习技术的快速发展,基于卷积神经网络(CNN)的目标检测方法已成为研究热点。

其中,空洞卷积和边缘引导是两种有效的技术手段,可以提升目标检测的准确性和效率。

本文将针对基于空洞卷积和边缘引导的目标检测方法进行深入研究,探讨其原理、应用及优势。

二、空洞卷积技术原理及应用1. 原理空洞卷积(也称为膨胀卷积)是一种特殊的卷积操作,通过在卷积核中引入“空洞”来扩大感受野,从而捕获到更大范围的上下文信息。

在目标检测任务中,扩大感受野有助于提高对目标特征的提取能力,进而提升检测准确率。

2. 应用在目标检测任务中,空洞卷积广泛应用于特征提取阶段。

通过在不同层次的特征图上应用不同膨胀率的空洞卷积,可以有效地扩大感受野,捕获到更多上下文信息。

这些上下文信息对于提高目标检测的准确性和鲁棒性具有重要意义。

三、边缘引导技术原理及应用1. 原理边缘引导是一种基于边缘检测的目标定位技术。

通过检测目标边缘信息,可以更准确地确定目标的位置和形状。

在目标检测任务中,边缘引导可以与卷积神经网络相结合,提高对目标形状和结构的识别能力。

2. 应用边缘引导技术在目标检测中的应用主要体现在两个方面。

一方面,可以通过边缘检测算法提取出目标的边缘信息,为后续的目标定位和形状识别提供依据。

另一方面,可以将边缘信息融入到卷积神经网络中,与特征提取和分类等任务相结合,提高目标检测的准确性和鲁棒性。

四、基于空洞卷积和边缘引导的目标检测方法本文提出了一种基于空洞卷积和边缘引导的目标检测方法。

该方法首先通过卷积神经网络提取图像特征,然后在特征提取阶段应用空洞卷积技术扩大感受野,捕获更多上下文信息。

接着,利用边缘检测算法提取出目标的边缘信息,为后续的目标定位和形状识别提供依据。

最后,将边缘信息和特征信息相结合,进行目标分类和位置回归。

YOLO算法流程

YOLO算法流程

YOLO算法流程YOLO(You Only Look Once)算法是一种基于深度学习的实时目标检测算法。

相比于传统的目标检测算法,YOLO算法具有较快的速度和较好的准确率,成为目标检测领域的研究热点。

网络训练:2. 特征提取:使用预训练的卷积神经网络(如VGGNet、ResNet等)作为特征提取器,然后在其基础上构建YOLO网络。

YOLO网络包括多个卷积层和全连接层,用于提取图像的高级特征。

3.设计损失函数:定义YOLO算法的损失函数,包括目标分类误差、边界框位置误差和目标置信度误差。

损失函数的设计旨在最大化目标检测的准确性和精确性。

4.开始训练:使用标注好的数据集进行网络的训练,通过反向传播算法不断优化网络参数,使得网络能够更好地预测目标的类别和位置。

目标检测:1.图像预处理:在进行目标检测之前,需要对输入图像进行预处理,包括图像大小调整、像素归一化和颜色空间转换等操作。

这些操作旨在使输入图像符合网络的输入要求。

2.网络前向传播:将预处理后的图像输入到YOLO网络中,通过前向传播算法,计算网络的输出值。

YOLO网络的输出是一个张量,包括了图像中所有目标的类别、位置和置信度信息。

3.非极大抑制(NMS):为了减少多余的边界框,需要进行非极大抑制的操作。

非极大抑制是一种基于置信度的筛选机制,通过计算边界框的重叠面积和置信度进行筛选,排除冗余的边界框。

4.目标检测结果输出:最后,将经过非极大抑制筛选后的边界框和对应的类别输出作为目标检测的结果。

输出的目标检测结果可以通过图像可视化工具进行展示,直观呈现出图像中的目标位置和类别。

总结来说,YOLO算法的流程包括了网络训练和目标检测两个主要的阶段。

在训练阶段,需要准备数据集、进行特征提取以及设计损失函数,并通过反向传播算法优化网络参数;在目标检测阶段,需要对输入图像进行预处理,通过网络的前向传播计算输出,并使用非极大抑制筛选出目标检测结果。

YOLO算法的流程简单明了,具有良好的实时性和准确性,广泛应用于图像和视频的目标检测任务中。

传统目标检测算法与目标检测深度学习算法的对比分析

传统目标检测算法与目标检测深度学习算法的对比分析

传统目标检测算法与目标检测深度学习算法的对比分析目标检测是计算机视觉中一个重要的问题。

传统的目标检测算法主要包括基于特征的方法和基于分类器的方法两种类型,而目标检测深度学习算法则主要通过卷积神经网络(CNN)实现目标检测。

本文将分析两种算法的优缺点,并探索它们之间的不同。

一、传统目标检测算法1.基于特征的目标检测算法基于特征的算法是通过特定的特征来检测目标。

其中,HOG (Histogram of Oriented Gradient)算法是一种常用的基于特征的方法。

HOG算法提取图像中的梯度方向特征,然后使用SVM分类器来检测目标。

此外,SIFT(Scale-Invariant Feature Transform)和SURF (Speeded Up Robust Features)也是常用的基于特征的算法。

优点:-简单易懂:基于特征的算法的实现很简单,易于理解和实现。

-可处理低分辨率图像:由于该算法使用图像的全局特征,因此可处理低分辨率图像。

缺点:-不适合复杂场景:当存在多个目标时,基于特征的算法很难区分它们。

-鲁棒性差:由于基于特征的算法对光照、旋转等误差敏感,因此鲁棒性差。

2.基于分类器的目标检测算法基于分类器的目标检测算法是将目标检测看作二分类问题。

此类算法主要分为目标候选区域生成方法和强分类器方法。

其中,Haar-like特征和Adaboost分类器是最常用的方法之一。

优点:-鲁棒性强:由于该算法使用复杂的分类器,因此鲁棒性很强,可以处理各种复杂场景。

-相对准确:该算法的准确度相对较高。

缺点:-外部参数过多:基于分类器的算法需要预先定义很多外部参数,这使得该算法的实现相对较为复杂。

-可扩展性差:由于其依赖于复杂分类器的训练数据,因此样本数量很大。

随着训练数据的增加,该算法的实现成本将会更高。

二、目标检测深度学习算法1.卷积神经网络目标检测深度学习算法采用卷积神经网络(CNN)来实现。

CNN的优势在于它能够自动提取图像中的特征,无需人工干预。

动目标检测

动目标检测

动目标检测动目标检测是指在视频或图像序列中,快速且准确地检测和追踪运动目标的过程。

动目标检测在许多应用中都有着广泛的应用,比如视频监控、交通监控、智能驾驶等领域。

下面将介绍一些常见的动目标检测方法。

一、基于传统的动目标检测方法:1. 基于背景差分法:该方法通过将当前帧的像素值与背景模型进行比较,来检测出目标。

这种方法简单、直接,但对光照变化和背景的不稳定性较为敏感。

2. 基于帧差法:该方法通过比较相邻帧之间的像素差异,来检测出目标。

帧差法可以适应光照变化和背景的变化,但对运动目标的遮挡情况不敏感。

3. 基于自适应背景建模:该方法通过维护一个适应性的背景模型,来动态更新背景信息,从而减少光照变化和背景的影响。

这种方法可以适应复杂的场景变化,但对于目标突然静止不动的情况处理效果不佳。

二、基于深度学习的动目标检测方法:1. 基于卷积神经网络(CNN)的动目标检测:通过训练深度神经网络模型,将视频或图像序列中的目标进行分类和定位。

这种方法可以自动学习目标的特征表示,从而提高检测的准确性和鲁棒性。

2. 基于循环神经网络(RNN)的动目标检测:通过将时间信息纳入模型中,建立时间上下文的关系,从而提高目标的追踪和预测能力。

这种方法可以适应目标的运动和变形,对目标的形状和结构变化不敏感。

三、动目标检测的评价指标:1. 准确率(Accuracy):检测结果与真实标注之间的重叠程度。

2. 误检率(False Positive Rate):虚警率,即没有目标但却被错误检测出来的像素或区域。

3. 漏检率(Miss Rate):目标没有被检测到的像素或区域。

4. F1 值:综合考虑准确率和漏检率的一个评价指标。

总结起来,动目标检测是指在视频或图像序列中,通过提取目标的运动信息,进行快速且准确地检测和追踪运动目标的过程。

根据不同的应用需求,可以选择合适的算法和模型进行动目标检测,以提高检测的准确性,实现对运动目标的有效监控和分析。

文字检测算法模型

文字检测算法模型

文字检测算法模型
1. R-CNN系列模型:包括R-CNN、Fast R-CNN、Faster R-CNN和
Mask R-CNN等。

这些模型基于深度卷积神经网络,将目标检测问题转化
为区域建议(Region Proposal)和分类两个子任务,并且在每个区域上
进行分类和边界框回归。

R-CNN系列模型在文字检测中具有较好的性能和
鲁棒性。

2. TextBoxes系列模型:包括TextBoxes、TextBoxes++和EAST等。

这些模型采用了特定的回归目标和损失函数,使得模型在检测文字时更加
准确和稳定。

而且,它们还引入了文本特定的先验知识,如文本的长宽比、高宽比等,从而提升了文字检测的性能。

3.CRNN模型:CRNN是一种端到端的卷积递归神经网络模型,通过联
合训练卷积神经网络和循环神经网络,实现了字符级的文本识别和检测。

CRNN模型不仅可以检测文字的位置,还可以识别文字的内容,具有很好
的实时性和鲁棒性。

4. CTPN模型:CTPN即Connectionist Text Proposal Network,是
一种基于深度学习的任意方向文本检测算法。

CTPN模型将图像中的文字
区域提取为逐步连接的文本线段,然后利用序列学习方法来生成定位和筛
选结果。

CTPN模型在任意方向的文字检测任务中取得了不错的效果。

这些模型在文字检测的性能和效果上都有不同的优势,具体使用哪种
模型需要根据具体应用场景和需求进行选择。

dino 目标检测 原理

dino 目标检测 原理

dino目标检测原理目标检测是计算机视觉领域的一个重要研究方向,其目标是在图像或视频中识别出多个感兴趣的目标对象,并给出它们的位置信息。

近年来,随着深度学习技术的发展,基于深度学习的目标检测算法取得了显著的性能提升。

Dino是一种轻量级的目标检测算法,具有较低的计算复杂度和较快的检测速度,适用于边缘设备和实时应用场景。

Dino目标检测算法的原理可以分为以下几个步骤:1. 数据预处理:首先对输入的图像进行预处理,包括缩放、裁剪、翻转等操作,以增加模型的泛化能力。

同时,将图像转换为灰度图,以减少计算量。

2. 特征提取:使用一个轻量级的卷积神经网络(如MobileNet)对预处理后的图像进行特征提取。

这个网络通常包含多个卷积层、池化层和全连接层,用于学习图像的高层次特征表示。

由于Dino算法的目标是降低计算复杂度,因此这里使用的是轻量级的网络结构。

3. 目标定位:在特征提取阶段,网络会输出一个与输入图像尺寸相同的特征图。

在这个特征图上,每个位置对应一个可能的目标类别。

为了确定目标的具体位置,需要对特征图进行进一步的处理。

一种常用的方法是使用滑动窗口的方法,在特征图上滑动一个固定大小的窗口,计算窗口内的特征向量与目标类别的相似度。

通过比较不同窗口的相似度,可以确定目标的位置。

4. 损失函数:为了训练Dino模型,需要定义一个损失函数来衡量模型的预测结果与真实标签之间的差异。

在目标检测任务中,常用的损失函数是交并比(Intersection over Union,IoU)损失函数。

IoU损失函数衡量了预测框与真实框之间的重叠程度,通过最小化IoU损失函数,可以使模型更好地拟合目标的位置信息。

5. 优化算法:为了优化Dino模型的参数,需要选择一个合适的优化算法。

常用的优化算法包括随机梯度下降(Stochastic Gradient Descent,SGD)、Adam等。

这些优化算法可以在每次迭代过程中更新模型的参数,使模型逐渐收敛到最优解。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

第35卷 第8期 福 建 电 脑 Vol. 35 No.82019年8月Journal of Fujian ComputerAug. 2019———————————————程胜月,男,1995生,硕士研究生,研究方向为深度学习。

E-mail:2968365693@ 。

张德贤,男,1961生,博士,研究方向为模式识别、人工智能信息处理。

基于深度卷积神经网络的目标检测程胜月 张德贤(河南工业大学信息科学与工程学院 郑州 450001)摘 要 目标检测是计算机视觉领域中最基本、最具挑战性的课题之一,由于传统检测方法已经不能满足其在精度和速度上需求,深度学习利用其对图像特征强大地分析处理能力,逐渐成为目标检测的主流方向。

本文首先对主流卷积神经网络框架进行简述,其次对目标检测中的几种重要的方法具体分析,最后对未来可能的发展方向进行讨论。

关键词 目标检测;卷积神经网络;RCNN ;YOLO ;SSD 中图法分类号 TP183 DOI:10.16707/ki.fjpc.2019.08.009Target Detection Based on Deep Convolutional Neural NetworksCHENG Shengyue, ZHANG Dexian(School of Information Science and Engineering, Henan University of Technology, Zhengzhou,China, 450001)1引言目标检测作为计算机视觉的基本问题之一,是许多其他计算机视觉任务的基础,如实例分割、图像处理、对象跟踪等[1]。

目前,目标检测已广泛应用于无人驾驶、安防监管、视频分析等领域。

传统目标检测方法包含预处理、窗口滑动、特征提取、特征选择、特征分类、后处理等步骤。

而卷积神经网络本身具有特征提取、特征选择和特征分类的功能,所以在现在计算能力充足的情况下得到充分发展。

2主流深度卷积网络的发展1998年Yann LeCun 提出的LeNet-5网络是首次成功应用于数字识别问题的卷积神经网络。

但是由于当时计算能力不足,未能受到重视。

直到2012年AlexNet 在ImageNet 图像分类任务竞赛中获得冠军,目标检测才迎来深度卷积神经网络的时代。

2.1 AlexNetAlexNet 由5个卷积层和3个全连接层组成,使用数据增广和Dropout 防止过拟合,并且提出了局部响应归一化来提高模型的泛化能力。

2.2 VGGNetVGGNet 获得了2014年ILSVRC 比赛的亚军和目标定位的冠军。

到目前为止,VGGNet 依然被广泛使用来提取图像的特征。

VGGNet 主要是证明了增加网络的深度可以提高最终的性能。

2.3 GoogleNetGoogleNet 分析得出增加网络的深度和宽度可以提升性能,但同时不可避免的增加参数,造成过拟合和计算量过大。

因此提出Inception 结构将稀疏矩阵聚类成相对稠密的子空间矩阵提高计算性能。

2.2 ResNetResNet 指出随着卷积神经网络深度的增加,却出现梯度消失现象造成准确率的下降。

ResNet 通过恒等映射解决深层网络梯度消失问题,大幅度提升深度卷积网络的性能。

3目标检测算法手工设计特征的目标检测方法在2010年左右2019年福建电脑35趋向稳定。

2014年,R.Girshick首次将卷积神经网络运用在目标检测问题中,并且提出了RCNN算法,从此基于深度学习的方法开始主导目标检测问题的走向[2]。

基于深度学习的目标检测方法由两类组成,分别是基于分类的RCNN系列算法和基于回归的检测算法。

前者是从粗到精的检测,后者是采取一步实现的过程。

3.1分类的目标检测算法基于分类的目标检测算法在待检测图像上进行窗口滑动,产生候选区域,然后进行窗口回归,得出目标位置。

3.1.1 RCNN算法因为传统算法在目标检测上进程缓慢,R.Girshick提出了一种简单和可扩展的检测算法RCNN,在VOC-2012数据集上mAP达到了53.3%,相对于之前的算法性能提高了30%。

算法具体实现的步骤:(1) 使用选择性搜索算法对图像进行区域提议,每张图像产生大约2000个候选框。

(2) 将候选框缩放到固定大小,使用CNN提取特征,产生一个4096维特征向量。

(3) 再把这个特征向量送入一个多类别SVM 分类器中,预测出候选框中所含物体属于每个类的概率值。

(4) 对候选框使用边界框回归,减少目标定位误差。

RCNN算法两大贡献:一是使用CNN对目标进行特征提取;二是当训练样本较少时,可在额外数据集上进行预训练,然后微调就可以取得很好的效果[3]。

同时RCNN算法也存在训练慢、特征提取重复计算、效率低等缺点。

3.1.2 Fast RCNN为了更好的进行目标检测,R.Girshick提出了Fast RCNN算法。

为了规避RCNN中冗余的特征提取操作,Fast RCNN只对图像全部区域进行一次特征提取[4]。

同时引入RoI池化层取代最后一层max 池化层。

最后使用SVD对网络结尾的全连接层进行分解,减少计算复杂度,加快了检测速度。

算法具体实现的步骤:(1) 使用CNN处理任意大小的图像,采用选择性搜索算法对图像进行区域提议。

(2) 根据提议框到特征图的映射关系,在特征图中找到每个提议框对应的特征框,并在RoI池化层中将特征框处理为固定大小。

(3) 固定大小的特征框经过全连接层得到固定大小的特征向量。

(4) 使用SVD将特征向量所在的全连接层进行分解,得到softmax的分类得分和边界框窗口回归。

(5)利用非极大值抑制方法去除重叠提议框,得到每个类别中得分最高的窗口。

Fast RCNN算法对图像进行一次性特征提取,有效地节约了时间,而且使用softmax分类器代替了SVM分类器[5]。

Fast RCNN在VOC 2012数据集上可以达到68.4%,同时训练速度比RCNN快9倍。

3.1.3 Faster RCNNFaster RCNN通过提出将RPN (Region Proposa Networks)和Fast R-CNN通过共享卷积特征合并为一个单一的网络来提高性能。

RPN是使用全卷积层来取代之前的全连接层然后进行区域提议的计算,其本质还是使用滑动窗口对目标进行区域提议。

算法具体实现的步骤:(1) 对输入的整张图片使用CNN,得到特征层。

(2) 使用RPN对产生的特征层进行特征提取,利用预先设置好的多个(通常是9个)不同大小尺寸的anchor进行窗口滑动,得到目标区域提议。

(3) 进行分类和回归,使用分类器对anchor产生的区域提议候选框进行判别分类,最后利用回归器对候选框的位置进行微调[6]。

FasterRCNN不受输入图像大小的限制,利用anchor机制和边框回归可以对不同尺度和长宽比的图像进行区域提议,而且实现了端对端的运算。

其检测精度在VOC上达到了73.2%,因为引入了RPN 使得测试时间比FastRCNN缩短了将近十几倍。

3.2回归的目标检测算法在Faster RCNN之后又进行了一系列的算法改进,在一定程度上提高了检测精度。

但是由于检测速度较慢,所以在现实中的实时场景中并不适用[7]。

在这种背景下出现了基于回归的目标检测算法,它将整个目标检测流程统一到一个网络中,一次性地提取和检测。

3.2.1 YOLOYOLO 是2016年Redmon J等人提出的一种基于回归的目标检测算法。

它的特点是检测速度非常快。

YOLO之前的目标检测方法使用区域提议来生成整张图像中包含待检测物体的可能的边界框,然后用分类器来评估这些提议框。

因为这些环节都是36 程胜月等:基于深度卷积神经网络的目标检测第8期分开训练的,所以检测性能很难进行优化。

YOLO目标检测系统有如下三个步骤:(1) 将输入图像的大小调整为448×448。

(2) 在图像上运行单个卷积网络。

(3) 根据模型的置信度对得到的检测进行阈值化。

YOLO算法的目标检测过程非常快速,但其对目标定位可能会出现误差,同时对小目标物体及物体密集区域检测效果也比较差[8]。

该算法可以降低将背景检测为目标的概率,但同时导致召回率较低。

3.2.2 SSDSSD算法综合了YOLO和FasterRCNN两种算法的优势,对目标检测的精度和速度都进行了提升。

SSD算法将边界框的输出空间离散化为一组默认框,该默认框在每个特征图位置有不同的宽高比和尺寸[9]。

在预测期间,网络对每个默认框中的每个对象类别进行生成分数,并且对默认框进行调整以更好地匹配目标尺寸。

另本文的SSD模型相对于需要RCNN的方法是简单的,因为它完全消除了采用区域提议这类方法中的候选框及之后的像素或特征的重采样阶段,并将所有计算封装在单个卷积神经网络中。

这使得SSD容易训练和直接集成到需要检测组件的系统中。

基于深度学习的目标检测算法在VOC2007和VOC2012及COCO数据集上的检测性能及FPS如表1所示。

表1 各算法在不同数据集上的精度及其FPS大小4总结自2012年深度学习在计算机视觉领域取得突破以来,目标检测算法开始取得不断地发展,从精度到速度都有很大的进步,同时每年还有新的目标检测成果出现[10]。

在这其中还有一些需要解决的问题,首先是随着未来目标检测应用场景的复杂化,小目标检测将会成为常态;其次还会面临检测样本过少的问题。

总的来说,目标检测依然是一个具有挑战性的课题[7]。

随着国家对人工智能发展的重视,该课题也面临新的机遇和挑战,值得我们更加深入地进行研究。

参考文献[1] 周晓彦,王珂,李凌燕.基于深度学习的目标检测算法综述.电子测量技术,2017,40(11):89-93[2] 于进勇,丁鹏程,王超.卷积神经网络在目标检测中的应用综述.计算机科学,2018,45(S2):17-26[3] Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies foraccurate object detection and semantic segmentation//Proceedings ofthe IEEE conference on computer vision and pattern recognition.Columbia,America,2014: 580-587[4] Girshick R. Fast r-cnn//Proceedings of the IEEE international conferenceon computer vision. Santiago, Chile,2015: 1440-1448[5] 李丹.基于深度学习的目标检测综述.科技经济导刊,2019,27(13):1-2,31[6] Ren S, He K, Girshick R, et al. Faster r-cnn: Towards real-time objectdetection with region proposal networks//Advances in neural information processing systems. Montreal, Canada,2015: 91-99 [7] 刘晓楠,王正平,贺云涛,刘倩.基于深度学习的小目标检测研究综述.战术导弹技术,2019(01):100-107[8] Redmon J, Divvala S, Girshick R, et al. You only look once: Unified,real-time object detection//Proceedings of the IEEE conference on computer vision and pattern recognition. Las Vegas, America,2016: 779-788[9] Liu W, Anguelov D, Erhan D, et al. Ssd: Single shot multiboxdetector//European conference on computer vision. Springer, Cham, Amsterdam, The Netherlands,2016: 21-37[10] 许必宵,宫婧,孙知信.基于卷积神经网络的目标检测模型综述.计算机技术与发展,2019(11):1-8Method VOC07 (mAP@IoU=0.5) VOC12 (mAP@IoU=0.5) COCO (mAP@IoU=0.5:0.95) FPS RCNN 58.5 - - - FastRCNN 70.0 68.4 19.7 0.5 FasterRCNN 73.2 70.4 21.9 7 YOLO 66.4 57.9 - 21 SSD 76.8 74.9 31.2 46。

相关文档
最新文档