基础目标检测算法介绍
图像识别技术的对比:YOLO和Faster R-CNN

图像识别技术的对比:YOLO和Faster R-CNN 图像识别技术是计算机视觉领域的一个重要研究方向,它的发展对于智能自动驾驶、安防监控、商品识别等多个领域具有重要意义。
在图像识别技术中,YOLO和Faster R-CNN是两种常用的目标检测算法,它们在精度、速度、复杂度等方面有着不同的特点。
本文将对这两种算法进行比较分析,从理论基础、算法原理、应用场景等多个角度详细探讨它们的优缺点和适用范围。
一、理论基础YOLO(You Only Look Once)是由Joseph Redmon等人在2016年提出的一种实时目标检测算法。
YOLO算法将目标检测问题视作一个回归问题,通过将图像划分为网格,每个网格负责检测图像中的目标,并预测目标的边界框和类别信息。
由于YOLO算法采用单个神经网络进行端到端的训练和预测,因此能够在保持较高精度的同时达到较快的检测速度。
YOLO算法在物体检测领域取得了较为显著的成果,被广泛应用于自动驾驶、人脸检测、安防监控等领域。
相比之下,Faster R-CNN是由Shaoqing Ren等人于2015年提出的一种目标检测算法。
Faster R-CNN算法主要由两部分组成:Region Proposal Network(RPN)和Fast R-CNN。
RPN负责生成候选区域,而Fast R-CNN则负责对候选区域进行分类和回归。
Faster R-CNN算法之所以称之为“更快”的R-CNN,是因为它采用共享卷积特征提取,使得在目标检测任务中能够达到较快的检测速度。
Faster R-CNN算法在准确度上具有一定的优势,特别是在小目标检测和复杂场景中表现更为突出。
二、算法原理YOLO算法的核心思想是将对象检测问题转化为回归问题,通过生成候选框并进行类别判别来完成对象检测任务。
在具体实现中,YOLO 算法将输入图像划分为S X S个网格,每个网格负责检测图像中的目标,同时预测目标的边界框和类别信息。
(完整版)目标检测综述

一、传统目标检测方法如上图所示,传统目标检测的方法一般分为三个阶段:首先在给定的图像上选择一些候选的区域,然后对这些区域提取特征,最后使用训练的分类器进行分类。
下面我们对这三个阶段分别进行介绍。
(1) 区域选择这一步是为了对目标的位置进行定位。
由于目标可能出现在图像的任何位置,而且目标的大小、长宽比例也不确定,所以最初采用滑动窗口的策略对整幅图像进行遍历,而且需要设置不同的尺度,不同的长宽比。
这种穷举的策略虽然包含了目标所有可能出现的位置,但是缺点也是显而易见的:时间复杂度太高,产生冗余窗口太多,这也严重影响后续特征提取和分类的速度和性能。
(实际上由于受到时间复杂度的问题,滑动窗口的长宽比一般都是固定的设置几个,所以对于长宽比浮动较大的多类别目标检测,即便是滑动窗口遍历也不能得到很好的区域)(2)特征提取由于目标的形态多样性,光照变化多样性,背景多样性等因素使得设计一个鲁棒的特征并不是那么容易。
然而提取特征的好坏直接影响到分类的准确性。
(这个阶段常用的特征有SIFT、HOG等)(3) 分类器主要有SVM, Adaboost等。
总结:传统目标检测存在的两个主要问题:一是基于滑动窗口的区域选择策略没有针对性,时间复杂度高,窗口冗余;二是手工设计的特征对于多样性的变化并没有很好的鲁棒性。
二、基于Region Proposal的深度学习目标检测算法对于传统目标检测任务存在的两个主要问题,我们该如何解决呢?对于滑动窗口存在的问题,region proposal提供了很好的解决方案。
regionproposal(候选区域)是预先找出图中目标可能出现的位置。
但由于region proposal 利用了图像中的纹理、边缘、颜色等信息,可以保证在选取较少窗口(几千个甚至几百个)的情况下保持较高的召回率。
这大大降低了后续操作的时间复杂度,并且获取的候选窗口要比滑动窗口的质量更高(滑动窗口固定长宽比)。
比较常用的region proposal算法有selective Search和edge Boxes,如果想具体了解region proposal可以看一下PAMI2015的“What makes for effective detection proposals?”有了候选区域,剩下的工作实际就是对候选区域进行图像分类的工作(特征提取+分类)。
高精度的目标检测算法

高精度的目标检测算法目标检测是计算机视觉领域中一项重要的技术,其目的是在图像或视频中准确地识别和定位出不同类别的目标物体。
高精度的目标检测算法在许多应用中具有重要意义,如智能监控、自动驾驶、人脸识别等。
本文将介绍几种目前最为流行的高精度目标检测算法,并分析其优势和应用领域。
一、Faster R-CNNFaster R-CNN算法是目前非常受欢迎的目标检测算法之一。
它采用了区域提议网络(Region Proposal Network)的思想,可以更快地生成目标检测的候选区域。
具体来说,Faster R-CNN包括两个关键组件:共享卷积层和预测层。
共享卷积层负责提取图像特征,而预测层则用于生成目标的位置和类别。
Faster R-CNN具有较高的准确性和较快的处理速度,在许多应用中取得了显著的成果。
二、YOLOYOLO(You Only Look Once)算法是另一种高精度的目标检测算法。
与传统的目标检测算法不同,YOLO算法采用了单网络结构,可以实现快速而准确的目标检测。
其核心思想是将目标检测问题转化为一个回归问题,通过一个卷积神经网络直接从图像中输出目标的位置和类别信息。
YOLO算法具有较高的实时性,适用于需要实时目标检测的应用场景,如实时交通监控、视频分析等。
三、SSDSSD(Single Shot MultiBox Detector)算法是一种非常快速且准确的目标检测算法。
它通过在不同尺度的特征层上进行目标检测,可以检测不同大小的目标。
SSD算法采用了密集的锚框(Anchor Box)生成策略,可以有效地提高目标检测的准确率。
与其他目标检测算法相比,SSD算法能够实现更快的检测速度,适用于实时性要求较高的场景。
四、RetinaNetRetinaNet是一种基于Focal Loss的高精度目标检测算法。
Focal Loss是一种用于解决类别不平衡问题的损失函数,可以通过关注困难样本来提高检测算法的性能。
YOLO实战教学:“手把手”教你做目标检测课件PPT模板

演讲人
2 0 2 x - 11 - 11
目录
01. 第1章目标检测算法 02. 第2章yolo实战篇 03. 第3章番外篇:fasterrcnn
01 第1章目标检测算法
第1章目标检测算法
1
1-1卷积神经网络基础卷积神 经网络基础知识,结构特点
2
1-2目标检测算法研究进展目 标检测算法研究进展,常见的 传统检测算法和深度学习的目 标检测算法及其检测流程
tiny,yolov3-tiny训练自己的数据集,怎么获取模型的准确率、召回率, map,f1分数,p_r曲线、训练曲线、交并比曲线。
2. 2-8网络模型改进创新怎么对yolov3进行改进,如何将densenet、轻量
化网络mobilenet,空洞卷积等技术引入到darknet下,以及超轻量化 网络yolo-lite的介绍
感谢聆听
3. 2-8网络模型改进创新怎么对YOLOv3进行改进,如何将Densenet、轻
量化网络MobileNet,空洞卷积等技术引入到Darknet下,以及超轻量 化网络YOLO-lite的介绍
03 第3章番外篇:fasterrcnn
第3章番外篇: fasterrcnn
3-1fasterrcnn安装与voc2007 训练(录屏fasterrcnn从零安装 以及voc2007数据集的训练,过 程实录,含问题解决资料中含有 绘制p-r曲线、检测视频的代码
2-4数据集标注如何制作数据 集
2 - 6 k- m e a n s 维 度 聚 类 k- m e a n s 维 度聚类的原理,yolov2和yolov3的 anchorbox有何区别,如何对 yolov2和yolov3进行聚类
目标检测算法在交通场景中应用综述

目标检测是计算机视觉领域重要的研究分支,是目标识别、跟踪的基础环节,其主要研究内容是在图像中找出感兴趣目标,包括目标定位和分类。
其中,交通场景目标检测识别是计算机视觉领域研究的热点问题,其目的是运用图像处理、模式识别、机器学习、深度学习等技术在交通场景中检测识别出车辆、行人等交通场景目标信息,达到智能交通、自动驾驶的目标。
传统目标检测方法通常分为三个阶段:首先在图像中选择一些候选区域,然后在候选区域中提取特征,最后采用训练的分类器进行识别分类。
然而,该方法操作复杂,精确度不高且训练速度慢,误检率较高,在实际工程应用中不易实现。
因此,在卷积神经网络快速发展的背景下,研究人员提出基于深度学习的目标检测算法,该方法实现了端到端检测识别,具有很好的实际意义。
如今基于深度学习的目标检测算法已成为机器人导航、自动驾驶感知领域的主流算法。
1目标检测算法综述目标检测算法可以分为基于候选区域(两阶段)和基于回归(一阶段)两类。
两者最大的区别是前者通过目标检测算法在交通场景中应用综述肖雨晴,杨慧敏东北林业大学工程技术学院,哈尔滨150040摘要:目标检测是计算机视觉领域的重要研究任务,在机器人、自动驾驶、工业检测等方面应用广泛。
在深度学习理论的基础上,系统性总结了目标检测算法的发展与研究现状,对两类算法的特点、优缺点和实时性进行对比。
以交通场景中三类典型物体(非机动车、机动车和行人)为目标,从传统检测方法、目标检测算法、目标检测算法优化、三维目标检测、多模态目标检测和重识别六个方面分别论述和总结目标检测算法检测识别交通场景目标的研究现状与应用情况,重点介绍了各类方法的优势、局限性和适用场景。
归纳了常用目标检测和交通场景数据集及评价标准,比较分析两类算法性能,展望目标检测算法在交通场景中应用研究的发展趋势,为智能交通、自动驾驶提供研究思路。
关键词:目标检测;深度学习;交通场景;计算机视觉;自动驾驶文献标志码:A中图分类号:TP391doi:10.3778/j.issn.1002-8331.2011-0361Research on Application of Object Detection Algorithm in Traffic SceneXIAO Yuqing,YANG HuiminCollege of Engineering and Technology,Northeast Forestry University,Harbin150040,ChinaAbstract:Object detection is an important research task in the field of computer vision.It is widely used in robotics,auto-matic vehicles,industrial detection and other fields.On the basis of deep learning theory,the development and researchstatus of object detection algorithm are firstly systematically summarized and the characteristics,advantages,disadvantages and real-time performance of the two categories of algorithms are compared.Next to the three kinds of typical targets (non-motor vehicles,motor vehicles and pedestrians)as objects in the traffic scene,the research status and application of object detection algorithm for detecting and identifying objects are discussed and summarized respectively from six aspects in traffic scene:traditional detection method,object detection algorithm,object detection algorithm optimization,3d object detection,multimodal object detection and re-identification.And the application of focus on the advantages,limitations and applicable scenario of various methods.Finally,the common object detection and traffic scene data sets and evalua-tion criteria are summarized,the performance of the two categories of algorithms is compared and analyzed,and the devel-opment trend of the application of object detection algorithm in traffic scenes is prospected,providing research ideas for intelligent traffic and automatic vehicles.Key words:object detection;deep learning;traffic scene;computer vision;autonomous vehicles基金项目:中央高校业务经费(2572016CB11)。
目标检测的原理

目标检测的原理目标检测是计算机视觉领域中的一个重要任务,旨在从图像或视频中识别和定位出感兴趣的目标。
目标检测可以应用于很多领域,例如自动驾驶、安防监控、智能机器人等。
随着深度学习的兴起,基于深度学习的目标检测方法取得了巨大的进展,取代了以前的传统方法。
本文将介绍目标检测的原理及常用方法。
一、目标检测的定义与挑战目标检测任务可以被定义为:给定一张图像或一段视频,通过算法自动找到并识别其中的目标物体,并给出物体的位置和类别。
目标检测是在目标识别的基础上进行的,区别在于目标检测需要确定目标的位置,而目标识别只需要确定目标的类别。
目标检测的挑战主要有以下几个方面:1. 视觉变化的挑战:物体在图像中的外观会受到光照条件、姿态、尺度变化等多种因素的影响,使得目标的外观表现出较大的变化。
2. 遮挡和遮蔽的挑战:目标可能被其他物体部分或完全遮挡,甚至在某些情况下,目标被不同类型的物体或背景完全遮挡,使得目标检测变得更加困难。
3. 尺度变化的挑战:目标物体在图像中的大小不固定,可能存在小目标和大目标的检测问题。
4. 实时性的挑战:某些应用场景需要目标检测算法在实时性的要求下运行,如无人驾驶中的行人检测。
5. 多目标检测的挑战:一张图像中可能存在多个目标,需要识别和定位它们,并正确分类。
以上挑战使得目标检测成为一个相当具有挑战性的问题,而解决这些问题需要考虑到目标检测方法的准确性、鲁棒性和效率等方面。
二、目标检测的一般流程目标检测的一般流程可以分为以下几个步骤:1. 图像预处理:首先对图像进行预处理,包括图像的缩放、裁剪、归一化等操作,以便后续的处理。
2. 目标候选框生成:通过不同的方法生成一组目标候选框,这些候选框可能包含图像中的目标。
3. 候选框分类:对于生成的目标候选框,使用分类器来判断每个候选框中是否包含目标。
4. 候选框优化:对于分类为目标的候选框,需要进行精细化的优化,包括边界框回归和非极大值抑制等操作。
目标检测时间计算公式

目标检测时间计算公式目标检测是计算机视觉领域的重要任务,其目的是在图像或视频中识别和定位特定目标。
在目标检测过程中,时间的计算是至关重要的,它可以帮助我们评估算法的效率和实时性。
下面将介绍一种常用的目标检测时间计算公式。
1. 目标检测算法的时间复杂度目标检测算法的时间复杂度表示了算法执行所需的时间与输入规模之间的关系。
一般来说,时间复杂度越高,算法的执行时间就越长。
在目标检测中,常见的算法有卷积神经网络(Convolutional Neural Network,CNN)和区域提议算法(Region Proposal)。
这些算法的时间复杂度与图像的大小、网络的深度和参数量等因素有关。
2. 目标检测时间计算公式目标检测时间计算公式可以表示为:T = T_preprocess + T_network + T_postprocess其中,T表示目标检测算法的总时间,T_preprocess表示图像预处理的时间,T_network表示CNN网络的前向传播时间,T_postprocess表示后处理的时间。
图像预处理的时间包括图像缩放、归一化和通道转换等操作。
CNN 网络的前向传播时间取决于网络的结构和参数量,一般来说,网络越深、参数量越大,前向传播时间就越长。
后处理的时间包括目标框的筛选、非极大值抑制和目标类别的分类等操作。
3. 时间计算公式的应用通过时间计算公式,我们可以评估目标检测算法的时间性能,并选择适合实际应用场景的算法。
例如,在实时目标检测任务中,我们需要选择执行时间较短的算法,以保证实时性。
而在离线目标检测任务中,我们可以选择执行时间较长的算法,以获取更高的检测准确率。
总结起来,目标检测时间计算公式是一个综合考虑图像预处理、网络前向传播和后处理等环节的计算公式。
通过计算算法的执行时间,我们可以评估算法的效率和实时性,并选择适合实际应用场景的目标检测算法。
yolo系列知识笔记

yolo系列知识笔记YOLO(YouOnlyLookOnce)是一种基于深度学习的目标检测算法,由Joseph Redmon等人于2015年提出。
相较于传统的目标检测算法,YOLO能够实现实时目标检测,且准确率较高。
在此笔记中,我们将介绍YOLO系列算法的基本原理及其变种。
一、YOLO v1YOLO v1是YOLO系列的第一代算法,其主要思想是将目标检测问题转化为一个回归问题。
具体而言,YOLO将图像分成S×S个网格(grid),每个网格负责检测该网格中是否存在目标,并预测目标的位置和类别。
每个网格中预测B个边界框(bounding box),每个边界框预测5个参数:中心坐标x、y、宽度w、高度h以及目标得分。
目标得分代表该边界框中存在目标的概率,是一个0到1之间的值。
类别预测则是一个C维向量,表示目标属于C个类别中的哪一类。
因此,每个网格的预测结果可以表示为:$P_i$($object$) × $confidence$ × $P_j$($class$) ×$B_{i,j}$其中,$P_i$($object$)是一个二值变量,表示该网格中是否存在目标;$confidence$是该边界框的目标得分;$P_j$($class$)是一个C维向量,表示目标属于C个类别中的哪一类;$B_{i,j}$是一个长度为4的向量,表示该边界框的中心坐标和宽度、高度。
YOLO v1的损失函数包括两部分:定位误差和分类误差。
定位误差是指预测框与实际框之间的误差,可以用均方差(MSE)来度量。
分类误差是指目标类别的误差,可以用交叉熵(Cross-Entropy)来度量。
YOLO v1的总损失函数为:$L=sum_{i=0}^{S^2}sum_{j=0}^{B}[P_i(object)×(B_{i,j}^{coord}widehat{B}_{i,j}^{coord})^2 + P_i(object)×(1B_{i,j}^{object})×(Cwidehat{B}_{i,j}^{object})^2 +P_i(object)×B_{i,j}^{object}×sum_{c=1}^{C}(P_i(class=c)widehat{P}_i(class=c))^2]$ 其中,$B_{i,j}^{coord}$和$widehat{B}_{i,j}^{coord}$分别表示实际框和预测框的中心坐标和宽度、高度;$B_{i,j}^{object}$和$widehat{B}_{i,j}^{object}$分别表示实际框和预测框是否存在目标;$widehat{P}_i(class=c)$表示预测框属于第c类的概率。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
基础目标检测算法介绍:CNN、RCNN、Fast RCNN和Faster
RCNN
解决目标检测任务的简单方法(利用深度学习)
一、CNN
首先我们要说的就是在图像目标检测中用途最广、最简单的深度学习方法——卷
积神经网络(CNN)。我要讲的是CNN的内部工作原理,首先让我们看看下面
这张图片。
向网络中输入一张图片,接着将它传递到多个卷积和池化层中。最后输出目标所
属的类别。
1图片的输入
2、将图片分成多个区域
3.将每个区域看作单独的图片。
4.把这些区域照片传递给CNN,将它们分到不同类别中。
5.当我们把每个区域都分到对应的类别后,再把它们结合在一起,完成对原始图
像的目标检测
使用这一方法的问题在于,图片中的物体可能有不同的长宽比和空间位置。例如,
在有些情况下,目标物体可能占据了图片的大部分,或者非常小。目标物体的形
状也可能不同。
有了这些考虑因素,我们就需要分割很多个区域,需要大量计算力。所以为了解
决这一问题,减少区域的分割,我们可以使用基于区域的CNN,它可以进行区域
选择。
2. 基于区域的卷积神经网络介绍
2.1 RCNN简介
和在大量区域上工作不同,RCNN算法提出在图像中创建多个边界框,检查这些
边框中是否含有目标物体。RCNN使用选择性搜索来从一张图片中提取这些边框。
首先,让我们明确什么是选择性搜索,以及它是如何辨别不同区域的。组成目标
物体通常有四个要素:变化尺度、颜色、结构(材质)、所占面积。选择性搜索
会确定物体在图片中的这些特征,然后基于这些特征突出不同区域。下面是选择
搜索的一个简单案例:
首先将一张图片作为输入:
之后,它会生成最初的sub-分割,将图片分成多个区域:
基于颜色、结构、尺寸、形状,将相似的区域合并成更大的区域:
最后,生成最终的目标物体位置(Region of Interest)。
用RCNN检测目标物体的步骤如下:
我们首先取一个预训练卷积神经网络。
根据需要检测的目标类别数量,训练网络的最后一层。
得到每张图片的感兴趣区域(Region of Interest),对这些区域重新改造,以
让其符合CNN的输入尺寸要求。
得到这些区域后,我们训练支持向量机(SVM)来辨别目标物体和背景。对每个
类别,我们都要训练一个二元SVM。
最后,我们训练一个线性回归模型,为每个辨识到的物体生成更精确的边界框。
下面我们就用具体的案例解释一下。
首先,将以下图片作为输入:
之后,我们会用上文中的选择性搜索得到感兴趣区域:
将这些区域输入到CNN中,并经过卷积网络:
CNN为每个区域提取特征,利用SVM将这些区域分成不同类别:
最后,用边界框回归预测每个区域的边界框位置:
这就是RCNN检测目标物体的方法。
2.2 RCNN的问题
现在,我们了解了RCNN能如何帮助进行目标检测,但是这一技术有自己的局限
性。训练一个RCNN模型非常昂贵,并且步骤较多:
根据选择性搜索,要对每张图片提取2000个单独区域;
用CNN提取每个区域的特征。假设我们有N张图片,那么CNN特征就是N*2000;
用RCNN进行目标检测的整个过程有三个模型:
用于特征提取的CNN
用于目标物体辨别的线性SVM分类器
调整边界框的回归模型。
这些过程合并在一起,会让RCNN的速度变慢,通常每个新图片需要40—50秒的
时间进行预测,基本上无法处理大型数据集。
所以,这里我们介绍另一种能突破这些限制的目标检测技术。
3. Fast RCNN
3.1 Fast RCNN简介
想要减少RCNN算法的计算时间,可以用什么方法?我们可不可以在每张图片上
只使用一次CNN即可得到全部的重点关注区域呢,而不是运行2000次。
RCNN的作者Ross Girshick提出了一种想法,在每张照片上只运行一次CNN,然
后找到一种方法在2000个区域中进行计算。在Fast RCNN中,我们将图片输入
到CNN中,会相应地生成传统特征映射。利用这些映射,就能提取出感兴趣区域。
之后,我们使用一个Rol池化层将所有提出的区域重新修正到合适的尺寸,以输
入到完全连接的网络中。
简单地说,这一过程含有以下步骤:
输入图片。
输入到卷积网络中,它生成感兴趣区域。
利用Rol池化层对这些区域重新调整,将其输入到完全连接网络中。
在网络的顶层用softmax层输出类别。同样使用一个线性回归层,输出相对应的
边界框。
所以,和RCNN所需要的三个模型不同,Fast RCNN只用了一个模型就同时实现
了区域的特征提取、分类、边界框生成。
同样,我们还用上面的图像作为案例,进行更直观的讲解。
首先,输入图像:
图像被传递到卷积网络中,返回感兴趣区域:
之后,在区域上应用Rol池化层,保证每个区域的尺寸相同:
最后,这些区域被传递到一个完全连接的网络中进行分类,并用softmax和线性
回归层同时返回边界框:
3.2 Fast RCNN的问题
但是即使这样,Fast RCNN也有某些局限性。它同样用的是选择性搜索作为寻找
感兴趣区域的,这一过程通常较慢。与RCNN不同的是,Fast RCNN处理一张图
片大约需要2秒。但是在大型真实数据集上,这种速度仍然不够理想。
4.Faster RCNN
4.1 Faster RCNN简介
Faster RCNN是Fast RCNN的优化版本,二者主要的不同在于感兴趣区域的生成
方法,Fast RCNN使用的是选择性搜索,而Faster RCNN用的是Region Proposal
网络(RPN)。RPN将图像特征映射作为输入,生成一系列object proposals,
每个都带有相应的分数。
下面是Faster RCNN工作的大致过程:
输入图像到卷积网络中,生成该图像的特征映射。
在特征映射上应用Region Proposal Network,返回object proposals和相应
分数。
应用Rol池化层,将所有proposals修正到同样尺寸。
最后,将proposals传递到完全连接层,生成目标物体的边界框。
那么Region Proposal Network具体是如何工作的呢?首先,将CNN中得来的特
征映射输入到Faster RCNN中,然后将其传递到Region Proposal Network中。
RPN会在这些特征映射上使用一个滑动窗口,每个窗口会生成具有不同形状和尺
寸的k个anchor box:
Anchor boxes是固定尺寸的边界框,它们有不同的形状和大小。对每个anchor,
RPN都会预测两点:
首先是anchor就是目标物体的概率(不考虑类别)
第二个就是anchor经过调整能更合适目标物体的边界框回归量
现在我们有了不同形状、尺寸的边界框,将它们传递到Rol池化层中。经过RPN
的处理,proposals可能没有所述的类别。我们可以对每个proposal进行切割,
让它们都含有目标物体。这就是Rol池化层的作用。它为每个anchor提取固定
尺寸的特征映射:
之后,这些特征映射会传递到完全连接层,对目标进行分类并预测边界框。
4.2 Faster RCNN的问题
目前为止,我们所讨论的所有目标检测算法都用区域来辨别目标物体。网络并非
一次性浏览所有图像,而是关注图像的多个部分。这就会出现两个问题:
算法需要让图像经过多个步骤才能提取出所有目标
由于有多个步骤嵌套,系统的表现常常取决于前面步骤的表现水平