基于改进视觉注意模型的显著区域区检测

合集下载

显著性检测技术在图像处理中的应用与优化

显著性检测技术在图像处理中的应用与优化

显著性检测技术在图像处理中的应用与优化摘要:随着数字图像的广泛应用,人们对于图像处理技术的需求也越来越高。

显著性检测技术作为一种重要的图像处理技术,可以识别和提取出图像中最具显著性的目标或区域。

本文将介绍显著性检测技术的原理与方法,并探讨其在图像处理中的应用和优化。

一、引言随着数字图像的普及,图像处理技术成为了计算机视觉领域的重要研究方向之一。

显著性检测技术是图像处理中的重要组成部分,它可以帮助我们识别和提取出图像中最具显著性的目标或区域,为后续的图像处理任务提供重要信息。

二、显著性检测技术的原理与方法1.背景与定义显著性检测指的是在一幅图像中寻找与周围环境显著不同的目标或区域。

这些目标或区域通常具有较高的对比度、颜色鲜艳和纹理丰富等特点。

显著性检测的目标是在图像中准确地找出这些显著目标或区域。

2.常见方法(1)基于全局对比度的方法:通过计算目标区域与背景区域之间的对比度来判断显著性。

(2)基于频域分析的方法:将图像转换到频域,利用频域特征提取显著性信息。

(3)基于目标和背景模型的方法:建立目标和背景模型,通过比较像素与模型之间的差异来确定显著性。

三、显著性检测技术在图像处理中的应用1.图像分割显著性检测技术能够帮助将图像分割成具有显著特征的目标区域和背景区域,为图像分析和理解提供基础。

2.目标检测与识别显著性检测技术可以帮助定位和识别图像中的目标物体,提高目标检测和识别的准确性和效率。

3.图像增强与修复通过识别出图像中的显著目标或区域,可以针对性地进行图像增强和修复,提高图像的质量和清晰度。

4.视觉注意模型构建显著性检测技术可以帮助构建视觉注意模型,即模拟人类的视觉注意机制,将注意力集中于图像的显著目标或区域。

四、显著性检测技术的优化1.算法优化针对目前显著性检测中存在的问题,如对噪声和复杂背景的敏感性,算法可以进行优化和改进,提高显著性检测的准确性和稳定性。

2.多模态融合借鉴多种数据源(如图像、视频、语音等)进行融合,可以进一步提高显著性检测的性能和鲁棒性。

视觉显著性检测算法及应用

视觉显著性检测算法及应用

• 91•1.概述显著性检测是计算机视觉领域的一个受关注领域。

其主要工作是通过建立视觉注意模型来模拟人的视觉系统。

在过去几十年中,视觉显著性和相关的认知神经学得到了广泛的研究。

人的视觉注意机制可以抑制不重要的信息,将有限的认知资源集中在场景中的重要刺激上。

在计算机视觉领域,显著性的研究是提出一种模拟人视觉注意机制的模型。

2.显著性检测算法的进展早期的视觉显著性算法从输入图像中提取如颜色、亮度、方向、运动等多方面的基本特征,通过数学计算形成各个特征的关注图,然后对数据进行归一化操作并融合特性信息得到视觉显著图。

现有的显著性检测的方法更加充分利用了各种图像信息:有利用背景先验的分层信息融合的、结合前后背景信息的、中心矩阵的、考虑多角度信息、融合多模型的、基于稀疏矩阵、基于背景检测的各种显著性检测算法。

近年来,随着人工智能技术的快速发展,在图像显著性检测领域引进了基于深度学习技术的卷积型神经网络CNN。

与基于对比度线索的传统方法不同,基于CNN的方法不在依赖人工方法设定特征,而是通过CNN自动计算特征值,减少了对中心偏置知识的依赖性,因此很多研究者采用了这种方法。

基于CNN的模型通常包括数十万个可训练的参数。

神经元具备可变接受字段大小特性,并拥有提供全局信息的能力。

3.视觉显著性检测算法的应用3.1 在目标跟踪领域的应用可以将视觉将显著性算法应用到移动目标跟踪。

结合视觉注意机制建立运动目标跟踪框架,使用时空显著算法,在测试视频序列上生成视觉图,在视觉图中找到对应重要区域,最终建立跟踪模型模型,实现移动目标跟踪。

对于复杂环境下的运动目标跟踪问题,可以将粒子滤波跟踪算法和视觉显著性特征算法相结合,利用显著性检测算法对待检测图片进行处理,对目标状态进行预测时采用二阶自回归模型,然后强化中心区域,同时弱化四周区域,生成最终显著图。

然后在视觉显著图中提取像素值较大的作为目标区域,同时自适应融合颜色特征,最终可以实现运动目标的跟踪。

基于显著区域和相关反馈的图像检索算法

基于显著区域和相关反馈的图像检索算法

基于显著区域和相关反馈的图像检索算法摘要:针对基于内容的图像检索中遇到的效率低下和语义鸿沟问题,设计并实现了一个交互式的图像检索系统。

系统首先结合人类视觉注意机制提取图像显著区域,再对不同的区域进行不同特征或不同权重的描述。

最后,在初次检索后应用支持向量机(support vector machine, svm)和粒子群优化(particle swarm optimization, pso)算法进行相关反馈(relevance feedback,rf),使检索结果更符合用户目的。

实验表明,用svm进行反馈检索效率有大幅度提高,而pso在小样本指导下,表现出高效的学习和快速的收敛优势。

关键词:基于内容的图像检索;语义鸿沟;视觉注意机制;显著区域;支持向量机;粒子群优化;相关反馈中图分类号:tp391 文献标识码:a 文章编号:1009-3044(2013)08-1869-05图像检索是图像处理和计算机视觉领域研究的热点之一。

基于内容的图像检索技术从图像自身内容特征出发,自动化地检索出满足用户需要的图像。

但是由于图像的底层特征和高层语义之间存在语义鸿沟[1],目前没有任何一种方法和特征可以在所有类型的图像上都取得较好的检索效果。

另一方面,人们对图像的理解存在主观性,系统通常难以用图像的底层物理特征准确地刻画用户提交的检索需求,即系统从用户提交的样本中提取的特征往往不能很好的体现用户此次检索的目的。

因此,通过引入相关反馈技术[2]进行人机交互,形成图像低层特征与用户高层语义间的映射关系,是目前改进图像检索效果的重要途径。

1 相关反馈技术研究相关反馈技术源于文本信息检索,是一种人机交互的检索技术。

1997 年,由美国illinois 大学yongrui 等率先将相关反馈技术引入图像检索领域,并在mars 系统中实验成功[3]。

经典的rf过程为:首先系统根据预定的相似性度量准则返回初次检索结果,然后用户根据自身的检索需求对检索结果进行评价,指出哪些检索结果是与检索目的相关的(正样本)/或不相关的(负样本),进而相关反馈算法根据用户的反馈样本进行相似性度量准则的调整,重新返回检索结果,持续进行直到用户满意为止。

视觉显著性检测

视觉显著性检测
Itti于1998年提出基于显著性的视觉注意模型,并在2001年度Nature上对该模型理论作了进一步的完善。 Itti的显著性模型最具代表性,该模型已经成为了自下而上视觉注意模型的标准。
图4 Itti模型
图5视觉显著性检测计算模型对于一幅输入的图像,该模型提取初级视觉特征:颜色(RGBY)、亮度和方位、 在多种尺度下使用中央周边(Center-surround)操作产生体现显著性度量的特征图,将这些特征图合并得到最终 的显著图(Saliency map)后,利用生物学中赢者取全(Winner-take-all)的竞争机制得到图像中最显著的空间位 置,用来向导注意位置的选取,最后采用返回抑制 (Inhibition of return)的方法来完成注意焦点的转移。视 觉显著性计算模型大致上可分为两个阶段:特征提取与特征融合。在特征融合阶段,可能存在自底向上的底层特 征驱动的融合方式,和自顶向下的基于先验信息与任务的融合方式。因此,视觉显著性检测模型框架大致表述为 如图 5所示。
算法
LC算法 HC算法
AC算法 FT算法
LC算法的基本思想是:计算某个像素在整个图像上的全局对比度,即该像素与图像中其他所有像素在颜色上 的距离之和作为该像素的显著值 。
图像中某个像素的显著值计算如下: 其中的取值范围为 [0,255],即为灰度值。将上式进行展开得: 其中N表示图像中像素的数量。 给定一张图像,每个像素的颜色值已知。假定,则上式可进一步重构: 其中,表示图像中第n个像素的频数,以直方图的形式表示。 LC算法的代码实现: 1、直接调用OpenCV接口,实现图像中像素的直方图统计,即统计[0,255]中每个灰度值的数量。 2、计算像素与其他所有像素在灰度值上的距离。 3、将灰度值图像中的像素值更新为对比度值(即距离度量)。

视觉注意力焦点显著性模型及其医学应用

视觉注意力焦点显著性模型及其医学应用

视觉注意力焦点显著性模型及其医学应用侯海燕;符志鹏【摘要】现有的显著性检测方法无法反映出因人类注意力焦点的不同而导致的显著性检测结果的不同,这些不同结果的影响在医学图像分析中尤为明显;例如,同一幅图像在不同医生眼中因检查不同疾病、不同组织器官,其所关注的焦点是不同的,进而"显著性"检测结果也应当有很大的差异.在计算灰度直方图对比度的基础上,引入空间焦点系数和灰度焦点系数,以反映人类视觉注意力在不同空间焦点和灰度焦点条件下对图像显著性检测的不同影响;提出了基于视觉空间注意力焦点与灰度注意力焦点的显著性分析模型.通过在不同医学图像上的实验,以及与典型显著性检测算法的比较分析,基于视觉空间注意力焦点与灰度注意力焦点的显著性分析模型在不同焦点下可以得到不同的分割结果,有助于将图像分析的重点聚焦在显著区域,实验证明了该模型的灵活有效.%The existing saliency detect methods do not consider the influence of human visual focus which affects the result seriously. This influence is especially obvious in medical image analysis. For example, the saliency of the same image is totally different in the view of different doctors because of the different kinds of diseases and different organs. To solve this problem, the spacial focus coefficient and gray focus coefficient are introduced and the saliency detect method based on visual focus of spacial and gray is presented. The experiment and the comparison with other method show that the results are different in different focus, which can help people concentrate on different salient regions when analyzing the medical images. The results prove the efficiency and flexibility of this method.【期刊名称】《计算机工程与应用》【年(卷),期】2017(000)010【总页数】5页(P213-217)【关键词】显著性;空间焦点;灰度焦点;注意力;医学图像【作者】侯海燕;符志鹏【作者单位】河南科技大学医学技术与工程学院,河南洛阳 471000;河南科技大学医学技术与工程学院,河南洛阳 471000;西北工业大学计算机学院,西安 710000【正文语种】中文【中图分类】TP391.4人眼对于图像中的显著区域可以迅速且准确地判断,人眼视觉的这种注意力机制被广泛关注和研究,并应用于图像处理领域[1-3]。

图像显著区域检测方法

图像显著区域检测方法

图像显著区域检测方法在当今的数字时代,图像信息无处不在。

无论是在医学影像、卫星图像、监控视频,还是在我们日常拍摄的照片中,图像都承载着丰富的信息。

然而,在处理和分析这些海量的图像数据时,我们往往并不需要关注整个图像的所有细节,而只对其中最引人注目的部分,也就是显著区域感兴趣。

图像显著区域检测就是一种能够帮助我们快速准确地定位这些关键区域的技术。

那么,什么是图像显著区域呢?简单来说,图像显著区域就是在一幅图像中,能够吸引人类视觉注意力的部分。

比如,在一张风景照片中,一片鲜艳的花海可能就是显著区域;在一张人物照片中,人物的面部通常会是显著区域。

这些显著区域往往具有一些独特的特征,如颜色鲜艳、对比度高、形状独特等。

接下来,让我们来了解一下一些常见的图像显著区域检测方法。

一种常用的方法是基于对比度的检测。

这种方法的基本思想是,显著区域与图像的其他部分相比,在某些特征上存在较大的差异。

比如,在颜色特征上,如果一个区域的颜色与周围区域的颜色差异很大,那么这个区域就可能是显著区域。

通过计算每个像素点与周围像素点在颜色、亮度等方面的差异,并将这些差异进行整合,就可以得到图像的显著区域。

另一种方法是基于频率域的检测。

图像在频率域中也有其独特的表现。

通过对图像进行傅里叶变换,将其转换到频率域中,然后分析频率域中的信息,可以发现显著区域往往在某些频率成分上具有较高的能量。

利用这一特点,可以实现显著区域的检测。

还有基于视觉注意力模型的方法。

人类的视觉注意力机制是一个非常复杂但又高效的系统。

研究人员通过对人类视觉注意力机制的研究,建立了相应的数学模型。

这些模型考虑了诸如视觉焦点、视觉扫描路径等因素,能够更接近人类视觉感知地检测出图像中的显著区域。

基于图论的方法也是一种有效的手段。

将图像看作一个图,其中像素点作为节点,像素点之间的关系作为边。

通过定义节点之间的权重和边的连接方式,利用图论中的算法来传播和计算显著值,从而确定显著区域。

基于视觉加强注意力模型的植物病虫害检测

第47卷㊀第3期2023年5月南京林业大学学报(自然科学版)JournalofNanjingForestryUniversity(NaturalSciencesEdition)Vol.47,No.3May,2023㊀收稿日期Received:2022⁃10⁃16㊀㊀㊀㊀修回日期Accepted:2023⁃02⁃20㊀基金项目:国家自然科学基金项目(61902187);辽宁省科技厅和机器人国家重点实验室联合基金项目(2020-KF-22-04);江苏省双创项目;南京市留学归国人员科技创新择优资助项目㊂㊀第一作者:杨堃(1309126732@qq.com)㊂∗通信作者:范习健(xijian.fan@njfu.edu.cn),副教授㊂㊀引文格式:杨堃,范习健,薄维昊,等.基于视觉加强注意力模型的植物病虫害检测[J].南京林业大学学报(自然科学版),2023,47(3):11-18.YANGK,FANXJ,BOWH,etal.Plantdiseaseandpestdetectionbasedonvisiualattentionenhancement[J].JournalofNanjingForestryUniversity(NaturalSciencesEdition),2023,47(3):11-18.DOI:10.12302/j.issn.1000-2006.202210022.基于视觉加强注意力模型的植物病虫害检测杨㊀堃,范习健∗,薄维昊,刘㊀婕,王俊玲(南京林业大学信息科学技术学院,江苏㊀南京㊀210037)摘要:ʌ目的ɔ植物病虫害准确检测是病虫害精准化防治的关键,笔者构建准确高效的植物病虫害监测模型,为病虫害的早期诊断与预警提供重要依据㊂ʌ方法ɔ针对现有植物病虫害检测模型泛化能力弱㊁小目标漏检率高等问题,提出一种基于视觉加强注意力改进的植物病虫害检测模型 YOLOv5⁃VE(visionenhancement)㊂为方便检测实验样本中的小目标采用Mosaic9数据增强方法;设计出基于视觉注意力的特征加强模块CBAM(convo⁃lutionalblockattentionmodule);为确定不同目标重叠在一起和被遮挡的定位损失引入边界框定位损失函数DIoU㊂ʌ结果ɔYOLOv5⁃VE模型在实验数据集上的识别精度和检测平均准确率达到65.87%和73.49%,比原模型提高了1 07%和8.25%,在型号为1080Ti的GPU上检测速度可达35帧/s㊂ʌ结论ɔ该方法可以在背景复杂的野外场景快速有效地检测和识别种类多样的病害和虫害,可以提高检测的鲁棒性能,提升模型对病虫害目标的特征提取能力,降低野外复杂场景对检测带来的干扰,表现出良好的应用潜力,可广泛运用于大规模的植物病虫害检测㊂关键词:植物病虫害检测;目标检测;注意力机制;数据增强中图分类号:TP3;S763㊀㊀㊀㊀㊀文献标志码:A开放科学(资源服务)标识码(OSID):文章编号:1000-2006(2023)03-0011-08PlantdiseaseandpestdetectionbasedonvisiualattentionenhancementYANGKun,FANXijian∗,BOWeihao,LIUJie,WANGJunling(SchoolofInformationScienceandTechnology,NanjingForestryUniversity,Nanjing210037,China)Abstract:ʌObjectiveɔAccuratedetectionisthekeytoprecisecontrolofplantdiseasesandpests.Buildinganaccurateandefficientmonitoringmodelofplantdiseasesandpestsprovidesanimportantbasisfortheearlydiagnosisandwarningofplantdiseasesandpests.ʌMethodɔInviewoftheweakgeneralizationabilityoftheexistingplantdiseasesandpestsdetectionmodelsandthehighrateofmisseddetectionofsmalltargets,aplantdiseaseandpestdetectionmodelbasedonvisualattentionenhancementimprovementYOLOv5⁃VE(visionenhancement)wasproposed.TheMosaic9dataenhancementmethodwasusedtofacilitatethedetectionofsmalltargetsinexperimentalsamples;afeatureenhancementmodulebasedonavisualattentionconvolutionalblockattentionmodule(CBAM)wasdesigned;todeterminethelocationlossofoverlappingandoccludedtargets,theDIoUboundingboxlocationlossfunctionwasintroduced.ʌResultɔTherecognitionandaveragedetectionaccuraciesoftheYOLOv5⁃VEmodelontheexperimentaldatasetreached65.87%and73.49%,respectively,whichwere1.07%and8.25%higher,respectively,thanthoseoftheoriginalmodel.ThedetectionspeedontheGPUwiththemodel1080Tireached35fps.ʌConclusionɔThismethodcanquicklyandeffectivelydetectandidentifyavarietyofdiseasesandpestsinfieldsceneswithcomplexbackgrounds,improverobustnessofdetection,improvethefeatureextractionabilityofthemodelforpestsanddiseases,reducetheinterferenceofcomplexfieldscenesindetection,andshowsgoodapplicationpotential.Itcanbewidelyusedforthelarge⁃scaledetectionofplantdiseasesandpests.Keywords:detectionofplantdiseasesandpests;objectdetection;attentionmechanism;dataaugmentation南京林业大学学报(自然科学版)第47卷㊀㊀植物病虫害是影响植物存活率和生长的主要因素[1],传统的仪器检测和人工识别检测效果已经无法满足当今社会的生产需求[2],如何准确㊁快速地检测病虫害并采取有效措施成为植物病虫害防治的重中之重[3-4]㊂机器学习结合传统图像特征提取的病虫害检测技术,因其较好的检测性能得到了较为广泛的应用[5-7]㊂此类方法往往先提取病虫害图像的形状特征㊁颜色特征㊁纹理特征等全局特征,再利用机器学习方法进行训练,进而获得病虫害检测模型㊂然而,提取图像特征需要大量计算,并且需要专业知识才能获得稳定的性能,导致泛化性能不足,难以应对病虫害种类繁多㊁环境因素复杂的检测场景㊂以卷积神经网络(convolutionalneuralnetwork,CNN)为代表的深度学习技术[8-10]在图像识别和目标检测等计算机视觉任务中得到了应用㊂农林业科研工作者也将深度学习技术应用于植物与树木的病虫害识别和检测研究[11-12],相关研究表明,基于深度学习和计算机视觉技术的检测模型可以更加快速和准确地发现病虫害,从而满足人们对病虫害测报实时性和准确性的需求[13]㊂有研究者利用深度神经网络如YOLOv3㊁YOLOv5及注意力机制引入的SSD目标检测框架进行烟草等植物的病虫害检测[14-16],但也存在缺乏对植物病害场景的针对性分析而无法取得最优性能㊁提出的模型泛化能力相对较弱㊁具有局限性容易产生漏检现象等缺陷㊂笔者针对植物病虫害检测常见的特殊性和困难性,提出了一种基于视觉加强注意力的植物病虫害目标检测模型 YOLOv5⁃VE(visionenhance⁃ment)㊂首先运用数据增强技术,丰富部分含有小尺寸病虫害区域的类别样本数,提升对该类目标的学习能力,从而提升模型对小尺寸目标的检测性能,降低漏检和误检率;其次,利用注意力机制提高模型对不同尺度病虫害特征的提取能力,缓解野外环境存在复杂背景干扰问题;最后,引入一种改进的检测框损失函数,增强算法在目标遮挡或者重叠等情景下的鲁棒性,有效提升模型泛化性能㊂为了充分验证算法的有效性,本研究通过整合两个公开的野外病虫害数据集:病害数据集PlantDoc[17]和虫害数据集IP102[18],构建了大规模㊁多类别的病虫害目标数据集,并与现有的目标检测算法进行对比验证,以期改善病虫害检测效果及其实时性,为实际农林业场景下大规模病虫害检测识别提供可行方案㊂1㊀材料与方法1.1㊀数据来源采用涵盖13种植物和17类病害的PlantDoc数据集[17],并与IP102数据集进行合并,提升场景复杂性的同时进一步丰富了虫害的种类㊂基于PlantDoc数据集和IP102数据集的部分样本见图1㊂图1㊀IP102数据集部分数据样本(a f)和PlantDoc数据集部分数据样本(g l)Fig.1㊀IP102dataset(a-f)andpartialdatasamples(g-l)ofPlantDocdatasetIP102是虫害识别的大规模基准数据集,该数据集包含75000多张图片,共102个类别㊂合并后的数据集包含已经用边界框标注了的19000张图片,共计132类㊂数据集中包括大多数常见的病虫害,如玉米叶枯病㊁番茄七星斑病㊁马铃薯早疫病等植物病害,还有像豆科水疱甲虫㊁蝗虫总科㊁盲椿科等常见虫害,以及部分健康的植物类别图片(含非生物胁迫造成的叶片异色)㊂将合并后的数据集按照70%㊁20%㊁10%的比例分为训练集㊁验证集和测试集㊂数据集中的原始图像大多分辨率大小不等,为平衡模型检测效率与准确度,将模型输入维度固定,原始图像尺寸(像素维度)被统一调整为640ˑ640㊂21㊀第3期杨㊀堃,等:基于视觉加强注意力模型的植物病虫害检测1.2㊀YOLOv5⁃VE模型本研究提出的YOLOv5⁃VE模型,框架如图2所示㊂首先对原始图像进行Mosaic9数据增强[19],将增强后的数据作为模型的输入,提升模型训练的泛化能力;在YOLOv5目标检测模型主框架中的金字塔特征输出层嵌入视觉注意力增强机制(CBAM),针对不同尺度病虫害特征的表征能力,增强模型降低因复杂背景带来的干扰,有效提升病虫害目标的检测效果;使用DIoU损失函数进行模型训练学习,降低模型对不同程度重叠和遮挡的敏感性,加强目标框的回归,加快损失收敛㊂图2㊀YOLOv5⁃VE模型结构Fig.2㊀YOLOv5⁃VEmodelstructure1.2.1㊀数据增强借助数据增强技术,对数据样本进行平移㊁翻转㊁裁剪㊁缩放㊁颜色转换等多种方式图像变换㊂上述基本的数据增强技术,在增加训练样本数量的同时,也丰富了样本的多样性,能够有效提高模型的泛化能力㊂此外,针对植物病虫害检测场景存在不明显以及小尺寸的病虫害区域,受Mosaic数据增强的启发,使用Mosaic9数据增强技术,将9张图片随机裁剪㊁随机缩放㊁随机合并以增加数据中小目标数量,提高模型对小目标的检测能力,降低漏检率㊂经过Mosaic9数据增强方法处理的图像见图3,其中的识别框识别了包括小目标在内的大部分检测目标,并且每个识别框都标记了各自目标的种类用于识别分类㊂在数据增强的过程中还随机添加一些噪声,提高模型对复杂目标的识别能力,增强模型泛化能力㊂经过基本混合和Mosaic增强后的数据将被送入主网络进行训练㊂图3㊀Mosaic9数据增强部分示意Fig.3㊀SchematicdiagramofMosaic9dataenhancementpart1.2.2㊀视觉注意力增强的YOLOv5模型YOLOv5模型可以分成3个部分,即主干提取模块Backbone㊁特征金字塔提取网络FPN和YOLOHead㊂Backbone是YOLOv5的主干网络,用于提取特征,使用的是CSPDarknet架构㊂CSPDarknet对输入模型的图片首先使用Focus网络结构进行特征提取,并通过瓶颈层和卷积层产生3个特征层,同时引入SPP模块,使用不同池化核大小的最大池化操作对最后1个特征层进行特征提取,扩大网络的感受野㊂Focus网络结构相当于特殊的下采样结构,可有效减少参数量,增加局部感受野㊂FPN是YOLOv5的加强特征提取网络,在主干部分获得的3个特征层会在这一部分进行特征融合,将不同尺度的特征信息结合㊂FPN模块会从已获得的特征层中继续获取特征信息㊂在YOLOv5中还使用了PANet结构,该结构会同时通过上采样和下采样进行特征融合,加强网络识别不同尺度目标的能力㊂YOLOHead是YOLOv5的分类器和回归器,用于处理经过CSPDarknet和FPN模块后的3个加强特征层,判断其与真实类别间的相似性,检测出目标种类㊂因此,整个YOLOv5模型通过31南京林业大学学报(自然科学版)第47卷特征提取㊁特征加强㊁特征判断过程完成目标检测㊂对YOLOv5的病虫害实验表明,原模型在进行病害检测时会出现误检㊁漏检等情况,对原有的YOLOv5模型进行改进,将一种视觉注意力机制CBAM嵌入特征提取模块[20]㊂其目的是让模型更专注于找到输入样本中与病虫害相关的有用信息,同时提升模型捕捉不同尺寸病虫害特征的能力,有效降低模型的漏检率和误检率㊂CBAM模块分为空间注意力和通道注意力两个部分(图4)㊂图4㊀CBAM总体结构图Fig.4㊀CBAMoverallstructurediagram首先将经过处理的特征图F输入,接着进入通道注意力,分别经过全局最大池化(Fpool,max)和全局平均池化(Fpool,agv)得到C通道对应空间特征F和Fc,avg,再经过由多层感知机(层数为2)组成的全连接层(FCL,式中表示为FCL)后进行像素级的相加,最后由sigmoid函数σ激活获得通道注意力权重㊂C通道注意力[CA(F)]计算过程为:CA(F)=σ[FCL(Fpool,max+Fpool,avg)]=σ{W1[W0(Fc,avg)]+W1[W0(Fc,max)]}㊂(1)式中:W0和W1为全连接层多层感知机第1层和第2层的权重㊂最终,由输入特征图F和计算得到的通道注意力逐像素相乘生成通道注意力加强后的特征(Fᶄ)㊂Fᶄ=CA(F) F㊂(2)将特征图Fᶄ作为空间注意力模块的输入,首先进行基于通道的全局最大池化和全局平均池化操作,得到S空间对应的特征FS,max和FS,avg㊂这里的池化操作能够提高模型对小尺寸的目标病虫害区域表征能力㊂接着,生成的两个特征图通过拼接㊁卷积操作和sigmoid函数生成空间注意力[SA(Fᶄ)]图㊂SA(Fᶄ)=σ[Conv(FS,max,FS,avg)]㊂(3)最后将空间注意力图SA(Fᶄ)与该输入特征图Fᶄ做逐像素相乘生成最终的视觉注意力加强特征(FSCA)图㊂FSCA=SA(Fᶄ) Fᶄ㊂(4)在本工作中,CBAM被嵌入在YOLOv5模型的FPN金字塔特征输出部分,用以对提取的多尺度病虫害特征进行加强和优化㊂嵌入CBAM注意力增强模块的YOLOv5网络结构见图3的Neck虚框部分㊂CBAM模块是一种轻量级的通用模块,在病虫害检测场景中,相较于其他注意力机制在精度和速度上具有较好的适用能力㊂1.2.3㊀损失函数YOLOv5的损失函数由3部分组成,包括定位损失Lbox㊁分类损失Lcls和置信度损失Lconf㊂定位损失预测框与标定框之间的误差;分类损失计算锚框与对应的标定分类是否正确;置信度损失计算网络的置信度㊂YOLOv5中的定位损失采用的是LGIoU,而分类损失和置信度损失采用的是BCEBlurWith⁃LogitsLoss(带log值的二叉熵损失)㊂原模型中的LGIoU损失函数是先计算两个框的最小闭包区域面积,再计算出LIoU,之后计算闭包区域中不属于两个框的区域在闭包区域的占比,最后用LIoU减去这个占比得到LGIoU㊂但LGIoU存在缺陷,当实际框与预测框水平或竖直重合,或两个框为包含关系时,LGIoU将会退化为LIoU,其次它还存在收敛慢和回归不准确的问题㊂所以,YOLOv5⁃VE用LDIoU替换了LGIoU,LDIoU比LGIoU更加符合目标框回归的机制,将目标与Anchor之间的距离㊁重叠率以及尺度等多重因素都考虑到,使得目标框回归变得更加稳定,解决了LIoU和LGIoU训练过程中出现的发散问题㊂LDIoU还可以直接最小化两个目标框的距离,因此比LGIoU收敛更快㊂对于包含两个框在水平方向和垂直方向上这种情况,LDIoU可以进行快速回归与精确计算,而LGIoU几乎退化为LIoU㊂LDIoU损失函数计算如图5所示㊂其中A代表的是预测框,B代表的是实际框,c是包围两个预测框和实际框最小矩形框对角线的长度,LDIoU代表的是实际框和预测框的交集比㊂图5㊀LDIoU示意Fig.5㊀IllustrationofLDIoUYOLOv5⁃VE改进后的损失函数为:41㊀第3期杨㊀堃,等:基于视觉加强注意力模型的植物病虫害检测LYOLOv5⁃VE=Lbox+Lcls+Lconf;(5)Lbox=1-LDIoU;(6)LDIoU=LIoU-ρ2(a,b)c2;(7)LIoU=AɘBAɣB㊂(8)式中:a和b表示A和B的中心点,ρ(a,b)表示实际框与预测框中心点之间的欧氏距离㊂LDIoU函数作为损失函数能够应对模型在对小目标植物病虫害进行检测时出现漏检的情况㊂1.3㊀模型训练本研究训练用的系统是Ubuntu18.04㊂CPU型号是Intel(R)Xeon(R)Gold5118CPU@2.30GHz,GPU型号为NVIDIAGeForceRTX1080Ti㊂训练所用的框架为Pytorch1.10.2,并使用CUDA11.6并行计算㊂实验的评价指标选取的是目标检测中常用的几个指标:查准率(Precision),查全率(Recall),测度F1分数(式中表示为F1),平均准确度(AP)㊂公式如下:Precision=TPTP+FP;(9)Recall=TPTP+FN;(10)F1=2㊃Precision㊃RecallPrecision+Recall;(11)AP=ʏ10Precision(Recall)dRecall;(12)mAP=ðAPNc㊂(13)式中:TP代表的是真实的正样本数量;FP代表的是虚假的正样本数量;FN则代表虚假的负样本数量;AP是平均精度;而mAP是每种AP的平均值㊂本研究中选用LIoU阈值为0.5的mAP即mAP_0.5作为指标,Nc则代表总的分类数量㊂网络训练过程中,参数设置图像输入大小为640ˑ640,批次大小设置为8,总迭代次数设置为100,初始学习率设置为0 01,动量设置为0 937,学习率的衰减方式使用cos函数,优化器为SGD㊂2㊀结果与分析2.1㊀对比实验为了验证本研究提出的模型的有效性,选择YOLOv3[21]㊁YOLOv4[22]㊁YOLOX[23]以及原始YOLOv5共4种网络模型在相同的配置环境下利用相同的数据集进行对比实验㊂选择上文介绍的评价指标从准确度和速度两方面得到对比实验结果㊂实验结果如表1所示,表1中精度表示的是预测正确的目标占总测试集的百分比,单张检测耗时表示的是检测1张图片所花费的时间,从表1中得出对于植物病虫害目标检测场景,一般的深度神经网络模型效果并不好,而本研究提出的YOLOv5⁃VE模型效果更好,平均精度值比最差的YOLOv4模型高约34%,比YOLOv3也高出11.3%,比原YOLOv5模型高8.25%㊂表1㊀不同网络模型检测能力及性能对比Table1㊀Comparisonofdetectionresultsusingdifferentnetworkmodels类型type模型model参数大小/MBparametersize输入大小/pixelinputsize查准率/%precision查全率/%recall阈值大于0.5的平均准确度/%mAP_0.5F1/%单张检测耗时/msdetectiontime原模型originalmodelYOLOv3237.7364052.5859.1262.1755.6622.75YOLOv4136.4364021.2926.4239.4523.5814.91YOLOv5174.7764064.8059.3965.2461.9836.90YOLOX378.8264033.6142.1542.7837.407.52YOLOv5⁃VE194.7764065.8768.3973.4967.1135.46改进模型improvedmodelYOLOv5174.7764064.8059.3965.2461.9836.90+CBAM194.7764062.7268.9069.6165.6634.36+CBAM+Mosaic9194.7764066.2767.3070.6966.7835.34YOLOv5⁃VE194.7764065.8768.3973.4967.1135.46㊀㊀YOLOv5⁃VE模型在数据上的检测表现见图6,由图6可见模型可以准确检测到尺度不同㊁形状各异的各类病虫害区域㊂51南京林业大学学报(自然科学版)第47卷图6㊀YOLOv5⁃VE预测虫害真实标签和预测标签图(a b)和虫害真实标签和预测标签图(c d)Fig.6㊀ResultsofdetectionusingYOLOv5⁃VE,reallabelandforecastlabelmapofpest(a-b),reallabelandforecastlabelmapofpest(c-d)2.2㊀消融实验结果在消融实验中,对添加或改进模块的有效性进行验证分析,对比的模型有YOLOv5原模型;添加注意力增强模块(CBAM)的YOLOv5;添加注意力增强模块(CBAM)和数据增强Mosaic9的YOLOv5;添加注意力增强模块(CBAM),数据增强Mosaic9和损失函数LDIoU的YOLOv5即YOLOv5⁃VE,对比实验结果如表1和图7所示㊂第1行为真实标签,第2行为原YOLOv5模型预测标签,第3行为YOLOv5⁃VE模型预测标签㊂Thefirstrowimagesaregroundtruth,thesecondrowimagesareusingoriginalYOLOv5andthethirdrowimagesareusingYOLOv5⁃VE.图7㊀YOLOv5⁃VE和原YOLOv5检测结果对比Fig.7㊀ComparisonofdetectionresultsusingYOLOv5⁃VEandoriginalYOLOv5㊀㊀由图7可见,YOLOv5⁃VE在逐步优化过程中检测精度方面表现优异㊂首先在模型的金字塔特征输出部分嵌入CBAM注意力模块,从表1中可以看出查准率㊁平均准确度和F1有明显提高;接着将使用Mosaic9数据增强后,发现无论是查准率㊁查全率还是mAP_0.5值都有明显提高;最后将原来的loss函数改为LDIoU,即YOLOv5⁃VE,检测效果进一步提升㊂改进后的模型查准率提高了1.07%(提高至65 87%),查全率提高了9%,平均准确度mAP_0.5值提高了8.25%㊂F1度量是分类检测问题的一个61㊀第3期杨㊀堃,等:基于视觉加强注意力模型的植物病虫害检测衡量指标,是准确率和查全率的一个调和平均数,综合二者的一个判断指标㊂F1的大小从0到1,值越大越好,在本研究中F1有着明显的上升,代表了改进后的模型识别效果更佳㊂此外,从检测速率来看,YOLOv5⁃VE模型可以达到每秒35.46帧,实时性良好㊂为了更好展现YOLOv5⁃VE模型的优越性,图8展示了YOLOv5⁃VE和其他不同模型随迭代次数的查准率和查全率曲线㊂图8㊀不同模型的查准率(A)和查全率(B)对比Fig.8㊀Comparisonofaccuracy(A)andrecall(B)ofdifferentmodels㊀㊀查准率表示真实的正样本占总正样本的比例,所以值越大代表模型识别的精度越高;而查全率表示样本中的正例有多少被预测准确,值越大说明图像中有更多的物体被识别出来㊂从图8A中查准率曲线趋势可以看出YOLOv5⁃VE模型与其他模型曲线在一开始都呈现出急速上升趋势,约迭代15次后出现下降趋势,迭代20次后开始缓慢上升,最终YOLOv5⁃VE模型的表现优于其他模型㊂从图8B查全率的曲线看出几个模型在迭代3次前均呈快速上升趋势,在迭代3 7次之间又急速下降后基本呈上升趋势,最终YOLOv5⁃VE模型的表现要优于原始的YOLOv5㊂不同模型在实验数据集所得到的mAP趋势见图9,其中的0.5和0.95是阈值设置,mAP值表示对所有分类的目标进行平均计算的平均准确率值,从图9中得出mAP值总体均呈现上升趋势,随着模块的改进,模型的mAP值也在一直提高,mAP_0.5从原模型的65.24%提升到73 49%,而mAP_0.5ʒ0.95值也从开始的48.04%提高到了52.29%㊂图9㊀不同模型的mAP_0.5值与mAP_0.5ʒ0.95值比较Fig.9㊀ComparisonofdifferentmodelsusingthemetricsofmAP_0.5valueandmAP_0.5ʒ0.95value3㊀结㊀论本研究使用两种数据集即虫害和病害,由于数据的局限性只是在生物层面上进行研究,但作为影响植株健康生长的主要因素,其对模型具有明显的促进作用㊂针对植物病虫害场景的特点,对原始YOLOv5模型进行针对性改进构建的YOLOv5⁃VE模型,在自制评测数据集上获得的检测效果提升幅度显著,展现了本模型应对大规模㊁背景复杂㊁种类繁多的病虫害检测场景的优秀性能㊂经过实验证明,面对不同目标大小的数据,改进后的YOLOv5模型都能优秀应对,在上述对比实验和消融实验中,YOLOv5⁃VE模型无论在识别目标的分类上还是对于检测目标的准确率上均表现优异,展现了模型的有效性和泛化能力㊂针对植物病害和虫害的检测任务,提出了基于视觉加强注意力改进的植物病虫害检测模型YOLOv5⁃VE,首先利用Mosaic增强技术丰富样本数量,提升样本多样性,降低训练过拟合风险,再利用CBAM数据视觉注意力机制对原始YOLOv5的多尺度特征进行加强,提升了模型对病虫害目标特征提取的能力,降低背景干扰,最后用DIoU损失71南京林业大学学报(自然科学版)第47卷函数替代了原模型的损失函数,降低了损失函数的回归损失,提高了模型的检测精度㊂整体模型具有良好的鲁棒性和泛化性能,可广泛应用于背景复杂㊁种类繁多的各类病虫害检测场景㊂参考文献(reference):[1]LIANGQK,XIANGS,HUYC,etal.PD2SE⁃Net:computer⁃as⁃sistedplantdiseasediagnosisandseverityestimationnetwork[J].ComputElectronAgric,2019,157(C):518-529.DOI:10.1016/j.compag.2019.01.034.[2]MARTINELLIF,SCALENGHER,DAVINOS,etal.Advancedmethodsofplantdiseasedetection:areview[J].ComputElectronAgric,2018,145:311-318.DOI:10.1016/j.compag.2018.01.009.[3]FERENTINOSKP.Deeplearningmodelsforplantdiseasedetec⁃tionanddiagnosis[J].ComputElectronAgric,2018,145:311-318.DOI:10.1016/j.compag.2018.01.009.[4]周宏威,姜钦啸,刘洋,等.树木病虫害缺陷精准检测方法的综述和展望[J].昆虫学报,2020,63(9):1145-1152.ZHOUHW,JIANGQX,LIUY,etal.Reviewandprospectsofaccuratedetectionmethodsforwooddefectscausedbydiseasesandpests[J].ActaEntomolSin,2020,63(9):1145-1152.DOI:10.16380/j.kcxb.2020.09.012.[5]肖志云,刘洪.小波域马铃薯典型虫害图像特征选择与识别[J].农业机械学报,2017,48(9):24-31.XIAOZY,LIUH.Featuresselectionandrecognitionofpotatotypicalinsectpestimagesinwaveletdomain[J].TransChinSocAgricMach,2017,48(9):24-31.DOI:10.6041/j.issn.1000-1298.2017.09.003.[6]SCHORN,BECHARA,IGNATT,etal.Roboticdiseasedetectioningreenhouses:combineddetectionofpowderymildewandtomatospottedwiltvirus[J].IEEERoboticsAutomLett,2016,1(1):354-360.DOI:10.1109/LRA.2016.2518214.[7]党满意,孟庆魁,谷芳,等.基于机器视觉的马铃薯晚疫病快速识别[J].农业工程学报,2020,36(2):193-200.DANGMY,MENGQK,GUF,etal.Rapidrecognitionofpotatolateblightbasedonmachinevision[J].TransChinSocAgricEng,2020,36(2):193-200.DOI:10.11975/j.issn.1002-6819.2020.02.023.[8]HEKM,ZHANGXY,RENSQ,etal.Deepresiduallearningforimagerecognition[G]//IEEEComferenceonComputerVisionandPatternRecognition,2016:770-778.DOI:10.1109/CVPR.2016.90.[9]SIMONYANK,ZISSERMANA.Verydeepconvolutionalnetworksforlarge⁃scaleimagerecognition[EB/OL].[2022-02-01].http:arxiv.org/abs/1409.1556.DOI:10.48550/arXiv.1409.1556.[10]IOANNIDOUA,CHATZILARIE,NIKOLOPOULOSS,etal.Deeplearningadvancesincomputervisionwith3Ddata:asurvey[J].ACMComputSurv,2018,50(2):1-38.DOI:10.1145/3042064.[11]FANXJ,LUOP,MUYE,etal.Leafimagebasedplantdiseaseidentificationusingtransferlearningandfeaturefusion[J].ComputElectronAgric,2022,196:106892.DOI:10.1016/j.com⁃pag.2022.106892.[12]MOHANTYSP,HUGHESDP,SALATHÉM.Usingdeeplearningforimage⁃basedplantdiseasedetection[J].FrontPlantSci,2016,7:1419.DOI:10.3389/fpls.2016.01419.[13]李鑫然,李书琴,刘斌.基于改进FasterR_CNN的苹果叶片病害检测模型[J].计算机工程,2021,47(11):298-304.LIXR,LISQ,LIUB.AppleleafdiseasesdetectionmodelbasedonimprovedfasterR_CNN[J].ComputEng,2021,47(11):298-304.DOI:10.19678/j.issn.1000-3428.0059290.[14]刘延鑫,王俊峰,杜传印,等.基于YOLOv3的多类烟草叶部病害检测研究[J].中国烟草科学,2022,43(2):94-100.LIUYX,WANGJF,DUCY,etal.StudyondetectionofvarioustobaccoleafdiseasesbasedonYOLOv3[J].ChinaTo⁃baccoScience,2022,43(2):94-100.DOI:10.13496/j.issn.1007-5119.2022.02.015.[15]WANGJ,YULY,YANGJ,etal.DBA_SSD:anovelend⁃to⁃endobjectdetectionalgorithmappliedtoplantdiseasedetection[J].Information,2021,12(11):474.DOI:10.3390/info12110474.[16]WANGHQ,SHANGSQ,WANGDW,etal.Plantdiseasedetec⁃tionandclassificationmethodbasedontheoptimizedlightweightYOLOv5model[J].Agriculture,2022,12(7):931.DOI:10.3390/agriculture12070931.[17]SINGHD,JAINN,JAINP,etal.PlantDoc:adatasetforvisualplantdiseasedetection[R]//AssociationforComputingMachinery.Proceedingsofthe7thACMIKDDCoDSand25thCOMAD.NewYork,USA,IEEE,2019.DOI:10.1145/3371158.3371196.[18]WUXP,ZHANC,LAIYK,etal.Ip102:alarge⁃scalebenchmarkdatasetforinsectpestrecognition[R].2019IEEE/CVFConferenceonComputerVisionandPatternRecognition(CVPR).LongBeach,CA,USA:IEEE2019.DOI:10.1109/CVPR.2019.00899.[19]ZHANGQ,LIUYQ,GONGCY,etal.Applicationsofdeeplearningfordensescenesanalysisinagriculture:areview[J].Sensors(Basel),2020,20(5):1520.DOI:10.3390/s20051520.[20]WOOS,PARKJ,LEEJY,etal.Cbam:convolutionalblockat⁃tentionmodule[M]//ComputerVision⁃ECCV2018.Cham:SpringerInternationalPublishing,2018:3-19.DOI:10.1007/978-3-030-01234-2_1.[21]REDMONJ,FARHADIA.Yolov3:anincrementalimprovement[EB/OL].[2022-02-01].http:arxiv.org/abs/1804.02767.2018.DOI:10.48550/arXiv.180402767.[22]BOCHKOVSKIYA,WANGCY,LIAOHYM.Yolov4:optimalspeedandaccuracyofobjectdetection[EB/OL].[2022-02-01]http:arxiv.org/abs/2004.10934.DOI:10.48550/arXiv.2004.10934.[23]GEZ,LIUST,WANGF,etal.Yolox:exceedingyoloseriesin2021[EB/OL].[2022-02-01].http:arxiv.org/abs/2107.08430.DOI:10.48550/arXiv.2107.08430.(责任编辑㊀王国栋)81。

使用计算机视觉技术进行显著性检测的方法

使用计算机视觉技术进行显著性检测的方法计算机视觉技术是人工智能领域的一个重要分支,旨在让计算机具备理解和解释图像和视频的能力。

在目标检测、图像分割和显著性检测等任务中,计算机视觉技术都发挥了重要作用。

本文将重点介绍使用计算机视觉技术进行显著性检测的方法。

显著性检测是指在一副图像中确定视觉注意力所集中的位置。

这个概念来源于人类的注意力机制,人们在观看一幅图像时,往往只会关注其中的一部分,而对其他内容不太关注。

计算机视觉领域利用图像处理和机器学习的方法,希望能够模拟人类的这种注意力机制,从而在图像处理、图像搜索和信息检索等应用中获得更好的效果。

显著性检测方法中较常用的一种是基于视觉特征的方法。

这种方法通过提取图像的颜色、纹理、边缘等信息,来判断图像中的显著目标。

其中,颜色特征的提取可以通过颜色直方图、颜色对比度等方式来实现;纹理特征的提取可以通过局部二值模式(LBP)或者灰度共生矩阵(GLCM)等方式来完成;边缘特征的提取可以通过Canny算子或者Sobel算子等方法来实现。

将提取到的特征进行加权,就可以得到显著性图,从而实现显著性检测。

除了基于视觉特征的方法,还有一类叫做基于图像分割的方法。

这些方法将图像分割成不同的区域,并通过计算各个区域的显著性得分,来确定图像中的显著目标。

目前较为常用的图像分割算法有k-means聚类、图割算法和均值漂移算法等。

在得到图像分割结果后,可以计算每个区域的显著性得分,得到显著性图。

这种方法相对于基于视觉特征的方法,更能考虑到图像的全局信息和上下文信息。

另外,基于深度学习的方法近年来也得到了广泛应用。

使用深度神经网络对图像进行特征提取和处理,可以获得更高的准确度和鲁棒性。

其中,卷积神经网络(CNN)是一种应用最广泛的深度学习模型,通过多层卷积和池化操作,可以提取出图像中不同尺度的特征。

通过在CNN的基础上进行改进,如引入注意力机制(Attention)或者空间金字塔池化(Spatial Pyramid Pooling),可以进一步提高显著性检测的性能。

基于视觉注意的显著物体检测实验设计

基于视觉注意的显著物体检测实验设计张晴【摘要】从图像中快速准确定位出图像主要内容的显著物体检测已经成为数字图像处理的一个研究热点.研究并设计了基于视觉注意的显著物体检测实验,通过实验操作增强学生对显著物体检测的理解以及激发学生进一步学习和研究的兴趣.首先介绍了基于视觉注意的显著性物体检测原理和方法,然后利用视觉注意方法进行显著性检测,在此基础上利用显著物体密度最大化这一特征进行有效子窗口搜索以实现显著物体检测,最后介绍了查准率、查全率和F度量作为性能评价准则并对实验结果进行了分析.提供可实现上述方法的Matlab程序代码,学生可根据相关程序进行显著物体检测处理,得到符合人眼视觉感知的检测结果.该实验方案可以检测不同内容、主题与背景环境的自然图像,具有较强的鲁棒性和较好的可操作性.【期刊名称】《实验室研究与探索》【年(卷),期】2016(035)002【总页数】5页(P155-158,240)【关键词】视觉注意;物体检测;显著性检测;有效子窗口搜索【作者】张晴【作者单位】上海应用技术学院计算机科学与信息工程学院,上海201418【正文语种】中文【中图分类】TP391图像作为视觉信息的主要表达手段,是人类感知客观世界的主要信息来源。

面对现今庞大的图像数据,如何快速且有效地定位出图像中的主要信息内容已经成为了人们研究的热点。

显著物体检测技术是其中的一项关键技术,它能迅速定位图像中的重要对象,赋予计算机分析处理过程一定的主动选择能力,将有限的资源优先分配给图像中最主要信息,从而在复杂环境中快速有效地加工和处理信息[1]。

显著物体检测技术可以广泛应用于许多计算机视觉领域,包括图像/视频压缩[2]、目标跟踪[3]、目标检测与识别[4-5]等。

显著物体检测技术的迅速发展,使得在图像处理课程实验中添加相应的内容成为了必要,所以本文提出显著物体检测的实验设计。

目前显著物体检测方法主要有3种:① 用单一阈值表示显著物体所占比重,采取遍历搜索的方式寻找显著区域[6]。

遥感图像中基于视觉显著性的分层目标检测_张国敏

Abstract: A hier ar chical object det ect ion met ho d based on visio n saliency w as pr opo sed f or auto mat ic remot e sensing imag e int erpr et at io n. A bias f unct ion f or each sing le f eat ur e w as defined, and a com po und bias f unct ion for synt hesis o f visio n saliency image com put ed by each funct ion w as also defined. Fo r t he low reso lut ion or ig inal im ag e, each bias f unct ion w as used t o g enerat e a vision saliency imag e cor respo nding t o a cert ain feature. T hen sy nt hesized v ision saliency image w as com put ed using t he compound bias f unct ion f rom t hese v ision saliency im ag es. F urthermo re, t he area w here t he com po und bias f unction w as m ax imum w as locat ed as the most pr omising o bject area. T hese t hree st eps w ere repeated o ver the locat ed areas in higher r esolut io n level image unt il the objects w ere found or assuredly absent. Ex perim ent s show t hat t his m et hod can skip ov er t he region w here there is no object as early as possible, get bett er detection r esul t com pared w it h t radit io nal met ho ds, and cost much less co mput at io nal ex pendit ur e, w hich proves t o be a goo d basis f or lat er object recog nit ion. Key words: inf ormat ion processing t echnolo gy; remo t e sensing im ag e; visio n saliency; f eat ure; object det ectio n
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
相关文档
最新文档