图像处理文献综述
【图像复原技术研究文献综述2000字】

图像复原技术研究国内外文献综述作为日常生活中广泛使用的技术,图像修复技术汇集了国内外许多重要技术。
实际上,图像复原分为三种标准:首先是搭建其劣化图像的图像模型;其次去研究和筛选最佳的图像复原方法;最后进行图像复原。
所有类型的成像模型和优化规则都会导致应用于不同领域的不同图像恢复算法。
我们对现有的图像复原方法大致做了总结,如利用线性代数知识的线性代数复原技术、搭建图像退化模型的去卷积图像恢复技术以及不考虑PSF的图像盲解卷积算法等。
其中,去卷积方法主要包括功率谱均衡、Wiener滤波和几何平均滤波等,然而这些方法需要许多预信息和噪声稳定假设,这在现实当中我们不可能利用计算机去做到的的事情,因此它们只适用于线性空间不变的理想系统,仅当噪声与信号无关时才能达到很好的效果。
但是在一些条件恶化的情况下,就不能满足图像修复的效果了。
在图像恢复领域当中,另一个重要且常见的方法是盲去卷积复原法。
它的优势是在没有预先了解退化函数和实际信号的知识前提下,可以根据劣化图像直接估计劣化函数和初始信号。
实际上,现在有几个算法通过不充分的预测信息来恢复劣化图像。
由于我们需要对图像和点扩展函数的一些相关信息进行假设和推导,所以这就导致图像恢复的解通常并不存在唯一性,并且我们已知的初始条件和对附加图像假设的选择也会对解的优劣产生很大的关系。
与此同时,由于信道中不可避免的加性噪声的影响,会进一步导致盲图像的复原变差,给图像复原造成许多困难。
也就是说,如果我们直接利用点扩展函数进行去卷积再现初始图像,则一般会导致高频噪声放大,导致算法的性能恶化,恢复不出清晰的图像。
因此,我们要尽可能的提高图像的信噪比,从而提高图像复原的效果。
基于已知的降质算子和加性噪声的某些统计性质从而恢复清晰的图像,我们将这种方法叫做线性代数恢复方法,并且这种线性代数恢复方法在一定程度上提出了用于恢复滤波器的数值计算从而使得模糊图像恢复到与清晰图像一致的新的设计思想。
图像压缩文献综述

《数字图像处理和模式识别》期末大作业题目:图像压缩文献综述班级:数字媒体学院计算机技术姓名:徐德荣学号:6141603020图像压缩文献综述1 图像压缩编码概述图像信息的压缩编码,是根据图像信号固有的统计特性和人类的视觉特性进行的。
图像信号固有的统计特性表明,其相邻像素之间、相邻行之间或者相邻帧之间,都存在较强的相关特性。
利用某种编码方法在一定程度上消除这些相关特性,便可实现图像信息的数据压缩。
这个过程也就是尽量去除与图像质量无关的冗余信息,属于信息保持(保持有效信息)的压缩编码。
另一种考虑是,图像最终是由人眼或经过观测仪器来观看或判决的。
根据视觉的生理学、心理学特性,可以允许图像经过压缩编码后所得的复原图像有一定的图像失真,只要这种失真是一般观众难以察觉的。
这种压缩编码属于信息非保持编码,因为它使图像信息有一定程度的丢失。
由此可见,图像压缩编码的研究重点是:怎样利用图像固有的统计特性,以及视觉的生理学、心理学特性,或者记录设备和显示设备等的特性,经过压缩编码从原始图像信息中提取有效信息,尽量去除那些无关的冗余信息,并且在保证质量(能从这些数据中恢复出与原图像差不多的图像)的前提下,用最低的数码率或最少的存储容量,实现各类图像的数字存储、数字记录或数字传输。
2 图像编码研究现状图像压缩编码技术可以追溯到1948年提出的电视信号数字化,到今天己经有五十多年的历史。
五十年代和六十年代的图像压缩技术由于受到电路技术等的制约,仅仅停留在预测编码、亚采样以及内插复原等技术的研究,还很不成熟。
1969年在美国召开的第一届“图像编码会议”标志着图像编码作为一门独立的学科诞生了。
到了70年代和80年代,图像压缩技术的主要成果体现在变换编码技术上;矢量量化编码技术也有较大发展,有关于图像编码技术的科技成果和科技论文与日俱增,图像编码技术开始走向繁荣。
自80年代后期以后,由于小波变换理论,分形理论,人工神经网络理论,视觉仿真理论的建立,人们开始突破传统的信源编码理论,例如不再假设图像是平稳的随机场。
基于UNet结构改进的医学影像分割技术综述

2、UNet模型改进的技术原理和 实现方法
2.1增加网络深度
增加网络深度是提高UNet模型性能的一种有效方法。通过增加编码器和解码 器的层数,可以使得模型具有更强的特征提取能力和更细致的空间信息捕捉能力。 然而,增加网络深度也会带来计算量和参数量增加的问题。一些研究通过使用轻 量级的网络结构(如MobileNetV2、ShuffleNetV2等)来平衡网络深度和计算效 率。
然而,UNet结构仍存在一些问题和不足,需要进一步改进和完善。因此,本 次演示将综述基于UNet结构改进的医学影像分割技术,以期为相关研究提供参考 和借鉴。
文献综述
UNet结构是一种全卷积网络架构,最早由Jens Petersen等人提出,并广泛 应用于医学影像分割任务。UNet结构由编码器和解码器两部分组成,通过跳跃连 接的方式将编码器中的低级特征图传递给解码器中的相应位置,从而保留更多的 空间信息。然而,传统的UNet结构仍存在一些问题和不足,如上下采样过程中的 信息丢失、梯度消失等问题。针对这些问题,研究者们提出了许多改进方法。
总之,U-Net是医学图像分割领域的一种强大工具,其表现出的特性和性能 在许多医学图像处理任务中取得了显著的成功。尽管仍存在一些挑战,如鲁棒性 和资源限制问题,但随着新技术的不断发展,我们有理由相信这些问题会被逐步 解决。未来对于U-Net及其变体的进一步研究,将为医学图像分割提供更准确、 更有效的方法。
U-Net在医学图像分割任务中表现出极佳的性能。例如,在分割CT图像中的 肺组织、MRI图像中的脑组织、X光图像中的骨骼等任务中,U-Net都能够取得超 越传统图像处理算法的性能。同时,通过引入不同的改进策略,如残差连接、注 意力机制、多尺度特征融合等,可以进一步增强U-Net的性能。
基于改进直方图的分割研究——文献综述

基于改进直方图的分割研究文献综述(电子信息工程学系指导教师:吴晓)图像处理已经逐渐成为一门比较成熟的学科,图像分割是数字图像处理中的关键技术之一。
将图像分割的相关知识与MATLAB相结合,运用有效的、简单的分割方法快速而准确地分割出图中的某些感兴趣的部分,为爱好者提供方便。
一、研究背景及动态数字图像处理技术起源于20世纪20年代。
当时通过海底电缆从英国伦敦到美国纽约传输了一张照片,它采用数字压缩的技术。
1964年在美国喷气推进实验室中,科学家处理了由“徘徊者七号”太空船发回的月球照片,这标志着第三代计算机问世以后数字图像处理的概念开始得到运用。
现在,数字图像处理随着计算机科学的发展形成了诸如:图像分割、模式识别、图像复原、图像增强、图像压缩、图像传输等众多分支,在人们的生活中起着日益重要的作用。
图像分割是一种重要的图像分析技术。
在对图像的应用和研究中,人们往往仅对图中的某些部分感兴趣。
这些部分常称为前景或目标,为了辨识和分析目标,就需要将人们所感兴趣的部分分割出来,这样人们才有可能对图像进行利用。
图像分割后,对图像的分析才成为可能。
图像分割运用广泛像人工智能、物体识别、遥感器视觉、计算机视觉、气象预测、生物医学、军事上的导航制导等诸多领域的图像处理中,图像分割有着举足轻重的作用。
虽然对于图像分割的研究已经取得了一定的成果,但是研究人员还是正在努力寻找更方便、更有效地分割方法,以实现更好地分割。
近20年来,图像分割得到了广泛而持续的关注和研究,图像分割也是数字图像处理和研究的热点和难点之一。
图像分割是一种重要的图像处理技术,多年来一直得到人们的高度重视,至今已提出了上千种各种类型的分割方法。
主要分为阀值分割方法和边缘检测等方法;其中,阀值分割方法是提出的最早的一种方法。
在过去的几十年里,人们为图像灰度阀值的自动选择付出了巨大的努力,提出了诸如迭代式阀值选择、otsu法阀值选择、最小误差阀值选择等方法。
低光照增强文献综述

低光照增强文献综述低光照增强是图像处理领域中的一个重要研究方向,其目的是提高低光照条件下图像的视觉质量,从而获取更多的有用信息。
在自动驾驶、安防等人工智能相关行业中,低光照增强技术具有广泛的应用前景。
近年来,低光照增强技术逐渐成为研究热点,许多学者和研究人员致力于提出新的算法和方法以提高低光照图像的质量。
本文将从低光照增强技术的算法分类、现有算法性能评估和未来发展趋势等方面进行综述。
1. 低光照增强技术算法分类低光照增强技术主要包括传统方法和深度学习方法。
(1)传统低光照增强方法:传统方法主要采用基于偏微分方程、基于Retinex和基于直方图均衡等技术。
① 基于偏微分方程的方法:偏微分方程方法通过求解偏微分方程,实现低光照图像的增强。
这类方法在处理低光照图像时,能够有效地保持图像的边缘和细节。
② 基于Retinex的方法:Retinex理论提出了一种基于物理模型进行图像增强的方法。
Retinex算法通过分离环境光和反射光,实现低光照图像的增强。
③ 基于直方图均衡的方法:直方图均衡方法通过对图像直方图进行均衡化处理,提高低光照图像的对比度和亮度。
(2)基于深度学习的低光照增强方法:深度学习方法在低光照增强领域取得了显著的性能提升。
这类方法主要采用基于神经网络、基于生成对抗网络 (GAN)和基于自编码器等技术。
① 基于神经网络的方法:神经网络方法通过学习大量低光照图像数据,实现低光照图像的增强。
这类方法在提高图像质量的同时,能够有效地保持图像的细节和结构。
② 基于GAN的方法:GAN方法在低光照增强领域取得了显著的性能提升。
通过引入对抗训练,GAN方法能够生成高质量、高亮度的低光照图像。
③ 基于自编码器的方法:自编码器方法通过学习低光照图像的潜在特征,实现低光照图像的增强。
这类方法在提高图像质量的同时,能够有效地保持图像的细节和结构。
2. 现有算法性能评估为了评估低光照增强算法的性能,许多学者和研究人员构建了大量的低光照图像数据集,并采用各种评估指标对算法进行评估。
图像超分辨率重建文献综述

n+ 1
x , y + g k m, n - g k m, n
x , y= f
n
H
BP
m, n; x , y
该方法的特点是:直观、简单、收敛快;但没有惟一的解,难以 利用先验知识,而且选择投影算子HBP是困难的
2012-12-19
2012-12-19
武汉大学图像处理与智能系统实验室
7
图像失真的数学描述
降采样 观 测 模 型 ( 退 化 模 型 ) 模糊
移动
2012-12-19
武汉大学图像处理与智能系统实验室
8
超分辨率重建的方法
超分辨率的概念,最早于上个世纪60年代由Harris提出用于单张影像 的复原,并奠定了超分辨率的数学基础。 1984年,Tsai和Huang首次 提出了利用多帧低分辨率退化图像进行超分辨率重建的问题,随后许 多学者对图像超分辨率重建进行了研究,不仅在理论上说明了超分辨 率重建的可能性,而且还提出和发展了很多具有实用价值的方法。从 目前的研究和应用成果来看,超分辨率重建算法主要分为频域方法、 传统空域重建方法、基于学习( leaning-Based )的方法。早期的研 究工作主要集中在频域中进行,但考虑到更一般的退化模型,后期的 研究工作几乎都集中在空域中进行。基于学习的超分辨率重建方法是 最近十年发展起来的,不仅克服了基于重建的方法在分辨率提高倍数 方面的局限性,而且可以实现单幅图像的超分辨率重建。 基于重建的方法 基于学习的方法
2012-12-19
武汉大学图像处理与智能系统实验室
4
SRR分类
Image Class Method Image Number
三维动画场景文献综述范文模板例文

三维动画场景文献综述范文模板例文在本文综述中,我们对三维动画场景进行了详细的研究和文献综述。
我们主要关注了三维动画场景的设计、建模、渲染和动画效果等方面的研究。
我们选择了以下几篇相关文献进行综述,并对它们的研究方法、实验结果和创新点进行了详细的描述和分析。
1. 文献1:《基于虚拟场景的三维模型重建方法研究》这篇文献主要介绍了一种基于虚拟场景的三维模型重建方法。
作者首先对场景进行了拍摄和扫描,然后使用计算机视觉和图像处理技术对这些数据进行处理,最终生成了高质量的三维模型。
文章中提到了一些关键技术,如点云配准、表面重建和纹理映射等。
实验结果表明,该方法能够有效地重建复杂的三维场景,并获得真实感和逼真度较高的模型。
2. 文献2:《基于物理模拟的三维动画场景设计方法研究》这篇文献介绍了一种基于物理模拟的三维动画场景设计方法。
作者通过使用物理引擎和动力学模拟技术,可以模拟真实世界中的物理效应,如重力、碰撞和流体动力学等。
文中对于如何使用物理模拟来设计复杂的场景进行了详细的描述,并提供了一些实际案例和实验结果。
结果表明,该方法能够有效地改善三维动画场景的真实感和逼真度。
3. 文献3:《基于光线追踪的三维动画场景渲染方法研究》这篇文献提出了一种基于光线追踪的三维动画场景渲染方法。
作者通过模拟光线在场景中的传播和反射,可以模拟真实世界中的光照效果和阴影效果。
文中详细介绍了光线追踪算法的原理和实现方法,并给出了一些实验结果和比较分析。
实验结果表明,该方法具有较高的渲染质量和真实感,能够有效地提高三维动画场景的视觉效果。
综上所述,以上三篇文献对于三维动画场景的设计、建模、渲染和动画效果等方面进行了重要的研究。
它们提供了一些创新的方法和技术,能够有效地提高三维动画场景的真实感和逼真度。
未来的研究可以进一步探索和改进这些方法,并将其应用于实际的三维动画制作中。
遥感图像分类方法_文献综述

遥感图像分类方法研究综述摘要本文概述了遥感图像分类的概念和原理,详细探讨了传统的遥感分类方法,对各种方法的进行了定性的比较与分析。
然后介绍了分别基于GPU、计算机集群和刀片机服务器的三种加快分类速度的途径,最后展望了遥感图像分类方法的发展方向和研究热点。
关键词:遥感;图像分类;监督分类;非监督分类;GPU;机群系统;刀片机1.引言在遥感图像处理的研究中,无论是专业信息提取,地物变化预测,还是专题地图制作等都离不开分类。
遥感图像分类有类别多,混合度大和计算量大的特点,分类方法的优劣直接关系到分类的精度和速度。
由于遥感图像本身的空间分辨率以及“同物异谱”和“异物同谱”现象的存在,往往出现较多的错分、漏分现象,导致分类精度不高[1],如何实现图像分类识别并满足一定的分类精度,是当前遥感图像研究中的一个关键问题, 也是研究的焦点[2]。
2.遥感图像分类原理遥感图像通过亮度值或像素值的高低差异及空间变化表示不同地物的差异,如不同类型的植被、土壤、建筑物及水体等,这也是区分不同地物的理论依据。
利用光谱特征(地物电磁波辐射的多波段测量值)或纹理等空间结构特征,按照某种规则就能对地物在遥感图像上的信息进行识别与分类。
图像分类的目标就是通过对各类地物波谱特征的分析选择特征参数,将特征空间划分为不相重叠的子空间,进而把影像诸像元划分到各子空间去,从而实现分类[3]。
3.传统分类方法遥感影像的计算机分类方法可分为两种:统计判决分类和句法模式识别。
前者通过对研究对象进行大量的统计分析, 抽出反映模式的本质特点、特征而进行识别。
后者则需要了解图像结构信息, 从而对其进行分类。
传统的分类方法一般为统计判决分类, 如最大似然法、K均值法等。
近年来发展的分类新方法则多采用句法方法, 如专家系统法和决策树分类法等。
根据是否已知训练样本的分类数据,统计模式方法可分为监督分类、非监督分类。
下面将具体介绍监督分类、非监督分类以及其它分类(如模糊分类和人工神经网络分类)的典型算法及其主要步骤。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
文献综述近年来,随着计算机视觉技术的日益发展,图像处理作为该领域的关键方向受到越来越多研究人员的关注与思考。
在现在的日常生活中,由于通信设备低廉的价格和便捷的操作,人们越来越喜欢用图像和视频来进行交流和分享,消费性的电子产品在消费者中已经非常普遍,例如移动手机和数码相机等等。
在这个纷繁多变的世界,每天都有数以万计的图像产生,同时信息冗余问题也随之而来。
尽管在一定的程度上,内存技术的增加和网络带宽的提高解决了图像的压缩和传输问题,但是智能的图像检索和有效的数据存储,以及图像内容的提取依然没有能很好的解决。
视觉注意机制可以被看做是人类对视觉信息的一个筛选过程,也就是说只有一小部分重要的信息能够被大脑进行处理。
人类在观察一个场景时,他们往往会将他们的注意力集中在他们感兴趣的区域,例如拥有鲜艳的颜色,光滑的亮度,特殊的形状以及有趣的方位的区域。
传统的图像处理方法是将整幅图像统一的处理,均匀的分配计算机资源;然而许多的视觉任务仅仅只关系图像中的一个或几个区域,统一的处理整幅图像很明显会浪费过多的计算机资源,减少处理的效率 [1,2]。
因此,在计算机视觉领域,建立具有人类视觉系统独特数据筛选能力的数学模型显得至关重要。
受高效的视觉信息处理机制的启发,计算机视觉领域的显著性检测应运而生。
图像显著性检测是通过建立一定的数学模型,让计算机来模拟人类的视觉系统,使得计算机能够准确高效的定位到感兴趣的区域。
一般来说,一个信号的显著性可以表示为其和周围环境的差异性。
正是因为这个信号和周围的其他信号的迥异性,使得视觉系统不需要对环境中的所有感兴趣的区域进行逐个的扫描,显著的目标会自动从环境中凸显出来。
另外,一些心理学研究表明人类的视觉机制不仅仅是由低级的视觉信号来驱动的,基于记忆、经验等的先验知识同样能够决定场景中的不同信号的显著性,而这些先验知识往往是和一些高层次的事件以及视觉任务联系在一起的。
基于当前场景的视觉显著性机制是低级的,慢速的。
而基于先验知识的显著性机制通常是和高层次的任务关联在一起的,其效率通常低于由视觉信号驱动的显著性机制。
人眼视觉系统通过显著性原理来处理复杂的视觉感知是不争的事实,这种显著性的处理机制使得复杂背景下的目标检测、识别有了很大程度的提升。
在模式识别、计算机视觉等领域,越来越多的计算机工作者致力于开发显著性计算模型,用以简单的表达图像的主要信息。
这些显著性模型的检测结果是一个显著性灰度图,其每个像素点的灰度值表示了该像素的显著性,灰度值越大,表明该像素越显著。
从信息处理的方式看,显著性模型大致可以分为两类:自顶向下(任务驱动)和自底向上(数据驱动)的方法。
自顶向下的显著性检测方法之所以是任务驱动,这是因为该类模型通常是和某一特定的任务相关。
在同样的场景或模式下,检测到的结果因任务的不同而不同是自顶向下模型最突出的特点。
例如在目标检测中,检测者需要首先告诉需要检测的目标是什么,检测到的显著性图则表示目标可能出现的位置。
自顶向下的显著性检测方法的依据是:如果研究者事先知道需要检测目标的颜色、形状或者方向等特征,那么该检测算法自然会高效的检测到需要检测的目标。
因此,自顶向下的算法通常需要人工标记,或是从大量的包含某种特定目标的图像中学习该类目标的特征信息,这些学习方法一般是监督的;然后求测试图像对于训练学习得到的信息的响应,从而得到测试图像的显著性图。
现存的一些自顶向下的算法在某些特定的目标上取得了一定的效果,不过这些算法往往只对某些特定的目标有效,对于复杂多变的自然图像,该类算法存在很大的缺陷。
自顶向下的模型是慢速的、任务驱动的,有意识的,以及封闭回路的。
由于自顶向下模型的特点,其应用受到了很大的限制。
相对于自顶向下的显著性模型,自底向上的模型检测到的显著性图是依据当前的图像和图像的低级特征得到的,和特定的任务没有任何的相关性,因此更具一般性,目前也是研究者们研究的重点。
由于是由低级视觉信号驱动的,自底向上模型被认为是一种无意识的视觉处理过程,它和记忆没有任何的关系,信号显著性仅仅由当前的视觉信号本身所决定。
在自底向上模型中,吸引我们注意的感兴趣区域一定和周围的环境有着极大的差别。
因此,自底向上模型通常采用中央-周围对比算法来模拟图像显著性,该方法通过计算某一像素或区域相对于周围领域的对比度来模拟其相应的显著性。
此外,一些研究者通过采用活动窗口的领域方法来提高定位目标的准确性。
另一种常用的自底向上的显著性方法是信息最大化法,该方法通过心理学的研究,认为人类往往将注意力放在图像中信息量最大的位置——例如图像中央区域,从而进行有效的分析。
自底向上注意模型是快速的、无意识的,以及大多数是前向反馈的。
自底向上的图像显著性估计算法适用于对图像目标的模式或位置没有任何信息的情况。
经过多年的研究,显著性检测已经应用于计算机视觉的许多方向。
如感兴趣区域检测[3]、目标定位 [4]、图像分类[5]、图像或视频分割 [6] 图像或视频压缩 [7,8] 等等。
例如在文献 [9] 中,N.Ouerhani等人将显著性检测应用到图像压缩这个新的领域中,其目的是将图像中的显著性部分在解压缩的过程中拥有更好的重建质量。
随后,Itti等人 [8] 提出了一种新的基于显著性的图像压缩方法,该方法对视频序列的每帧都进行显著性检测,将距离显著性区域较远的地方做模糊处理,这样就能使得显著性区域大部分保证不变,而其他区域进行高质量的压缩。
R Miau和L. Itti [10] 为进行目标识别,将显著性检测作为其预处理操作,然后使用生物动力系统HMAX [11] 来进行目标的识别。
Salah等人 [12] 将显著性检测和人工神经网络结合起来,用于识别人脸是手写数字。
在文献 [13] 中,N.Ouerhani 等人将显著性检测用于交通标志的识别。
图像分割是将图像中的前景物体提取出来的一种技术,传统的图像分割需要人工给予交互信息,在文献 [14] 中,N. Ouerhani等人利用显著性检测作为人工交互信息,实现了对图像的自动分割。
正是由于显著性检测的诸多重要的应用,使得大量的研究人员将极大的热情投入到显著性检测的研究中来。
近年来,自底向上和自顶向下显著性模型取得了很大的发展,研究者们用不同的数学模型、思想来让计算机模拟人类视觉系统,下面就分别介绍关于自顶向下和自底向上模型的发展:自底向上的显著性检测方法:早期C.Koch等人通过研究人类视觉自底向上阶段的机制,提出了人类视觉显著性机理,希望模拟人类的视觉特点,计算出人类感兴趣的区域。
这是非常有影响力的生物启发模型,但该模型仅仅停留在理论阶段,并没有通过计算机实现。
Itti等人的基本模型 [15] 利用三个特征通道来模拟显著性。
他们首先将图像用不同尺度上的的颜色、强度和方向这三个属性来表征,然后利用中心-周围算法对每个特征进行处理得到多个特征图,最后,将这些特征图经过线性迭加后得到最终的显著性图。
这个模型是显著性检测方面的一个里程碑,之后的大部分模型都以其为基准。
该模型也是第一次完整的实现C.Koch等人提出的显著性生物启发系统。
Bruce等人 [16] 根据香农的自信息理论,提出了AIM(Attention based on Information Maximization)模型,研究了人眼注视行为和信息量的显著性之间的关系。
他们首先基于大量的自然图像的图像块,利用独立分量分析(ICA)算法从中学习出一系列的滤波器,然后将测试图像和滤波器进行卷积,得到测试图像一系列的特征,最后根据图像对滤波器的响应计算自信息得到最终的显著性图。
Harel等人 [17] 提出了基于图的视觉显著性(GBVS)。
他们在多尺度空间下提取图像的特征图形成一个全连通的图,图像中的像素点是图的节点,两个节点之间的权重由他们特征值的相似性和空间距离共同决定。
然后利用随机游走计算图像的显著性。
虽然该模型对人眼关注点能较好的预测,但是具有很大的时间复杂度。
Hou等人 [18] 提出了基于谱残余的模型,第一次在变换域的方面考虑图像的显著性。
该模型首先对图像进行傅里叶变换得到图像振幅谱,接着让对数频谱通过一个领域的滤波器,并和对数频谱相减得到谱残差,最后利用傅里叶反变换结合皮平滑高斯滤波器得到最终的显著性图。
该算法简单高效,其matlab核心代码只有五行。
Guo等人 [19] 证明了用傅里叶变换的相位谱来代替振幅谱能取得更好的显著性预测效果。
随后,Guo和Zhang等人 [7] 提出了用四元数将图像的颜色、强度和运动特征联系起来的模型——基于相位谱的四元数傅里叶变换模型,该模型可以计算时空的显著性并用于视频处理。
Zhang等人 [20] 提出了经典SUN(Saliency Using Natural statistics)方法,改方法也是利用香农自信息理论衡量图像显著性。
首先由DoG或ICA得到自然图像的一系列统计特性,然后结合贝叶斯框架得到最终的显著性图。
该模型给许多模型提出了一个基本的框架。
Achanta等人 [21] 利用图像的颜色和强度两种低级特征,实现了频率调谐的显著性区域检测算法。
此方法用某个像素和整个图像的平均色的色差来直接定义显著性值。
单该方法只考虑了一阶平均颜色,不足以分析复杂多变的自然图像。
Cheng等人 [22] 提出了基于区域对比度的视觉显著性区域检测算法。
该方法首先依据与其他像素的色彩差异来分配像素的显著性值,然后将图像分割成若干区域,最后利用颜色距离和空间距离的加权来定义图像最终的显著性。
该算法同时考虑了全局对比度和空间相干性。
作者还将得到的显著性图应用于图像分和和基于内容的图像缩放,都取得了比较好的效果。
Goferman等人 [23] 提出了基于上下文的显著性检测模型。
该模型同时对局部底线线索、全局考虑、视觉组织规划以及表层特征进行建模来突出显著性物体。
Xie等人 [24] 通过研究图像中的低层和中层信息,结合在贝叶斯框架,提出了一种新模型。
该模型采取由粗到细的策略。
首先,利用角点计算得到目标的大致区域,进而计算该大致区域得到粗糙的显著性图。
然后,结合这个粗糙的显著性图和由低层信息计算得到观测性似然概率,从而得到每个像素处的显著值。
Mai 等人[25]利用条件随机场框架,提出了一个数据驱动的显著性检测方法。
该方法基于两个发现:一是不同的显著性检测方法在显著性分析中有不同的表现,二是显著性分析方法的性能随着图片的不同而变化着。
因此该方法考虑不同模型之间的性能差异,以及各类模型在单类图像上的性能依赖,通过数据驱动的方法来进行显著性融合。
Zhang等人[26]提出了一个基于布尔图的显著性检测模型(BMS)。
该模型认为图像可以由一系列的二值图像表示,这些二值图像是通过对图像的颜色通道进行随机阈值生成。