基于图像变化检测的CFA插值算法

合集下载

基于计算机视觉的目标计数方法综述

基于计算机视觉的目标计数方法综述

基于计算机视觉的目标计数方法综述随着计算机视觉技术的快速发展,人们在各个领域也不断地将其应用。

在人工智能领域,计算机视觉技术扮演着重要的角色。

计算机视觉技术的目标检测与跟踪技术已经广泛应用于物体识别、自动驾驶、安防监控等领域。

本文将从计算机视觉领域角度,对基于计算机视觉的目标计数方法进行综述。

一、传统的基于计算机视觉的目标计数方法早期,基于计算机视觉的目标计数方法主要依赖于图像处理技术,这些方法主要有以下几种:1.阈值方法:将图像中像素的灰度值与事先设定好的阈值进行比较,如果像素的灰度值超过阈值,则认为该像素中存在目标。

2.颜色空间转换:将图像从RGB颜色空间转换为其它颜色空间,如HSV颜色空间,这样可以将灰度图像转化为灰度图像,更容易识别目标。

3.形态学滤波:通过利用形态学滤波技术,去除图像中的噪声和干扰,然后对图像进行阈值处理,找出目标。

4.目标跟踪:通过目标跟踪算法,追踪目标在图像中的位置,当目标被追踪到时,将其生存期延长,并更新其位置。

二、现代基于计算机视觉的目标计数方法随着深度学习技术的快速发展,基于计算机视觉的目标计数方法也取得了重大突破。

现代基于计算机视觉的目标计数方法主要有以下几种:1.基于卷积神经网络的目标检测方法:通过对图像进行卷积神经网络的卷积和池化处理,提取出图像的特征,然后通过全连接层进行分类和回归,实现目标检测。

2.基于特征提取的方法:通过对图像进行特征提取,如SIFT特征提取,HOG特征提取等,来识别并跟踪目标。

3.基于跟踪算法的方法:通过对目标进行跟踪,如卡尔曼滤波,欧拉滤波等,来跟踪目标的动态变化,并延长目标的生存期。

三、基于计算机视觉的目标计数方法优缺点分析基于计算机视觉的目标计数方法具有检测速度快、准确率高等优点,已经在各个领域取得了广泛应用。

但同时,这些方法也存在一些缺点,如计算资源需求较高、对光照和纹理敏感等问题。

四、结论随着计算机视觉技术的不断发展,基于计算机视觉的目标计数方法也在不断更新升级。

一种新的SAR图像目标检测方法

一种新的SAR图像目标检测方法
收稿日期 : 2006207217 ; 修回日期 :200 6211221
8
第5 期
刘代志等 : 一种新的 SAR 图像目标检测方法
126 7
目标之间的相对运动形成大的综合孔径 , 从而获得 高的方位向分辨率。SAR 在运动过程中 , 以一定的 脉冲重复周期 ( Pulse Repetition Time , PRT) 发射和接 收脉冲 , 天线波束照射到地面上一定的目标区域 ,区 域内各散射元对入射波产生后向散射 。这样 , 发射 脉冲经目标和天线方向图的调制 , 携带目标和环境 信息形成 SAR 回波 ,再经距离向和方位向的相关处 理 , 就获得了原始的 SAR 图像 。假设 SAR 发射的线 性调频信号为 :
[8]

目前 ,大部分目标检测算法纯粹是从图像的角 度及目标的统计特性考虑 , 很少涉及成像机理 。实 际上 , 图像是目标成像机理的反映和表现形式 , 为目 标的辨识提供了丰富的信息 。本文在深入分析 SAR 成像机理及 SAR 图像目标检测的基础上 , 提出了相 干性 CFAR 检测算法 , 并对相干图像源提出了亚像 元空间域源算法 ,即相干源图像直接由单视 SAR 图 像空间通过亚像元采样技术 来获得 。由于亚像元 采样技术不需进行其它任何空间变换 , 如傅立叶变 换、 小波变换 、 离散余弦变换等 ,因而减少了计算量。 1 SAR 相干成像原理 SAR 成像系统是基于相干成像原理的 , 它利用 脉冲压缩技术获得高的距离向分辨率 , 利用雷达与
[9 ]
,具
有代表性的是 Novak 提出的基于高斯分布的双参数 。目前 ,广泛使用的目标检测方法仍 然以恒虚警率方法为主 , 该方法已发展了多个分支 , 如单元平均 CA2CFAR (Cell2Average CFAR) , 最小选择 SO2CFAR (Smallest of CFAR) , 有序统计 OS2CFAR (Or2 der Stati stic CFAR) 和最大选择 G O2CFAR ( G reatest of CFAR) 等及相应的广义 CFAR 方法[3 ] 。所有的 CFAR 方法 ,都需要建立背景杂波统计模型 的散射比自然目标要持久 , 所以 SAR 图像目标一般比较好检测 , 但是当目标比较小 、 目标散射比较微弱以及目标处于隐藏状态时 , 在原 始的 SAR 图像中很难把目标和背景分开 。可是 , 这 时对目标的检测非常重要 ,如坦克隐藏于森林 , 巨大 海浪背景图像中检测 舰船等 , 如果用通常 的 CFAR 系列法很难检测出 目标 , 有 时甚至产生 大量虚警 。 因为 CFAR 检测要求目标像元与背景显著不同 , 而 且当背景中含有很多目标 , 彼此距离又很近的时候 以及当目标被伪装或隐藏起来的时候 , 雷达回波减 弱 ,此时 CFAR 的检测效果会大打折扣 , 有时甚至失 败。图像目标检测是从图像中提取目标有用信息 , 当目标与背景散射几乎一致时 , 提取目标特征变得 非常困难 。如 果我们把目 标与背景的 灰度距离拉 开 ,也就是把它们的散射强度差距扩大 ,那么目标的 检测就容易了 。由上面的分析可知 ,SAR 是相干成 像遥感雷达 ,所以可以通过对 SAR 图像进行相干处 理 ,使目标与背景易分离 。这是因为人造目标在很 大的角度匹配范围内都具有强相干性 , 而自然地物 需要亚像元级的配准才能形成强相干 , 如图 2 所示 。 因此 , 可以用相干的方法区分目标和背景杂波 , 让目 标区域变得更亮 , 而自然背景地物变化不大 。图像 对 I1 和 I2 的相干性可用下式计算 :

《视觉SLAM系统中基于深度学习的回环检测算法研究》范文

《视觉SLAM系统中基于深度学习的回环检测算法研究》范文

《视觉SLAM系统中基于深度学习的回环检测算法研究》篇一一、引言随着计算机视觉和机器人技术的快速发展,同时定位与地图构建(SLAM)系统在各种应用中发挥着越来越重要的作用。

回环检测作为SLAM系统中的关键技术之一,对于提高系统的鲁棒性和准确性具有重要作用。

传统的回环检测方法主要依赖于视觉特征提取和匹配,但面对复杂的动态环境和光照变化,其性能常常受到影响。

近年来,基于深度学习的回环检测算法逐渐成为研究热点,其利用深度神经网络学习特征表达和匹配,大大提高了回环检测的准确性和鲁棒性。

本文旨在研究视觉SLAM系统中基于深度学习的回环检测算法,以提高SLAM系统的性能。

二、相关工作传统的回环检测算法主要基于视觉特征提取和匹配,如SIFT、SURF等手工特征算法。

然而,这些算法在面对复杂的动态环境和光照变化时,其性能会受到很大影响。

近年来,深度学习在计算机视觉领域取得了显著的成果,因此,许多研究者开始探索将深度学习应用于回环检测中。

深度学习算法能够自动学习图像中的高级特征表示,并提高特征匹配的准确性。

三、基于深度学习的回环检测算法本文研究的基于深度学习的回环检测算法主要包括以下几个步骤:1. 数据集准备:首先需要准备大量的训练数据集,包括包含回环的场景图像和对应的标签信息。

这些数据集可以用于训练深度神经网络模型。

2. 特征提取:利用深度神经网络模型自动提取图像中的特征表示。

这一步可以利用各种深度神经网络结构,如卷积神经网络(CNN)等。

3. 特征匹配:将提取出的特征进行匹配,以实现场景之间的回环检测。

可以采用各种特征匹配算法,如基于欧氏距离的最近邻匹配等。

4. 回环检测:根据匹配结果进行回环检测。

如果匹配的特征点数量达到一定阈值,则认为检测到回环。

四、实验与分析为了验证本文提出的基于深度学习的回环检测算法的性能,我们进行了大量的实验。

实验中采用了不同的深度神经网络模型和特征匹配算法,并在不同的场景下进行了测试。

一种基于视觉测量的亚像素边缘检测算法

一种基于视觉测量的亚像素边缘检测算法

一种基于视觉测量的亚像素边缘检测算法李杰;耿学贤【摘要】图像边缘检测精度决定了目标实际尺寸的测量精度.利用亚像素边缘检测技术来解决工业生产中芯片管脚的测量和检测问题.针对传统空间矩算子存在计算量大和边缘定位精度不足等缺点,首先利用改进的Prewitt算子快速提取连续性较好的像素级边缘,然后推导了空间矩算子原理误差并利用改进的空间矩算子进行亚像素级边缘定位.实验结果表明该方法速度快,定位精度高,并且具有较强的抗噪能力.【期刊名称】《科学技术与工程》【年(卷),期】2015(015)019【总页数】5页(P32-36)【关键词】边缘检测;一阶微分算子;亚像素;空间矩【作者】李杰;耿学贤【作者单位】武汉大学电子信息学院,武汉430072;武汉大学电子信息学院,武汉430072【正文语种】中文【中图分类】TP391.41随着信息产业的飞速发展,集成电路芯片被广泛的应用于现代电子设备中,如电视机、计算机、各种电子仪器等都离不开芯片。

在芯片的工业生产过程中,芯片在出厂前必须经过两项测试,一项是电器性能测试,另一项是管脚的几何尺寸检测。

所以芯片管脚的几何尺寸是否合格,是评价芯片质量的一个重要指标[1]。

以使用最多的双列直插集成电路芯片为例,因其管脚多,且管脚方向特殊,一般依靠工人用肉眼观察芯片管脚有无弯曲,其位置是否正确,来完成对芯片管脚的检测。

人工检测不仅速度慢、效率低,还增加了人工成本和管理成本,并且由于人眼容易疲劳,还会造成较高的误检率。

随着数字图像处理理论和方法的不断发展完善,利用机器视觉测量的方法对芯片管脚进行检测已变得切实可行,并且这种方法具有无接触、高精度、实时检测等优点。

图像边缘包含了被测物体的尺寸和位置信息,因此图像边缘检测是机器视觉测量的重要基础[2,3]。

随着现代工业生产日益增长的精度要求,像素级的边缘检测算法已经不能满足实际需要,如今越来越多的专家学者们开始致力于亚像素边缘检测算法的研究。

图像边缘检测原理及方法

图像边缘检测原理及方法
[3]
1、差分边缘检测 在处理数字图像的离散域时,可用图像的一阶差分直接代替图像函数的导 数。 二维离散图像函数在 x 方向的一阶差分定义为: f ( x 1, y ) f ( x, y ) , 在y 方 向的一阶差分定义为: f ( x, y 1) f ( x, y ) [4]。 差分边缘检测通过求图像灰度迅速变化处的一阶导数算子的极值来检测奇 异点。某一点的值则代表该点的“边缘强度”,通过对这些值设定阈值进一步得到 边缘图像。同时,差分边缘检测要求差分方向与边缘方向垂直,此时需对图像不 同方向进行差分运算。边缘检测一般分为垂直边缘、水平边缘、对角线边缘, 各 [5] 自方向模版如图 2-1 所示 。
二、图像边缘检测方法
边缘检测算子是利用图像边缘的突变性质来检测边缘的。 主要分为两种类型 :一种是以一阶导数为基础的边缘检测算子,通过计算图像的梯度值来检测图 像边缘,如:差分边缘检测、Roberts 算子、Sobel 算子、Prewitt 算子;一种是 以二阶导数为基础的边缘检测算子,通过寻求二阶导数中的过零点来检测边缘, 如:Laplacian 算子、LOG 算子、Canny 算子。
2 f ( x, y )
2 f ( x, y ) 2 f ( x, y ) x 2 y 2
(2-10)
使用差分方程对x 和y 方向上的二阶偏导数近似如下。
2 f Gx ( f (i, j 1) f (i, j )) f (i, j 1) f (i, j ) x 2 x x x x f (i, j 2) 2 f (i, j 1) f (i, j )
s x { f ( x 1, y 1) 2 f ( x 1, y ) f ( x 1, y 1)} { f ( x 1, y 1) 2 f ( x 1, y ) f ( x 1, y 1)} s y { f ( x 1, y 1) 2 f ( x, y 1) f ( x 1, y 1)} { f ( x 1, y 1) 2 f ( x, y 1) f ( x 1, y 1)}

c++ opencv 差分运算函数

c++ opencv 差分运算函数

标题:深入探讨C++ OpenCV差分运算函数在计算机视觉领域,图像处理是一个重要而复杂的任务。

C++和OpenCV是两个常用的工具,用于处理图像并进行各种图像操作。

其中,差分运算函数在图像处理中扮演着重要的角色。

本文将深入探讨C++ OpenCV中的差分运算函数,以便帮助读者更深入地理解这一主题。

一、差分运算函数的基本概念在图像处理中,差分运算函数用于比较两个图像之间的差异。

具体来讲,它计算两个图像对应像素之间的差值,并将结果存储在一个新的图像中。

这一过程可以帮助我们分析图像的变化,检测运动对象,以及进行物体跟踪等。

1. 像素级差分在C++ OpenCV中,我们可以使用像素级差分函数来比较两个图像的每个像素之间的差异。

通过对相应像素进行相减操作,我们可以得到一个新的差分图像,其中每个像素的数值代表了对应位置的差异强度。

2. 图像级差分除了像素级差分,C++ OpenCV还提供了图像级差分函数,用于比较整个图像之间的差异。

这种方法通常用于检测图像整体的变化,例如在视频分析中检测帧与帧之间的变化情况。

二、差分运算函数的应用场景C++ OpenCV中的差分运算函数在许多图像处理任务中都有广泛的应用。

以下是一些常见的应用场景:1. 运动检测通过对连续视频帧进行差分运算,我们可以检测出视频中的运动对象。

这对于监控系统或者智能驾驶等领域都有着重要的意义。

2. 物体跟踪利用差分运算函数,我们可以追踪物体在图像中的运动轨迹。

这对于目标识别和目标跟踪非常有帮助。

3. 图像分割通过对图像进行差分运算,我们可以分割出不同区域的变化情况,从而实现图像分割和目标提取。

三、个人观点和理解差分运算函数在图像处理中具有重要的作用。

它不仅能帮助我们理解图像的变化情况,还可以应用在许多实际的项目中,如视频监控、人脸识别、交通监控等领域。

而C++ OpenCV提供的差分运算函数,不仅快速高效,而且易于使用,为我们的工作带来了极大的便利。

基于图像显著性的路面裂缝检测

4
1. 灰度校正(2)
• 将路面图像I划分为L×L的小块Ir。分别度校正(3)
• 校正图像很大程度上消除了带状条纹、路面颗粒随机纹理形成的白噪 声干扰。
6
2. 裂缝显著性检测(1)
7
3. 裂缝细尺度显著性增强(1)
• 相邻区域的高对比度比整体的对比度以及较远区域的对比度更能优先 引起注意。
13
Thank you !
14
3
1. 灰度校正(1)
• 人类中先验的裂缝概念,即裂缝视觉显著特征。 • 裂缝图像规律:
– 裂缝具有线性稀疏性。裂缝中间出现了断裂,其线性增长方向局 部一致。空间上所占面积比例还是灰度级所占比例较小
– 裂缝中心的灰度是局部最小值。因此,因根据亮度变化赋予各区 域不同的校正权值。
– 局部小窗口范围内可以认为图像光照近似均匀。
9
3. 裂缝细尺度显著性增强(3)
④ 当l>L/2,计算窗口(2(s-1)+1)×(2(s-1)+1)内领域内线性扩展方向是否 一致。即某扩展方向一开始不存在候选点,领域增大后突然出现了
候选点,显然属于噪声,记下此时长度l',修改wl为l’/sL
⑤ 当l>L/2时,若领域扩展方向一致,统计窗口领域内候选点个数Num, 根据裂缝面积稀疏性设置阈值α,当Num>α×(2(s-1)+1)2,认为其呈现 出块状特性;此时,按照步骤3的方式继续进行领域扩展,直至内外 窗口之差中不再出现候选点,重新统计Num,修改其中所有候选点 wl为1/Num,标记已经筛选。
⑥ 当l>L/2时,如再无步骤4、5中扩张情形,局部领域搜索完毕,不再 继续扩展,转步骤1选新候选点带入算法。
10

图像识别中的多尺度特征融合方法探讨(十)

图像识别中的多尺度特征融合方法探讨在当今数字化时代,图像识别技术已经成为了许多领域中不可或缺的一部分。

图像识别的目标是将输入的图像与预定义的类别进行匹配,从而实现自动化的图像分析和分类。

然而,由于图像中存在不同的尺度和角度变化,传统的图像识别方法往往会面临一些挑战。

因此,多尺度特征融合方法应运而生,旨在提高图像识别的准确性和稳定性。

一、多尺度特征融合的定义和意义多尺度特征融合是指将不同尺度下提取的特征进行有效地融合,以充分利用图像中的细节信息和上下文信息。

通过融合多尺度特征,可以提高图像识别算法对尺度变化的鲁棒性,使得模型能够更好地适应不同尺度的目标。

二、多尺度特征融合的方法1. 金字塔结构金字塔结构是一种常见的多尺度特征表示方法。

它通过构建图像的多个不同尺度的副本,使得图像可以在不同尺度下进行分析。

金字塔结构通常由高斯金字塔和拉普拉斯金字塔构成,其中高斯金字塔用于提取不同尺度下的图像,而拉普拉斯金字塔用于对图像进行细节增强。

2. 特征融合网络特征融合网络是基于深度学习的一种多尺度特征融合方法。

它通过在网络中引入多个尺度的特征图,实现对不同层级特征的融合。

常用的特征融合方法包括特征级联、特征融合、全局池化等,通过这些方法可以有效地提取图像的多尺度特征。

三、多尺度特征融合的应用1. 目标检测在目标检测中,由于目标在图像中的尺度和角度变化往往较大,传统的单尺度方法容易受到限制。

多尺度特征融合方法能够提取不同尺度下的目标特征,使得目标检测算法能够更好地适应不同尺度的目标。

2. 图像分割在图像分割中,多尺度特征融合方法可以提取不同尺度下的图像纹理和边缘信息,并将它们融合到一个统一的特征表示中。

这样的特征表示可以更好地描述图像的局部和全局结构,从而提高图像分割的准确性。

3. 图像识别多尺度特征融合方法在图像识别中也有广泛的应用。

通过对不同尺度下提取的特征进行融合,可以提高图像识别算法对尺度变化的鲁棒性,使得识别准确率得到提升。

计算机视觉技术中的异常检测方法

计算机视觉技术中的异常检测方法在计算机视觉技术中,异常检测是一个重要的任务,旨在识别和标记图像或视频中的异常事件或目标。

通过异常检测方法,我们可以快速准确地发现异常情况,从而提高安全性、效率和生产力。

本文将介绍几种常见的计算机视觉技术中的异常检测方法。

首先,一类基于像素的异常检测方法是使用统计模型。

这类方法基于对图像的像素进行统计分析,通过与所建立的模型进行比较来检测异常。

常用的统计模型包括高斯混合模型(GMM)和自适应模型。

GMM假设在正常情况下图像像素的分布服从高斯分布,因此可以通过计算像素与高斯分布的距离来判定异常。

而自适应模型则通过对正常像素进行学习,建立一个动态的模型,来对新的图像进行异常检测。

其次,基于运动的异常检测方法是另一种常见的技术。

这类方法利用图像序列中的帧差分析来检测异常。

通常,正常情况下连续帧之间的变化是平稳的,而异常情况下会出现剧烈的变化。

因此,通过比较帧之间的差异来检测异常。

常用的帧差分析算法有基于像素颜色变化的方法和基于光流变化的方法。

前者通过计算像素之间的颜色差异来检测异常,而后者则通过计算像素之间的运动向量来判定异常。

此外,基于深度学习的异常检测方法近年来也得到了广泛应用。

这类方法借助卷积神经网络(CNN)等深度学习模型的强大特征提取能力,能够对复杂的图像数据进行学习和分类。

常用的深度学习模型有自编码器(Autoencoder)和生成对抗网络(GAN)。

自编码器通过训练一个编码器和解码器来学习图像的表示,通过重构误差来判定异常。

而GAN则通过训练一个生成器和判别器的对抗过程来学习图像的潜在分布,并判断输入图像是否异常。

最后,还有一类特殊场景下的异常检测方法,如行人检测、交通异常检测等。

这些方法通常结合多种技术手段,如运动检测、人体姿态估计等,通过对特定目标的特征进行建模和分析来检测异常。

例如,交通异常检测方法可以通过分析交通流量、车辆速度等指标来检测交通事故或拥堵情况。

亚像素轮廓边缘提取canny算法原理

亚像素轮廓边缘提取canny算法原理亚像素轮廓边缘提取是一种常用的图像处理算法,而Canny算法是其中一种常用的实现方法。

本文将详细介绍Canny算法的原理和步骤,并分析其在亚像素轮廓边缘提取中的应用。

Canny算法是由约翰·Canny于1986年提出的一种边缘检测算法,它被广泛应用于图像处理领域。

Canny算法的基本思想是将图像中的边缘提取出来,以便进一步的分析和处理。

与其他边缘检测算法相比,Canny算法具有较好的抗噪声能力和较高的边缘定位精度。

Canny算法的步骤如下:1. 噪声抑制:首先,Canny算法使用高斯滤波器对图像进行平滑处理,以抑制图像中的噪声。

高斯滤波器是一种线性平滑滤波器,通过对每个像素点周围的像素值进行加权平均,来减少图像中的噪声。

2. 计算梯度幅值和方向:在经过噪声抑制后,Canny算法计算图像中每个像素点的梯度幅值和方向。

梯度幅值表示像素值的变化程度,方向表示变化的方向。

通常情况下,梯度幅值越大,表示图像中的边缘越明显。

3. 非极大值抑制:Canny算法使用非极大值抑制来细化边缘。

非极大值抑制的思想是,在梯度方向上,只保留局部最大值点,而抑制其他点。

这样可以使边缘变得更加细化和准确。

4. 双阈值检测:在非极大值抑制后,Canny算法使用双阈值检测来判断哪些边缘是真正的边缘。

双阈值检测将梯度幅值分为三个范围:高阈值、低阈值和中间阈值。

只有梯度幅值大于高阈值的像素点被认为是强边缘,梯度幅值在低阈值和高阈值之间的像素点被认为是弱边缘,而梯度幅值小于低阈值的像素点被认为是背景。

在双阈值检测后,只有与强边缘相连的弱边缘才被保留下来,其他弱边缘被抑制。

5. 边缘连接:最后,Canny算法通过边缘连接来将弱边缘连接成完整的边缘。

边缘连接的思想是通过查找弱边缘与强边缘的连接关系,将它们连接成一条完整的边缘线。

在亚像素轮廓边缘提取中,Canny算法可以通过进一步的优化来提高边缘定位的精度。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

基于图像变化检测的CFA插值算法
程永强;谢克明
【期刊名称】《太原理工大学学报》
【年(卷),期】2008(39)1
【摘 要】提出了基于变化检测的CFA插值算法.该算法分为两个步骤:首先采用矢
量线性相关法对CFA图像的绿色分量图像进行变化检测,然后在发生变化的区域内
进行插值,未发生变化区域内的图像数据被CFA插值后直接拷贝到当前帧的相应位
置,避免了在每帧图像内逐点进行插值计算.与现有的插值算法相比,CFA插值算法复
杂度大大降低,同时获得较高质量的视频图像.

【总页数】3页(P43-45)
【作 者】程永强;谢克明
【作者单位】太原理工大学,信息工程学院,山西,太原,030024;太原理工大学,信息工
程学院,山西,太原,030024

【正文语种】中 文
【中图分类】TN911.73
【相关文献】
1.基于FPGA的高分辨率贝尔CFA插值算法的设计与实现 [J], 张向飞;张刚;程永

2.一种基于图像边缘的插值算法 [J], 韩萍
3.基于图像自相似结构的视频图像插值算法研究 [J], 向豪;孙冬;高清维;卢一相
4.基于图像边缘保持的反距离加权插值算法 [J], 圣文顺;薛龙花;戴坤;徐刘晶
5.基于CFA模式的一种改进型双线性图像插值算法 [J], 朱磊;毛欢

因版权原因,仅展示原文概要,查看原文内容请购买

相关文档
最新文档