数字图像处理(matlab版)第八章 图像融合算法
小波变换-图像融合matlab代码

%对图像进行放大算子的运算
PIC3 = conv2(conv2(Y, 2*fw, 'valid'),2*fw','valid');
%第i1级图像重构;
PIC1 = PIC3 + L{i};
%选取图像范围
PIC1 = PIC1(1:k1(i),1:k2(i));
% %end;
% %end;
% %%
% %for k=1:256,
% % p1(k)=p1(k)/(d);
% % p2(k)=p2(k)/(d);
% %end;
%
% %for i=1:256
% % for j=1:256
% % p3(i,j) =p3(i,j)/(d);
%图像隔行隔列插值扩展恢复到原尺寸图像
[c d] = size(Y4);
Y6 = zeros(2*c, 2*d);
Y6(1:2:2*c,1:2:2*d) = Y4;
Y7 = zeros(2*c, 2*d);
%PIC2 = X2;
X1 = PIC1;
X2 = PIC2;
%定义滤波窗口;
fw = 1/16.*[1 4 6 4 1];
z =3;
L = cell(1,z);
L1 = cell(1,z);
for i = 1:z % N1
G3 = conv2(conv2(Y3, fw, 'valid'),fw', 'valid');
%将图像进行隔行隔列减半
[a b] = size(G2);
Y4 = G2(1:2:a, 1:2:b);
数字图像处理与应用(MATLAB版)课后题答案

第一章1. 什么是图像?如何区分数字图像和模拟图像?模拟图像和数字图像如何相互转换?答:图像是当光辐射能量照在物体上,经过反射或透射,或由发光物体本身发出的光能量,在人的视觉器官中所重现出的物体的视觉信息。
数字图像将图像看成是许多大小相同、形状一致的像素组成。
这样,数字图像可以用二维矩阵表示。
将自然界的图像通过光学系统成像并由电子器件或系统转化为模拟图像(连续图像)信号,再由模拟/数字转化器(ADC)得到原始的数字图像信号。
图像的数字化包括离散和量化两个主要步骤。
在空间将连续坐标过程称为离散化,而进一步将图像的幅度值(可能是灰度或色彩)整数化的过程称为量化。
2. 什么是数字图像处理?答:数字图像处理(Digital Image Processing)是通过计算机对图像进行去除噪声、增强、复原、分割、提取特征等处理的方法和技术。
3. 数字图像处理系统有哪几部分组成?各部分的主要功能和常见设备有哪些?答:一个基本的数字图像处理系统由图像输入、图像存储、图像输出、图像通信、图像处理和分析5个模块组成,如下图所示。
各个模块的作用分别为:图像输入模块:图像输入也称图像采集或图像数字化,它是利用图像采集设备(如数码照相机、数码摄像机等)来获取数字图像,或通过数字化设备(如图像扫描仪)将要处理的连续图像转换成适于计算机处理的数字图像。
图像存储模块:主要用来存储图像信息。
图像输出模块:将处理前后的图像显示出来或将处理结果永久保存。
图像通信模块:对图像信息进行传输或通信。
图像处理与分析模块:数字图像处理与分析模块包括处理算法、实现软件和数字计算机,以完成图像信息处理的所有功能。
4. 试述人眼的主要特性。
答:(1)、人眼的视觉机理。
视网膜上有大量的杆状细胞和锥状细胞,锥状细胞能辨别光的颜色,而杆状细胞感光灵敏度高,但不能辨色。
(2)、人眼的视敏特性。
指人眼对不同波长的光具有不同的敏感程度。
(3)、人眼的亮度感觉。
亮度感觉范围指人眼所能感觉到的最大亮度与最小亮度之间的范围。
图像融合算法的分析与实现

图像融合算法的分析与实现汤丽娟;孙克争【摘要】图像融合作为多传感器信息融合的重要分支,被广泛应用于各种领域.图像融合已成为监控系统中不可分割的一部分.分析图像融合传感器的种类,图像融合算法的评价指标和图像融合算法的分类.像素级图像融合作为各级图像融合的基础,尽可能多地保留场景的原始信息,提供其他融合层次所不能提供的丰富、精确、可靠的信息,有利于图像的进一步分析与处理.研究塔式图像分解,主成分分析图像和小波图像分解融合算法,并通过MATLAB编码实现其融合算法,评价算法的性能指标.最后用小波分解算法实现一组被动红外图像和可见光图像的融合,并评价其性能.【期刊名称】《现代计算机(专业版)》【年(卷),期】2016(000)010【总页数】7页(P42-48)【关键词】图像融合;评价指标;融合算法;编码实现【作者】汤丽娟;孙克争【作者单位】江苏商贸职业学院,南通 226000;中国矿业大学信息与电气学院,徐州221116;中国矿业大学信息与电气学院,徐州 221116【正文语种】中文图像融合是从不同传感器同时获取关于同一场景的不同波长的图像,将它们合成一幅图像。
合成图像用来提高图像的内容信息,使用户更容易发现,识别和确定目标并增加用户对图像内容的情景感知。
当前的研究主要集中在研究融合算法提高合成图像的内容信息。
例如在不同的场景下,如烟雾的情况下,融合算法仍是鲁棒的。
这篇论文的结构如下:第二部分介绍了几种图像融合传感器;第三部分研究图像融合算法的性能评价,这些指标用来测试图像融合算法的有效性的并反映融合图像的一些典型特征;第四部分研究了图像融合算法,并分析每种算法的实现原理,并编码实现算法并评价融合算法的性能指标;第五部分小结及分析图像融合领域的研究热点问题。
传感器种类很多,目前常用的用于图像融合的传感器主要有电子计算机断层扫描(Computed Tomography,CT),磁共振成像(Magnetic Resonance Imaging,MRI),可见光图像传感器(Charge-Couple Device,CCD),红外热像仪,激光成像雷达,毫米波雷达,合成孔径雷达成像仪(Synthetic Aperture Radar,SAR),多光谱/超光谱成像仪等[1],每种传感器都有自身的物理原理和成像特点,对同一场景,不同传感器采集的信息内容也不尽相同。
在Matlab中进行图像融合与图像叠加的方法与技巧

在Matlab中进行图像融合与图像叠加的方法与技巧引言:随着数字图像处理和计算机视觉领域的发展,图像融合和图像叠加变得越来越重要。
图像融合是指将多幅图像合成为一幅具有更清晰、更丰富信息的图像,而图像叠加则是在保留所叠加图像的原始信息的同时,使图像更加丰富和易于理解。
Matlab作为一种强大的科学计算工具,提供了丰富的图像处理函数和工具箱,可以很方便地进行图像融合与图像叠加。
一、图像融合的方法与技巧1. 融合算法图像融合的基本方法有加权平均法、空间域融合法、频域融合法、小波融合法等。
加权平均法是最简单的方法,通过计算图像像素的平均值来融合。
空间域融合法是通过对直接融合的图像进行空间域操作来提取融合结果。
频域融合法则是通过将图像转换到频域,然后进行频域操作来实现融合。
小波融合法是基于小波变换的方法,利用小波分析的多尺度分解能力对图像进行分析和融合。
根据具体需求和图像的特点,选择合适的融合算法是非常重要的。
2. 图像预处理在进行图像融合之前,通常需要进行图像预处理,以提高融合结果的质量。
常用的图像预处理方法包括灰度拉伸、直方图均衡化、滤波等。
灰度拉伸是通过对图像的像素值进行线性变换,将图像像素值的范围拉伸到合适的范围内,从而增加图像的对比度。
直方图均衡化则是将图像的像素值在灰度直方图上均匀分布,以增强图像的细节。
滤波是通过对图像进行滤波操作,如低通滤波、高通滤波等,以去除图像中的噪声和不需要的细节。
3. 图像融合的策略图像融合的策略可以根据具体需求来选择。
常见的策略包括全局融合和局部融合。
全局融合是将所有图像的信息进行融合,得到整体的融合结果。
而局部融合则是将不同图像的不同区域进行融合,以保留更多的细节和纹理。
根据具体应用和需求,选择合适的融合策略可以使融合结果更加符合实际需求。
4. 参数设置与调整在进行图像融合过程中,不同的算法和方法有各自的参数,根据不同的图像和具体应用,需要适时地进行参数的设置和调整。
图像处理matlab及图像融合图像镶嵌图像拼接

图像处理matlab及图像融合图像镶嵌图像拼接在实际的对图像处理过程中,由于我们读出的图像是unit8型,⽽在MATLAB的矩阵运算中要求所有的运算变量为double型(双精度型)。
因此读出的图像数据不能直接进⾏相加求平均,因此必须使⽤⼀个函数将图像数据转换成双精度型数据。
MATLAB中提供了这样的函数:im2double函数,其语法格式为:I2 = im2double(I1)其中I1是输⼊的图像数据,它可能是unit8或unit16型数据,通过函数的变化输出I2为⼀个double型数据,这样两图像数据就可以⽅便的进⾏相加等代数运算.要把double的图像(范围是0到1)再次转化为256灰度值的,可以这样Igrey= uint8(I2*255)图像类型转换函数:dither() 通过颜⾊抖动,把真彩图像转换成索引图像或灰度图象转换成⼆值图像gray2ind() 将灰度图像(或⼆值图像)转换成索引图像grayslice() 通过设定的阈值将灰度图象转换成索引图像im2bw() 通过设定亮度阈值将灰度、真彩、索引图象转换成⼆值图像ind2gray() 将索引图象转换成灰度图象ind2rgb() 将索引图象转换成真彩⾊图像mat2gray() 将⼀个数据矩阵转换成⼀幅灰度图象rgb2gray() 将真彩转换成灰度图象rgb2ind() 将真彩转换成索引图象图像类型与类型间的转换1。
索引图像:包括⼀个数据矩阵X和⼀个⾊图阵MAP。
矩阵元素值指向MAP中的特定颜⾊向量。
2。
灰度图像:数据矩阵I,I中的数据代表了颜⾊灰度值。
矩阵中的元素可以是double类型、8位或16位⽆符号的整数类型。
3。
RGB图像:即真彩图像。
矩阵中每个元素为⼀个数组,数组的元素定义了像素的红、绿、蓝颜⾊值。
RGB数组可以是double类型、8位或16位⽆符号的整数类型。
4。
⼆值图像:⼀个数据阵列,每个象素只能取0或1。
矩阵的基本运算⾏列式求值:det(A)矩阵加减:+、-矩阵相乘:*矩阵左除:A/B %相当于inv(A)*B矩阵右除:A\B %相当于A*inv(B)矩阵的幂:^矩阵转置:'矩阵求共轭(实部相同,虚部相反):conj(X)矩阵求逆:inv(X)级数的求和与收敛symsum(fun,var,a,b):其中fun是通项表达式,var为求和变量,a为求和起点,b为求和终点例如:I为1/[n*(2n+1)]从1到正⽆穷的和,求Isyms n;f1=1/(n*(2*n+1));I=symsum(f1,n,1,inf)计算结果为:I =2-2*log(2)空间曲⾯mesh()函数语法:mesh(Z):mesh(X,Y,Z,C):其中C是⽤来定义相应点颜⾊等属性的数组例:求x^2+y^2=z的空间曲⾯x=-4:4;y=x;[X,Y]=meshgrid(x,y);%⽣成x,y坐标Z=X.^2+Y.^2;mesh(X,Y,Z)曲⾯图[x,y]=meshgrid(xa,ya) 当xa,ya分别为m维和n维⾏向量,得到x和y均为n⾏m列矩阵。
Matlab中的图像融合和多模态图像分析技术

Matlab中的图像融合和多模态图像分析技术图像处理是一项非常重要的技术,在许多领域都有广泛的应用,如医学影像分析、计算机视觉、遥感图像处理等。
在图像处理中,图像融合和多模态图像分析技术是两个非常重要的方面。
本文将介绍在Matlab中实现图像融合和多模态图像分析的方法和技术。
一、图像融合技术图像融合是指将多个不同模态或不同源的图像融合为一个具有更丰富信息的图像。
在图像融合技术中,常用的方法有像素级融合和特征级融合。
1.1 像素级融合像素级融合是指将多幅图像的像素按照一定的规则进行融合。
在Matlab中,可以使用imfuse函数来实现像素级融合。
该函数可以通过设置不同的融合模式来实现不同的效果,如加权平均、最大值、最小值等。
通过调整各个模态的权重,可以获得不同的融合效果。
1.2 特征级融合特征级融合是指将多幅图像的特征进行融合。
在Matlab中,可以使用特征提取和特征匹配的方法来实现特征级融合。
首先,使用不同的特征提取方法,如SIFT、SURF等,提取多幅图像的特征点。
然后,使用特征匹配的方法,如RANSAC算法,将多幅图像的特征点进行匹配和融合。
最后,根据匹配结果,可以生成一幅具有更丰富信息的图像。
二、多模态图像分析技术多模态图像分析是指对多模态图像进行分析和处理,以获得更全面和准确的信息。
在Matlab中,可以使用多种方法和技术来实现多模态图像分析。
2.1 图像配准图像配准是多模态图像分析的基础,它是将多幅图像进行准确的空间或特征对齐。
在Matlab中,可以使用imregister函数来实现图像配准。
该函数可以通过设置不同的配准方法和参数,如相位相关、归一化互相关等,来实现不同的配准效果。
2.2 图像分割图像分割是将图像中的目标或区域进行划分和提取的过程。
在多模态图像分析中,图像分割可以用来提取不同模态之间的特征。
在Matlab中,可以使用多种图像分割算法,如阈值分割、区域生长、边缘检测等,来实现图像分割。
如何使用Matlab进行图像拼接和图像融合技术实现

如何使用Matlab进行图像拼接和图像融合技术实现引言:随着数字图像处理的快速发展,图像拼接和融合技术在许多领域中得到了广泛应用,如航空摄影、医学影像和虚拟现实等。
在本文中,我们将探讨如何使用Matlab软件来实现图像拼接和图像融合的技术。
通过学习这些技术,您将能够将多个图像合并为一个大的全景图像,并且可以通过融合不同曝光或不同焦距拍摄的图像来得到一个更高质量的图像。
一、图像拼接技术图像拼接是将多幅图像无缝合并为一个更大的全景图像的过程。
在Matlab中,可以通过以下步骤进行图像拼接:1. 加载图像:使用imread函数加载所有待拼接的图像。
确保拼接的图像具有重叠区域。
2. 检测特征点:使用SURF(Speeded-Up Robust Features)等特征检测算法在每个图像中找到相应的特征点。
Matlab中提供了现成的函数,如detectSURFFeatures和extractFeatures等。
3. 匹配特征点:使用特征描述符算法(如SURF)比较两幅图像的特征点,并找到相似的特征点。
Matlab中提供了matchFeatures函数来实现。
4. 估计变换矩阵:使用RANSAC算法估计两幅图像之间的单应性变换矩阵,该矩阵描述了如何将一个图像变换到另一个图像中。
Matlab中的estimateGeometricTransform函数可以实现这一步骤。
5. 图像拼接:使用warping技术将所有图像根据变换矩阵进行变换,并将它们拼接在一起。
Matlab提供了warp函数来实现这一过程。
6. 调整拼接后的图像:根据需求,使用imcrop函数对拼接图像进行裁剪,并使用imresize函数调整尺寸。
通过以上步骤,您可以使用Matlab实现图像拼接技术,并得到一个无缝连接的全景图像。
二、图像融合技术图像融合是将不同曝光或不同焦距下拍摄的图像进行融合,以得到更高质量的图像。
在Matlab中,可以通过以下步骤实现图像融合:1. 加载图像:使用imread函数加载待融合的图像。
图像融合算法

图像融合算法图像融合算法是现代图像处理以及计算机视觉技术中最重要的组成部分之一。
它用于有效地将两个或多个图像合成一个融合图像,这种融合图像具有较好的视觉效果,把被融合图像的元素有机地组合在一起,常用于计算机图形学的三维表面模型的贴图、图像处理和计算机视觉中的图像无缝融合等。
图像融合算法通常分为两个阶段。
其中第一阶段涉及特征提取,利用视觉特征检测、模式识别等方法,提取输入图像中的特征,并将其映射到融合图像中;第二阶段涉及把被融合图像的特征有机地组合在一起,以形成融合图像。
图像融合算法的第一阶段运用的主要技术是特征提取技术。
该方法是指从输入图像中提取出的特征,该特征可以用来表示图像的内容、结构、模式等。
特征提取技术中最常用的是基于统计的特征提取方法,它旨在根据图像中某个区域或边缘周围随机分布的点的颜色空间统计量得到特征信息。
该方法包括聚类分析、形态学处理、空间变换等。
其中,聚类分析的基本思想是将图像中的点形成特征矩阵,应用聚类算法,将相似的点归为一类,从而得到整体的特征描述。
形态学处理是应用结构元的理论和操作,利用膨胀、腐蚀、开运算、闭运算等操作,可以将噪声从图像中消除,排列不规则点,显著改善图像质量。
空间变换是利用不同尺度、不同方向上的空间域变换,以获得更多的特征信息,其中尤其重要的是多尺度小波变换,可以把图像分解成多个尺度空间,可以更充分地提取图像中更多的特征信息。
融合图像的构建则需要用到第二阶段中的排布技术。
排布技术的核心是将特征映射到融合图像,以形成所需的融合图像。
现有的排布技术大致可分为层次排布方法、聚类排布方法、最优化排布方法以及基于先验知识的排布方法。
层次排布方法是指对被融合图像从高分辨率到低分辨率进行分层,首先将高分辨率图像强度特征有机分布到融合图像中,然后依次将较低分辨率图像特征结合到高分辨率特征中,直至将所有特征映射到融合图像中。
聚类排布方法是指利用聚类算法对三维图像的像素点进行聚类,根据聚类结果,将同一类的像素映射到融合图像中,以得到所需的融合图像。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
第八章图像融合算法8.1 图像融合技术的发展过程随着科学的发展和技术的进步,采集图像数据的手段不断完善,出现了各种新的图像获取技术。
如今,图像融合方法已经运用于社会的很多领域,像遥感卫星图像,光图像,红外图像,医学图像,尤其是多传感器图像融合应用以来,它已成为计算机视觉,目标识别,机器人以及军事等方面研究的重要方面。
8.2基于小波变换图像融合的基本原理如果一个图像进行L 层小波分解,我们将得到(3L +1)层子带,其中包括低频的基带和层的高频子带。
用代表源图像,记为,设尺度系数和小波函数对应的滤波器系数矩阵分别为,则二维小波分解算法可描述为:j C 3L ,h v d D D D 和(,)f x y 0C ()x Φ()x ΨH G 与111j hj j vj j dj j C HC H D GC H D HC G D GC G +++′=⎧⎪′=⎪⎨′=⎪⎪′=⎩j+1(0,1, (1)j J =−(8-1)小波重构算法为:基于二维DWT 的融合过程如图1.1所示,ImageA 和ImageB 代表两幅源图像A 和B ,ImageF 代表融合后的图像,具体步骤如下:(1)图像的预处理:1h v d j j j j jC H C H G D H H D G G D G −′′′′=+++(,1, (1)j J J =−(8-2)图8.1 基于DWT 图像融合过程①图像滤波②图像配准(2)对ImageA和ImageB进行二维DWT分解,得到图像的低频和高频分量。
(3)根据低频和高频分量的特点,按照各自的融合算法进行融合。
(4)对以上得到的高低频分量,经过小波逆变换重构得到融合图像ImageF。
8.3 融合效果性能评价指标8.3.1均值和标准差图像的信息熵是衡量图像信息丰富程度的一个重要指标,表示图像所包含的平均信息量的多少。
融合图像的熵值越大,说明融合图像携带的信息量越大,信息就越丰富。
120()log ()L g EN p g p g −==−×∑(8-5)8.3.3平均梯度平均梯度用来表征图像的清晰度,反映图像质量的改进,及图像中微小细节反差和纹理变换特征,平均梯度越大,及图像中微小细节反差和纹理变换特征,平均梯度越大, 图像的平均梯度定义为:8.4 高频融合方法研究8.4.1均值法对两幅源图像进行小波分解,获取需要的小波系数,对相应的像素进行比较取均值,获取的系数通过小波逆变换重构出图像。
表示多焦距图像的数目表示各图像的加权系数=1,2,3表示水平、垂直和对角线的小波分解系数表示第k 幅图像在的第层小波分解系数。
表示融合图像在的第层小波分解系数。
,1(,)(,)0.5KiiJ k k J k k F x y c D x y c ==×=∑,其中(8-15)K k c i ,(,)ik J D x y (,)i J F x y实验结果如图8.2(a)所示,可见,取平均值的方法使图像变平滑,对低频的处理较为可靠,但细节部分缺乏完整的表征,融合后感兴趣的高频信息丢失严重,图像模糊不易于识别,不是一种可靠的融合方法。
图8.2 不同图像融合效果(a)(b)8.4.2最大值法在图像小波分解,绝对值较大的小波系数对应于图像较大的边缘等特征,而人眼对于这些特征比较敏感。
其中,表示对小波分解系数取绝对值表示对K 个小波分解系数取最大值{}(,)max ((,))i i Jk JKF x y abs D x y =,(8-16)((,))ik Jabs D x y ,(,)i k J D x y ,,max()ik JKD实验结果如图2.2所示,可见取最大值的方法能很好的图像显示每个源图像的高频信息,效果较好,然而却容易引起高低频边缘的失真,出现条纹现象等,特别是在两幅源图像质量差别较大的地方,出现明显的融合痕迹。
8.4.3基于区域的最大值法此方法中,每个像素点和周围相关各点被同时考虑,融合图像的每个像素点处于考察区域的中心,将高频子带的参考区域内各个高频系数的绝对值进行求和,比较两幅源图像中各个高频子带对应区域的和,并选取和最大的区域中心的像素点作为融合图像的高频系数。
其中,表示第k 个图像的像素(x ,y )在J 尺度下的分解系数表示水平、垂直、对角线的分解系数(,)max ((,))iiJk J Km M n N F x y abs D x m y n ∈∈⎧⎫=++⎨⎬⎩⎭∑∑,(8-17)(,)i k JD x y ,1,2,3i =8.4.4基于区域能量的图像融合方法基于区域能量融合的思想是:对待融合图像进行二维小波分解,计算待融合图像高频成分的区域能量及匹配度,然后比较匹配度与给定阈值以及待融合图像区域能量的大小,决定采用选大选小融合法还是区域中值加权法。
(1)区域特征的定义:表示高频系数矩阵中以为中心的区域大小为的能量,定义为:(,)i J E x y (,)x y M N ×2,,(,)(,)iiJ k J m M n NE x y D x m y n ∈∈⎡⎤=++⎣⎦∑(8-18)(a)(b)(c)(d)图8.3 基于区域能量融合方法中不同阈值仿真图PCNN 的数学模型可以描述为:exp()()exp()()(1)()()()F j kj kjk j kL j kj kj k j kj j j j T Tj j j j j j j jF M t Y t I L W t Y t JU F L V Y t Y t setp U ααβθαθθ⎧=−⊗+⎪⎪=−⊗+⎪⎪=+⎨⎪=−+⎪⎪=−⎪⎩∑∑(8-24)8.4.6.2 图像融合中的PCNN 设计数字图像应用中的PCNN 是一个单层的二维横向连接的脉冲耦合神经元。
神经网络中的神经元数与输入图像的像素数相等,神经元与图像的像素点一一对应。
每个像素点与唯一的一个神经元相联,每个神经元与周围的神经元相联。
图像融合中的PCNN 可以用下面的式子描述:,,() ()exp()(1)(1)()()(1()) k kij ij kkij L ij L ij mn mn m n k k kij ij ij F n I L n L n V W Y n U n F n L n αβ==−−+−=∗+∑()exp()(1)(1) 8-251,:()()() 0,k k k ij ij ij k kij ij k ijn n V Y n if U n n Y n otherwise θθθαθθ=−−+−⎧>⎪=⎨⎪⎩() ⎧⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎩8.4.6.3 基于PCNN 的高频融合算法实现PCNN 融合方法可以按如下方法进行:1)表示源图像ImageA 和ImageB 的第层小波分解系数。
2)归一化在之间,并将归一化的值作为F 通道输入激励PCNN 网络。
3)初始化,,可以看出,初始状态时像素点都没有着火,即,产生脉冲数。
4)根据式5.1~5.5计算,,(,)(,)i i A JB J I x y I x y 和,,(,)(,)i iA JB J I x y I x y 和[]0,1(,)i J F x y (,,0)(,,0)0i iJ J L x y U x y ==(,,0)1i J x y θ=(,,0)0i J Y x y =(,,0)0iJ T x y =(,,)(,,)(,,)(,,)iiiiJ J J J L x y n U x y n x y n Y x y n θ===实验结果如图8.7所示:(a) (b) (c)(d) (e)(f)图8.7 PCNN融合方法中迭代不同次数的图像由于式4.18具有平滑图像的作用,可以看出,如果满足的元素越多,图像中被平滑的部分越多,通过取不同的我们统计得到被平滑的像素点与关系如图2.7所示:图8.9 与平滑的像素点关系图thT为比较不同下的融合效果,我们取不同的阈值进行融合比较,图8.10中(a)~(d)是取阈值分别为0.5、0.8、0.95、0.99的融合结果。
(a)(b)(c) (d) thT 图8.108.5.2基于低频边缘的选择方案对图像A 的尺度系数定义一个变量,其中,表示卷积变量E在一定程度上反映了图像在水平、垂直和对角线方向的边缘信息。
为了较好地保留源图像的细节,可对两幅图像的尺度系数计算出变量E,E较大的尺度系数作为合成图像的尺度系数。
A E 222,1,2,3,()()()A J A J A J A J E F C F C F C =∗+∗+∗(8.30)∗1111222111F −−−⎡⎤⎢⎥=⎢⎥⎢⎥−−−⎣⎦ 2121121121F −−⎡⎤⎢⎥=−−⎢⎥⎢⎥−−⎣⎦ 310104101F −−⎡⎤⎢⎥=⎢⎥⎢⎥−−⎣⎦ 0 算法描述:8.5.3基于PCNN 的低频融合方法PCNN的基本模型和图像中PCNN的用法已经在高频域的融合方法中介绍过,这里不再介绍。
PCNN是模拟猫的视觉皮层细胞对视觉信号的处理机制,对高频域和低频域信号具有相似的处理方法,因此高频域的PCNN模型也能用于低频域。
,,,,,,,,,,, F J A J A J B J B J A J B J A J B J A J B JC W C W C E E W E E W =≥⎧⎪=⎨⎪⎩≥⎧⎪=⎨⎪⎩+1,如果:0,其它1,如果:0,其它直接将图像的低频系数矩阵代入PCNN模型中,取,A J C ,B J C max 3000N =图8-12基于PCNN 低频融合方法结果•(1)边缘选择的方法得到的融合图像与低频直接取平均得到的融合图像相比,图像亮度明显增大,边缘保留更多,细节信息更为丰富。
从实验数据来看,低频边缘选择的方法比在低频直接取平均得到标准差、平均梯度、互信息均有明显提高,边缘和细节保留较好,融合图像保留了更多源图像的信息。
•(2)基于PCNN的低频融合方法与基于低频边缘的选择方案相比,前者得到的标准差和平均梯度均比后者高,说明基于PCNN的低频融合方法对微小细节及纹理反映很好,能够很好的保留图像的边缘。
熵和互信息比后者稍小但很接近,基于PCNN的低频融合方法所得融合图像在保留源图像信息上稍微于后者。
但对于视觉观察来说,边缘和纹理信息更为重要,而细微的信息差别基本分辨不出来,可见,低频域内采用基于PCNN的低频融合方法是一种提高图像融合效果的非常有效的方法。
•(3)与低频直接取平均相比,对小波变换低频部分进行特征提取后图像所有指标均有大幅度提高,图像无论在亮度、边缘信息、细节信息还是包含源信息上均有大幅度提高。
低频域主要包含待融合图像的近似特性,低频系数反映了图像的轮廓,低频系数的选择对融合图像质量的好坏起到非常重要的作用。