基于联合低秩稀疏分解的红外与可见光图像融合

王文卿1,2 马 笑1 刘 涵1,2

(1. 西安理工大学自动化与信息工程学院, 陕西西安 710048; 2. 西安理工大学陕西省复杂系统控制与智能信息处理重点实验室, 陕西西安 710048)

摘 要: 为进一步提高红外与可见光融合图像的细节信息和整体对比度,降低伪影和噪声,考虑了红外与可见光图像的相关性,提出了一种基于联合低秩稀疏分解的红外与可见光图像融合方法。首先,利用联合低秩稀疏分解方法将红外和可见光源图像分别分解成共同低秩分量、特有低秩分量和特有稀疏分量;其次,利用非下采样Shearlet变换方法对特有低秩分量进行融合;然后,采用区域能量融合策略实现特有稀疏分量融合;最后,共有低秩分量与融合后的特有低秩分量和特有稀疏分量相加得到最终融合图像。在Nato-camp、Bristol Eden Project和TNO公共测试数据集上进行的实验测试了所提算法性能。实验结果表明,与其他9种融合方法相比,所提方法能够有效地提取红外图像中的目标信息和保留可见光图像的背景信息,熵、互信息、标准差、视觉信息保真度、差异相关系数之和和QY客观评价指标明显优于对比方法。

关键词:红外与可见光图像融合;联合低秩稀疏分解;非下采样Shearlet变换;区域能量;稀疏表示

1 引言

由于不同类型传感器的成像机理存在较大差异,多传感器可以为同一场景提供不同的图像数据。例如,红外传感器基于目标产生的热辐射成像,在全天时和全天候条件下具有良好的目标发现能力。然而,红外图像分辨率通常较低,缺少纹理、边缘等细节信息。可见光传感器是基于外观信息丰富的反射光成像,可见光图像具有清楚的细节纹理信息和较高的分辨率。然而,场景中的目标由于隐藏在黑暗、丛林或者烟雾中却无法清晰成像。因此将红外与可见光图像融合可互补两种图像的特性,得到一幅细节信息丰富的融合图像。目前,红外与可见光图像融合技术在目标识别、检测和视频监视等领域中得到广泛应用[1-3]

像素级图像融合直接作用于原始输入图像,能够保留原始图像中丰富的细节信息,提取图像的重要信息并将获取信息以最小的失真或损失转化为融合图像是像素级图像融合的关键。近几十年来,人们已经提出了众多有效的红外与可见光图像融合方法,归纳起来可分为四类:基于多尺度变换的融合方法,基于稀疏表示的融合方法,基于神经网络的融合方法和基于显著性的融合方法[4]

基于多尺度变换的图像融合方法是目前红外和可见光图像融合领域的研究热点[5]。多尺度变换可以实现源图像由细到粗不同尺度的分解,且许多研究证明多尺度变换与人们的视觉感知一致,可使得融合图像具有良好的视觉效果。基于多尺度变换的融合方法主要包括三个步骤。首先,将红外和可见光源图像分别分解成不同尺度的若干层。然后根据规定的融合规则对多尺度系数进行融合;最后进行多尺度逆变换可获得最终融合图像。多尺度变换方法的选择和融合规则的设计是实现该类方法的两个关键步骤。红外与可见光图像融合中常用的多尺度变换有金字塔变换、小波变换、轮廓波变换、剪切波变换、边缘保持滤波器等[6-10]。尽管变换系数可以合理地表示图像的重要特征,但是每种变换都有自己的优缺点,因此选择一种最优的多尺度变换由具体场景信息决定。

稀疏表示理论以其良好的表征人类视觉系统能力,在计算机视觉、机器学习、信息融合等不同领域得到了广泛应用。稀疏表示遵循输入信号可以近似地由过完备字典中的原子稀疏线性组合表示。文献[11]首次利用稀疏表示模型解决图像融合问题。首先,采用滑动窗口策略将每幅源图像分解为若干个重叠的图像块。其次,通过正交匹配算法对每一个图像块进行稀疏编码获得稀疏系数。然后,采用稀疏系数向量的范数作为活跃级度量对稀疏系数进行融合。最后,利用融合稀疏系数和过完备字典重构最终融合图像。构造过完备字典和稀疏编码是基于稀疏表示图像融合的两个关键问题。文献[12]采用了同时正交匹配算法进行稀疏编码,保证相同位置的源图像块可以由字典中相同的原子子集表示。此外还采用K-SVD算法从大量自然图像块中学习得到字典,代替了离散余弦变换基构造的字典。文献[13]采用形态学分量分析模型获得源图像的卡通和纹理分量的稀疏表示,根据不同分量的特性设计合适的融合策略。文献[14]提出了自适应稀疏表示的图像融合方法,其通过学习训练样本的不同梯度方向信息构建字典,根据图像块的梯度信息在字典集中自适应选择合适的字典进行稀疏编码。为了克服传统稀疏表示采用基于图像块编码存在细节保持能力有限和对误配准的敏感性高的不足,文献[15]提出了基于卷积稀疏表示的图像融合方法。基于稀疏表示的方法取得很好的融合结果,但由于稀疏求解过程复杂,使得计算复杂度很高。

近年来深度学习方法也逐渐地被用到图像融合领域。文献[16]提出基于卷积神经网络的红外与可见光图像融合方法,在拉普拉斯金字塔结构上使用卷积神经网络来提取图像特征并构造权重图。文献[17]构建并训练了一个端到端的生成对抗性网络模型来融合红外和可见光图像。文献[18]提出了一种端到端的聚合残差密集网络结构,充分利用了残差网络的密集结构优势,实现了红外与可见光图像的有效融合。

基于显著性的融合方法作为红外与可见光融合的代表性框架之一,可保持显著性目标区域的完整性,提高融合图像的视觉质量。权重计算和显著目标提取是两种不同的实现方法。前者通常和多尺度方法相结合,将红外与可见光源图像分解成基础层和细节层,然后对基础层或细节层采用显著性提取模型获得显著图并计算得到权重图,根据权重图实现基础层和细节层图像的融合,最后通过融合的基础层和细节层重构融合图像。文献[19]提出基于多尺度边缘保存滤波和引导滤波的红外与可见光图像融合方法,采用相位一致性来获取基础层和细节层的显著图,然后对显著图进行引导滤波获得权重图。后者通常采用显著性模型提取红外图像的显著性区域,使得融合图像具有良好的视觉效果。文献[20]采用基于超像素的显著性模型获得红外图像的显著性区域,很好地保留了红外图像的目标信息。

为了更好地提取红外图像的显著目标,且考虑到红外与可见光图像的相关性,本文提出了一种基于联合低秩稀疏(Joint Low-rank and Sparse, JLRS)分解的红外与可见光图像融合方法。与传统低秩稀疏分解不同,该方法假设红外与可见光图像具有共有的低秩分量,将源图像联合分解成共有低秩分量,特有低秩分量和特有稀疏分量三部分。针对特有低秩分量和特有稀疏分量的不同特点,采用基于非下采样Shearlet变换(Non-Subsampled Shearlet Transform, NSST)和区域能量的融合方法分别对特有低秩分量和特有稀疏分量进行融合。最后将融合的特有低秩分量和特有稀疏分量与共有低秩分量合并重构最终的融合图像。实验结果表明本文算法能够有效地提取红外图像中的目标信息和保留可见光图像的背景信息,提高目标显著性,并且在主观视觉和客观评价指标方面都明显优于对比算法。

2 联合低秩稀疏分解

低秩稀疏分解是一种有效的图像表示模型,在图像分类、图像去噪、图像对齐等研究中表现出良好性能[21]。对于一幅数字图像,为了利用高维数据中的低秩低维结构,可将图像矩阵分解成高度相关的低秩部分和近似噪声或野点的稀疏部分。设输入图像矩阵为X=[x1,x2,…,xn]∈Rm×n,则有:

(1)

其中:LS分别代表低秩分量和稀疏分量,rank(L)表示L的秩,||S||0表示矩阵S0范数。然而,上述求解过程是NP-hard问题。为了得到最优解,通常将(1)转化为凸优化问题,如(2)所示:

(2)

其中:||L||*表示矩阵L的核范数,||S||1表示矩阵S1范数。

针对多幅图像分解,原始低秩分解方法是逐一对源图像进行单独分解。然而,此方法忽略了多幅源图像之间的相关性。因此,文献[22]提出了一种联合低秩稀疏分解模型。该模型假设数据矩阵由三部分组成:共有低秩部分、特有低秩部分和特有稀疏部分。假设Xq=[xq,1,xq,2,…,xq,n]∈Rm×n(q=1,2,…,Q)表示第q幅输入图像,Q为输入图像的总个数。因此,Xq可以被写成以下三个分量之和:

Xq=Lc+Lq+Sq

(3)

其中:Lc表示共有低秩分量,LqSq分别表示第q幅图像的特有低秩部分和特有稀疏部分。通过求如下解优化问题(4),可以恢复出分解后的三部分分量。

s.t. Xq=Lc+Lq+Sq,q=1,2,…,Q

(4)

其中:λ1λ2表示正则化参数。増广拉格朗日乘子法可以求解凸优化问题。公式(4)的増广拉格朗日函数为:

(5)

然后使用交替方法乘子法(Alternating Direction Method of Multipliers,ADMM) 求解以下最小化问题可以获得最优解。

(6)

3 本文算法

本文提出了一种基于联合低秩稀疏分解的红外与可见光图像融合算法,其算法流程如图1所示。本方法主要包含以下四个步骤:源图像联合低秩稀疏分解、特有低秩分量融合、特有稀疏分量融合与融合图像重构。具体实现步骤如下。

图1 算法框架
Fig.1 Algorithm framework

3.1 联合低秩稀疏分解

利用联合低秩稀疏分解模型将红外图像IA和可见光图像IB联合分解成共有低秩分量、特有低秩分量和特有稀疏分量。分解过程如式(7)所示:

λ2(||SA||1+||SB||1) s.t. IA=Lc+LA+SA IB=Lc+LB+SB

(7)

其中:Lc表示红外与可见光图像的共有低秩分量,LALB分别表示红外与可见光图像的特有低秩分量,SASB分别表示红外与可见光图像的特有稀疏分量。图2所示为一组红外与可见光图像的联合低秩稀疏分解结果。图2(a)和(b)分别表示红外图像与可见光图像。红外图像中行人目标温度较高则可以清晰地发现,但图像的背景信息清晰度很低,分辨率明显低于可见光图像。可见光图像中细节纹理明显清晰,但隐藏在丛林中的人物目标无法被观察到。图2(c)表示共有低秩分量。从图中可以看到,其保留了两幅图像的共有轮廓信息。图2(d)和(e)分别表示红外和可见光图像的特有低秩分量。从图中可以看到,两幅图分别包含了红外图像和可见光图像各自特有的背景信息,其中蕴含着源图像的部分纹理细节信息。特有稀疏分量如图(f)和图(g)所示,包含着源图像的显著目标信息。针对特有低秩分量与特有稀疏分量,分别构建了不同融合策略。

图2 红外与可见光图像联合低秩稀疏分解
Fig.2 Joint low-rank and sparse decomposition of infrared and visible images

3.2 特有低秩分量融合策略

特有低秩分量蕴含红外图像与可见光图像的各自特有的背景与细节信息。为了尽可能保留特有低秩图像的有效信息,消除冗余信息,本文提出了基于NSST和稀疏表示的特有低秩分量融合方法。NSST方法具有更强的结构信息捕捉能力。首先,利用NSST方法将红外与可见光图像的特有低秩分量LALB进行分解,获得它们的分解子带然后,设计有效的规则对低频和高频子带分别融合。最后,采用NSST逆变换重构特有低秩分量的融合结果Lf

3.2.1 低频子带融合

低频子带蕴含特有低秩分量的绝大部分信息。为了更好地保留有效信息,去除冗余信息,本文采用基于稀疏表示的融合策略对特有低秩分量的低频子带进行融合。具体实现步骤如下:

1)采用滑窗策略对低频子带图像ALBL进行分块,将每个图像块转化为列向量并去均值后得到向量集合其中N表示图像块的总个数。表示图像块均值集合。

2)利用稀疏表示模型对每一个图像块进行稀疏分解,获得每一个图像块的稀疏系数。

(8)

(9)

其中,分别表示低频子带第i个图像块的稀疏系数,D表示利用K-SVD算法训练得到的字典[23]

3)采用1范数作为活跃级度量,融合规则采用最大值选择方法,获得融合稀疏系数与对应融合图像块均值

(10)

(11)

4) 融合的图像块向量通过式(12)计算:

(12)

将所有融合后的图像块向量转换成为图像块,对重叠区域进行平均可得到低频子带融合图像FL

3.2.2 高频子带融合

高频子带包含特有低秩分量丰富的边缘、轮廓纹理等特征信息,其像素值往往较大。因此,本文采用一致性检验的最大值选择规则来融合高频子带图像具体实现步骤如下:

1)首先,对高频方向子带图像进行最大值滤波,选择绝对值最大的像素值作为该窗口区域的活跃值,可得到初始决策图

2)对初始决策图采用一致性检验得到最终决策图,如式(13)所示。

(13)

其中:S表示一个s×s的全1滤波算子;floor表示向下取整操作;分别表示红外与可见光图像特有低秩分量在第l层上第k个方向子带图像的决策图。

3)融合高频子带图像可通过下式得到。

(14)

3.3 特有稀疏分量融合策略

特有稀疏分量主要包含源图像中亮度较大的目标信息。能量常用来描述图像的亮度特征,为了减少能量的损失,保留图像中的显著目标,本文采用区域能量取大的融合策略对特有稀疏分量进行融合。

红外图像特有稀疏分量SA和可见光图像特有稀疏分量SB的区域能量计算如下:

(15)

(16)

其中:W表示一个(2r+1)×(2r+1)的权重矩阵,其根据四邻域离中心位置的距离设定如下。

(17)

因此,融合特有稀疏分量可通过以下规则得到。

(18)

3.4 融合图像重构

通过上述步骤,可获得融合后的特有低秩分量和特有稀疏分量。最终融合图像可通过式(19)获得。

If=Lc+Lf+Sf

(19)

4 实验结果与分析

本文在Bristol Eden Project1、Nato-camp和TNO2公共数据集中选取一些严格配准的红外与可见光图像进行测试。实验环境平台为:Intel(R) core(TM) i7-9700 @3.00 GHz,RAM 16.0 GB,MATLAB 2018b。

为了验证本文方法的有效性,具有代表性以及近几年提出的九种融合方法被用来与本文方法进行对比测试。它们是基于拉普拉斯金字塔(Laplacian Pyramid, LP)的融合方法、基于双树复小波变换(Dual Tree-complex Wavelet Transform, DTCWT)的融合方法、基于非下采样轮廓波变换(Non-Subsampled Contourlet Transform, NSCT)的融合方法[23]、基于非下采样剪切波变换(Non-Subsampled Shearlet Transform, NSST)的融合方法、基于卷积稀疏表示(Convolutional Sparse Representation, CSR)的方法[15]、基于卷积神经网络(Convolutional Neural Networks, CNN)的方法[16]、基于梯度转移融合(Gradient Transfer Fusion, GTF)的方法[24]、基于梯度滤波(Gradient Filter, GF)的方法[25]、基于潜在低秩表示(Latent Low-Rank Representation,LATLRR)的方法[26]。CNN、GTF和GF方法的参数设置与原文献保持一致。LP、DTCWT、NSCT和NSST的分解级数均为4。NSCT每个分解级的方向数为[2,3,3,4],NSST每个分解级的方向数为[3,3,4,4]。CSR和LATLRR的正则参数分别设置为0.01和0.8。在本文方法中,联合低秩稀疏分解模型的正则参数λ(1)https:∥www.cis.rit.edu/people/faculty/pelz/scanpaths/data/bristol-eden.htmλ(2)https:∥figshare.com/articles/dataset/TNO_Image_Fusion_Dataset/1008029分别为其中M1M2表示图像的高度与宽度。

客观评价指标可以定量地评估图像的质量。本文采用熵(Entropy, EN)、互信息(Mutual Information, MI)、标准差(Standard Deviation, SD)、视觉信息保真度(Visual Information Fidelity, VIF)、差异相关系数之和(The Sum of the Correlations of Differences, SCD)和QY作为客观评价指标对融合算法性能进行评估[27]。EN反映了融合图像中包含信息量的多少。MI衡量了从源图像到融合图像传输的信息量。SD反映了融合图像的灰度与图像平均值之间的差异。VIF反应融合图像的信息保真度。SCD计算源图像与融合图像的差分图像之间的相关性,QY衡量融合图像保存结构信息的能力。六种客观评价指标数值越大,融合图像质量越高。

第一组测试数据选用Nato-camp图像序列,包含32帧大小为270×360的红外图像和可见光图像。图3(a)和(b)所示为其中一帧红外与可见光源图像。图3(c)~(l)表示对比方法与本文方法的融合结果。从图中可以看出,GTF方法的融合图像视觉质量较差,细节信息模糊不清。LP、DTCWT、NSCT、NSST和CSR方法能够保留可见光图像中树木的纹理信息,但是融合结果中人物目标偏暗且周围存在黑洞,对比度偏低。GF较好地保存了红外图像中的显著目标,但是融合图像背景不清晰。LATLRR方法的融合结果整体比较模糊且分辨率较低。CNN方法的融合结果整体比较清晰,但建筑旁边的树木边缘轮廓不理想。本文方法的融合结果相对于比较方法,目标清晰,对比度高,具有较好的视觉效果。

图3 Nato-camp图像融合结果
Fig.3 Fusion results of Nato-camp images

图4所示为十种融合方法在Nato-camp 32帧测试图像序列上的六种客观评价指标结果曲线图,其中带有星号的曲线代表本文融合算法。从图中可以看到,本文方法的32幅融合图像具有最优的VIF,SCD和QY数值结果,并且大多数融合结果具有最优的MI值。在EN和SD指标上,本文方法的数值结果均低于GTF方法的数值结果,但与CNN方法的数值结果不相伯仲。综上所述,面对Nato-camp 32帧图像序列,本文方法在主观视觉和客观评价上表现出优越的融合性能。

图4 不同融合方法的客观评价指标结果 (Nato-camp)
Fig.4 Objective evaluation results of different fusion methods (Nato-camp)

图5所示为Bristol Eden Project图像序列中某帧源图像和对比算法的融合结果。图5(a)和(b)分别表示红外和可见光源图像。图5(c)~(l)分别表示对比算法和本文算法的融合结果。从图中可以看到,DTCWT、NSCT和NSST方法的融合结果中人物目标和背景都比较暗淡,对比度较低。CSR、GTF、GF和LATLRR方法的融合结果存在背景细节信息丢失问题,LP和CNN方法的融合图像中人物目标周围背景信息有一定程度丢失。本文方法的融合结果具有层次感,亮度高,人物目标非常清晰,具有更好的人类视觉效果。

图5 Bristol Eden Project图像融合结果
Fig.5 Fusion results of Bristol Eden Project

图6为十种融合方法在Bristol Eden Project 32帧测试图像序列上的六种客观评价指标结果曲线图,图中带有星号的曲线代表本文融合算法。本文方法的32幅融合图像具有最优的MI,VIF和SCD指标值,从EN值结果曲线中可以看出本文方法远高于其他对比方法的熵值,SD值结果曲线中本文方法仅有一部分图像帧融合结果未达到最优。总之,本文方法对Bristol Eden Project 32帧图像序列在主观视觉和客观评价上均表现出一定的优势。

图6 不同融合方法的客观评价指标结果 (Bristol Eden Project)
Fig.6 Objective evaluation results of different fusion methods (Bristol Eden Project)

第三组测试图像为Kaptein图像,如图7(a)和(b)所示。图7(c)~(l)为对比方法和本文方法的融合结果。从主观视觉来看,LP、DTCWT、NSCT、NSST、CSR、CNN和LATLRR方法的融合结果人物目标暗淡,对比度较差。GTF、GF和CNN方法能够有效地保留清晰的人物目标。然而,GTF方法的融合结果背景模糊,GF方法的融合结果中庭院过度光滑,细节纹理不清晰。本文方法既保留红外图像中显著的人物目标和屋顶的烟囱,又保留了可见光图像中充足的背景信息,图像整体视觉效果较好。为了进一步客观评价融合算法的性能,表1列出了Kaptein图像融合结果的客观评价指标数值结果。从表中可以看出本文方法的EN、MI、SD、SCD和QY五项指标值都高于其他对比算法。

表1 Kaptein图像的客观评价指标

Tab.1 Objective evaluation indexes of Kaptein images

方法客观评价指标ENMISDVIFSCDQYLP6.78401.7095 36.3333 0.4012 1.5946 0.8139DTCWT6.7052 1.7547 33.6152 0.3327 1.5558 0.7896NSCT6.7207 1.7789 33.8316 0.3788 1.5690 0.8182NSST6.7327 1.7417 34.1941 0.3919 1.5682 0.7795CSR6.59282.0047 32.2585 0.3075 1.5563 0.7949 CNN7.1000 2.0933 53.6734 0.42971.7652 0.8182GTF6.9574 3.0008 38.1789 0.1843 0.79870.6599GF6.8902 2.3575 48.7653 0.3194 1.7634 0.7609 LATLRR6.7015 1.9683 35.7571 0.3456 1.6587 0.7349 本文方法7.2804 3.4428 53.81430.39841.8487 0.8213

图7 Kaptein图像融合结果
Fig.7 Fusion results of Kaptein

表2列出了不同融合方法在3组数据集上的运行时间。对于Nato-camp和Bristol Eden Project数据集,表2所列为不同融合方法在32幅图像数据上的平均计算时间。对于Nato-camp数据集,LP、DTCWT、GTF与GF方法的计算时间均小于1 s,NSCT与NSST方法的计算时间略大于1 s,CSR、CNN、LATLLR与本文方法的计算时间远大于1 s。对于Bristol Eden Project和Kaptein数据集,LP、DTCWT与GF方法的计算时间均小于1 s,NSCT、NSST和GTF方法的计算时间略大于3 s,CSR、CNN、LATLLR与本文方法的计算时间远大于3 s。总之,相比于多尺度融合方法,如LP、DTCWT、NSCT、NSST、GTF和GF,本文方法的计算复杂度更高。然而,相较于CSR、CNN和LATLRR等方法,本文方法的计算复杂度较低。

表2 不同融合方法的运行时间 (s)

Tab.2 Running time of different fusion methods (s)

数据集LPDTCWTNSCTNSSTCSRCNNGTFGFLATLRR本文方法Nato-camp0.020.081.141.3222.1416.750.470.1519.208.55 Bristol Eden Project0.050.233.213.9460.3854.523.040.5561.6927.28 Kaptein0.010.243.323.6666.5754.033.140.0161.1915.85

5 结论

针对传统红外与可见光图像融合算法在融合图像中细节信息丢失、显著目标不清晰和对比度低等问题,充分考虑红外与可见光图像的相关性,提出了一种基于联合低秩稀疏分解的红外与可见光图像融合方法。通过联合低秩稀疏分解可以有效地将图像目标与背景分离。设计合适融合规则实现了特有低秩分量和特有稀疏分量的有效融合。实验结果表明本文方法获得的融合图像目标清晰,细节丰富,在主观视觉和客观评价指标上都优于对比方法。

参考文献

[1] FENG Xin, FANG Chao, LOU Xicheng, et al. Research on infrared and visible image fusion based on tetrolet transform and convolution sparse representation[J]. IEEE Access, 2021, 9: 23498-23510.

[2] LI Guofa, LIN Yongjie, QU Xingda. An infrared and visible image fusion method based on multi-scale transformation and norm optimization[J]. Information Fusion, 2021, 71: 109-129.

[3] 王凡,王屹,刘洋. 利用结构化和一致性约束的稀疏表示模型进行红外和可见光图像融合[J]. 信号处理, 2020, 36(4): 572-583.

WANG Fan, WANG Yi, LIU Yang. Infrared and visible image fusion method based on sparse representation with structured and spatial consistency constraints[J]. Journal of Signal Processing, 2020, 36(4): 572-583.(in Chinese)

[4] LIU Shuo, PIAO Yan, TAHIR M. Research on fusion technology based on low-light visible image and infrared image[J]. Optical Engineering, 2016, 55(12):123104.

[5] LI Shutao, KANG Xudong, FANG Leyuan, et al. Pixel-level image fusion: A survey of the state of the art[J]. Information Fusion, 2017, 33: 100-112.

[6] FU Jun, LI Weisheng, DU Jiao, et al. Multimodal medical image fusion via Laplacian pyramid and convolutional neural network reconstruction with local gradient energy strategy[J]. Computers in Biology and Medicine, 2020, 126: 104048.

[7] 邹佳彬, 孙伟. 基于提升静态小波变换与联合结构组稀疏表示的多聚焦图像融合[J]. 计算机应用, 2018, 38(3): 859- 865.

ZOU Jiabin, SUN Wei. Multi-focus image fusion based on lifting stationary wavelet transform and joint structural group sparse representation[J]. Journal of Computer Applications, 2018, 38(3): 859- 865.(in Chinese)

[8] MENG Fanjie, SONG Miao, GUO Baolong, et al. Image fusion based on object region detection and Non-Subsampled Contourlet Transform[J]. Computers & Electrical Engineering, 2017, 62: 375-383.

[9] 侯瑞超, 周冬明, 聂仁灿, 等. 结合NSST与优化脉冲发放皮层模型的红外与可见光图像融合[J]. 计算机应用, 2018, 38(S1): 202-207, 239.

HOU Ruichao, ZHOU Dongming, NIE Rencan, et al. Infrared and visible light images fusion combining with nonsubsampled shearlet transform and bee colony optimization parameters of spiking cortical model[J]. Journal of Computer Applications, 2018, 38(S1): 202-207, 239.(in Chinese)

[10] KOU Fei, LI Zhengguo, WEN Changyun, et al. Edge-preserving smoothing pyramid based multi-scale exposure fusion[J]. Journal of Visual Communication and Image Representation, 2018, 53: 235-244.

[11] YANG Bin, LI Shutao. Multifocus image fusion and restoration with sparse representation[J]. IEEE Transactions on Instrumentation and Measurement, 2010, 59(4): 884- 892.

[12] YANG Bin, LI Shutao. Pixel-level image fusion with simultaneous orthogonal matching pursuit[J]. Information Fusion, 2012, 13(1): 10-19.

[13] LIU Yu, CHEN Xun, WARD R K, et al. Medical image fusion via convolutional sparsity based morphological component analysis[J]. IEEE Signal Processing Letters, 2019, 26(3): 485- 489.

[14] LIU Yu, WANG Zengfu. Simultaneous image fusion and denoising with adaptive sparse representation[J]. IET Image Processing, 2015, 9(5): 347-357.

[15] LIU Yu, CHEN Xun, WARD R K, et al. Image fusion with convolutional sparse representation[J]. IEEE Signal Processing Letters, 2016, 23(12): 1882-1886.

[16] LIU Yu, CHEN Xun, CHENG Juan, et al. Infrared and visible image fusion with convolutional neural networks[J]. International Journal of Wavelets, Multiresolution and Information Processing, 2018, 16(3): 1850018.

[17] MA Jiayi, YU Wei, LIANG Pengwei, et al. FusionGAN: A generative adversarial network for infrared and visible image fusion[J]. Information Fusion, 2019, 48: 11-26.

[18] LONG Yongzhi, JIA Haitao, ZHONG Yida, et al. RXDNFuse: A aggregated residual dense network for infrared and visible image fusion[J]. Information Fusion, 2021, 69: 128-141.

[19] GAN Wei, WU Xiaohong, WU Wei, et al. Infrared and visible image fusion with the use of multi-scale edge-preserving decomposition and guided image filter[J]. Infrared Physics & Technology, 2015, 72: 37-51.

[20] ZHANG Baohua, LU Xiaoqi, PEI Haiquan, et al. A fusion algorithm for infrared and visible images based on saliency analysis and non-subsampled Shearlet transform[J]. Neurocomputing, 2017, 226(22): 182-191.

[21] CANDS E J, LI Xiaodong, MA Yi, et al. Robust principal component analysis? [J]. Journal of the ACM, 2011, 58(3): 1-37.

[22] YIN Haitao. A joint sparse and low-rank decomposition for pansharpening of multispectral images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2017, 55(6): 3545-3557.

[23] LIU Yu, LIU Shuping, WANG Zengfu. A general framework for image fusion based on multi-scale transform and sparse representation[J]. Information Fusion, 2015, 24: 147-164.

[24] MA Jiayi, CHEN Chen, LI Chang, et al. Infrared and visible image fusion via gradient transfer and total variation minimization[J]. Information Fusion, 2016, 31: 100-109.

[25] MA Jiayi, ZHOU Yi. Infrared and visible image fusion via gradientlet filter[J]. Computer Vision and Image Understanding, 2020, 197-198: 103016.

[26] LI Hui, WU Xiaojun. Infrared and visible image fusion using latent low-rank representation [EB/OL]. https:∥arxiv.org/abs/1804.08992,2018.

[27] MA Jiayi, MA Yong, LI Chang. Infrared and visible image fusion methods and applications: A survey[J]. Information Fusion, 2019, 45: 153-178.

Infrared and Visible Image Fusion via Joint Low-rank and Sparse Decomposition

WANG Wenqing1,2 MA Xiao1 LIU Han1,2

(1. School of Automation and Information Engineering, Xi’an University of Technology, Xi’an, Shaanxi 710048, China;2. Shaanxi Key Laboratory of Complex System Control and Intelligent Information Processing, Xi’an University of Technology, Xi’an, Shaanxi 710048, China)

Abstract: In order to further improve the detail information and overall contrast of the fused images and reduce artifacts and noises, an infrared and visible image fusion method based on joint low-rank and sparse decomposition was proposed by considering the correlation between infrared and visible images. First, infrared and visible images are jointly decomposed into common low-rank component, specific low-rank components and specific sparse components by using the joint low-rank and sparse decomposition method. Second, the nonsubsampled shearlet transform-based fusion method is performed on the specific low-rank components. Third, the specific sparse components are fused by adopting regional energy fusion rule. Finally, the fused image is obtained by integrating the common low-rank component, the fused specific low-rank component and the fused specific sparse component. The experiments conducted on the Nato-camp、Bristol Eden Project and TNO publicly test data sets are used to test the performance of the proposed algorithm. The experimental results demonstrate that the proposed method can effectively extract the target information of infrared image and retain the background of visible image compared with other nine fusion methods. Meanwhile, the values of the objective evaluation metrics such as entropy, mutual information, standard deviation, visual information fidelity, the sum of the correlations of differences and QY are obviously better than those of the comparison methods.

Key words infrared and visible image fusion; joint low-rank and sparse decomposition; nonsubsampled shearlet transform; regional energy; sparse representation

文章编号:1003-0530(2021)09-1770-11

收稿日期:2021-06-02;修回日期:2021-07-12

基金项目:国家自然科学基金资助项目(61703334,61973248);中国博士后科学基金资助项目(2016M602942XB);陕西省重点研发计划项目(2018ZDXM-GY-089)

中图分类号:TN911.73

文献标识码: A

DOI: 10.16798/j.issn.1003- 0530.2021.09.021

引用格式: 王文卿, 马笑, 刘涵. 基于联合低秩稀疏分解的红外与可见光图像融合[J]. 信号处理, 2021, 37(9): 1770-1780. DOI: 10.16798/j.issn.1003- 0530.2021.09.021.

Reference format: WANG Wenqing, MA Xiao, LIU Han. Infrared and visible image fusion via joint low-rank and sparse decomposition[J]. Journal of Signal Processing, 2021, 37(9): 1770-1780. DOI: 10.16798/j.issn.1003- 0530.2021.09.021.

作者简介

王文卿 男,1986年生,山东莱芜人。西安理工大学自动化与信息工程学院讲师,研究方向为遥感影像处理与解译、智能信息处理、机器学习。

E-mail: wangwenqing@xaut.edu.cn

马 笑 男,1996年生,陕西咸阳人。西安理工大学自动化与信息工程学院硕士研究生,研究方向为图像融合。

E-mail: max_smile@163.com

刘 涵 男,1972年生,陕西西安人。西安理工大学自动化与信息工程学院教授,研究方向为复杂工业过程建模与控制、机器学习、人工智能、智能信息处理。

E-mail: liuhan@xaut.edu.cn