淘先锋技术网

首页 1 2 3 4 5 6 7

按时间顺序,综述近5年的融合算法。重点分析了最近两年的work,欢迎留言探讨


前言


提示:以下是本篇文章正文内容,下面案例可供参考

1.SSR-Laplacian Image Fusion(2017)

论文:R. Wu, D. Yu, J. Liu, H. Wu, W. Chen and Q. Gu, “An improved fusion method for infrared and low-light level visible image,” 2017 14th International Computer Conference on Wavelet Active Media Technology and Information Processing (ICCWAMTIP), 2017, pp. 147-151.

本文提出了一种融合低照度可见光图像和红外图像的方法。本文主要是增加了图像的预处理步骤,后续过程是一些传统处理方法的组合和延伸。SSR(Single Scale Retinex)算法,一种基于Retinex的人眼生理特征所发展起来的算法,用于提升可见光图像的对比度。

在这里插入图片描述
在这里插入图片描述

2、FusionGAN(2019)

论文:Jiayi Ma, Wei Yu, Pengwei Liang, Chang Li, and Junjun Jiang. FusionGAN: A generative adversarial network for infrared and visible image fusion. Information Fusion 48, C (Aug 2019), 11–26, 2019.

本文提出FusionGAN,将GAN运用到图像融合的任务中。红外图像Ir和可见光图像Iv按通道连接后输入生成器,输出为融合图像If。考虑可见图像中的纹理细节没有被充分提取,将融合后的图像If和可见图像Iv输入鉴别器中,使得If有更多的纹理细节。生成器旨在生成具有显著红外强度和附加可见梯度的融合图像,鉴别器旨在强制融合图像拥有可见图像的更多细节信息。

在这里插入图片描述
损失函数
生成器:
在这里插入图片描述

判别器:
在这里插入图片描述

3、MBNet(2020)

Zhou, Kailai et al. “Improving Multispectral Pedestrian Detection by Addressing Modality Imbalance Problems.” European Conference on Computer Vision (2020).

模态不平衡问题主要分为两方面:照明模态不平衡(光照变化)以及特征模态不平衡(红外与可见特征未配准,以及不恰当的融合方式)。本文设计了差分模态感知融合(DMAF,Differential Modality Aware Fusion)模块,使两种模态相互补充。照明感知特征对齐(IAFA,Illumination Aware Feature Alignment Module)模块根据光照条件选择互补特征,并自适应对齐两个模态特征。

在这里插入图片描述

DMAF模块中每个模态都包含共同部分和差异部分。

在这里插入图片描述
先对两个模态特征直接相减获取差异特征,然后对差异特征做全局平均池化,再进行tanh激活,然后对原始特征进行通道级加权,加权后的特征加到另一模态特征上。

在这里插入图片描述

IAFA模块用了一个可以根据可见光图像预测光照条件的小网络,其损失定义如下:

在这里插入图片描述
由于红外和可见光相机并不都是同时拍摄的,这就会导致特征无法对齐。故提出了一个模态特征对齐(MA,Modality Alignment)模块来为每种模态的每个像素点(x, y)都预测一个特征偏移(dx, dy),由于特征偏移为浮点数,故采用了双线性插值用邻近点的值进行拟合(x+dx, y+dy)。
IAFA模块先将重赋权的RGB和红外特征拼接,在anchor proposed阶段产生一个大概的anchor位置。在IAFC阶段所预测的回归偏移t0用来产生可变形的anchor来作为位置预测的基本参考。然后可变形的anchors和置信度得分s0进一步通过IAFC阶段进行微调。RGB和红外特征图预测的置信度得分进一步通过光照值进行重新加权。最终的置信度得分和回归偏移值如下:
在这里插入图片描述
分类损失函数使用了focal loss,来解决样本不平衡问题。
在这里插入图片描述

4、DIDFuse(2020)

Zixiang Zhao, Shuang Xu, Chunxia Zhang, Junmin Liu, Jiangshe Zhang and Pengfei Li, DIDFuse: Deep Image Decomposition for Infrared and Visible Image Fusion. IJCAI 2020: 970-976.

本模型有效的利用了先验信息,即base信息代表着大尺度的背景信息, detail信息是互异性较明显的信息,即红外和可见的base信息尽可能接近,两者的detail信息尽可能差异较大。经过训练,模型获得了训练好的encoder和decoder,然后进入测试阶段。在测试过程中,添加一个fusion layer,即融合层,实现和的融合,和的融合,然后把其进行拼接,输入decoder实现图像重构。对于融合策略的选择有以下三种策略:直接相加、给定权重相加和L1-norm(把feature map的L1范数看作其activity measurement,然后通过计算不同feature map的L1-norm来给定不同融合权重)。

损失函数

在这里插入图片描述

5、DDcGAN(2020)

J. Ma, H. Xu, J. Jiang, X. Mei and X. -P. Zhang, “DDcGAN: A Dual-Discriminator Conditional Generative Adversarial Network for Multi-Resolution Image Fusion,” in IEEE Transactions on Image Processing, vol. 29, pp. 4980-4995, 2020.

本文在FusionGAN的基础上设计了双判别器。为了融合不同分辨率的图像,作者假设可见图像的分辨率是红外图像分辨率的4×4倍,判别器Dv旨在将生成的图像与可见图像区分开,而判别器Di旨在区分原始的低分辨率红外图像和下采样(平均池化)的融合图像。为了在生成器和判别器之间保持平衡,每个判别器的输入层是包含样本数据的单通道,而不是同时包含样本数据和对应的源图像作为条件信息的两通道。

在这里插入图片描述

6、GAN(2020)

J. Ma et al.,“Infrared and visible image fusion via detail preserving adversarial learning,” Information Fusion, vol. 54, pp. 85–98, Feb. 2020.

本文的模型用于改善先前GAN模型带来的细节损失问题,并且加入了针对边缘的保护机制。模型的生成器产生融合图像,然后,融合结果与可见光源图像一起送入判别器,判断融合结果是否来自于可见光图像。

在这里插入图片描述
损失函数:
在这里插入图片描述
在这里插入图片描述

7、NestFuse(2020)

H. Li, X. -J. Wu and T. Durrani, “NestFuse: An Infrared and Visible Image Fusion Architecture Based on Nest Connection and Spatial/Channel Attention Models,” in IEEE Transactions on Instrumentation and Measurement, vol. 69, no. 12, pp. 9645-9656, Dec. 2020.

本文是基于nest connection和空间/通道注意力的红外-可见光融合模型,可以在多尺度方面保留重要信息。模型分为编码器、融合策略和解码器三部分。在融合策略中,空间注意力模型和通道注意力模型分别用来描述深度特征在每个空间位置和通道的重要性。首先输入图像送入编码器提取多尺度特征,融合策略在每个尺度上融合这些特征,最后通过基于nest connection的解码器重构图像。

在这里插入图片描述

8、AUFusion(2021)

Zixiang Zhao, Shuang Xu, Jiangshe Zhang, Chengyang Liang, Chunxia Zhang and Junmin Liu, “Efficient and Model-Based Infrared and Visible Image Fusion via Algorithm Unrolling,” in IEEE Transactions on Circuits and Systems for Video Technology,2021.

本文利用算法展开的方式构建网络,增加了网络的可解释性。首先预训练一个自编码器用来实现特征提取和图像重建。再采用一些手工设计的融合策略(基于像素的加权平均)来整合从不同源图像中提取的深度特征以实现图像融合。训练时,红外与可见光交替输入网络;测试时,红外与可见成对输入。网络中特征B0和D0分别通过blur和Laplacian滤波器得到。

BCL和DCL模块设计,X表示输入图像,B,D分别表示base feature和detail feature,另外
gBj 表示高通滤波,gDj 表示低通滤波。

在这里插入图片描述

在这里插入图片描述
损失函数:

在这里插入图片描述

在这里插入图片描述
SSIM 衡量两张图片的相似性,该损失使重建图像在亮度、结构和对比度方面接近源图像。
在这里插入图片描述

9、AttentionFGAN

J. Li, H. Huo, C. Li, R. Wang and Q. Feng, “AttentionFGAN: Infrared and Visible Image Fusion Using Attention-Based Generative Adversarial Networks,” in IEEE Transactions on Multimedia, vol. 23, pp. 1383-1396, 2021.

本文将多尺度注意力机制加入GAN来进行红外-可见光图像的融合。多尺度注意力机制旨在捕获全面的空间信息,帮助生成器关注红外图像的前景目标信息和可见光图像的背景细节信息,同时约束判别器更多地关注注意区域而不是整个输入图像。生成器部分是两个多尺度注意力模块首先分别获得红外与可见光图像的注意力图,然后将这两个注意力图和源图像在通道维度拼接后送入融合网络。两个判别器分别用来区分融合图像与红外/可见光图像,结构完全相同,但是参数不共享。
在这里插入图片描述
损失函数

生成器:

在这里插入图片描述
在这里插入图片描述
判别器:前两项表示 Wasserstein distance 估计,最后一项是网络正则化的梯度惩罚
在这里插入图片描述

10、GANMcC

J. Ma, H. Zhang, Z. Shao, P. Liang and H. Xu, “GANMcC: A Generative Adversarial Network With Multiclassification Constraints for Infrared and Visible Image Fusion,” in IEEE Transactions on Instrumentation and Measurement, vol. 70, pp. 1-14, 2021.

红外图像的细节信息不一定比可见光差,Rgb图像也有可能对比度优于红外图像。融合图像既有显著的对比度又有丰富的纹理细节,关键是保证源图像的对比度和梯度信息是平衡的,本质上是同时估计两个不同域的分布。GAN可以在无监督情况下更好地估计目标的概率分布,而多分类GAN 可以进一步同时拟合多个分布特征,解决这种不平衡的信息融合。当可见图像过度曝光时,红外图像的相应信息可以弥补,这使得我们的方法能够在保持显著对比度的同时去除高光。
网络架构

在这里插入图片描述
对于生成器,输入也是两个模态的混合输入,由生成器得到融合图像。对于判别器,输入图像(红外/可见光/融合图像任选一个输入)进行分类得到输入图像的类别,输出是一个包含两个概率值的向量。对于融合图像,在多分类约束下,generator期望这两个概率都很高,即判别器认为它既是红外图像又是可见图像,而判别器期望这两个概率同时很小 ,即判别器判断融合图像既不是红外图像也不是可见图像。在此过程中,同时约束这两个概率,以确保融合图像在两个类别中的true/false程度相同。经过不断的对抗学习,生成器可以同时拟合红外图像和可见图像的概率分布,从而产生对比度显着和纹理细节丰富的结果。
损失函数

生成器:通过调整权重β的大小来决定每种信息的保留程度,d设置为1。
在这里插入图片描述

判别器:c设置为0。

在这里插入图片描述

11、DRF(2021)

[11]H. Xu, X. Wang and J. Ma, “DRF: Disentangled Representation for Visible and Infrared Image Fusion,” in IEEE Transactions on Instrumentation and Measurement, vol. 70, pp. 1-13, 2021.

本文将Rgb和红外图像通过相应的编码器分解为与场景和传感器模态(属性)相关的表示。两个scene encoder 和两个 attribute encoder 具有相同的结构但是不共享参数。考虑到场景信息与空间和位置直接相关,故scene representation以特征图的形式呈现,而属性与传感器模态相关,不会承载场景信息,故attribute representation以向量形式呈现。然后应用不同的策略(基于像素的加权平均)来融合这些不同类型的表示。最后融合的表示被送入预训练的生成器以生成融合结果。

在这里插入图片描述
损失函数:

在这里插入图片描述

12、SDNet(2021)

Zhang, H. and Ma, J. SDNet: A versatile squeeze-and-decomposition network for real-time image fusion. International Journal of Computer Vision, 129(10), pp.2761-2785,2021

SDNet能实现多模态和数码摄影图像的实时融合。该模型中,为不同的图像融合任务提出了一个通用的损失函数,该函数由在融合图像和两个源图像之间构造的梯度损失项和强度损失项组成。

在这里插入图片描述
Squeeze network的目的是将源图像融合成一个包含更丰富的纹理内容的单一图像,使用了pseudo-siamese网络和DenseNet的结构,最大化不同源信息的利用。Decomposition network专门用于对融合后的图像进行分解,得到与源图像相似的结果,卷积层都不会改变特征映射的大小。

损失函数
在这里插入图片描述
对于梯度信息重建,引入的自适应决策块首先利用高斯低通滤波来降低噪声对决策过程的影响,然后基于梯度丰富度来评估相应像素的重要性,以便生成像素级决策图,该像素级决策图引导融合图像中的纹理以近似具有更丰富纹理的源像素中的纹理。

在这里插入图片描述
对于强度信息重建,我们采用比例设置策略。具体地,我们调整融合图像和两个源图像之间的强度损失项的权重比,以满足不同任务对强度分布的要求。

13、RFN-Nest(2021)

Hui Li, Xiao-Jun Wu, and Josef Kittler. RFN-Nest: An end-to-end residual fusion network for infrared and visible images. Information Fusion 73, C (Sep 2021), 72–86,2021

论文和NestFuse总体结构类似,提出了一种基于残差架构的融合网络,由三部分组成,即编码器,解码器和RFN(特征融合网络),这里编码器提取的特征包括4个尺度的特征,然后四个尺度的特征送入到RFN中进行特征融合,再交由解码器进行解码,得到融合图像。在利用单张图片的 像素损失结构损失 训练编码器和解码器之后,将编码器和解码器的参数固定,再训练RFN模块。

在这里插入图片描述

RFN模块的损失函数如下:

在这里插入图片描述

14、PIAFusion(2022)

Linfeng Tang, Jiteng Yuan, Hao Zhang, Xingyu Jiang, and Jiayi Ma. “PIAFusion: A progressive infrared and visible image fusion network based on illumination aware”, Information Fusion, 83-84, pp. 79-92, 2022

考虑到照明不平衡问题以及融合图像特征不充分的问题,本文提出了一种基于光照感知的渐进式图像融合网络( PIAFusion ),自适应地保持显著目标的强度分布并保留背景中的纹理信息。具体来说,本文设计了一个光照感知子网络来估计光照分布并计算光照概率。此外,利用光照概率构造光照感知损失来指导融合网络的训练,利用跨模态差分感知融合模块来融合红外和可见特征共同信息和互补信息。另外,本文发布了一个用于红外与可见图像融合的大型基准数据集(MSRS,Multi-Spectral Road Scenarios)。

在这里插入图片描述
光照感知子网络使用交叉熵损失函数,主干网络损失函数为
在这里插入图片描述在这里插入图片描述

15、SeAFusion(2022)

Tang, Linfeng, Jiteng Yuan, and Jiayi Ma. “Image fusion in the loop of high-level vision tasks: A semantic-aware real-time infrared and visible image fusion network.” Information Fusion 82 (2022): 28-42.

论文提出了一个语义感知的图像融合框架,利用高级视觉任务来驱动图像融合。同时考虑到对实时性的要求,在网络设计方面设计了一个轻量级的网络。而且为了增强网络对细粒度细节特征的描述,设计了一个Gradient Residual Dense Block(GRDB)。最后,考虑到现有的评估指标仅利用EN,MI,SF等统计指标来衡量图像融合的好坏。作者还提出了一种任务驱动的评估方式,即利用融合结果在高级视觉任务上的表现来衡量融合结果的质量。

在这里插入图片描述
源图像经过融合网络生成融合图像,而融合网络图像在经过一个分割网络得到分割结果。分割结果与labels构造语义损失,融合图像与源图像之前构造内容损失,其中语义损失只用于约束分割网络,而内容损失与语义损失共同约束融合网络的优化。这样语义损失能够将高级视觉任务(分割)所需的语义信息反传回融合网络从而促使融合网络能够有效地保留源图像中的语义信息.
在这里插入图片描述

对于融合网络,SeAFusion采用的是双分支特征提取再Concat融合后重建图像的框架,而在GRDB中利用梯度算子提取的特征作为残差连接能够强化网络对于细节特征的提取。

由于图像融合没有groundtruth,无法利用融合结果预训练一个分割模型来指导融合网络的训练,为此作者通过交替训练融合网络以及分割网络,从而维持图像融合以及语义分割之间的平衡,能在保证高级视觉任务性能的同时不降低融合网络的性能。

结果比较:
在这里插入图片描述

16、SwinFusion(2022)

J. Ma, L. Tang, F. Fan, J. Huang, X. Mei and Y. Ma, “SwinFusion: Cross-domain Long-range Learning for General Image Fusion via Swin Transformer,” in IEEE/CAA Journal of Automatica Sinica, vol. 9, no. 7, pp. 1200-1217, July 2022.

一方面,本文设计了一个注意力引导的跨域模块,以实现互补信息和全局交互的充分集成。该方法包括一个基于自注意的域内融合单元和一个基于交叉注意的域间融合单元,它在同一域内和跨域内挖掘和整合长依赖关系。通过远程依赖建模,网络能够充分实现特定领域的信息提取和跨领域互补信息集成,并从全局角度保持适当的表观强度。在自注意和交叉注意中引入了shifted window机制,这允许模型接收任意大小的图像。另一方面,将多模态图像融合和数码摄影图像融合都推广到结构、纹理和强度保持的设计中。定义了一个统一的损失函数形式来约束所有的图像融合问题。SwinFusion模型在多模态图像融合与数码摄影图像融合任务中均表现良好。

在这里插入图片描述

在这里插入图片描述
SwinFusion模型可分为特征提取、注意引导的跨域融合和重建三个部分。

17、DIVFusion(2023)

Linfeng Tang, Xinyu Xiang, Hao Zhang, Meiqi Gong, and Jiayi Ma. “DIVFusion: Darkness-free infrared and visible image fusion”, Information Fusion, 91, pp. 477-493, 2023

(1)论文创新点:
目前的图像融合方法都是针对正常照明下的红外和可见光图像设计的。在夜景中,现有的方法由于可见光图像严重退化,导致纹理细节较弱,视觉感知较差,影响了后续的视觉应用。如果将图像增强和图像融合作为独立的任务处理往往会导致不兼容问题,从而导致图像融合效果不佳。本文将低光图像增强技术和图像融合技术相结合,合理地照亮黑暗,促进互补信息聚合,得到良好的视觉感知的融合图像。
(2)总体架构:
在这里插入图片描述
首先设计了一个场景光照解耦网络( SIDNet,scene illumination disentangled network)来去除夜间可见光图像中的光照退化,同时保留源图像的信息特征。为了融合互补信息,增强融合特征的对比度和纹理细节,设计了纹理-对比度增强融合网络( TCEFNet,texture-contrast enhancement fusion network)。所提方法能够以端到端的方式生成具有真实颜色和显著对比度的融合图像。
(3)损失函数
主要分为两阶段训练
在这里插入图片描述
一阶段:SIDNet用于自监督重构原始图像,由编码器、注意力块和解码器组成。解码器只是训练的时候迫使SIDNet可以生成更好的特征,所以当使用模型融合图像时,不需要生成重建的图像。剥离退化的照明特征,将和作为下一阶段的输入。
在这里插入图片描述
在这里插入图片描述
其中,Lper 是将使用直方图均衡增强后的图像作为对比,从而使得可以生成增强的可见光图像。
二阶段:固定SIDNet,训练TCEFNet。
除了强度损失,纹理损失之外,还设计了颜色一致性损失来减轻增强和融合带来的颜色失真。
在这里插入图片描述
在这里插入图片描述

18、CDDFuse(CVPR2023)

Correlation-Driven Dual-Branch Feature Decomposition for Multi-Modality Image Fusion
多模态图像融合中的相关驱动的双分支特征分解

在这里插入图片描述
现有的方法图1有三个主要的缺点。首先,cnn的内部工作机制难以控制和解释,导致跨模态特征的提取不足。例如,在图1a中,(I)和(II)中的共享编码器不能区分特定于模态的特征,而(III)中的私有编码器忽略了模态共享的特征。其次,上下文无关的CNN结构只能在相对较小的接受域中提取局部信息,很难处理全局信息提取,生成高质量的融合图像[31]。因此,目前还不清楚CNN的归纳偏差是否能够提取所有输入模式的特征。第三,融合网络的前向传播往往会导致高频信息[38,74]的丢失。

相关驱动的特征分解融合(CDDFuse)模型,通过双分支编码器实现模态特异性和模态共享的特征提取,融合图像由解码器重建

•1. 目标是对提取的特征增加相关限制,限制解空间,从而提高特征提取的可控性和可解释性,提出了一种双分支Transformer-cnn框架来提取和融合全局和局部特征,它更好地反映了高/低频特征中包含的不同语义信息。
•2. 我们改进了CNN和Transformer块,以更好地适应MMIF任务。我们是第一个利用INN块来进行无损信息传输(INN的设计具有可逆性,通过相互生成输入和输出特征来防止信息丢失,并与我们在融合图像中保持高频特征的目标相一致),并利用LT块来权衡融合质量和计算成本。
•3. 我们提出了一个相关驱动的分解损失函数来强制模态共享/特定特征分解,这使得交叉模态基本特征相关,而不同模态的详细高频特征去关联。(假设是,在MMIF任务中,两种模式的输入特征在低频时是相关的,代表模式共享信息,而高频特征是无关的,代表各自模式的独特特征。以VIF为例,由于红外和可见图像来自同一场景,两种模式的低频信息包含统计上的共现,如背景和大规模环境特征。相反,这两种模态的高频信息是独立的,例如,可见光图像中的纹理和细节信息,以及红外图像中的热辐射信息)
•4. 我们的方法在IVF和MIF中都取得了领先的图像融合性能。我们还提出了一个统一的测量基准,以证明IVF精融合图像如何促进下游MM目标检测和语义分割任务。

在这里插入图片描述

我们的CDDFuse方法的架构(以IVF为例)。(a)训练阶段I的管道,旨在训练结构用于基/细节特征分解和重建源图像。(b)基于INN块的DCE和细节融合层,以及INN仿射耦合层中的BRB块。©训练阶段第二的管道,目的是获得融合图像。

01.概述

我们的CDDFuse包含四个模块,即用于特征提取和分解的双分支编码器,用于重建原始图像(训练阶段一)或生成融合图像(训练阶段二)的解码器,以及融合不同频率特征的基础/细节融合层。具体的工作流程如图2所示。需要注意的是,CDDFuse是一个通用的多模态图像融合网络,我们只以IVF任务为例来解释CDDFuse的工作原理。

02. Encoder

该编码器有三个组成部分:基于Restormer块[66]的共享特征编码器(SFE),基于Lite Transformer(LT)块的基础Transformer编码器(BTE)和基于可逆神经网络(INN)[12]的细节CNN编码器(DCE)。BTE和DCE一起形成了长-短程编码器。定义输入的红外和可见光图像表示为I和V。SFE、BTE和DCE分别用S(·)、B(·)和D(·)表示。
共享功能编码器。SFE的目标是从红外和可见光输入{I,V }中提取浅层特征{Φ _ SI,Φ _ SV },即,
在这里插入图片描述
我们在SFE中选择Restormer块的原因是Restormer可以通过应用跨特征维度[67]的自注意,从高分辨率输入图像中提取全局特征。因此,它可以提取跨模态的浅层特征而无需太多计算量。我们使用的Restormer块的体系结构可以在补充材料或原始论文[67]中参考。

基础Transformer编码器。BTE是为了提取从共享特征中获得的低频率基础特征:

在这里插入图片描述
其中,Φ_ B I和Φ _B V分别为I和V的基本特征。为了提取长距离依赖特征,我们决定使用一个具有空间自注意的Transformer。考虑到平衡性能和计算效率,这里我们使用LT块[57]作为BTE的基本单元。通过扁平前馈网络结构扁平了变压器块的瓶颈,LT块在保持相同性能的同时减少嵌入,减少参数的数量,满足我们的需要。

详细的CNN编码器。与BTE相反,DCE从共享特征中提取高频细节信息,其表述为:
在这里插入图片描述
考虑到细节特征上的边缘和纹理信息对于图像融合任务非常重要,我们希望DCE中的CNN体系结构能够保留尽可能多的细节信息。INN [12]模块通过使其输入和输出特征相互生成,可以更好地保存输入信息。因此,它可以看作是一个无损的特征提取模块。我们采用了带有仿射耦合层[12,77]的INN块。在每个可逆层中,变换为:

在这里插入图片描述

其中⊙是Hadamard积,Φ_SIk[1:c]∈R(h×w×c)是第k个可逆层(k=1,2,…K)输入特征的第1到第c个通道,CAT(·)为通道连接操作,Li (i = 1,2,3)为任意映射函数。计算细节见图2(d)和补充指标。在每个可逆层中,Li 可以设置为任何映射,而不影响该可逆层中的无损信息传输。考虑到计算消耗和特征提取能力之间的权衡,我们使用MobileNetV2 [45]中的瓶颈残差块(BRB)块作为Li。最后,通过替换等式中的下标,同样可以得到Φ_DI = Φ_DIK和Φ_DV(4)从I到V。

03.融合层

考虑到基/细节特征融合的归纳偏差应该类似于编码器中的基/细节特征提取,我们对基融合层和细节融合层采用LT和INN块,其中:
在这里插入图片描述
FB和FD分别为基础融合层和细节融合层。

04.解码器

在解码器DC(·)中,将分解后的特征在通道方向拼接作为输入,将原始图像(训练阶段I)或融合图像(训练阶段II)作为解码器的输出,表示为:
在这里插入图片描述
由于这里的输入涉及跨模态和多频特征,我们保持解码器的结构与SFE的设计一致,即使用Restormer块作为解码器的基本单元

05.两阶段训练

MMIF任务缺乏地面真相,先进的监督学习方法是无效的。

训练阶段I。在训练阶段I中,将成对的红外图像和可见光图像{I,V }输入到SFE中,提取浅层特征{Φ S I,Φ S V }。然后利用基于LT块的BTE和基于inn的DCE分别提取两种不同模式的低频基特征{Φ B I,Φ B V }和高频细节特征{Φ D I,Φ D V }。然后,将红外{Φ B I、ΦDI}(或可见{Φ B V、Φ D V })图像的基本特征和细节特征拼接起来,输入解码器,重建原始红外图像Iˆ(或可见图像Vˆ)。

训练阶段Ⅱ。在训练阶段第二阶段,将成对的红外和可见图像{I,V }输入一个几乎训练良好的编码器,以获得分解特征。然后将分解后的基特征{Φ B I、Φ B V }和细节特征{Φ D I、Φ D V }分别输入到融合层FB和FD中。最后,将融合特征{Φ B,Φ D}输入解码器,得到融合图像F。
训练损失。在训练阶段I中,总损失LI总计为:
在这里插入图片描述
其中Lir和Lvis为红外和可见图像的重建损失,Ldecomp为特征分解损失,重构损失主要保证了在编码和解码过程中图像中包含的信息不丢失。

在这里插入图片描述
在这里插入图片描述
其中,CC(·,·)为相关系数算子,这里的ϵ设为1.01,以确保该项总是为正的。这个损失项的动机是,根据我们的MMIF假设,分解后的特征{Φ B I,Φ B V }将包含更多的模式共享信息,如背景和大规模环境,因此它们通常是高度相关的。相比之下,{Φ D I,Φ D V }表示V中的纹理和细节信息和热辐射,以及I中的清晰的边缘信息,这是特定于模态的。因此,特征映射的相关性较小。从经验上看,在梯度下降中Ldecomp的指导下,L_DCC逐渐趋于0,L_BCC变大,满足了我们对特征分解的直觉。分解效果的可视化情况如图所示。

在这里插入图片描述
随后在训练第二阶段,总损失为:

在这里插入图片描述

*实验

数据集和指标设置。 IVF实验使用了MSRS [48]、RoadScene [61]和TNO [49]。在MSRS训练集(1083对)上训练我们的网络,在道路场景中使用50对进行验证。采用MSRS测试集(361对)、RoadScene (50对)和TNO(25对)作为测试数据集,可以对其融合性能进行综合验证。微调并没有应用于道路场景和TNO数据集,以验证融合模型的泛化性能。采用8个度量指标:熵(EN)、标准差(SD)、空间频率(SF)、互信息(MI)、差异相关性之和(SCD)、视觉信息可靠性(VIF)、QAB/F和结构相似度指数度量(SSIM)。

实施细节。两个 3090gpu。Pre-train:将训练样本随机裁剪成128个×128个patch。Epoch:120(一阶段40,二阶段80)。Batchsize16。Adam优化器,初始Ir10−4,每20个周期减少0.5。超参数:SFE中的 Restormer块数4个,有8个注意头和64维度。BTE中LT块的尺寸也是64,有8个注意头。Decode的配置与Encode相同。损失函数等式(7)和(10),α1到α4被设置为1、2、10和2,以保持每项相同的数量级。

与SOTA方法的比较
定性比较。我们的方法更好地集成了红外图像中的热辐射信息和可见光图像中的详细纹理。黑暗区域的物体被清晰地突出显示,因此前景目标可以很容易地与背景区分开来。此外,由于低光照而难以识别的背景细节具有清晰的边缘和丰富的轮廓信息,这有助于我们更好地理解场景。

在这里插入图片描述
定量比较。在几乎所有指标上都有良好的性能,证明了我们的方法适用于各种照明和目标类别。特征分解的可视化。
在这里插入图片描述
特征分解的可视化。基本特征组中更多的背景信息被激活,激活的高亮区域也是相关的。然而,在细节特征组中,红外特征更关注物体的高光,而可见特征更关注细节和纹理,这表明表明模态特定特征被很好的提取。

消融研究与下游应用

19、DDcGAN


总结

提示:这里对文章进行总结:

例如:以上就是今天要讲的内容,本文仅仅简单介绍了pandas的使用,而pandas提供了大量能使我们快速便捷地处理数据的函数和方法。