-
摘要:
真实图像去噪指从真实的数字照片图像中移除噪声失真,以提升图像的视觉质量。当前性能最优的真实图像去噪模型普遍依赖于逐像素对应的干净/噪声图像对样本集,但其采集困难。针对该挑战,本文提出了一种联合内容和质量约束的真实图像去噪网络CQDeNet,仅利用图像级标注样本完成训练并实现有效去噪。CQDeNet主要包含图像内容约束和图像质量约束两个前后联结的子网络。内容约束网络采用单噪声图像训练骨干网络TECDNet,通过噪声图像中的潜在干净图像信号还原内容信息。质量约束网络利用无参考图像质量评估来约束生成图像的质量,协作引导内容约束网络的优化方向。通过联合这两个子网络,CQDeNet解除了当前无监督方法对输入图像噪声残差零均值假设的限制,因此具有更强的泛化能力和扩展性。测试结果表明,所提方法能有效去除真实图像中噪声,在SSID和DND数据集上的平均PSNR值分别达到34.83 dB和37.21 dB。
Abstract: Real image denoising aims to remove noise distortion from noisy digital photograph images to improve their visual quality. The state-of-the-art real image denoising models generally rely on sample set of pixel-wise corresponding clean-noisy image pairs, which are difficult to collect. To address this challenge, we propose a content- and quality-constrained real image denoising network (CQDeNet), a network for real image denoising constrained by content and quality, trained solely on image-level labeled samples to achieve effective denoising. CQDeNet consists of two sequential sub-networks: the image content-constrained network and the image quality-constrained network. The content-constrained network is trained in a self-supervised manner using only noisy images to restore the content information by extracting the latent clean image signal from the noisy images. The quality-constrained network utilizes a no-reference image quality assessment to constrain the quality of the generated images, collaboratively guiding the optimization direction of the content-constrained network. By combining these two sub-networks, CQDeNet overcomes the limitation of the zero-mean assumption of noise residuals in current unsupervised methods, enabling the model to have stronger generalization ability and scalability. Test results show that the proposed method could effectively remove the noise from real images. The average PSNR values obtained on the SSID and DND datasets are 34.83 dB and 37.21 dB, respectively.
-
1. 引言
随着数字影像设备的普及,人们对高质量数字照片图像的需求增长。图像去噪旨在从失真图像中分离干净图像和噪声,保持图像结构和纹理的一致性,以实现自然舒适的恢复效果。与加性高斯白噪声不同,真实数字照片图像中的噪声分布与构成复杂多样[1],无法进行显式分布建模。因此,真实图像去噪是具有挑战性的问题,开发适用于真实图像的低成本去噪技术具有重要意义。
传统的去噪方法[2-4]主要面向合成噪声图像,特别是加性高斯白噪声。这些方法要求输入图像的噪声残差符合特定的先验假设,如零均值的高斯分布。其中代表性的工作有BM3D[2],它结合了空域非局部均值和小波变换。传统方法在处理真实图像时效果较差,难以应对复杂噪声。近年来,随着深度神经网络的快速发展和高质量去噪数据集的涌现,基于深度学习的图像去噪技术取得了显著进展,主要包括有监督[5-9]和无监督(半监督、自监督)[10-15]两类。有监督方法通常借助精心设计的网络架构和高质量图像去噪数据集,在性能上远优于传统方法。早期去噪自编码器方法[4]奠定了基本框架,后续DnCNN[5]、CBDNet[6]、RIDNet[8]等方法改进了网络结构和训练策略,取得了更好的去噪性能。文献[9]所提Uformer方法将视觉Transformer网络应用于真实图像去噪,性能表现突出。
由于真实图像去噪数据集的特殊性,采集像素级严格对齐的噪声和干净图像对难度较大[16],因此,难以通过大规模扩充训练集提升去噪算法性能。无监督或弱监督方法成为解决这一问题的有效手段。无监督去噪方法对训练数据的限制较少,仅使用噪声图像进行训练。代表性方法有Noise2Noise系列[11-13]。Noise2Noise (N2N)[11]方法使用成对的噪声图像进行训练,要求噪声残差的期望为零,在L2损失的约束下生成趋于干净的图像信号。Noise2Void (N2V)[12]进一步改良这一方法,核心的盲点网络可以使用单噪声图像进行训练,由于其中的掩码操作会丢失图像的高频信息,因而会损失部分去噪性能。这些无监督去噪方法因缺乏像素级对应的干净目标图像,通常设置各类约束以控制生成图像质量,如噪声零均值假设[13],导致真实图像去噪性能受限。
针对逐像素对齐的噪声/干净图像对采集难度大问题,本文提出了一种联合内容和质量约束的真实图像去噪网络(Content and Quality-constrained Denoising Network, CQDeNet),充分挖掘真实噪声图像自身蕴含的干净图像信号[11]。该模型由图像内容约束网络和图像质量约束网络联合构成。内容约束网络仅利用真实噪声图像进行训练,从噪声图像中提取潜在的干净图像信号,以还原图像的内容信息。质量约束网络利用无参考图像质量评估方法[16]约束生成图像质量,摆脱了对像素级对齐的噪声/干净图像对依赖,引导图像内容约束网络的优化方向,使CQDeNet摆脱了输入图像噪声残差零均值约束。这提升了泛化能力,同时可以在不修改主体框架的情况下灵活应用在不同任务场景。最后CQDeNet中各个模块是独立设计的,模块之间替换灵活,使得该方法具备良好的扩展性。选取两大基准数据集SIDD[17]与DND[18]进行了大量的实验,结果表明CQDeNet能有效实现真实图像去噪。
2. 去噪模型CQDeNet
本文提出的CQDeNet由两个子网络构成,总体结构如图1所示。其中,图像内容约束网络基于噪声图像与干净图像在内容上的强关联性,使用噪声图像代替干净图像恢复图像内容。图像质量约束网络通过引入一个无参考的图像质量评估网络来控制骨干网络的优化方向,使其最终产生高质量的图像。与有监督方法相比, CQDeNet在训练过程中放宽了对数据的限制,未使用像素级对齐的噪声/干净图像样本对。在预训练质量约束网络时利用了图像全局级的噪声/干净类别监督信息,因此,所提CQDeNet可视为一种弱监督去噪算法。
2.1 图像内容约束网络
CQDeNet中使用的图像内容约束网络类似有监督的去噪算法,其核心组件是去噪骨干网络。本文为保证CQDeNet方法的计算效率,选用文献[19]所提基于Transformer编码器和卷积解码器的高效去噪网络(Transformer Encoder and Convolutional Decoder Network, TECDNet)作为骨干网。这主要是由于TECDNet具备较大的模型容量同时还拥有极低的计算复杂度。TECDNet是一种非对称的去噪网络,采用表征能力更强的视觉Transformer结合改进的自注意力机制作为骨干网络,采用基于深度可分离的残差卷积网络作为解码器,实现高性能和低复杂度的优势。由于CQDeNet具有良好的扩展性,该部分可以灵活替换为其他类型的网络结构,例如UNet[20]等。
不同于N2V中盲点网络的设计,CQDeNet选择了一种更加简单直接的方式:从单一的噪声图像中构建监督信号。本文将噪声图像进行掩码处理,直接对噪声图像加入不同强度的合成噪声,注意原始的噪声图像是在真实场景下采集的失真图像,对真实图像注入的噪声是符合高斯分布的白噪声。假设真实噪声图像
y=x+ns ,其中x 为干净图像信号,ns 为噪声残差,通过加入高斯白噪声生成了新数据y'=y+nc ,nc∼N(0,σ2) ,然后将新生成的噪声图像y' 作为输入,将真实噪声图像y 作为目标图像,送入TECDNet进行训练。与有监督方案不同的是,训练数据使用(y',y) 来替代真实噪声图像和干净图像对,从真实噪声图像中来挖掘监督信号,这一过程借鉴合成去噪训练的思路。而在推理时,送入内容约束网络的是真实噪声图像,没有加入合成噪声这一过程,以符合真实世界的应用场景,并能够提供更贴近实际需求的去噪效果。通过上述的数据处理策略,CQDeNet可以使用有监督框架训练内容约束网络。然而由于目标图像依然是噪声图像,TECDNet会学习到图像中失真的部分,无法很好控制生成图像的视觉质量,它的主要作用是约束骨干网络生成的图像内容,使其与干净图像在结构和内容上保持一致。对于生成图像的视觉质量,CQDeNet引入一个全新的图像质量约束网络进行处理。
2.2 图像质量约束网络
为有效约束TECDNet的优化方向,控制去噪图像的视觉质量,CQDeNet引入一个自定义非参考图像质量评估网络NR-IQA。如图2所示,图像质量约束网络的核心部分是一个二分类卷积神经网络,通过设置伪标签的形式进行预训练,其中1代表待评估的图像质量较高,0表示图像质量低。在NR-IQA中使用最轻量的ConvNext-T[21]网络,它仅拥有2.3G MACs的计算复杂度和28M的空间复杂度。ConvNext是目前卷积神经网络中性能最优的一类架构,从ResNet[22]与Swin Transformer[23]中演化而来,使用了7×7的大卷积核来构造残差块,具体细节见文献[21]。本文将ConvNext-T输出的特征向量维度设为128,输出类别设为2,其他部分与原始结构保持一致。
图像质量约束网络采用无需像素级对齐的噪声/干净两类图像样本集进行训练,在实际应用中这样的训练样本比较容易采集。干净图像的标签设为1,噪声图像的标签设为0,预先训练一个分类网络。待图像质量约束网络收敛后,冻结网络中的所有参数,并将其接入到图像内容约束网络之后,形成完整的CQDeNet,最后对CQDeNet进行端到端的训练。在训练CQDeNet的过程中图像质量约束网络不会计算相应的梯度信息,不参与整个方法的优化过程,而是作为一种准则对骨干网络进行约束,控制骨干网络收敛方向,生成高质量的图像。
2.3 损失函数
CQDeNet训练过程中使用的损失函数主要包括内容损失函数
Lc 与图像质量损失函数Lq 。设真实噪声图像为y ,添加高斯噪声后图像为y' ,骨干网络TECDNet为f ,对应的参数为θ ,去噪后的图像为y″ ,图像质量约束网络为。CQDeNet训练中使用的损失函数 如公式(3)所示。 其中,
是权重参数,用于调节内容损失与图像质量损失之间的关系。基于公式(3)中的损失函数,采用端到端方式训练CQDeNet,而在推理阶段CQDeNet只需使用骨干网络 来进行处理。 3. 实验分析与测试
3.1 图像质量约束网络预训练
从McMaster[24]等数据集中收集视觉质量好的图像作为干净图像样本,通过对其添加SIDD训练集图像中的噪声残差来模拟生成噪声图像样本,与SIDD训练集[17]一起作为训练样本集对图像质量约束网络进行预训练。记干净图像的样本标签设为1,噪声图像的样本标签设为0。待网络稳定收敛后,利用其测试在不同数据集上的图像视觉质量二分类结果。在此相当于使用分类的准确率作为无参图像质量评价指标。如表1所示,在SIDD测试集[22]、PolyU数据集[25]和CC60数据集[26]上均取得较高的分类准确率,说明所训练的质量约束网络能有效区分干净和噪声图像。
表 1 图像质量约束网络对不同数据集的分类准确率Tab. 1. Classification accuracy of image quality-constrained network on different datasets数据集 图像数量 准确率 PolyU 100 94.0% CC60 60 100.0% SIDD 1280 99.4% 3.2 噪声图像训练的内容约束网络
本实验只使用单一的噪声图像训练骨干去噪网络的策略训练内容约束网络。具体来说,将图像质量约束网络从CQDeNet中移除,训练数据仅包含SIDD训练集中的噪声图像。通过向真实噪声图像中添加高斯白噪声生成新的噪声图像,然后用新生成的噪声图像与真实噪声图像训练去噪网络,总共训练30轮。最后在SIDD测试集上对训练后的去噪骨干网络进行评估,表2展示了相应的实验结果。通过对比可以发现,本文所提训练策略可有效训练图像内容约束网络,在高斯噪声标准差
=70时性能达到最优。 表 2 图像内容约束网络实验对比结果Tab. 2. Experimental results of the image content-constrained network方法 高斯噪声标准差 SIDD 测试集 PSNR/dB SSIM 基线:N2V 无 27.682 0.6680 图像内容约束网络 15 28.225 0.7036 25 31.417 0.7719 35 32.631 0.8206 45 33.125 0.8538 55 33.138 0.9006 65 33.702 0.9114 70 33.827 0.9179 75 33.256 0.9189 3.3 消融实验
本实验主要验证CQDeNet中各模块的有效性,具体测试结果如表3所示。
, , 三种方案分别表示使用内容约束损失、使用质量约束损失、联合使用内容和质量约束损失训练所提去噪模型。测试结果表明,内容约束损失对去噪性能发挥主要作用,联合使用两种损失时得到的去噪性能最佳。因此,CQDeNet模型采用 方案,其中 。 表 3 消融实验结果Tab. 3. Results of ablation experiments方案设置 比例系数 SIDD数据集 PSNR/dB SSIM Lc — 33.827 0.918 Lq — 24.366 0.643 Lc + Lq 0.1 34.300 0.927 0.01 34.642 0.931 0.005 34.505 0.931 0.001 34.832 0.938 3.4 算法性能比较实验
本节评估了CQDeNet在SIDD和DND数据集上的真实图像去噪效果。在基准数据集DND上的性能评估属于跨库测试,以验证方法的泛化能力。与12种先进的去噪算法进行性能比较,包括2种传统的非学习类去噪算法BM3D[2]、WNNM[3],使用合成噪声图像对训练的有监督去噪模型DnCNN[5]、CBDNet[6]等,使用真实图像对进行训练的4种有监督去噪模型DnCNN[5]、RIDNet[8]、Uformer[9]、TECDNet[19]以及4种无监督去噪算法,包括N2V[12]、N2S[13]、R2R[14]、Wang[10]。选取PSNR和SSIM两个指标评估各算法的性能,定量的测试结果如表4所示。在两个数据集上,CQDeNet比传统去噪方法取得了更好的去噪性能。与N2N系列无监督方法相比,CQDeNet也有显著的优势,例如SIDD上CQDeNet的PSNR和SSIM(34.83 dB/0.938)远高于N2V(27.68 dB/0.668)和N2S(29.56 dB/0.808)。相比最新的无监督方法R2R和Wang,CQDeNet方法的SSIM分别高出0.04和0.169。与有监督方法相比,CQDeNet在未使用像素级对齐的噪声/干净图像样本对情形下表现出有竞争力的去噪性能。同时,所提CQDeNet作为一种弱监督去噪算法,其性能优于所比较的4种无监督去噪算法。
表 4 不同去噪算法的性能比较测试结果Tab. 4. Test results for performance comparison of various denoising algorithms去噪算法类型 算法 SIDD数据集 DND数据集 PSNR/dB SSIM PSNR/dB SSIM 非学习类 BM3D[2] 25.65 0.685 34.51 0.851 WNNM[3] 25.78 0.809 34.67 0.865 有监督类(合成图像训练) DnCNN[5] 23.66 0.583 32.43 0.790 CBDNet[6] 33.28 0.868 38.05 0.942 Zhou[7] 33.81 0.898 38.40 0.945 有监督类(真实图像训练) DnCNN[5] 33.47 0.864 38.62 0.927 RIDNet[8] 38.71 0.951 39.26 0.953 Uformer[9] 39.77 0.970 39.96 0.956 TECDNet[19] 39.77 0.970 39.92 0.955 无监督类 N2V[12] 27.68 0.668 - - N2S[13] 29.56 0.808 36.11 0.869 R2R[14] 34.78 0.898 - - Wang [10] 30.40 0.769 34.33 0.872 弱监督 CQDeNet 34.83 0.938 37.21 0.922 4. 结论
为降低对像素级标注样本的依赖,本文提出了一种基于弱监督的真实图像去噪模型CQDeNet,主要包括图像内容约束网络与图像质量约束网络两部分。通过联合两个子网络,还原出图像的内容信息并生成高质量的去噪后图像。与已有的有监督和无监督真实图像去噪方法不同,所提方法不依赖像素级对齐的噪声/干净图像对数据标注,不受噪声残差为零均值的约束,实际应用更灵活。对真实图像标准测试集的广泛评估结果表明,CQDeNet能有效去除真实图像中的噪声。
-
表 1 图像质量约束网络对不同数据集的分类准确率
Table 1 Classification accuracy of image quality-constrained network on different datasets
数据集 图像数量 准确率 PolyU 100 94.0% CC60 60 100.0% SIDD 1280 99.4% 表 2 图像内容约束网络实验对比结果
Table 2 Experimental results of the image content-constrained network
方法 高斯噪声标准差 SIDD 测试集 PSNR/dB SSIM 基线:N2V 无 27.682 0.6680 图像内容约束网络 15 28.225 0.7036 25 31.417 0.7719 35 32.631 0.8206 45 33.125 0.8538 55 33.138 0.9006 65 33.702 0.9114 70 33.827 0.9179 75 33.256 0.9189 表 3 消融实验结果
Table 3 Results of ablation experiments
方案设置 比例系数 SIDD数据集 PSNR/dB SSIM Lc — 33.827 0.918 Lq — 24.366 0.643 Lc + Lq 0.1 34.300 0.927 0.01 34.642 0.931 0.005 34.505 0.931 0.001 34.832 0.938 表 4 不同去噪算法的性能比较测试结果
Table 4 Test results for performance comparison of various denoising algorithms
去噪算法类型 算法 SIDD数据集 DND数据集 PSNR/dB SSIM PSNR/dB SSIM 非学习类 BM3D[2] 25.65 0.685 34.51 0.851 WNNM[3] 25.78 0.809 34.67 0.865 有监督类(合成图像训练) DnCNN[5] 23.66 0.583 32.43 0.790 CBDNet[6] 33.28 0.868 38.05 0.942 Zhou[7] 33.81 0.898 38.40 0.945 有监督类(真实图像训练) DnCNN[5] 33.47 0.864 38.62 0.927 RIDNet[8] 38.71 0.951 39.26 0.953 Uformer[9] 39.77 0.970 39.96 0.956 TECDNet[19] 39.77 0.970 39.92 0.955 无监督类 N2V[12] 27.68 0.668 - - N2S[13] 29.56 0.808 36.11 0.869 R2R[14] 34.78 0.898 - - Wang [10] 30.40 0.769 34.33 0.872 弱监督 CQDeNet 34.83 0.938 37.21 0.922 -
[1] 肖延辉,田华伟,张永胜. 结合深度迭代缩放卷积神经网络的PRNU提取算法[J]. 信号处理,2020,36(9):1582- 1589. doi:10.16798/j.issn.1003-0530.2020.09.024 doi: 10.16798/j.issn.1003-0530.2020.09.024 XIAO Yanhui,TIAN Huawei,ZHANG Yongsheng. PRNU extraction algorithm combined with deep iterative down-up CNN model[J]. Journal of Signal Processing,2020,36(9):1582- 1589.(in Chinese). doi:10.16798/j.issn.1003-0530.2020.09.024 doi: 10.16798/j.issn.1003-0530.2020.09.024
[2] DABOV K,FOI A,KATKOVNIK V,et al. Image denoising by sparse 3-D transform-domain collaborative filtering[J]. IEEE Transactions on Image Processing,2007,16(8):2080- 2095. doi:10.1109/tip.2007.901238 doi: 10.1109/tip.2007.901238
[3] GU Shuhang,ZHANG Lei,ZUO Wangmeng,et al. Weighted nuclear norm minimization with application to image denoising[C]// IEEE Conference on Computer Vision and Pattern Recognition(CVPR). Columbus,OH,USA. IEEE,2014:2862- 2869. doi:10.1109/cvpr.2014.366 doi: 10.1109/cvpr.2014.366
[4] 张梦磊,刘舟,任俊英,等. 同伦方法在图像稀疏去噪中的应用[J]. 信号处理,2018,34(1):89- 97. doi:10.16798/j.issn.1003-0530.2018.01.011 doi: 10.16798/j.issn.1003-0530.2018.01.011 ZHANG Menglei,LIU Zhou,REN Junying,et al. Homotopy method for sparse model and application to image denoising[J]. Journal of Signal Processing,2018,34(1):89- 97.(in Chinese). doi:10.16798/j.issn.1003-0530.2018.01.011 doi: 10.16798/j.issn.1003-0530.2018.01.011
[5] ZHANG Kai,ZUO Wangmeng,CHEN Yunjin,et al. Beyond a Gaussian denoiser:residual learning of deep CNN for image denoising[J]. IEEE Transactions on Image Processing,2017,26(7):3142- 3155. doi:10.1109/tip.2017.2662206 doi: 10.1109/tip.2017.2662206
[6] GUO Shi,YAN Zifei,ZHANG Kai,et al. Toward convolutional blind denoising of real photographs[C]// IEEE Conference on Computer Vision and Pattern Recognition(CVPR). Long Beach,CA,USA. IEEE,2020:1712- 1722. doi:10.1109/cvpr.2019.00181 doi: 10.1109/cvpr.2019.00181
[7] ZHOU Yuqian,JIAO Jianbo,HUANG Haibin,et al. When AWGN-based denoiser meets real noises[C]// AAAI Conference on Artificial Intelligence. New York,USA. AAAI,2020,34(7):13074- 13081. doi:10.1609/aaai.v34i07.7009 doi: 10.1609/aaai.v34i07.7009
[8] ANWAR S,BARNES N. Real image denoising with feature attention[C]// IEEE International Conference on Computer Vision(ICCV). Seoul,Korea. IEEE,2020:3155- 3164. doi:10.1109/iccv.2019.00325 doi: 10.1109/iccv.2019.00325
[9] WANG Zhendong,Xiaodong CUN,BAO Jianmin,et al. Uformer:A general U-shaped transformer for image restoration[C]// IEEE Conference on Computer Vision and Pattern Recognition(CVPR). New Orleans,LA,USA. IEEE,2022:17662- 17672. doi:10.1109/cvpr52688.2022.01716 doi: 10.1109/cvpr52688.2022.01716
[10] 王迪,潘金山,唐金辉. 基于自监督约束的双尺度真实图像盲去噪算法[J]. 软件学报,2023,34(6):2942- 2958. WANG Di,PAN Jinshan,TANG Jinhui. Two-scale real image blind denoising with self-supervised constraints[J]. Journal of Software,2023,34(6):2942- 2958.(in Chinese)
[11] LEHTINEN J,MUNKBERG J,HASSELGREN J,et al. Noise2Noise:Learning image restoration without clean data[EB/OL]. 2018:arXiv:1803. 04189. https://arxiv.org/abs/1803.04189.
[12] KRULL A,BUCHHOLZ T O,JUG F. Noise2Void- learning denoising from single noisy images[C]// IEEE Conference on Computer Vision and Pattern Recognition(CVPR). Long Beach,CA,USA. IEEE,2020:2124- 2132. doi:10.1109/cvpr.2019.00223 doi: 10.1109/cvpr.2019.00223
[13] BATSON J,ROYER L. Noise2Self:Blind denoising by self-supervision[EB/OL]. 2019:arXiv:1901. 11365. https://arxiv.org/abs/1901.11365. doi:10.1090/mbk/121/79 doi: 10.1090/mbk/121/79
[14] PANG Tongyao,ZHENG Huan,QUAN Yuhui,et al. Recorrupted-to-recorrupted:Unsupervised deep learning for image denoising[C]// IEEE Conference on Computer Vision and Pattern Recognition(CVPR). Nashville,TN,USA. IEEE,2021:2043- 2052. doi:10.1109/cvpr46437.2021.00208 doi: 10.1109/cvpr46437.2021.00208
[15] 王瀚琛. 基于深度学习的真实图像去噪算法研究[D]. 成都:电子科技大学,2021. WANG Hanchen. Research on real image denoising algorithm based on deep learning[D]. Chengdu:University of Electronic Science and Technology of China,2021.(in Chinese)
[16] ZHAI Guangtao,MIN Xiongkuo. Perceptual image quality assessment:A survey[J]. Science China Information Sciences,2020,63(11):211301. doi:10.1007/s11432-019-2757-1 doi: 10.1007/s11432-019-2757-1
[17] ABDELHAMED A,LIN S,BROWN M S. A high-quality denoising dataset for smartphone cameras[C]// IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City,UT,USA. IEEE,2018:1692- 1700. doi:10.1109/cvpr.2018.00182 doi: 10.1109/cvpr.2018.00182
[18] PLOTZ T,ROTH S. Benchmarking denoising algorithms with real photographs[C]// IEEE Conference on Computer Vision and Pattern Recognition(CVPR). Honolulu,HI,USA. IEEE,2017:2750- 2759. doi:10.1109/cvpr.2017.294 doi: 10.1109/cvpr.2017.294
[19] ZHAO Mo,CAO Gang,HUANG Xianglin,et al. Hybrid transformer-CNN for real image denoising[J]. IEEE Signal Processing Letters,2022,29:1252- 1256. doi:10.1109/lsp.2022.3176486 doi: 10.1109/lsp.2022.3176486
[20] RONNEBERGER O,FISCHER P,BROX T. U-net:Convolutional networks for biomedical image segmentation[C]// International Conference on Medical Image Computing and Computer-Assisted Intervention. Cham:Springer,2015:234- 241. doi:10.1007/978-3-319-24574-4_28 doi: 10.1007/978-3-319-24574-4_28
[21] LIU Zhuang,MAO Hanzi,WU Chaoyuan,et al. A ConvNet for the 2020 s[C]// IEEE Conference on Computer Vision and Pattern Recognition(CVPR). New Orleans,LA,USA. IEEE,2022:11966- 11976. doi:10.1109/cvpr52688.2022.01167 doi: 10.1109/cvpr52688.2022.01167
[22] HE Kaiming,ZHANG Xiangyu,REN Shaoqing,et al. Deep residual learning for image recognition[C]// IEEE Conference on Computer Vision and Pattern Recognition(CVPR). Las Vegas,NV,USA. IEEE,2016:770- 778. doi:10.1109/cvpr.2016.90 doi: 10.1109/cvpr.2016.90
[23] LIU Ze,LIN Yutong,CAO Yue,et al. Swin transformer:Hierarchical vision transformer using shifted windows[C]// IEEE International Conference on Computer Vision(ICCV). Montreal,QC,Canada. IEEE,2022:9992- 10002. doi:10.1109/iccv48922.2021.00986 doi: 10.1109/iccv48922.2021.00986
[24] ZHANG L,WU X,BUADES A,et al. Color demosaicking by local directional interpolation and nonlocal adaptive thresholding[J]. Journal of Electronic imaging,2011,20(2):023016(1-16. doi:10.1117/1.3600632 doi: 10.1117/1.3600632
[25] XU Jun,LI Hui,LIANG Zhetong,et al. Real-world noisy image denoising:A new benchmark[EB/OL]. 2018:arXiv:1804. 02603. https://arxiv.org/abs/1804.02603.
[26] NAM S,HWANG Y,MATSUSHITA Y,et al. A holistic approach to cross-channel image noise modeling and its application to image denoising[C]// IEEE Conference on Computer Vision and Pattern Recognition(CVPR). Las Vegas,NV,USA. IEEE,2016:1683- 1691. doi:10.1109/cvpr.2016.186 doi: 10.1109/cvpr.2016.186