基于深度反向投影的感知增强超分辨率重建模型
以SRCNN(super-resolution convolutional neural network)模型为代表的超分辨率重建模型通常都有很高的PSNR(peak signal to noise ratio)和SSIM(structural similarity)值,但其在视觉感知上并不令人满意,而以SRGAN为代表的拥有高感知质量的GAN(generative adversarial networks)模型却很容易产生大量的伪细节,这表现在其PSNR和SSIM值通常都较低.针对上述问题,提出了一种基于深度反向投影的感知增强超分辨率重建模型.该模型采用双尺度自适应加权融合特征提取模块进行特征提取,然后通过深度反向投影进行上采样,最终由增强模块增强后得到最终输出.模型采用残差连接与稠密连接,有助于特征的共享以及模型的有效训练.在指标评价上,引入了基于学习的LPIPS(learned perceptual image patch similarity)度量作为新的图像感知质量评价指标,与PSNR、SSIM一起作为模型评价指标.实验结果表明,模型在测试数据集上PSNR、SSIM、LPIPS的平均值分别为27.84、0.7320、0.1258,各项指标均优于对比算法.
超分辨率重建;感知质量;深度反向投影;LPIPS度量
42
TP391.4;TN919.81(计算技术、计算机技术)
国家自然科学基金;陕西省自然科学基金
2021-08-11(万方平台首次上网日期,不代表论文的发表时间)
共8页
691-697,716