基于文本特征融合的双流生成对抗修复网络
为解决深度学习技术存在特征挖掘不充分、语义表达不完整等问题,消除修复图像存在伪影或模糊纹理等现象,本文构建了上下文特征融合的双流生成对抗修复网络,以实现重建、感知与风格损失的补偿,从而使修复后的图像实现全局一致性.该网络采用融入注意力机制的U-Net作为主干网络,充分提取图像结构和纹理特征.采用上下文本特征融合网络充分挖掘图像高级语义及特征信息的上下文关系,实现空洞区域的结构及纹理特征的填充与精细修复.采用结构与纹理双流鉴别器来估计纹理和结构的特征并统计信息来区分真实图像和生成图像.采用基于语义的联合损失函数以增强修复图像在语义上的真实性.将本文算法与对比算法中表现最好的CTSDG算法在CelebA和Places2数据集上进行对比,其中PSNR与SSIM值在CelebA上分别提升2.74 dB和5.80%,FID下降4.02;PSNR与SSIM值在Place2上分别提升4.15 dB和3.33%,FID下降2.33.因此,改进的图像修复方法的客观评价指标更优,能够更加有效地修复破损图像的结构和纹理信息,使得图像修复的性能更佳.
注意力机制、双流结构、生成对抗网络、双流鉴别器、联合损失函数
37
TP391.4(计算技术、计算机技术)
四川省科技成果转移转化示范项目;海南省Internet信息检索重点实验室开放基金项目;四川省机器人与智能系统国际联合研究中心开放研究课题;四川轻化工大学研究生创新基金项目
2024-09-04(万方平台首次上网日期,不代表论文的发表时间)
共11页
36-46