类别信息生成式对抗网络的单图超分辨重建
目的 基于生成式对抗网络的超分辨模型(SRGAN)以感知损失函数作为优化目标,有效解决了传统基于均方误差(MSE)的损失函数导致重建图像模糊的问题.但是SRGAN的感知损失函数中并未添加明确指示模型生成对应特征的标志性信息,使得其无法精准地将数据的具体维度与语义特征对应起来,受此局限性影响,模型对于生成图像的特征信息表示不足,导致重建结果特征不明显,给后续识别处理过程带来困难.针对上述问题,在SRGAN方法的基础上,提出一种类别信息生成式对抗网络的超分辨模型(class-info SRGAN).方法 对SRGAN模型增设类别分类器,并将类别损失项添加至生成网络损失中,再利用反向传播训练更新网络参数权重,以达到为模型提供特征类别信息的目的,最终生成具有可识别特征的重建图像.创新及优势在于将特征类别信息引入损失函数,改进了超分辨模型的优化目标,使得重建结果的特征表示更加突出.结果 经CelebA数据集测试表明:添加性别分类器的class-info SRGAN的生成图像性别特征识别率整体偏高(58%~97%);添加眼镜分类器的class-infoSRGAN的生成图像眼镜框架更加清晰.此外,模型在Fashion-mnist与Cifar-1O数据集上的结果同样表明其相较于SRGAN的重建质量更佳.结论 实验结果验证了本方法在超分辨重建任务中的优势和有效性,同时结果显示:虽然class-info SRGAN更适用于具有简单、具体属性特征的图像,但总体而言仍是一种效果显著的超分辨模型.
SRGAN、感知损失函数、MSE、类别信息、class-info SRGAN
23
TP391(计算技术、计算机技术)
国家自然科学基金青年科学基金项目61601271;陕西省重点研发计划项目2017NY-124;陕西省科学技术研究发展计划项目2014K15-03-06;陕西省社会发展科技攻关项目2016SF444,2015SF277;西安市科技计划项目NC13191;NC1403,NC14032
2019-01-04(万方平台首次上网日期,不代表论文的发表时间)
共12页
1777-1788