10.3969/j.issn.1006-2475.2021.05.004
基于风格迁移的手势分割方法
基于全卷积神经网络的手势分割方法过于依赖大量精准标注的训练样本,同时由于提取特征中缺乏足够的上下文信息,常出现类内不一致的错分现象.针对上述问题,本文提出一种基于风格迁移的手势分割方法.首先选择HGR-Net手势分割网络的前5层作为主干网络,并在主干网各层添加上下文信息增强层,使用全局均值池化操作,结合通道注意机制,增强显著性特征通道的权值,保证特征上下文信息的连续性,从而解决类内不一致问题;其次,本文还提出一种基于风格迁移的领域自适应方法,使用VGG网络,对源域测试图像进行风格迁移预处理,使其同时具有自身内容和目标域训练样本图像的风格,提高本文的手势分割模型的泛化能力,从而解决跨域样本的分割问题.使用OUHANDS数据集进行测试,本文的手势分割结果mIoU和MPA分别为0.9143和0.9363,较HGR-Net手势分割网络提高了3.2个百分点和1.8个百分点.使用本文的风格迁移方法,并在自采集数据集上进行测试,迁移后的mIoU和MPA值分别提高了19个百分点和23个百分点.本文的风格迁移领域自适应方法为无标记样本的跨域分割提供了一种新的思路.
手势分割、HGR-Net、上下文、风格迁移
TP391.41;TP18(计算技术、计算机技术)
国家自然科学基金;陕西省重点研发计划项目;航天预研项目
2021-06-09(万方平台首次上网日期,不代表论文的发表时间)
共7页
20-25,37