深度跨模态环境声音合成
随着计算机图形学技术的不断发展,用户对视频及动画的声音质量提出了更高的要求.针对现有方法中存在的算法复杂度高,可扩展性不强等问题,提出一种基于CGAN和SampleRNN的深度学习的环境声音合成算法,采用VGG网络模型提取视频深度特征.并将视频深度特征通过一个时序同步网络模型,实现具有更高同步性的视频到音频的跨模态特征转换;通过音色增强网络模型对合成声音的音色进行增强,以提高网络结构的可扩展性,并得到最终与视频同步的、真实感较强的环境声.通过对音视频跨模态数据集中12类不同类别视频进行训练与测试,结果的主观与客观评价表明,文中算法所生成的结果真实感强,提高了现有算法的可扩展性.
环境声音合成、深度学习、跨模态、时序同步网络模型、音色增强网络模型
31
TP391.41(计算技术、计算机技术)
国家自然科学基金61672375, 61170118
2019-12-31(万方平台首次上网日期,不代表论文的发表时间)
共9页
2047-2055