10.3969/j.issn.1006-2475.2022.04.018
基于音视一致性的音视人眼关注点检测
现有音视人眼关注点检测算法使用双流结构分别对音视信息进行特征提取,随后对音视特征融合得到最终的预测图.但数据集中的音频信息和视觉信息会有不相关的情况,因此在音视不一致时直接对音视特征进行融合会使得音频信息对视觉特征产生消极的影响.针对上述问题,本文提出一种基于音视一致性的音视人眼关注点检测网络(Audio-vis-ual Consistency Network,AVCN).为验证该网络的可靠性,本文在现有音视结合的人眼关注点检测模型上加入音视一致性网络,AVCN对提取的音、视频特征进行一致性二值判断,二者一致时,输出音视融合特征作为最终的预测图,反之则输出视觉占主导的特征作为最终结果.该算法在开放的6个数据集上进行实验,结果表明加入AVCN模型的整体指标会有所提高.
计算机视觉、人眼关注点检测、音视一致性
TP391(计算技术、计算机技术)
2022-05-11(万方平台首次上网日期,不代表论文的发表时间)
共7页
103-109