视频放大和深度学习在微表情识别任务上的应用
针对微表情动作过于微弱不利于识别和目前主流方法合并情绪类别不利于微表情在现实任务中的应用2个问题,提出一种基于眼部干扰消除的视频放大方法,并利用卷积神经网络实现微表情识别任务.首先,利用基于相位的视频动作处理技术对微表情数据集CASME和CASMEⅡ中的视频数据进行放大;然后利用特征点定位获取眼部坐标,并将原始眼部视频替换到放大视频中进行图像融合,以实现对眼部干扰的消除操作;最后利用VGG16的思想设计卷积神经网络模型网络,实现对放大后的微表情数据情绪类别的识别.实验在不同方法下分别对2个数据集的准确率进行对比,并用几种调优策略下的模型分别就原始数据集和放大数据集的准确率进行对比.结果表明,文中方法能够更好地提升真实情绪分类状态下的微表情识别准确率.
微表情、视频放大、卷积神经网络、情绪识别
31
TP391.41(计算技术、计算机技术)
国家自然科学基金61163019,61271361,61540062;云南省应用基础研究计划重点项目2014FA021;云南省教育厅科学研究基金产业化培育项目2016CYH03
2019-11-18(万方平台首次上网日期,不代表论文的发表时间)
共7页
1535-1541