基于深度学习和表情AU参数的人脸动画方法
为了利用计算机方便快捷地生成表情逼真的动漫人物, 提出一种基于深度学习和表情 AU 参数的人脸动画生成方法. 该方法定义了用于描述面部表情的 24 个面部运动单元参数, 即表情 AU 参数, 并利用卷积神经网络和FEAFA 数据集构建和训练了相应的参数回归网络模型. 在根据视频图像生成人脸动画时, 首先从单目摄像头获取视频图像, 采用有监督的梯度下降法对视频帧进行人脸检测, 进而对得到的人脸表情图像准确地回归出表情 AU 参数值, 将其视为三维人脸表情基系数, 并结合虚拟人物相对应的 24 个基础三维表情形状和中立表情形状, 在自然环境下基于表情融合变形模型驱动虚拟人物生成人脸动画. 该方法省去了传统方法中的三维重建过程, 并且考虑了运动单元参数之间的相互影响, 使得生成的人脸动画的表情更加自然、细腻. 此外, 基于人脸图像比基于特征点回归出的表情系数更加准确.
人脸动画、人脸运动单元、融合变形模型、深度学习
31
TP391.41(计算技术、计算机技术)
国家重点研发计划项目2017YFB1002203;国家自然科学基金61671426,61731022,61871258,61471150,61572077;中国科学院大学优秀青年教师科研能力提升项目Y95401YXX2;北京市自然科学基金4182071;中国科学院科研装备研制项目YZ201670
2019-12-04(万方平台首次上网日期,不代表论文的发表时间)
共8页
1973-1980