采用多级拓扑图卷积网络的可变形三维着装人体重建
为了从单幅图像或者多幅图像中重建出可变形的着装人体,提出了一种采用蒙皮多人线性模型(skinned multi-person linear model,SMPL)的多级拓扑构建的图卷积神经网络(multi-level topology graph convolutional network,MTGCN).首先,通过现有方法从图像中预计算对应姿势和体型的光滑人体SMPL模型,并通过图像特征提取网络得到人体的局部特征图;然后,将SMPL模型顶点投影到特征图中,以获取具体位置的局部特征;最后,利用MTGCN对模型顶点偏移产生着装效果,其下采样与上采样模块可融合局部特征从而获取全局特征,并结合残差模块用于弥补全局特征中丢失的局部信息,从而提升重建的人体质量.在使用MGN与SURREAL合成的图像数据集上,实验结果表明,与目前类似的工作相比,该方法能够产生更低的倒角距离误差与点到曲面的距离误差,并且在人体服装细节与人体部位等方面展示出了更好的结果.此外,生成的三维人体模型可以直接在姿势或者体型上变形,以快速生成着装人体动画.
机器学习、图卷积神经网络、三维人体重建、着装人体
34
TP391.41(计算技术、计算机技术)
广东省自然科学基金面上项目;中央高校自然科学类项目
2023-02-10(万方平台首次上网日期,不代表论文的发表时间)
共12页
1899-1910