基于GPU的特征脸算法优化研究
特征脸算法是基于脸部表征的常用人脸辨识方法之一.当训练数据量较大时,不管是训练还是测试模块都非常耗时.基于此,采用CUDA并行运算架构实现GPU加速特征脸算法.针对GPU并行运算的效果取决于硬件规格、算法本身的复杂度和可并行性,以及程序开发者使用GPU的并行化方式等因素,文中首先提出在特征脸算法训练阶段的计算平均值、zero mean、正规化特征脸等计算步骤以及测试阶段的投影到特征脸空间、计算欧几里得距离等计算步骤使用GPU优化加速;其次在相应计算步骤采用不同的并行化加速方法并做出效能评估.实验结果表明,在人脸训练数据量在320~1920的范围内,各计算步骤加速效果明显.与Intel i7-5960X相比,GTX1060显示适配器在训练模块中可达到平均约71.7倍的加速效果,在测试模块中可达到平均约34.1倍的加速效果.
人脸辨识、特征脸、GPU并行运算、旋转运算、核心函数
48
TP301(计算技术、计算机技术)
国家自然科学基金;新疆社科基金;新疆财经大学青年博士基金
2021-04-19(万方平台首次上网日期,不代表论文的发表时间)
共8页
197-204