多尺度多特征融合的行人重识别模型
为了解决行人重识别中行人特征表达不充分、忽视相邻区域的语义相关性等问题,提出了多尺度多特征融合的行人重识别模型.首先,通过多分支结构获取包含不同信息的特征图;其次,通过组合相邻的局部区域,强调局部特征之间的语义相关性;最后,结合最大池化和平均池化的优势,从不同的方向学习更加全面的特征信息.分别在Market-1501,DukeMTMC-reID以及MSMT17数据集上进行实验,结果表明,在光照不同、拍摄角度不同等环境下,文中模型的mAP分别达到了88.40%,78.50%,59.20%,能够有效地提取行人特征,识别精度较高.
深度学习、行人重识别、多尺度多特征、特征融合
34
TP391.41(计算技术、计算机技术)
国家自然科学基金;佛山市科技创新专项基金
2023-02-10(万方平台首次上网日期,不代表论文的发表时间)
共9页
1868-1876