10.3778/j.issn.1002-8331.2207-0410
基于多尺度注意力特征融合的场景文本检测
针对目前文本检测中小尺度文本和长文本检测精度低的问题,提出了一种基于多尺度注意力特征融合的场景文本检测算法.该方法以Mask R-CNN为基线模型,引入Swin_Transformer作为骨干网络提取底层特征.在特征金字塔(feature pyramid networks,FPN)中,通过将多尺度注意力热图与底层特征通过横向连接相融合,使检测器的不同层级专注于特定尺度的目标,并利用相邻层注意力热图之间的关系实现了FPN结构中的纵向特征共享,避免了不同层之间梯度计算的不一致性问题.实验结果表明:在ICDAR2015数据集上,该方法的准确率、召回率和F值分别达到了88.3%、83.07%和85.61%,在CTW1500和Total-Text弯曲文本数据集上相较现有方法均有良好表现.
场景文本检测、Mask R-CNN、Swin Transformer、注意力机制、多尺度特征融合
60
TP391(计算技术、计算机技术)
陕西省自然科学基础研究;陕西省科技计划;陕西省教育厅项目
2024-01-18(万方平台首次上网日期,不代表论文的发表时间)
共9页
198-206