基于CM-Transformer的连续手语识别
针对捕获手语动作的全局特征和局部特征以及保留图像中原有的结构和捕获上下文联系,提出了一种改进的卷积多层感知机-自注意力(CM-Transformer)方法用于连续手语识别.CM-Transformer将卷积层的结构一致性优势与自注意力模型编码器的全局建模性能相结合,以捕获长期的序列依赖.同时将自注意力模型前馈层替换为多层感知机,以发挥其平移不变性和局部性.使用随机帧丢弃和随机梯度停止技术,减少时间和空间上的训练计算量,防止过拟合,由此构建一种高效计算的轻量级网络;最后使用连接主义时间分类解码器对输入和输出序列对齐,得到最终的识别结果.在两个大型基准数据集上的实验结果表明了所提方法的有效性.
连续手语识别、卷积神经网络、自注意力模型、多层感知机
45
TP391.41(计算技术、计算机技术)
2022-11-23(万方平台首次上网日期,不代表论文的发表时间)
共6页
49-53,78