基于Transformer特征融合的时间序列分类网络
在时间序列分类任务中,模型集成方法通过训练多个基础模型并利用一定的规则来聚合基础模型的输出,从而得到比单一基础模型更准确的结果.目前模型集成方法主要关注基础模型的选择以及如何提高基础模型的差异性和多样性,忽视了对聚合规则的探索.针对这一问题,提出了基于Transformer特征融合的时间序列分类网络(Transformer Feature Fusion Net-work,TFFN).该网络包含二重 Transformer 编解码器(Dual Transformer Encoder Decoder,Dual TED)和基于 Transformer 的具有样本分布感知特性的分类模块(Transformer Encoder Head,TEH)两 个核心 组件.Dual TED利用Transformer的 注意力模块对基础特征进行提取和融合,得到具有更强辨别性的融合特征.具有样本分布感知特性的分类模块根据融合特征对时间序列进行更准确的分类,从而弥补现有集成模型方法忽视特征融合、集成规则过于简单的不足.实验结果表明,TFFN在多个主流时间序列分类数据集上取得了最好的成绩.
时间序列分类、模型集成、Transformer、特征融合、深度学习
50
TP391(计算技术、计算机技术)
2023-12-21(万方平台首次上网日期,不代表论文的发表时间)
共7页
97-103