10.3969/j.issn.1006-2475.2023.07.014
基于CNN-Transformer混合结构的遥感影像变化检测模型
卷积神经网络和Transformer模型的出现,使得遥感影像变化检测技术不断进步,但是目前这2种方法仍存在不足:一方面,卷积神经网络由于其卷积核局部感知的特点无法对遥感影像进行全局信息建模;另一方面,Transformer虽然可以捕获遥感影像的全局信息,但是对影像变化的细节信息不能很好地建模,且其计算复杂度随图像的分辨率呈二次方增长.为了解决上述问题,获得更稳健的变化检测结果,本文提出一种基于卷积神经网络和Transformer混合结构的变化检测模型(CNN-Transformer Change Detection Network,CTCD-Net).首先,CTCD-Net串联使用卷积神经网络和基于Transformer编解码结构来有效地编码遥感影像的局部特征和全局特征,从而提升网络的特征学习能力.其次,提出跨通道的Transformer自注意力模块(CSA)和注意力前馈网络(A-FFN),有效地降低了Transformer的计算复杂度.在LEVIR-CD和CDD数据集上进行了充分的实验,实验结果表明,CTCD-Net的检测精确度显著优于目前其他主流方法.
遥感图像、变化检测、卷积神经网络、Transformer
TP391(计算技术、计算机技术)
国家自然科学基金;陕西省重点研发项目;陕西省重点研发项目;陕西省创新能力支撑计划项目
2023-08-25(万方平台首次上网日期,不代表论文的发表时间)
共7页
79-85