基于局部注意力图互迁移的可解释性优化方法
目前,深度学习模型已被广泛部署于各个工业领域.然而,深度学习模型具有的复杂性与不可解释性已成为其应用于高风险领域最主要的瓶颈.在深度学习模型可解释性方法中,最重要的方法是可视化解释方法,其中注意力图是可视化解释方法的主要表现方式,可通过对样本图像中的决策区域进行标注,来直观地展示模型决策依据.目前已有的基于注意力图的可视化解释方法中,单一模型注意力图存在标注区域易出现标注错误而造成可视化可解释性置信度不足的问题.针对上述问题,文中提出了一种基于局部注意力图互迁移的可解释性优化方法,用于提升模型注意力图的标注准确度,展示出精准的决策区域,加强视觉层面对模型决策依据的可解释性.具体表现为:采用轻量模型构建互迁移网络结构,于单一模型层间提取特征图并进行叠加,对全局注意力图进行局部划分,使用皮尔逊相关系数对模型间对应的局部注意力图进行相似度度量,随后将局部注意力图进行正则化并结合交叉熵函数对模型注意力图进行迁移.实验结果表明,所提算法显著提升了模型注意力图标注的准确性,并分别实现了28.2%的平均下降率和29.5%的平均增长率,与最先进的算法相比,其在平均下降率方面实现了3.3%的提升.实验结果表明,所提算法能成功地找出样本图像中预测标签最相关区域,而不局限于视觉可视化区域;与现有的同类方法相比,所提方法能更准确地揭示原始CNN模型的决策依据.
可解释性、注意力图、区域划分、相似度、互迁移
49
TP391.4(计算技术、计算机技术)
国家自然科学基金;国家自然科学基金;社会安全风险感知与防控大数据应用国家工程实验室主任基金项目
2022-05-11(万方平台首次上网日期,不代表论文的发表时间)
共7页
64-70