深度学习模型的后门攻击研究综述
近年来,以深度学习为代表的人工智能在理论与技术上取得了重大进展,在数据、算法、算力的强力支撑下,深度学习受到空前的重视,并被广泛应用于各领域.与此同时,深度学习自身的安全问题也引起了广泛的关注.研究者发现深度学习存在诸多安全隐患,其中在深度学习模型安全方面,研究者对后门攻击这种新的攻击范式进行广泛探索,深度学习模型在全生命周期中都可能面临后门攻击威胁.首先分析了深度学习面临的安全威胁,在此基础上给出后门攻击技术的相关背景及原理,并对与之相近的对抗攻击、数据投毒攻击等攻击范式进行区分.然后对近年来有关后门攻击的研究工作进行总结与分析,根据攻击媒介将攻击方案分为基于数据毒化、基于模型毒化等类型,随后详细介绍了后门攻击针对各类典型任务及学习范式的研究现状,进一步揭示后门攻击对深度学习模型的威胁.随后梳理了将后门攻击特性应用于积极方面的研究工作.最后总结了当前后门攻击领域面临的挑战,并给出未来有待深入研究的方向,旨在为后续研究者进一步推动后门攻击和深度学习安全的发展提供有益参考.
深度学习、模型安全、后门攻击、攻击范式、数据毒化
50
TP391(计算技术、计算机技术)
国家自然科学基金;国家自然科学基金;海南省重大科技计划;中国国家铁路集团有限公司科技研究开发计划;中国国家铁路集团有限公司科技研究开发计划
2023-03-22(万方平台首次上网日期,不代表论文的发表时间)
共18页
333-350