面向自然语言处理的深度学习对抗样本综述
深度学习模型被证明存在脆弱性并容易遭到对抗样本的攻击,但目前对于对抗样本的研究主要集中在计算机视觉领域而忽略了自然语言处理模型的安全问题.针对自然语言处理领域同样面临对抗样本的风险,在阐明对抗样本相关概念的基础上,文中首先对基于深度学习的自然语言处理模型的复杂结构、难以探知的训练过程和朴素的基本原理等脆弱性成因进行分析,进一步阐述了文本对抗样本的特点、分类和评价指标,并对该领域对抗技术涉及到的典型任务和数据集进行了阐述;然后按照扰动级别对主流的字、词、句和多级扰动组合的文本对抗样本生成技术进行了梳理,并对相关防御方法进行了归纳总结;最后对目前自然语言处理对抗样本领域攻防双方存在的痛点问题进行了进一步的讨论和展望.
自然语言处理、深度学习、人工智能安全、对抗样本、鲁棒性
48
TP301(计算技术、计算机技术)
2020CCF-绿盟科技"鲲鹏"科研基金;公安部科技强警基础专项;国家社会科学基金重点项目;中国人民公安大学拔尖创新人才培养经费支持硕士研究生项目;中国人民公安大学公共安全行为科学研究;技术创新项目
2021-02-02(万方平台首次上网日期,不代表论文的发表时间)
共10页
258-267