期刊专题

10.19363/J.cnki.cn10-1380/tn.2020.05.01

深度学习模型可解释性的研究进展

引用
深度学习在很多人工智能应用领域中取得成功的关键原因在于,通过复杂的深层网络模型从海量数据中学习丰富的知识.然而,深度学习模型内部高度的复杂性常导致人们难以理解模型的决策结果,造成深度学习模型的不可解释性,从而限制了模型的实际部署.因此,亟需提高深度学习模型的可解释性,使模型透明化,以推动人工智能领域研究的发展.本文旨在对深度学习模型可解释性的研究进展进行系统性的调研,从可解释性原理的角度对现有方法进行分类,并且结合可解释性方法在人工智能领域的实际应用,分析目前可解释性研究存在的问题,以及深度学习模型可解释性的发展趋势.为全面掌握模型可解释性的研究进展以及未来的研究方向提供新的思路.

深度学习模型、可解释性、人工智能

5

TP181(自动化基础理论)

本课题得到国家自然科学基金No.61772513

2020-07-23(万方平台首次上网日期,不代表论文的发表时间)

共13页

前插1,1-12

相关文献
评论
暂无封面信息
查看本期封面目录

信息安全学报

2096-1146

10-1380/TN

5

2020,5(3)

相关作者
相关机构

专业内容知识聚合服务平台

国家重点研发计划“现代服务业共性关键技术研发及应用示范”重点专项“4.8专业内容知识聚合服务技术研发与创新服务示范”

国家重点研发计划资助 课题编号:2019YFB1406304
National Key R&D Program of China Grant No. 2019YFB1406304

©天津万方数据有限公司 津ICP备20003920号-1

信息网络传播视听节目许可证 许可证号:0108284

网络出版服务许可证:(总)网出证(京)字096号

违法和不良信息举报电话:4000115888    举报邮箱:problem@wanfangdata.com.cn

举报专区:https://www.12377.cn/

客服邮箱:op@wanfangdata.com.cn