10.19363/J.cnki.cn10-1380/tn.2020.05.01
深度学习模型可解释性的研究进展
深度学习在很多人工智能应用领域中取得成功的关键原因在于,通过复杂的深层网络模型从海量数据中学习丰富的知识.然而,深度学习模型内部高度的复杂性常导致人们难以理解模型的决策结果,造成深度学习模型的不可解释性,从而限制了模型的实际部署.因此,亟需提高深度学习模型的可解释性,使模型透明化,以推动人工智能领域研究的发展.本文旨在对深度学习模型可解释性的研究进展进行系统性的调研,从可解释性原理的角度对现有方法进行分类,并且结合可解释性方法在人工智能领域的实际应用,分析目前可解释性研究存在的问题,以及深度学习模型可解释性的发展趋势.为全面掌握模型可解释性的研究进展以及未来的研究方向提供新的思路.
深度学习模型、可解释性、人工智能
5
TP181(自动化基础理论)
本课题得到国家自然科学基金No.61772513
2020-07-23(万方平台首次上网日期,不代表论文的发表时间)
共13页
前插1,1-12