10.3778/j.issn.1002-8331.2012-0357
深度学习模型可解释性研究综述
深度学习技术以数据驱动学习的特点,在自然语言处理、图像处理、语音识别等领域取得了巨大成就.但由于深度学习模型网络过深、参数多、复杂度高等特性,该模型做出的决策及中间过程让人类难以理解,因此探究深度学习的可解释性成为当前人工智能领域研究的新课题.以深度学习模型可解释性为研究对象,对其研究进展进行总结阐述.从自解释模型、特定模型解释、不可知模型解释、因果可解释性四个方面对主要可解释性方法进行总结分析.列举出可解释性相关技术的应用,讨论当前可解释性研究存在的问题并进行展望,以推动深度学习可解释性研究框架的进一步发展.
深度学习、可解释性、人工智能、因果可解释、自解释
57
TN912
国家自然科学基金;湖北省自然科学基金;华中师范大学中央高校基本科研业务费项目
2021-04-28(万方平台首次上网日期,不代表论文的发表时间)
共9页
1-9