基于可解释性人工智能的软件工程技术方法综述
在信息处理与决策方面,人工智能(AI)方法相比传统方法表现出了优越的性能.但在将AI模型投入生产时,其输出结果并不能保证完全准确,因此AI技术的"不可信"逐渐成为AI大规模落地的一大阻碍.目前人工智能被逐步应用到软件工程中,其过度依赖历史数据和决策不透明等弊端愈发明显,因此对决策结果做出合理的解释至关重要.文中对可解释性人工智能的基本概念、可解释模型的评估进行了详细阐述,探讨了软件工程与可解释人工智能结合的可行性;同时调研了相关文献,对软件工程中的恶意软件检测、高风险组件检测、软件负载分配、二进制代码相似性分析这4个人工智能的典型应用方向做出分析,讨论如何通过可解释AI揭示系统输出的正确程度,进而提高系统决策的可信度;最后展望未来软件工程与可解释人工智能相结合的研究方向.
可解释人工智能、软件工程、恶意软件检测、代码相似性分析
50
TP311(计算技术、计算机技术)
2023-05-12(万方平台首次上网日期,不代表论文的发表时间)
共9页
3-11