人工智能可解释性:发展与应用
近年来人工智能在诸多领域和学科中的广泛应用展现出了其卓越的性能,这种性能的提升通常需要牺牲模型的透明度来获取.然而,人工智能模型的复杂性和黑盒性质已成为其应用于高风险领域最主要的瓶颈,这严重阻碍了人工智能在特定领域的进一步应用.因此,亟需提高模型的可解释性,以证明其可靠性.为此,从机器学习模型可解释性、深度学习模型可解释性、混合模型可解释性3个方面对人工智能可解释性研究的典型模型和方法进行了介绍,进一步讲述了可解释人工智能在教学分析、司法判案、医疗诊断3个领域的应用情况,并对现有可解释方法存在的不足进行总结与分析,提出人工智能可解释性未来的发展趋势,希望进一步推动可解释性研究的发展与应用.
人工智能、机器学习、深度学习、可解释性
50
TP391(计算技术、计算机技术)
2023-09-06(万方平台首次上网日期,不代表论文的发表时间)
共7页
9-15