目标检测模型的决策依据与可信度分析
目标检测模型已经在很多领域得到广泛应用,但是,作为一种机器学习模型,对人类来说仍然是一个黑盒.对模型进行解释有助于我们更好地理解模型,并判断其可信度.针对目标检测模型的可解释性问题,提出将其输出改造为关注每一类物体存在性概率的具体回归问题,进而提出分析目标检测模型决策依据与可信度的方法.由于原有图像分割方法的泛用性较差,解释目标检测模型时,LIME所生成解释的忠诚度较低、有效特征数量较少.提出使用DeepLab代替LIME的图像分割方法,以对其进行改进.改进后的方法可以适用于解释目标检测模型.实验的对比结果证明了所提出改进方法在解释目标检测模型时的优越性.
可解释性、可信度分析、目标检测、机器学习、深度学习
33
TP18(自动化基础理论)
国家自然科学基金61751210
2022-09-15(万方平台首次上网日期,不代表论文的发表时间)
共16页
3391-3406