人工智能司法决策的可解释性及其路径研究
人工智能在司法领域获得诸多应用.智能司法应用通常具有的不可解释性存在过程审查无法进行、加剧算法歧视等内部隐忧,以及司法系统内部关联断裂的外部风险,因而遭遇诸多质疑.究其根本,算法技术的内在机理以及法律与技术的职业障碍、智慧司法的技术瓶颈是人工智能司法决策可解释性缺失的缘由.随着世界范围内智能司法可解释性相关制度文件的出台,以及算法可解释性与准确性可兼容并存的认知革新,人工智能司法决策的解释路径与透明化势在必行.提高技术应用深度、借鉴已有的技术解释路径针对性研发智慧司法应用的解释方法,能够促进人工智能司法决策可解释性的有效提升,助力司法公正.
人工智能司法决策、可解释性、算法歧视、公正司法
D920.5(中国法律)
2022-09-22(万方平台首次上网日期,不代表论文的发表时间)
共7页
130-136