司法人工智能可解释性难题的法律论证分析
司法人工智能因采用神经网络算法而陷入了可解释性难题.法律论证为从社会科学视角解决这一难题提供了新思路,它启发解释者依据法律论证的程序向解释听众进行解释.法律论证的程序正当性体现了程序正义的价值.解释者在遵循公平和透明的论证规则的前提下,向解释听众明确地解释司法人工智能的决策过程并使其理解.法律论证的理论研究诞生了多样化的程序性理论和方法,而人工智能研究也充分体现了法律论证的可解释性功能.法律论证启发构建司法人工智能的可解释性论证程序,包括制定论证规则以规范论证双方(解释者和解释听众)之间的言语行为,以及通过最佳解释推论的评估方法来界定可解释性的检验标准.
法律论证、人工智能、可解释性、深度学习、论证程序
30
D925.2;F713.55;U664.1
国家重点研发计划;国家社会科学基金
2024-08-04(万方平台首次上网日期,不代表论文的发表时间)
共17页
76-92