人工智能的可解释性与AI的法律责任问题研究
人工智能(AI)作为类人类智能,无论我们是否赋予其主体资格,在解决其法律责任问题时,都必须对其行为进行解释,为此,探讨人工智能的法律责任问题,应该基于人工智能行为的可解释性的全新路径来推进,而不是纠缠于当下学界关于人工智能主体地位与法律责任的各种主体论与责任理论.人工智能的可解释性,亦即解释人工智能如何在大数据的基础上进行算法决策.然而,在AI领域,虽然以深度学习为代表的人工智能技术已取得了令人瞩目的 成就,但如何确保以非技术性的方式向最终用户和其他利益相关方解释算法决策以及任何驱动这些决策的数据,仍是一个无法得到解决的难题,人工智能"黑箱"释明难题决定了人工智能行为的不可解释性.法律责任的本质是答责,不具有可解释性的人工智能不能自我答责,因此其无法承担法律责任;法律责任的目的 是预防,不具有可解释性的人工智能无法实现法律责任的预防目的 .人工智能法学研究的下一个前沿问题,是人工智能的可解释性问题.
人工智能、可解释性、法律责任、自我答责、责任预防
28
国家社会科学基金21&ZD209
2022-03-10(万方平台首次上网日期,不代表论文的发表时间)
共14页
78-91