期刊专题

人工智能的可解释性与AI的法律责任问题研究

引用
人工智能(AI)作为类人类智能,无论我们是否赋予其主体资格,在解决其法律责任问题时,都必须对其行为进行解释,为此,探讨人工智能的法律责任问题,应该基于人工智能行为的可解释性的全新路径来推进,而不是纠缠于当下学界关于人工智能主体地位与法律责任的各种主体论与责任理论.人工智能的可解释性,亦即解释人工智能如何在大数据的基础上进行算法决策.然而,在AI领域,虽然以深度学习为代表的人工智能技术已取得了令人瞩目的 成就,但如何确保以非技术性的方式向最终用户和其他利益相关方解释算法决策以及任何驱动这些决策的数据,仍是一个无法得到解决的难题,人工智能"黑箱"释明难题决定了人工智能行为的不可解释性.法律责任的本质是答责,不具有可解释性的人工智能不能自我答责,因此其无法承担法律责任;法律责任的目的 是预防,不具有可解释性的人工智能无法实现法律责任的预防目的 .人工智能法学研究的下一个前沿问题,是人工智能的可解释性问题.

人工智能、可解释性、法律责任、自我答责、责任预防

28

国家社会科学基金21&ZD209

2022-03-10(万方平台首次上网日期,不代表论文的发表时间)

共14页

78-91

相关文献
评论
暂无封面信息
查看本期封面目录

法制与社会发展

1006-6128

22-1243/D

28

2022,28(1)

相关作者
相关机构

专业内容知识聚合服务平台

国家重点研发计划“现代服务业共性关键技术研发及应用示范”重点专项“4.8专业内容知识聚合服务技术研发与创新服务示范”

国家重点研发计划资助 课题编号:2019YFB1406304
National Key R&D Program of China Grant No. 2019YFB1406304

©天津万方数据有限公司 津ICP备20003920号-1

信息网络传播视听节目许可证 许可证号:0108284

网络出版服务许可证:(总)网出证(京)字096号

违法和不良信息举报电话:4000115888    举报邮箱:problem@wanfangdata.com.cn

举报专区:https://www.12377.cn/

客服邮箱:op@wanfangdata.com.cn