生成式人工智能责任规制的法律问题研究
生成式人工智能的发展需要法律予以及时规制,以实现技术的发展可受控制.现行人工智能的责任承担规制以算法"可解释"为核心要求,通过算法透明性、隐私保护以及分类分级监管等配套机制构筑了相应治理范式.但在生成式人工智能规模化应用以后,技术的底层逻辑发生了根本性变化,现行架构无法有效调和生产力水平快速提升引致的责任承担等新问题,以"可解释"为中心的责任承担机制需要逐步调整为以"可控制"为中心的人工智能责任规制范式.结合技术能力发展的规律与现实要求,从鼓励与发展生成式人工智能的基点出发,需要基于经济利益与责任承担机制的再考量,重构生成式人工智能的责任规制的核心原则、方式与体系,以期实现规则优势引领发展优势,确保发展"可控制"的人工智能.
生成式人工智能、ChatGPT、算法治理、算法解释、数字权力
44
D922.291.91;TP391;F124.3
国家社会科学基金22FFXB026
2023-09-07(万方平台首次上网日期,不代表论文的发表时间)
共12页
119-130