人工智能伦理的程序保障
人工智能的风险治理需要伦理先行与法律保障.注重伦理先行,是为了应对人工智能在技术研发和社会应用时引发的道德规范不确定性问题.一般而言,人工智能伦理是化解决策风险的意义脉络以及对失范现象进行意义处理的沟通理论,为此需要首先提供促进风险沟通的程序和选择机制.然而,当下的人工智能风险治理在相当程度上混淆了技术研发伦理和社会应用伦理,且仅聚焦实体性伦理原则而忽视程序性伦理规则,导致了高标道德而无法在法律、政策、监控等层面得到具体落实的困境.只有注重程序性伦理规则、法律程序以及技术性正当程序,才能实现人工智能风险治理的多元价值共存与敏捷治理目标.因此,基于正当程序原则的人工智能风险治理机制,应当依据人工智能的不同伦理类型,分别以法律程序和算法程序设置狭义的技术性正当程序、算法论证程序和嵌入式正当程序来对不同阶段的风险决策沟通过程进行保障.
人工智能伦理、风险治理、法律程序、正当程序
D925.1;D630.1;F259.23
2023-11-08(万方平台首次上网日期,不代表论文的发表时间)
共20页
57-76