10.3969/j.issn.1004-4175.2019.04.006
可信任:人工智能伦理未来图景的一种有效描绘
可信任人工智能的构建发端于人对技术伦理旨趣的审度,可信任的存在逻辑在于人工智能创建了基于任务和基于目标信任得以产生的可能条件,并在与人类的交互之中呈现出某种关联性的信任.可信任人工智能应基于信任边界厘清的前提下,兼顾技术伦理学的通用原则和人工智能自身的技术特性,在有效监督和对技术动态的发展与应用的审慎批判中,确保人工智能向善.反观欧盟的"可信任人工智能的伦理框架",其所阐述的技术与非技术两个方面的构建路径、判别标准为可信任人工智能实现提供了有效的实践保障,但其对信任边界问题的搁置或排除则使其有效性遭遇质疑.
信任度、人工智能、伦理
N1(自然科学现状及发展)
上海市社会科学规划一般课题"数据记忆的伦理研究"2017BZX004;负责人闫宏秀
2019-08-05(万方平台首次上网日期,不代表论文的发表时间)
共6页
38-42,63