10.3969/j.issn.2095-0047.2020.02.011
从人工智能难题反思AI伦理原则
不同于以往的任何技术类型,人工智能是人类社会发展的重大历史事件,开创了一个新的时代.基于这样的背景,应对AI本身及其应用过程中产生的社会伦理问题就变成AI伦理思考的重要目标.目前AI伦理的很多思考多是从人类的权利和原则出发来构建伦理框架,如信任、安全、自主和尊严.事实上,AI伦理问题的产生很多是源自人工智能发展中的难题.人工智能发展给人类社会带来了哲学、社会和技术等三个方面的基本难题.因此,发出AI伦理的中国声音从根本上来说还是要从应对人工智能发展面临的难题入手.一旦从难题入手,就会发现不可解释性成为上述人工智能发展带来的难题.仅仅从技术上理解不可解释性已经不足以为AI伦理构建提供原则基础.通过人工智能与解释学两个路径的梳理,透明性与关联性成为支撑AI伦理的两个必要概念.
人工智能、不可解释性、透明性、关联性
11
B80(思维科学)
国家社科基金重大项目"智能革命与人类深度科技化前景的哲学研究";中科院学部项目"大数据伦理问题;其治理研究"
2020-05-21(万方平台首次上网日期,不代表论文的发表时间)
共14页
137-150