10.13811/j.cnki.eer.2021.08.002
人工智能教育应用的偏见风险分析与治理
在倡导教育包容与公平的时代背景下,教育面临着以个性化、自适应为特征的智能技术所带来的偏见风险.在智能教育产品的研发过程中,潜在的设计偏见、数据偏见和算法偏见会使教育领域面临多重风险,如教育活动的公平性受阻、教育系统内部的歧视加剧、教育中的多元化特质消解和学生思想窄化.学校、科技公司、监管机构等组织应当携手共进,提前侦测偏见风险并加强治理,包括:提升研发团队的教育理解和多元眼光,让师生成为产品的合作创造者,加强偏见检测和道德评估过程,建立可解释、可审查、可纠正的系统优化机制,开展面向师生的人工智能素养教育,确立人工智能在教育中的应用范围和伦理规范,从而争取实现人机良性互动,打造多元包容的智能教育环境.
人工智能教育应用;人工智能伦理;教育包容;算法偏见;数据偏见
42
G434(电化教育)
教育部—中国移动科研基金2018年度项目"中小学编程教育与人工智能工程素养研究"项目编号:MCM20180611
2021-08-09(万方平台首次上网日期,不代表论文的发表时间)
共7页
12-18