10.15881/j.cnki.cn33-1304/g4.2023.02.005
可解释学习者模型:可信个性化学习的技术关键
基于人工智能的个性化学习技术一直是智能教育领域的研究热点,其技术挑战在于如何构建全面精准的学习者模型.在非常注重公平、伦理和责任的教育领域,人工智能的"黑箱"本质可能会阻碍人对机器决策的信任,因此构建透明和可解释的学习者模型尤为重要.通过对学习者模型特征、结构和决策结果的解释,可以让教育关益者理解其动机,接纳其决策,实现更好地人机协作.该研究将可解释人工智能的技术理念延伸至个性化学习中,通过分析其研究现状,阐明实现可解释学习者模型的必要性,并剖析现有的可解释学习者模型实例的技术原理,最后提出可解释学习者模型的基本框架,旨在将可解释性作为学习者建模的关键原则.对可解释学习者模型的研究可为个性化学习系统的设计、开发、应用到评估的整个周期实现可解释性提供借鉴及参考,驱动可信个性化学习成为可能.
学习者模型、个性化学习、可解释性、可信人工智能
41
G420(教学理论)
国家自然科学基金;上海市自然科学基金面上项目;上海市科技创新行动计划人工智能专项教育数据治理与智能教育大脑关键技术研究及典型应用项目
2023-04-23(万方平台首次上网日期,不代表论文的发表时间)
共10页
48-57