10.3969/j.issn.1673-1549.2011.04.014
改进的Q学习算法及在其RoboCup中的应用
传统的Q学习已被有效地应用于处理RoboCup中传球策略问题,但是它仅能简单地离散化连续的状态、动作空间。文章提出一种改进的Q学习算法,提出将神经网络应用于Q学习,系统只需学习部分状态—动作的Q值,即可进行Q学习,有效的提高收敛的速度。最后在RoboCup环境中验证这个算法,对传球成功率有所提高。
RoboCup、神经网络、Q学习、智能体
24
TP18(自动化基础理论)
2012-04-21(万方平台首次上网日期,不代表论文的发表时间)
共5页
417-421