概率近似正确的强化学习算法解决连续状态空间控制问题
在线学习时长是强化学习算法的一个重要指标.传统在线强化学习算法如Q学习、状态-动作-奖励-状态-动作(state-action-reward-state-action,SARSA)等算法不能从理论分析角度给出定量的在线学习时长上界.本文引入概率近似正确(probably approximately correct,PAC)原理,为连续时间确定性系统设计基于数据的在线强化学习算法.这类算法有效记录在线数据,同时考虑强化学习算法对状态空间探索的需求,能够在有限在线学习时间内输出近似最优的控制.我们提出算法的两种实现方式,分别使用状态离散化和kd树(k-dimensional树)技术,存储数据和计算在线策略.最后我们将提出的两个算法应用在双连杆机械臂运动控制上,观察算法的效果并进行比较.
强化学习、概率近似正确、kd树、双连杆机械臂
33
TP273(自动化技术及设备)
国家自然科学基金项目61273136,61573353,61533017,61603382;复杂系统管理与控制国家重点实验室优秀人才基金项目资助.Supported by National Natural Science Foundation of China61273136,61573353,61533017,61603382;Early Career Development Award of SKLMCCS
2017-05-08(万方平台首次上网日期,不代表论文的发表时间)
共11页
1603-1613