基于遗憾探索的竞争网络强化学习智能推荐方法研究
近年来,深度强化学习在推荐系统中的应用受到了越来越多的关注.在已有研究的基础上提出了一种新的推荐模型RP-Dueling,该模型在深度强化学习Dueling-DQN的基础上加入了遗憾探索机制,使算法根据训练程度自适应地动态调整"探索-利用"占比.该算法实现了在拥有大规模状态空间的推荐系统中捕捉用户动态兴趣和对动作空间的充分探索.在多个数据集上进行测试,所提算法在MAE和RMSE两个评价指标上的最优平均结果分别达到了 0.16和0.43,比目前的最优研究结果分别降低了 0.48和0.56,实验结果表明所提模型优于目前已有的传统推荐模型和基于深度强化学习的推荐模型.
推荐系统、深度强化学习、Dueling-DQN、RP-Dueling、动态兴趣、遗憾探索
49
TP181(自动化基础理论)
2022-06-24(万方平台首次上网日期,不代表论文的发表时间)
共9页
149-157