这里是普通文章模块栏目内容页
PARL源码走读——使用策略梯度算法求解迷宫寻宝问题

  前不久,百度发布了基于PaddlePaddle的深度强化学习框架PARL。git传送门

  作为一个强化学习小白,本人怀着学习的心态,安装并运行了PARL里的quick-start。不体验不知道,一体验吓一跳,不愧是 NeurIPS 2018 冠军团队的杰作,代码可读性良好,函数功能非常清晰,模块之间耦合度低、内聚性强。不仅仅适合零基础的小白快速搭建DRL环境,也十分适合科研人员复现论文结果。

  废话不多说,我们从强化学习最经典的例子——迷宫寻宝(俗称格子世界GridWorld)开始,用策略梯度(Policy-Gradient)算法体验一把PARL。

  模拟环境

  强化学习适合解决智能决策问题 。如图,给定如下迷宫,黑色方格代表墙,黄色代表宝藏,红色代表机器人;一开始,机器人处于任意一个位置,由于走一步要耗电,撞墙后需要修理,所以我们需要训练一个模型,来告诉机器人如何避免撞墙、并给出寻宝的最优路径。

PARL源码走读——使用策略梯度算法求解迷宫寻宝问题

  接下来,定义强化学习环境所需的各种要素:状态state、动作action、奖励reward等等。

  state就是机器人所处的位置,用(行、列)这个元组来表示,同时可以表示墙:

收藏
0
有帮助
0
没帮助
0