强化学习&基于值2 | 经验回放

我们与环境进行互动并且在每个时间步,获得一个动作,状态,奖励,下个状态的元组,学完之后就丢弃,在下个时间步移到下个元组
强化学习&基于值2 | 经验回放
我们将每个经验元组储存在这个缓冲区中,然后从中抽取一小批元组进行学习,因此我们能够从单个元组中多次学习规律。回顾罕见的状态并充分地利用经验;另一个改善是,过往的经验中每个动作A都以某种方式影响下个状态S,意味着一系列经验元组可能关系非常紧密,如果按照顺序学习会面临受到这种联系影响的风险,而借助replay buffer我们可以随机地从缓冲区取样,不一定必须是储存元组的同一顺序,这有助于打破相互之间的联系,并最终防止动作值严重振动或发散
强化学习&基于值2 | 经验回放
replay使得强化学习可以用监督学习的方式进行训练,或者我们还可以使罕见或者更重要的经验元组优先级更高
强化学习&基于值2 | 经验回放

上一篇:实验5:开源控制器实践——POX


下一篇:Ubuntu19.10添加root帐号