我们与环境进行互动并且在每个时间步,获得一个动作,状态,奖励,下个状态的元组,学完之后就丢弃,在下个时间步移到下个元组
我们将每个经验元组储存在这个缓冲区中,然后从中抽取一小批元组进行学习,因此我们能够从单个元组中多次学习规律。回顾罕见的状态并充分地利用经验;另一个改善是,过往的经验中每个动作A都以某种方式影响下个状态S,意味着一系列经验元组可能关系非常紧密,如果按照顺序学习会面临受到这种联系影响的风险,而借助replay buffer我们可以随机地从缓冲区取样,不一定必须是储存元组的同一顺序,这有助于打破相互之间的联系,并最终防止动作值严重振动或发散
replay使得强化学习可以用监督学习的方式进行训练,或者我们还可以使罕见或者更重要的经验元组优先级更高
相关文章
- 01-23python学习day9笔记
- 01-23软件测试学习第一阶段day9小结
- 01-23Flask 框架 - 学习笔记 01
- 01-23学习Flask之Hello World
- 01-23Django学习day2——Django安装与环境配置
- 01-23day9学习日记
- 01-23django 开发经验
- 01-23基于react日期选择组件(单选,多选范围,自定义渲染)
- 01-23机器学习——Week3
- 01-23Codeforces Round #746 (Div. 2)