发表时间:2021
文章要点:这篇文章把RL看作序列建模问题(sequence modeling problem),直接用transformer来拟合整个序列
(reats states, actions, and rewards as simply a stream of data,其实还拟合了reward-to-to return),拟合完了后就直接用这个transformer来做预测,中间还用了beam search来选候选动作(beam search参见知乎链接)。然后和imitation learning,offline RL作比较,取得了相仿甚至更优的效果。注意这个模型只能处理离散化的输入,所以如果是连续空间,还要把state,action,reward都离散化。
总结:这篇文章和Decision Transformer很类似,而且都是伯克利的,感觉就是一群人干的。他想说这么做的好处就是避免了去学policy和value,就避免了RL里面遇到的很多问题。比如绕开用TD或者policy gradient方法去求,就不需要去设计复杂的约束,以及考虑估计不准等等问题了。好像说的有点道理,但是回过头来想,这不就是个模仿学习吗?你看他的实验还是只能在imitation learning ,offline RL这种上面做,其实就是因为它只有模仿或者说监督学习,没有policy improvement的过程。所以还是不能用在general RL的问题上,毕竟这个东西没法做policy improvement,就没法和环境交互产生新策略。
疑问:离散化的过程不知道原理: