发表时间:2020(ICLR 2020)
文章要点:这篇文章设计了一个工具用来分析RL agent的各种能力,比如有没有记忆功能,泛化性如何,探索能力强不强,credit assignment做得怎么样,对reward scale稳不稳健等等,然后自动生成一个pdf的测试报告,让你以后写paper可以直接放在附录做appendix。设计的思路就是专门针对某个具体问题来设计一些环境(比如你想测credit assignment,就设计一个序列很长的环境,只在最后有一个reward,并且最后的reward只和你在第一个状态做的动作有关),然后你设计的算法在这上面跑,完了就生成这个算法的实验结果。有点像RL界的单元测试。目前的环境貌似还很简单,都是bandit,cartpole,deep sea这种toy environment的感觉。可能在前期设计和调整算法的时候,先在这样的简单环境上测试一下,方便调试。
总结:有点那个意思了,就是想分析算法各个方面的能力,但是环境还是太简单,测试的维度还比较少,不一定就真的能反应出问题。
疑问:无