用于估计动作-值函数
Q
π
(
s
,
a
)
Q^\pi(s,a)
Qπ(s,a)
Q
μ
(
s
,
a
)
Q^\mu(s,a)
Qμ(s,a)的策略估计方法,例如蒙特卡洛估计以及temporal-difference learning。policy改进方法根据(估计的)动作-价值函数更新policy。最常见的方法是动作-价值函数的greedy maximisation(或soft maximisation) :
μ
k
+
1
=
a
r
g
m
a
x
Q
μ
k
(
s
,
a
)
\mu^{k+1}=argmaxQ^{\mu^k}(s,a)
μk+1=argmaxQμk(s,a)
在连续动作空间里,greedy policy improvement会成为问题,需要在每一步都实现global maximisation。相反,一个简单且在计算上有吸引力的替代方案是,将policy朝着Q的梯度方向移动,而不是在全局上使Q最大化:
θ
k
+
1
=
θ
k
+
α
E
s
ρ
μ
k
[
∇
θ
Q
μ
k
(
s
,
μ
θ
(
s
)
)
]
\theta^{k+1}=\theta^{k}+\alpha \mathbb{E}_{s~\rho^{\mu^{k}}}[\nabla_\theta Q^{\mu^{k}}(s,\mu_\theta(s))]
θk+1=θk+αEs ρμk[∇θQμk(s,μθ(s))]
通过应用链式法则,我们可以看到改进的策略可以分解为动作值相对于动作的梯度,以及策略相对于策略参数的梯度。
然而,下面的理论表明,与随机政策梯度定理一样,状态分布的梯度不需要计算; 而上述直观的更新正是遵循绩效目标的梯度。
相关文章
- 12-10强化学习:关于随机策略梯度法中的损失定义
- 12-10转载:5G网络的深度强化学习:联合波束成形,功率控制和干扰协调
- 12-10强化学习PARL——5. 基于连续动作空间上方法求解RL
- 12-10李宏毅强化学习笔记【5.Imitation Learning】
- 12-10《强化学习》中的第11章:基于函数逼近的离轨策略方法
- 12-10强化学习PARL——4. 基于策略梯度方法求解RL
- 12-10强化学习-5:Model-free control
- 12-10强化学习RL总结篇(李宏毅老师2020强化学习1-5)
- 12-10强化学习的探索策略方式
- 12-10无人机辅助移动边缘计算的计算卸载优化:一种深度确定性策略梯度方法(5)——结果与分析