联系方式:860122112@qq.com

传统的DQN只适用于离散动作控制,而DDPGNAF是深度强化学习在连续动作控制上的拓展。

一、存在的问题

DQN是一个面向离散控制的算法,即输出的动作是离散的。对应到Atari 游戏中,只需要几个离散的键盘或手柄按键进行控制。

然而在实际中,控制问题则是连续的,高维的,比如一个具有6个关节的机械臂,每个关节的角度输出是连续值,假设范围是0°~360°,归一化后为(-1,1)。若把每个关节角取值范围离散化,比如精度到0.01,则一个关节有200个取值,那么6个关节共有 2006 <script type="math/tex" id="MathJax-Element-1">200^6</script>个取值,若进一步提升这个精度,取值的数量将成倍增加,而且动作的数量将随着自由度的增加呈指数型增长。所以根本无法用传统的DQN方法解决。

解决方法
使用Policy-Based方法,通过各种策略梯度方法直接优化用深度神经网络参数化表示的策略,即网络的输出就是动作。

二、DDPG

深度确定性策略梯度(Deep Deterministic Policy Gradient, DDPG)算法是Lillicrap 等人利用 DQN 扩展 Q 学习算法的思路对确定性策略梯度(Deterministic Policy Gradient, DPG)方法进行改造,提出的一种基于行动者-评论家(Actor-Critic,AC)框架的算法,该算法可用于解决连续动作空间上的 DRL 问题。

这里写图片描述

随机性策略和确定性策略:

  • 随机性策略,策略输出的是动作的概率,比如上一篇A3C博客提到的连续动作控制,使用的是一个正态分布对动作进行采样选择,即每个动作都有概率被选到;优点,将探索和改进集成到一个策略中;缺点,需要大量训练数据。
  • 确定性策略,策略输出即是动作;优点,需要采样的数据少,算法效率高;缺点,无法探索环境。

在真实场景下机器人的操控任务中,在线收集并利用大量训练数据会产生十分昂贵的代价, 并且动作连续的特性使得在线抽取批量轨迹的方式无法达到令人满意的覆盖面, 这些问题会导致局部最优解的出现。

然而使用确定性策略无法探索环境,如何解决?
利用off-policy学习方法。off-policy是指采样的策略和改进的策略不是同一个策略。类似于DQN,使用随机策略产生样本存放到经验回放机制中,训练时随机抽取样本,改进的是当前的确定性策略。整个确定性策略的学习框架采用AC的方法。

DDPG公式
在DDPG中,分别使用参数为 θμ <script type="math/tex" id="MathJax-Element-58">\theta^\mu</script> 和 θQ <script type="math/tex" id="MathJax-Element-59">\theta^Q</script> 的深度神经网络来表示确定性策略 a=π(s|θμ) <script type="math/tex" id="MathJax-Element-60">a=\pi(s|\theta^\mu)</script> 和动作值函数 Q(s,a|θQ) <script type="math/tex" id="MathJax-Element-61">Q(s,a|\theta^Q)</script>。其中,策略网络用来更新策略,对应 AC 框架中的行动者;值网络用来逼近状态动作对的值函数, 并提供梯度信息, 对应 AC 框架中的评论家。目标函数被定义为带折扣的总回报:

J(θμ)=Eθμ[r1+γr2+γ2r3+]
<script type="math/tex; mode=display" id="MathJax-Element-62">J(\theta^\mu)=E_{\theta^\mu}[r_1+\gamma r_2 + \gamma^2 r_3+\cdots]</script>
通过随机梯度法对目标函数进行端对端的优化( 注意,目标是提高总回报 J <script type="math/tex" id="MathJax-Element-63">J</script>)。Silver等人证明了目标函数关于 θμ<script type="math/tex" id="MathJax-Element-64">\theta^\mu</script> 的梯度等价于Q值函数关于 θμ <script type="math/tex" id="MathJax-Element-65">\theta^\mu</script> 的期望梯度:
J(θμ)θμ=Es[Q(s,a|θQ)θμ]
<script type="math/tex; mode=display" id="MathJax-Element-66">\frac{\partial J(\theta^\mu)}{\partial \theta^\mu} = E_s[\frac{\partial Q(s,a|\theta^Q)}{\partial \theta^\mu} ]</script>根据确定性策略 a=π(s|θμ) <script type="math/tex" id="MathJax-Element-67">a=\pi(s|\theta^\mu)</script> 可得:
J(θμ)θμ=Es[Q(s,a|θQ)aπ(s|θμ)θμ]
<script type="math/tex; mode=display" id="MathJax-Element-68">\frac{\partial J(\theta^\mu)}{\partial \theta^\mu} = E_s[\frac{\partial Q(s,a|\theta^Q)}{\partial a} \frac{\partial \pi(s|\theta^\mu)}{\partial\theta^\mu} ]</script>沿着 提升 Q 值的方向更新策略网络的参数。

通过 DQN中更新值网络的方法来更新评论家网络,梯度信息为:

L(θQ)θQ=Es,a,r,sD[(TargetQQ(s,a|θQ))Q(s,a|θQ)θQ]
<script type="math/tex; mode=display" id="MathJax-Element-69">\frac{\partial L(\theta^Q)}{\partial \theta^Q}=E_{s,a,r,s'\sim D}[(TargetQ - Q(s,a|\theta^Q))\frac{\partial Q(s,a|\theta^Q)}{\partial \theta^Q}]</script>
TargetQ=r+γQ(s,π(s|θμ)|θQ)
<script type="math/tex; mode=display" id="MathJax-Element-70">TargetQ=r+\gamma Q'(s',\pi(s'|\theta^{\mu'})|\theta^{Q'})</script>

其中 θμ <script type="math/tex" id="MathJax-Element-71">\theta^{\mu'}</script> 和 θQ <script type="math/tex" id="MathJax-Element-72">\theta^{Q'}</script> 分别表示目标策略网络和目标值网络的参数,用梯度下降方式更新值网络。

算法伪代码
这里写图片描述

区别于DQN,DQN每隔一定的迭代次数后,将MainNet参数复制给TargetNet;而DDPG中TargetNet的参数每次迭代都以微小量逼近MainNet的参数。

网络训练流程图
这里写图片描述

实验表明, DDPG 不仅在一系列连续动作空间的任务中表现稳定,而且求得最优解所需要的时间步也远远少于 DQN。与基于值函数的 DRL 方法相比, 基于 AC 框架的深度策略梯度方法优化策略效率更高、 求解速度更快。

DDPG缺点:
不适用于随机环境的场景

三、NAF

Shixiang等人的论文中共有两个算法,第一个是NAF,第二个是基于模型(Model-based)加速的NAF。这里只介绍简单的NAF。

DDPG的问题:
需要训练两个网络即策略网络和值网络

解决方法
归一化优势函数(normalized advantage functions ,NAF)只需要训练一个网络。

NAF公式:
NAF的目的之一是要将深度神经网络Q-Learning应用于连续动作空间,而要用Q-Learing进行训练必须要知道目标Q值(TargetQ)。

和前面博客Dueling-DDQN介绍的dueling net思想类似,动作值函数可以表示为状态值函数 V <script type="math/tex" id="MathJax-Element-17">V</script> 与动作价值函数 A<script type="math/tex" id="MathJax-Element-18">A</script> 的和,即

Q(x,u|θQ)=V(x|θV)+A(x,u|θA)
<script type="math/tex; mode=display" id="MathJax-Element-19">Q(x,u|\theta^Q)=V(x|\theta^V)+A(x,u|\theta^A)</script>
其中 x <script type="math/tex" id="MathJax-Element-20">x</script> 表示状态State,u<script type="math/tex" id="MathJax-Element-21">u</script> 表示动作Action, θ <script type="math/tex" id="MathJax-Element-22">\theta</script> 是对应的网络参数, A(x,u|θA) <script type="math/tex" id="MathJax-Element-23">A(x,u|\theta^A)</script> 可以看成动作 u <script type="math/tex" id="MathJax-Element-24">u</script> 在状态 x<script type="math/tex" id="MathJax-Element-25">x</script> 下的优势。我们的目的就是要使策略网络输出的动作 u <script type="math/tex" id="MathJax-Element-26">u</script> 所对应的Q值最大。
如果能使 x,uA(x,u|θA)0<script type="math/tex" id="MathJax-Element-27">\forall_{x,u}A(x,u|\theta^A)\leqslant0</script>,则 x,uQ(x,u|θQ)V(x|θV) <script type="math/tex" id="MathJax-Element-28">\forall_{x,u}Q(x,u|\theta^Q)\leqslant V(x|\theta^V)</script>。在状态 x <script type="math/tex" id="MathJax-Element-29">x</script> 下最优的动作 u<script type="math/tex" id="MathJax-Element-30">u</script> 的动作优势函数 A(x,u|θA)=0 <script type="math/tex" id="MathJax-Element-31">A(x,u|\theta^A)=0</script>,所以对应最优动作的值函数 Q(x,u|θQ)=V(x|θV) <script type="math/tex" id="MathJax-Element-32">Q(x,u|\theta^Q)=V(x|\theta^V)</script>,这样就很容易构造出TargetQ值了。具体的做法是令
A(x,u|θA)=12(uμ(x|θμ))TP(x|θP)(uμ(x|θμ))
<script type="math/tex; mode=display" id="MathJax-Element-33">A(x,u|\theta^A)=-\frac{1}{2}(u-\mu(x|\theta^\mu))^T P(x|\theta^P)(u-\mu(x|\theta^\mu))</script>
P(x|θP) <script type="math/tex" id="MathJax-Element-34">P(x|\theta^P)</script>是一个关于状态的正定矩阵,因为正定矩阵可以进行楚列斯基(Cholesky)分解,即
P(x|θP)=L(x|θP)L(x|θP)T
<script type="math/tex; mode=display" id="MathJax-Element-35">P(x|\theta^P)=L(x|\theta^P)L(x|\theta^P)^T</script> L(x|θP) <script type="math/tex" id="MathJax-Element-36">L(x|\theta^P)</script>是对角线都是正数的下三角矩阵,且是唯一的。

最终算法的Loss Function为

L(θQ)=E[(TargetQQ(xt,ut|θQ))2]
<script type="math/tex; mode=display" id="MathJax-Element-37">L(\theta^Q)=E[(TargetQ-Q(x_t,u_t|\theta^Q))^2]</script>
TargetQ=rt+γV(xt+1|θQ)
<script type="math/tex; mode=display" id="MathJax-Element-38">TargetQ=r_t+\gamma V'(x_{t+1}|\theta^{Q'})</script>
Q(xt,ut|θQ)=V(xt|θV)+A(xt,ut|θA)
<script type="math/tex; mode=display" id="MathJax-Element-39">Q(x_t,u_t|\theta^Q)=V(x_t|\theta^V)+A(x_t,u_t|\theta^A)</script>

使用DQN的训练方式训练。

算法伪代码
这里写图片描述

网络训练流程图
这里写图片描述

网络输出的是下三角矩阵 L <script type="math/tex" id="MathJax-Element-40">L</script>,动作 u<script type="math/tex" id="MathJax-Element-41">u</script>,状态值函数 V <script type="math/tex" id="MathJax-Element-42"></script>

异步NAF训练机械臂
Shixiang等人还使用了异步NAF训练机械臂开门
这里写图片描述

该算法具有一个训练线程(trainer thread)和多个收集样本线程(collector thread),collector thread将收集到的样本存于经验回放机制中,供trainer thread训练。

这个异步NAF算法和A3C算法的不同之处在于:
异步NAF是off-policy,collector thread不提供梯度信息;
A3C是on-policy,每个线程agent都提供梯度信息。

参考文献
[1]Continuous control with deep reinforcement learning
[2]Continuous Deep Q-Learning with Model-based Acceleration
[3]Deterministic Policy Gradient Algorithm
[4]Deep Reinforcement Learning for Robotic Manipulation with Asynchronous Off-Policy Updates
[5]深度强化学习综述_刘全等


Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐