在强化学习(二)马尔科夫决策过程(MDP)中,咱们讨论了用马尔科夫假设来简化强化学习模型的复杂度,这一篇咱们在马尔科夫假设和贝尔曼方程的基础上讨论使用动态规划(Dynamic Programming, DP)来求解强化学习的问题。html
动态规划这一篇对应Sutton书的第四章和UCL强化学习课程的第三讲。算法
对于动态规划,相信你们都很熟悉,不少使用算法的地方都会用到。就算是机器学习相关的算法,使用动态规划的也不少,好比以前讲到的隐马尔科夫模型HMM(二)前向后向算法评估观察序列几率,隐马尔科夫模型HMM(四)维特比算法解码隐藏状态序列, 都是动态规划的典型例子。机器学习
动态规划的关键点有两个:一是问题的最优解能够由若干小问题的最优解构成,即经过寻找子问题的最优解来获得问题的最优解。第二是能够找到子问题状态之间的递推关系,经过较小的子问题状态递推出较大的子问题的状态。而强化学习的问题刚好是知足这两个条件的。异步
咱们先看看强化学习的两个基本问题。函数
第一个问题是预测,即给定强化学习的6个要素:状态集$S$, 动做集$A$, 模型状态转化几率矩阵$P$, 即时奖励$R$,衰减因子$\gamma$, 给定策略$\pi$, 求解该策略的状态价值函数$v(\pi)$post
第二个问题是控制,也就是求解最优的价值函数和策略。给定强化学习的5个要素:状态集$S$, 动做集$A$, 模型状态转化几率矩阵$P$, 即时奖励$R$,衰减因子$\gamma$, 求解最优的状态价值函数$v_{*}$和最优策略$\pi_{*}$ 学习
那么如何找到动态规划和强化学习这两个问题的关系呢?优化
回忆一下上一篇强化学习(二)马尔科夫决策过程(MDP)中状态价值函数的贝尔曼方程:$$v_{\pi}(s) = \sum\limits_{a \in A} \pi(a|s)(R_s^a + \gamma \sum\limits_{s' \in S}P_{ss'}^av_{\pi}(s'))$$lua
从这个式子咱们能够看出,咱们能够定义出子问题求解每一个状态的状态价值函数,同时这个式子又是一个递推的式子, 意味着利用它,咱们可使用上一个迭代周期内的状态价值来计算更新当前迭代周期某状态$s$的状态价值。可见,使用动态规划来求解强化学习问题是比较天然的。htm
首先,咱们来看如何使用动态规划来求解强化学习的预测问题,即求解给定策略的状态价值函数的问题。这个问题的求解过程咱们一般叫作策略评估(Policy Evaluation)。
策略评估的基本思路是从任意一个状态价值函数开始,依据给定的策略,结合贝尔曼指望方程、状态转移几率和奖励同步迭代更新状态价值函数,直至其收敛,获得该策略下最终的状态价值函数。
假设咱们在第$k$轮迭代已经计算出了全部的状态的状态价值,那么在第$k+1$轮咱们能够利用第$k$轮计算出的状态价值计算出第$k+1$轮的状态价值。这是经过贝尔曼方程来完成的,即:$$v_{k+1}(s) = \sum\limits_{a \in A} \pi(a|s)(R_s^a + \gamma \sum\limits_{s' \in S}P_{ss'}^av_{k}(s'))$$
和上一节的式子惟一的区别是因为咱们的策略$\pi$已经给定,咱们再也不写出,对应加上了迭代轮数的下标。咱们每一轮能够对计算获得的新的状态价值函数再次进行迭代,直至状态价值的值改变很小(收敛),那么咱们就得出了预测问题的解,即给定策略的状态价值函数$v(\pi)$。
下面咱们用一个具体的例子来讲明策略评估的过程。
这是一个经典的Grid World的例子。咱们有一个4x4的16宫格。只有左上和右下的格子是终止格子。该位置的价值固定为0,个体若是到达了该2个格子,则中止移动,此后每轮奖励都是0。个体在16宫格其余格的每次移动,获得的即时奖励$R$都是-1。注意个体每次只能移动一个格子,且只能上下左右4种移动选择,不能斜着走, 若是在边界格往外走,则会直接移动回到以前的边界格。衰减因子咱们定义为$\gamma=1$。因为这里每次移动,下一格都是固定的,所以全部可行的的状态转化几率$P=1$。这里给定的策略是随机策略,即每一个格子里有25%的几率向周围的4个格子移动。
首先咱们初始化全部格子的状态价值为0,如上图$k=0$的时候。如今咱们开始策略迭代了。因为终止格子的价值固定为0,咱们能够不将其加入迭代过程。在$k=1$的时候,咱们利用上面的贝尔曼方程先计算第二行第一个格子的价值:$$v_1^{(21)} = \frac{1}{4}[(-1+0) +(-1+0)+(-1+0)+(-1+0)] = -1$$
第二行第二个格子的价值是:$$v_1^{(22)} = \frac{1}{4}[(-1+0) +(-1+0)+(-1+0)+(-1+0)] = -1$$
其余的格子都是相似的,第一轮的状态价值迭代的结果如上图$k=1$的时候。如今咱们第一轮迭代完了。开始动态规划迭代第二轮了。仍是看第二行第一个格子的价值:$$v_2^{(21)} = \frac{1}{4}[(-1+0) +(-1-1)+(-1-1)+(-1-1)] = -1.75$$
第二行第二个格子的价值是:$$v_2^{(22)} = \frac{1}{4}[(-1-1) +(-1-1)+(-1-1)+(-1-1)] = -2$$
最终获得的结果是上图$k=2$的时候。第三轮的迭代以下:
$$v_3^{(21)} = \frac{1}{4}[(-1-1.7) +(-1-2)+(-1-2)+(-1+0)] = -2.425$$$$v_3^{(22)} = \frac{1}{4}[(-1-1.7) +(-1-1.7)+(-1-2)+(-1-2)] = -2.85$$
最终获得的结果是上图$k=3$的时候。就这样一直迭代下去,直到每一个格子的策略价值改变很小为止。这时咱们就获得了全部格子的基于随机策略的状态价值。
能够看到,动态规划的策略评估计算过程并不复杂,可是若是咱们的问题是一个很是复杂的模型的话,这个计算量仍是很是大的。
上面咱们讲了使用策略评估求解预测问题,如今咱们再来看如何使用动态规划求解强化学习的第二个问题控制问题。一种可行的方法就是根据咱们以前基于任意一个给定策略评估获得的状态价值来及时调整咱们的动做策略,这个方法咱们叫作策略迭代(Policy Iteration)。
如何调整呢?最简单的方法就是贪婪法。考虑一种以下的贪婪策略:个体在某个状态下选择的行为是其可以到达后续全部可能的状态中状态价值最大的那个状态。仍是以第三节的例子为例,如上面的图右边。当咱们计算出最终的状态价值后,咱们发现,第二行第一个格子周围的价值分别是0,-18,-20,此时咱们用贪婪法,则咱们调整行动策略为向状态价值为0的方向移动,而不是随机移动。也就是图中箭头向上。而此时第二行第二个格子周围的价值分别是-14,-14,-20, -20。那么咱们整行动策略为向状态价值为-14的方向移动,也就是图中的向左向上。
若是用一副图来表示策略迭代的过程的话,以下图:
在策略迭代过程当中,咱们循环进行两部分工做,第一步是使用当前策略$\pi_{*}$评估计算当前策略的最终状态价值$v_{*}$,第二步是根据状态价值$v_{*}$根据必定的方法(好比贪婪法)更新策略$\pi_{*}$,接着回到第一步,一直迭代下去,最终获得收敛的策略$\pi_{*}$和状态价值$v_{*}$。
观察第三节的图发现,咱们若是用贪婪法调整动做策略,那么当$k=3$的时候,咱们就已经获得了最优的动做策略。而不用一直迭代到状态价值收敛才去调整策略。那么此时咱们的策略迭代优化为价值迭代。
仍是以第三节的例子为例,如上面的图右边。好比当$k=2$时,第二行第一个格子周围的价值分别是0,-2,-2,此时咱们用贪婪法,则咱们调整行动策略为向状态价值为0的方向移动,而不是随机移动。也就是图中箭头向上。而此时第二行第二个格子周围的价值分别是-1.7,-1.7,-2, -2。那么咱们整行动策略为向状态价值为-1.7的方向移动,也就是图中的向左向上。
和上一节相比,咱们没有等到状态价值收敛才调整策略,而是随着状态价值的迭代及时调整策略, 这样能够大大减小迭代次数。此时咱们的状态价值的更新方法也和策略迭代不一样。如今的贝尔曼方程迭代式子以下:$$v_{k+1}(s) = \max_{a \in A}(R_s^a + \gamma \sum\limits_{s' \in S}P_{ss'}^av_{k}(s'))$$
可见因为策略调整,咱们如今价值每次更新倾向于贪婪法选择的最优策略对应的后续状态价值,这样收敛更快。
在前几节咱们讲的都是同步动态规划算法,即每轮迭代我会计算出全部的状态价值并保存起来,在下一轮中,咱们使用这些保存起来的状态价值来计算新一轮的状态价值。
另外一种动态规划求解是异步动态规划算法,在这些算法里,每一次迭代并不对全部状态的价值进行更新,而是依据必定的原则有选择性的更新部分状态的价值,这类算法有本身的一些独特优点,固然有额会有一些额外的代价。
常见的异步动态规划算法有三种:
第一种是原位动态规划 (in-place dynamic programming), 此时咱们不会另外保存一份上一轮计算出的状态价值。而是即时计算即时更新。这样能够减小保存的状态价值的数量,节约内存。代价是收敛速度可能稍慢。
第二种是优先级动态规划 (prioritised sweeping):该算法对每个状态进行优先级分级,优先级越高的状态其状态价值优先获得更新。一般使用贝尔曼偏差来评估状态的优先级,贝尔曼偏差即新状态价值与前次计算获得的状态价值差的绝对值。这样能够加快收敛速度,代价是须要维护一个优先级队列。
第三种是实时动态规划 (real-time dynamic programming):实时动态规划直接使用个体与环境交互产生的实际经从来更新状态价值,对于那些个体实际经历过的状态进行价值更新。这样个体常常访问过的状态将获得较高频次的价值更新,而与个体关系不密切、个体较少访问到的状态其价值获得更新的机会就较少。收敛速度可能稍慢。
动态规划是咱们讲到的第一个系统求解强化学习预测和控制问题的方法。它的算法思路比较简单,主要就是利用贝尔曼方程来迭代更新状态价值,用贪婪法之类的方法迭代更新最优策略。
动态规划算法使用全宽度(full-width)的回溯机制来进行状态价值的更新,也就是说,不管是同步仍是异步动态规划,在每一次回溯更新某一个状态的价值时,都要回溯到该状态的全部可能的后续状态,并利用贝尔曼方程更新该状态的价值。这种全宽度的价值更新方式对于状态数较少的强化学习问题仍是比较有效的,可是当问题规模很大的时候,动态规划算法将会因贝尔曼维度灾难而没法使用。所以咱们还须要寻找其余的针对复杂问题的强化学习问题求解方法。
下一篇咱们讨论用蒙特卡罗方法来求解强化学习预测和控制问题的方法。
(欢迎转载,转载请注明出处。欢迎沟通交流: liujianping-ok@163.com)