在策略迭代最后咱们发现策略迭代的收敛过程比较慢,那咱们就会想有没更好更快的迭代方法,今天咱们介绍的价值迭代就是另外一种寻找最优策略的解决方案。html
价值迭代须要用到动态规划的思想,那咱们简单的回顾下动态规划的特色。算法
重复子结构:是指一个更大的问题是由一些小问题组成的,而求解不一样的大问题时可能会用上同一个子问题,子问题被重复利用,计算量也就减小了。对应蛇棋的问题,能够理解为是“从某个位置出发行走两步可以得到的最大奖励”的大问题,利用前面已经获得的子问题,这个大问题能够用伪代码表示:函数
“某个位置走两步的最大奖励”=max([这一步的奖励+从这个位置出发走一步得到的最大奖励 for 走法 in 可能的走法])优化
理解价值迭代原理的思路,能够从策略迭代的缺点出发。spa
价值函数就是经过以上2点优化思路开发出来的,具体证实读者能够本身搜索。3d
咱们继续先回顾策略迭代的公式htm
经过(2)(3)咱们获得
\[ \pi^{T+1}(s) =argmax_{a} \sum_{s_{t+1}}p(s_{t+1}|s_t,a_t)[r_{a_t}^{s_{t+1}} + \gamma * v^T_{\pi}(s_{t+1})]\;\;\;\;\;\;(4) \]blog
有由于值函数和策略时同步提高的,这时候(4)就能够替换为
\[ v^{T+1}(s) =max_{a} \sum_{s_{t+1}}p(s_{t+1}|s_t,a_t)[r_{a_t}^{s_{t+1}} + \gamma * v^T_{\pi}(s_{t+1})]\;\;\;\;\;\;(5) \]开发
公式(5)就是咱们价值迭代的推导公式。get
价值迭代的大概过程:
由此发现一个关键:二者都须要训练和更新策略函数和值函数,只是侧重点不一样。策略迭代的核心是策略,为了提高策略,值函数能够求解得准确,也能够求解得不那么准确;价值迭代的核心是价值,算法的核心部分根本没有出现与策略有关的内容,直到算法最后经过值函数求出策略。
两种方法都十分看重本身关心的那部分,能够选择忽略另外一部分,所以能够看出两个方法都比较极端。既然找到了两个极端的方法,可不能够找到两种方法的中间地带呢?固然能够,这就是本小节要介绍的广义策略迭代法。
广义策略迭代法:就是定义一个迭代算法族,其中的算法都是由策略迭代和价值迭代算法组合而成的。组合的方法有不少,能够造成的方法也有不少,而前面提到的两种算法是广义策略迭代法的一种特例。因为其中的算法不少,这些算法中颇有可能存在一些比前面两种算法速度更快的方法。