强化学习入门基础——马尔可夫决策过程(MDP)

MDP背景介绍

Random Variable

随机变量(Random Variable),一般用大写字母来表示一个随机事件。好比看下面的例子:dom

\(X\): 河水是咸的ide

\(Y\): 井水是甜的spa

很显然,\(Y\), \(Y\)两个随机事件是没有关系的。也就是说\(X\)\(Y\)之间是相互独立的。记做:code

\[X \bot Y \]

Stochastic Process

对于一类随机变量来讲,它们之间存在着某种关系。好比:对象

\(S_{t}\):表示在 \(t\) 时刻某支股票的价格,那么 \(S_{t+1}\)\(S_t\) 之间必定是有关系的,至于具体什么样的关系,这里原先不作深究,但有一点能够肯定,二者之间必定存在的一种关系。随着时间 \(t\) 的变化,能够写出下面的形式:事件

\[...S_t, S_{t+1},S_{t+2}... \]

这样就生成了一组随机变量,它们之间存在着一种至关复杂的关系,也就是说,各个随机变量之间存在着关系,即不相互独立。由此,咱们会把按照某个时间或者次序上的一组不相互独立的随机变量的这样一个总体做为研究对象。这样的话,也就引出了另外的一个概念:随机过程(Stochastic Process)。也就是说随机过程的研究对象不在是单个的随机变量,而是一组随机变量,而且这一组随机变量之间存在着一种很是紧密的关系(不相互独立)。记做:ci

\[\lbrace S_t \rbrace ^\infty_{t=1} \]

Markov Chain/Process

马尔科夫链(Markov Chain)即马尔可夫过程,是一种特殊的随机过程——具有马尔可夫性的随机过程。get

  • 马尔可夫性:(Markov Property): 仍是上面股票的例子,若是知足 \(P(S_{t+1}) \mid S_t,S_{t-1}...S_1) = P(S_{t+1}\mid S_t)\),即具有了马尔可夫性。简单来讲,\(S_{t+1} 之和S_t\)之间存在关系,和之前的时刻的没有关系,即只和“最近的状态” 有关系。
  • 现实例子:下一个时刻仅依赖于当前时刻,跟过去无关。好比:一个老师讲课,明天的讲课状态必定和今天的状态最有关系,和过去十年的状态基本就不要紧了。
  • 最主要考量:为了简化计算。\(P(S_{t+1}) \mid S_t,S_{t-1}...S_1) = P(S_{t+1}\mid S_t)\) 若是 \(S_{t+1}\)\(S_t,S_{t-1}...S_1\) 都有关系的话,计算的话就会爆炸了。

马尔可夫链/过程 即知足马尔可夫性质的随机过程,记做:it

\[P(S_{t+1}) \mid S_t,S_{t-1}...S_1) = P(S_{t+1}\mid S_t) \]

State Space Model

状态空间模型(State Space Model),常应用于 HMM,Kalman Filterm Particle Filter,关于这几种这里不作讨论。在这里就是指马尔可夫链 + 观测变量,即Markov Chain + Obervationio

如上图所示,s1-s2-s3为马尔可夫链,a1, a2, a3为观测变量,以a2为例,a2只和s2有关和s1, s3无关。状态空间模型能够说是由马尔可夫链演化而来的模型。记做:

Markov Chain + Obervation

Markov Reward Process

马尔可夫奖励过程(Markov Reward Process),即马尔可夫链+奖励,即:Markov Chain + Reward。以下图:

举个例子,好比说你买了一支股票,而后你天天就会有“收益”,固然了这里的收益是泛化的概念,收益有多是正的,也有多是负的,有可能多,有可能少,总之从今天的状态\(S_t\) 到明天的状态 \(S_{s+1}\) ,会有一个reward。记做:

Markov Chain + Reward

Markov Decision Process

马尔可夫决策过程(Markov Decision Process),即马尔可夫奖励过程的基础上加上action,即:Markov Chain + Reward + action。若是还用刚才的股票为例子的话,咱们只能天天看到股票价格的上涨或者降低,而后看到本身的收益,可是没法操做股票的价格的,只有看到份,只是一个“小散户”。这里的马尔可夫决策过程至关于政策的制定者,至关于一个操盘手,能够根据不一样的状态而指定一些政策,也就至关于 action。

在马尔可夫决策过程当中,全部的状态是咱们当作离散的,有限的集合。全部的行为也是离散有限的集合。记做:

\[{ \it S: \quad state \quad set \quad \quad \quad\quad\quad\quad\quad\quad\quad\quad S_t\\ \it A: \quad action \quad set ,\quad \quad \forall s \in S,A_{(s)} \quad\quad A_t\\ \it R: \quad reward \quad set \quad\quad\quad\quad\quad\quad\quad\quad\quad R_t, R_{(t+1)}\\ } \]

对于上述公式简单说明,\(S_t\) 用来表示某一个时刻的状态。\(A_{(s)}\) 表示在某一个状态时候的行为 ,这个行为必定是基于某个状态而言的,假设在\(t\) 时刻的状态为\(S\) 此时的action记做 \(A_t\)\(R_t 和 R_{(t+1)}\) 只是记法不一样,好比下面的例子:从\(S_t\)状态通过 \(A_t\)\(S_{t+1}\)状态,得到的奖励通常记做\(R_{(t+1)}\)。 也就是说\(S_t\)\(A_t\)\(R_{(t+1)}\) 是配对使用的。

Summary

Reference

https://www.bilibili.com/video/BV1RA411q7wt?p=1

未完待续...今天就先写这么多啦~

相关文章
相关标签/搜索