不错的文章:LDA-math-MCMC 和 Gibbs Samplinghtml
本质上来讲,计算机只能生产符合均匀分布的采样。若是要生成其余分布的采样,就须要借助一些技巧性的方法,例如咱们在前面的文章提到过的逆变换采样、拒绝采样以及自适应的拒绝采样等等。编程
涉及到 "逆变换" [Bayes] runif: Inversion Sampling函数
例如:U1, U2是均匀分布,可获得两个高斯分布的变量X, Y。post
当p(x)的形式很复杂,或者 p(x) 是个高维的分布的时候,样本的生成就可能很困难了。 譬若有以下的状况学习
此时就须要使用一些更加复杂的随机模拟的方法来生成样本。而本节中将要重点介绍的 MCMC(Markov Chain Monte Carlo) 和 Gibbs Sampling算法就是最经常使用的一种,这两个方法在现代贝叶斯分析中被普遍使用。要了解这两个算法,咱们首先要对马氏链的平稳分布的性质有基本的认识。atom
平稳性:这个收敛行为主要是由几率转移矩阵P决定的。url
天然的,这个收敛现象并不是是咱们这个马氏链独有的,而是绝大多数马氏链的共同行为,关于马氏链的收敛咱们有以下漂亮的定理:spa
马氏链定理: 若是一个非周期马氏链具备转移几率矩阵P,且它的任何两个状态是连通的,那么 limn→∞Pnij 存在且与i无关,记 limn→∞Pnij=π(j), 咱们有3d
其中, π=[π(1),π(2),⋯,π(j),⋯],∑i=0∞πi=1
π称为马氏链的平稳分布。
这个马氏链的收敛定理很是重要,全部的 MCMC(Markov Chain Monte Carlo) 方法都是以这个定理做为理论基础的。
对于给定的几率分布p(x),咱们但愿能有便捷的方式生成它对应的样本。因为马氏链能收敛到平稳分布, 因而一个很的漂亮想法是:若是咱们能构造一个转移矩阵为P的马氏链,使得该马氏链的平稳分布刚好是p(x), 那么咱们从任何一个初始状态x0出发沿着马氏链转移, 获得一个转移序列 x0,x1,x2,⋯xn,xn+1⋯,, 若是马氏链在第n步已经收敛了,因而咱们就获得了 π(x) 的样本xn,xn+1⋯。
这个绝妙的想法在1953年被 Metropolis想到了,为了研究粒子系统的平稳性质, Metropolis 考虑了物理学中常见的波尔兹曼分布的采样问题,首次提出了基于马氏链的蒙特卡罗方法,即Metropolis算法,并在最先的计算机上编程实现。Metropolis 算法是首个普适的采样方法,并启发了一系列 MCMC方法,因此人们把它视为随机模拟技术腾飞的起点。 Metropolis的这篇论文被收录在《统计学中的重大突破》中, Metropolis算法也被遴选为二十世纪的十个最重要的算法之一。
咱们接下来介绍的MCMC 算法是 Metropolis 算法的一个改进变种,即经常使用的 Metropolis-Hastings 算法。
对于,因为接受率 α的存在(一般 α<1), 以上 Metropolis-Hastings 算法的效率不够高。可否找到一个转移矩阵Q使得接受率 α=1 呢?