条件几率机器学习
首先,理解这两个公式的前提是理解条件几率,所以先复习条件几率。学习
P(A|B)=P(AB)P(B)
理解这个能够从两个角度来看。
第一个角度:在B发生的基础上,A发生的几率。那么B发生这件事已是个基础的条件了,如今进入B已经发生的世界,看看A发生的几率是多少。那么分子就是B发生A也发生,分母就是B这个世界发生的几率了。分母若是是1,那么成了什么意思呢?人工智能
另外一个角度是看韦恩图。这里A在B发生的基础上发生的几率是A和B交集的阴影部分面积占用B的比例。事件
那么由条件几率出发,看一下变形出来的乘法公式:
P(AB)=P(A)⋅P(B|A)=P(B)⋅P(A|B)
也能够提供上面的两个角度来理解这个公式,虽然能够由上面的直接推导,可是咱们认为这是问题的思考的不一样角度,不单单是公式之间的运算。基础
一:AB同时发生的几率是在A基础上发生B的几率乘以A自己在外部发生的几率,也是B基础上发生A的几率乘以B自己在外部发生的几率.
二:AB表示的是阴影部分的面积占用A或者B的比例关系。date
仅仅从形式上说,竖线后面的要在前面多乘以一个以达到平衡。时间
全几率思考
而后再看全几率公式。分割
一个别人举的例子:
一个村子与三个小偷,小偷偷村子的事件两两互斥,求村子被偷的几率。
解释:假设这三个小偷编号为A1,A2,A2;
偷东西的事件标记为B,不偷的话标记为:B¯¯¯
那么被偷的几率就是:要么是A1,要么是A2,要么是A3,
若是是A1, 几率是什么呢?首先得是A1,其次是村子被偷,也便是两个事件都知足,因此是P(A1B)
同理,能够获得P(A2B),P(A3B)
又因这三个小偷两两互斥,表示不会同时去偷。因此被偷的几率是:
P(B)=P(A1B)+P(A2B)+P(A3B)
固然按照条件几率或者乘法公式展开:
P(B)=P(A1)P(B|A1)+P(A2)P(B|A2)+P(A3)P(B|A3) (*)
PS: P(Ai),P(B|Ai)是已知的
问:是否是有想展开为:
P(B)=P(B)P(A1|B)+P(B)P(A1|B)+P(B)P(A1|B)的冲动?
固然这个式子是没错的,可是体现不了这个问题的解法:分阶段。
(*)式子体现的是问题分为两个阶段:
1)选人,分割问题
2)计算分割的子问题的条件几率
对应的这里来即是:
1)选小偷,谁去偷
2)选定的小偷做为条件,那么他去偷的条件几率是什么
因此将问题拆解为阶段的问题即是全几率公式针对的问题。
贝叶斯公式
贝叶斯公式有意思极了,简单说就是逆全概公式。
前面是问整体看来被偷的几率是多少,如今是知道了整体被偷了这件事,几率并不知道,问你个更有意思的问题,像是侦探断案:是哪一个小偷的偷的,计算每一个小偷偷的几率。
这个特性用在机器学习,人工智能领域至关好用。
也就是求:P(Ai|B)=P(AiB)P(B)
Ai:小偷i干的;B:村子被偷了
首先是一个淳朴的条件几率的展开。
分母里出现了P(B),刚刚讨论的全概公式拿来用一用!
而P(AiB)=P(Ai)⋅P(B|Ai)
对应到上面的例子就鲜活一些:村子被偷了,求Ai偷的几率。
天然如今条件是P(B),分子变形为P(AiB)=P(Ai)⋅P(B|Ai),是由于假定就是Ai偷的,这是一个已知的几率。
分母P(B)=∑ni=1P(Ai)P(B|Ai)
20161223 update:
除了上面的思路外,一般须要注意的是分阶段意味着时间的前后。在先进行的事件的基础上进行后面的事件,就很容易计算几率:P(AB)=P(A)P(B|A)这种。
因此当咱们须要计算先验几率,即先发生的时间的几率时,老是想着用上面的这个类型来计算,且是经过条件几率进行过渡。