一、f 散度(f-divergence)python
KL-divergence 的坏处在于它是无界的。事实上KL-divergence 属于更普遍的 f-divergence 中的一种。编程
若是P和Q被定义成空间中的两个几率分布,则f散度被定义为:网络
一些通用的散度,如KL-divergence, Hellinger distance, 和total variation distance,都是f散度的一种特例。只是f函数的取值不一样而也。框架
在python中的实现 :dom
import numpy as np import scipy.stats p=np.asarray([0.65,0.25,0.07,0.03]) q=np.array([0.6,0.25,0.1,0.05]) def f(t): return t*np.log(t) #方法一:根据公式求解 f1=np.sum(q*f(p/q)) #方法二:调用scipy包求解 f2=scipy.stats.entropy(p, q)
二、Hellinger distance函数
1 定义学习
1.1 度量理论测试
为了从度量理论的角度定义Hellinger距离,咱们假设P和Q是两个几率测度,而且它们对于第三个几率测度λ来讲是绝对连续的,则P和Q的Hellinger距离的平方被定义以下:spa
这里的dP / dλ 和 dQ / dλ分别是P和Q的Radon–Nikodym微分。这里的定义是与λ无关的,所以当咱们用另一个几率测度替换λ时,只要P和Q关于它绝对连续,那么上式就不变。为了简单起见,咱们一般把上式改写为:.net
1.2 基于Lebesgue度量的几率理论
为了在经典的几率论框架下定义Hellinger距离,咱们一般将λ定义为Lebesgue度量,此时dP / dλ 和 dQ / dλ就变为了咱们一般所说的几率密度函数。若是咱们把上述几率密度函数分别表示为 f 和 g ,那么能够用如下的积分形式表示Hellinger距离:
上述等式能够经过展开平方项获得,注意到任何几率密度函数在其定义域上的积分为1。
根据柯西-施瓦茨不等式(Cauchy-Schwarz inequality),Hellinger距离知足以下性质:
1.3 离散几率分布
对于两个离散几率分布 P=(p1,p2,...,pn)和 Q=(q1,q2,...,qn),它们的Hellinger距离能够定义以下:
上式能够被看做两个离散几率分布平方根向量的欧式距离,以下所示:
也能够写成:
在python中的实现:
import numpy as np p=np.asarray([0.65,0.25,0.07,0.03]) q=np.array([0.6,0.25,0.1,0.05]) #方法一: h1=1/np.sqrt(2)*np.linalg.norm(np.sqrt(p)-np.sqrt(q)) #方法二: h2=np.sqrt(1-np.sum(np.sqrt(p*q)))
三、巴氏距离(Bhattacharyya Distance)
在统计中,Bhattacharyya距离测量两个离散或连续几率分布的类似性。它与衡量两个统计样品或种群之间的重叠量的Bhattacharyya系数密切相关。Bhattacharyya距离和Bhattacharyya系数以20世纪30年代曾在印度统计研究所工做的一个统计学家A. Bhattacharya命名。同时,Bhattacharyya系数能够被用来肯定两个样本被认为相对接近的,它是用来测量中的类分类的可分离性。
对于离散几率分布 p和q在同一域 X,巴氏距离被定义为:
其中BC(p,q)是Bhattacharyya系数:
对于连续几率分布,Bhattacharyya系数被定义为:
从公式能够看出,Bhattacharyya系数BC(P,Q)能够和前面的Hellinger距离联系起来,此时Hellinger距离能够被定义为:
所以,求得巴氏系数以后,就能够求得巴氏距离和Hellinger距离。
在python中的实现:
import numpy as np p=np.asarray([0.65,0.25,0.07,0.03]) q=np.array([0.6,0.25,0.1,0.05]) BC=np.sum(np.sqrt(p*q)) #Hellinger距离: h=np.sqrt(1-BC) #巴氏距离: b=-np.log(BC)
四、MMD距离(Maximum mean discrepancy)
最大均值差别(Maximum mean discrepancy),度量在再生希尔伯特空间中两个分布的距离,是一种核学习方法。两个随机变量的距离为:
其中k(.)是映射,用于把原变量映射到高维空间中。X,Y表示两种分布的样本,F表示映射函数集。
基于两个分布的样本,经过寻找在样本空间上的映射函数K,求不一样分布的样本在K上的函数值的均值,经过把两个均值做差能够获得两个分布对应于K的mean discrepancy。寻找一个K使得这个mean discrepancy有最大值,就获得了MMD。最后取MMD做为检验统计量(test statistic),从而判断两个分布是否相同。若是这个值足够小,就认为两个分布相同,不然就认为它们不相同。更加简单的理解就是:求两堆数据在高维空间中的均值的距离。
近年来,MMD愈来愈多地应用在迁移学习中。在迁移学习环境下训练集和测试集分别取样自分布p和q,两类样本集不一样但相关。咱们能够利用深度神经网络的特征变换能力,来作特征空间的变换,直到变换后的特征分布相匹配,这个过程能够是source domain一直变换直到匹配target domain。匹配的度量方式就是MMD。
在python中的实现,根据核函数不一样,公式可能不同,根据公式编程便可。
五、Wasserstein distance
Wasserstein 距离,也叫Earth Mover's Distance,推土机距离,简称EMD,用来表示两个分布的类似程度。
Wasserstein distance 衡量了把数据从分布“移动成”分布
时所须要移动的平均距离的最小值(相似于把一堆土从一个形状移动到另外一个形状所须要作的功的最小值)
EMD是2000年IJCV期刊文章《The Earth Mover's Distance as a Metric for Image Retrieval》提出的一种直方图类似度量(做者在以前的会议论文中也已经提到,不过鉴于IJCV的权威性和完整性,建议参考这篇文章)。
假设有两个工地P和Q,P工地上有m堆土,Q工地上有n个坑,如今要将P工地上的m堆土所有移动到Q工地上的n个坑中,所作的最小的功。
每堆土咱们用一个二元组来表示(p,w),p表示土堆的中心,w表示土的数量。则这两个工地可表示为:
每一个土堆中心pi到每一个土坑中心qj都会有一个距离dij,则构成了一个m*n的距离矩阵。
那么问题就是咱们但愿找到一个流(flow),固然也是个矩阵[fij],每一项fij表明从pi到qj的流动数量,从而最小化总体的代价函数:
问题描述清楚了:就是把P中的m个坑的土,用最小的代价搬到Q中的n个坑中,pi到qj的两个坑的距离由dij来表示。fij是从pi搬到qj的土的量;dij是pi位置到qj位置的代价(距离)。要最小化WORK工做量。EMD是把这个工做量归一化之后的表达,即除以对fij的求和。
EMD公式:
更多关于EMD的理解请参考:
http://blog.csdn.net/zhangping1987/article/details/25368183
在python中的实现:调用opencv
import numpy as np import cv #p、q是两个矩阵,第一列表示权值,后面三列表示直方图或数量 p=np.asarray([[0.4,100,40,22], [0.3,211,20,2], [0.2,32,190,150], [0.1,2,100,100]],np.float32) q=np.array([[0.5,0,0,0], [0.3,50,100,80], [0.2,255,255,255]],np.float32) pp=cv.fromarray(p) qq=cv.fromarray(q) emd=cv.CalcEMD2(pp,qq,cv.CV_DIST_L2)
最后计算出来的emd:
emd = 160.542770